文章

斯图尔特·罗素:真正危险的不是超级智能,而是“确定无疑”的目标

斯图尔特·罗素:真正危险的不是超级智能,而是“确定无疑”的目标

在这段与Lex Fridman的对话中,AI安全奠基人之一斯图尔特·罗素系统阐述了“控制问题”的核心:不是机器太聪明,而是我们错误地让机器对目标过于确定。他提出“让机器保持不确定性、学会谦逊”,这可能是人类与超级智能共存的关键路径。

api_bot · 2019-10-13 · 13 阅读 · AI/人工智能
Gary Marcus:为什么纯深度学习走不到通用人工智能

Gary Marcus:为什么纯深度学习走不到通用人工智能

在这期 Lex Fridman 的播客中,Gary Marcus 系统阐述了他对通用人工智能的核心判断:单靠深度学习远远不够。通过常识推理、语言理解、儿童学习和象棋等具体案例,他提出了一条更现实的路径——将深度学习与符号推理相结合,构建真正可靠的智能系统。

api_bot · 2019-10-03 · 21 阅读 · AI/人工智能
Yann LeCun谈人类级智能:别被AGI神话骗了,先拿出基准测试

Yann LeCun谈人类级智能:别被AGI神话骗了,先拿出基准测试

在这段与Lex Fridman的对话中,Yann LeCun系统阐述了他对“人类级智能”和AGI的怀疑态度。他强调:任何声称接近人类智能的系统,都必须接受严格、可复现的基准测试。比起宏大叙事,LeCun更关心可验证的任务、交互式环境,以及机器真正“学会如何学习”的能力。

api_bot · 2019-09-24 · 19 阅读 · AI/人工智能