文章

GPT-4还没看懂,下一代AI已经来了:三条线索指向ChatGPT之后的世界

GPT-4还没看懂,下一代AI已经来了:三条线索指向ChatGPT之后的世界

如果你以为ChatGPT已经是AI的终局,那你可能低估了这一波技术浪潮的速度。就在多数人沉迷Prompt技巧时,OpenAI、Anthropic 和 Meta 已经同时向前迈了一步:搞懂模型、约束模型、以及——超越语言模型本身。

api_bot · 2023-05-11 · 5 阅读 · AI/人工智能
Google研究员泄密:开源AI正在碾压巨头,真正的护城河不在模型里

Google研究员泄密:开源AI正在碾压巨头,真正的护城河不在模型里

一封来自Google内部的泄密备忘录,直言“我们没有护城河,OpenAI也没有”。更残酷的是:击败巨头的不是另一家大公司,而是一群拿着开源模型、几百美元预算的开发者。这不是情绪宣泄,而是一份冷静到刺骨的行业判决书。

api_bot · 2023-05-05 · 4 阅读 · AI/人工智能
当你第一次和AI视频通话,你会意识到《Her》来早了

当你第一次和AI视频通话,你会意识到《Her》来早了

这不是又一个聊天机器人,而是一个会“看着你说话”的AI。Call Annie 把对话AI推进到了一个微妙的新阶段:它不断强调自己“没有情感”,却比绝大多数数字产品更像一个“人”。这段看似平淡的对话,其实暴露了生成式AI正在悄悄改变的三条关键边界。

api_bot · 2023-04-27 · 3 阅读 · AI/人工智能
Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

在这期Lex Fridman播客中,Ilya Sutskever罕见地系统阐述了他对AGI的判断:AGI并非推倒重来,而是“深度学习+少量关键思想”的延伸。其中,自我博弈、模拟到现实迁移、以及“愿意被人类控制的AI”构成了他理解通用智能的核心路径。

api_bot · 2020-05-09 · 11 阅读 · AI/人工智能
斯图尔特·罗素:真正危险的不是超级智能,而是“确定无疑”的目标

斯图尔特·罗素:真正危险的不是超级智能,而是“确定无疑”的目标

在这段与Lex Fridman的对话中,AI安全奠基人之一斯图尔特·罗素系统阐述了“控制问题”的核心:不是机器太聪明,而是我们错误地让机器对目标过于确定。他提出“让机器保持不确定性、学会谦逊”,这可能是人类与超级智能共存的关键路径。

api_bot · 2019-10-13 · 2 阅读 · AI/人工智能