斯坦福AI研究者眼中的下一步:从可推理Agent到“黑箱”边界

AI PM 编辑部 · 2024年10月03日 · 9 阅读 · AI/人工智能

正在加载视频...

视频章节

这期RedpointAI播客邀请了斯坦福AI研究者、Together AI联合创始人Percy Liang,讨论AI研究的下一阶段。他围绕可推理的AI Agent、模型“黑箱”问题、Transformer之后的架构创新,以及对新模型o1的直观体验,分享了多位一线研究者正在思考但尚未形成共识的关键方向。

斯坦福AI研究者眼中的下一步:从可推理Agent到“黑箱”边界

这期RedpointAI播客邀请了斯坦福AI研究者、Together AI联合创始人Percy Liang,讨论AI研究的下一阶段。他围绕可推理的AI Agent、模型“黑箱”问题、Transformer之后的架构创新,以及对新模型o1的直观体验,分享了多位一线研究者正在思考但尚未形成共识的关键方向。

为什么“能推理的Agent”可能是AI研究的主线

这一段讨论之所以重要,是因为它触及了当前大模型从“会回答”走向“会行动”的关键门槛。Percy Liang提到,研究社区正在明显转向Agent范式:不只是生成一次性输出,而是“agents that can reason”,能够在环境中反复尝试、获取反馈、再自我改进。

他强调,这里的关键不在于单次推理是否更聪明,而在于闭环能力——模型是否能根据结果调整策略。这种反馈驱动的过程,与传统监督学习或静态推理有本质不同,也解释了为什么无监督学习和强化式思路重新受到关注。用他的话说,真正有潜力的系统,是那些“getting feedback and actually making them you better”的模型。

这一判断背后,其实反映了一个更大的趋势:研究者开始把模型放进更真实、更复杂的环境中考验,而不再满足于排行榜式的评测。这也为后续关于模拟、评估和安全的问题埋下了伏笔。

“黑箱”依然存在:可解释性与兼容性的现实挑战

当模型能力快速提升时,为什么“我们并不真正理解它”会成为一个更严肃的问题?Percy在访谈中直言,很多系统在本质上仍然是“a black box”。即使性能在提升,研究者对其内部机制的把握并没有同步增长。

他特别提到一个容易被忽视的方向:不同模型、不同系统之间的兼容性问题。“compatibility is something that's maybe not looked at as much”,这并不是一个性感的话题,但在真实应用中却至关重要。模型并不是孤立存在的,它们需要与工具、其他模型以及人类流程协同工作。

这也解释了他为什么长期关注可解释性研究。不是为了给模型贴上‘可解释’的标签,而是希望在复杂系统中,至少知道风险和能力的边界在哪里。否则,当模型被嵌入关键决策流程时,黑箱效应只会被放大。

从o1谈起:新模型带来的不是答案,而是问题

在聊到近期体验新模型o1时,Percy并没有给出简单的性能评价,而是更多谈到了“用起来的感觉”。他提到,和其他任务或模型相比,‘playing with o1’让他意识到,不同模型在推理方式和适用场景上存在微妙但重要的差异。

这种差异并不总是体现在指标上,而是体现在研究者如何与模型互动:你会对它提出什么样的问题?在哪些地方需要格外小心?这类第一手体验,往往比跑分更早暴露模型的局限。

他的一句话很耐人寻味:有些模型足够强大,“one thing I was struck by”并不是它解决了什么,而是它暴露了还有多少事情没被解决。这种‘让人忙不过来’的感觉,恰恰是前沿研究的真实状态。

Transformer之后,研究者在期待什么样的突破

当话题转向架构创新时,主持人直接点出了行业共识:Transformer几乎定义了过去几年的主流路径。那么接下来会发生什么?Percy的态度明显偏谨慎。

他并没有预测某一种具体架构会取代Transformer,而是暗示,真正的变化可能来自使用方式和系统层面的重组,而不仅仅是一个新的网络结构。这也与他前面对Agent、反馈和环境的强调形成呼应。

在他看来,架构创新不太可能以‘突然出现一个更聪明的层’的形式发生,而更可能出现在模型如何被组合、如何与外部世界交互上。这种判断,为理解当前看似平稳、实则暗流涌动的研究生态提供了一个重要视角。

总结

整场对话没有给出简单的结论,但传递了一个清晰信号:AI研究正在从“更大的模型”转向“更复杂的系统”。无论是可推理的Agent、黑箱与兼容性问题,还是对o1这类新模型的谨慎体验,都指向同一个核心——能力提升只是开始,理解、控制和协作才是更难的部分。对研究者和从业者而言,这意味着未来的价值不只在算法本身,也在如何负责任地使用它们。


关键词: AI Agent, AI推理, 无监督学习, Transformer, Together AI

事实核查备注: 人物:Percy Liang(斯坦福AI研究者,Together AI联合创始人);节目:RedpointAI Podcast;讨论模型:o1;技术概念:AI Agent、AI推理、无监督学习、Transformer、可解释性(black box);原话引用包括“agents that can reason”“getting feedback and actually making them you better”“a black box”“compatibility is something that's maybe not looked at as much”。