走进AI Town:当AI学会“像人一样生活”,我们学到什么
正在加载视频...
视频章节
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。
走进AI Town:当AI学会“像人一样生活”,我们学到什么
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。
从规则角色到“会生活的AI”:Generative Agents带来了什么变化
如果你玩过《模拟人生》,你会熟悉那种被规则严格约束的角色行为:在固定时间吃饭、睡觉、上班。但June Park指出,Generative Agents的突破在于,它们不再遵循二元规则,而是基于概率和上下文做出“看起来很像人”的选择。
在AI Town里,一个父亲可能因为注意到孩子而出门,另一个角色会因为闻到焦味把早餐从炉子上拿走,还有人会答应参加情人节派对,却临时选择不出现。这些并非预先写好的脚本,而是由大语言模型结合情境即时生成的结果。
支撑这一切的,是论文中提出的三段式架构:观察(Observation)、规划(Planning)和反思(Reflection)。每个Agent都有一个“种子身份”,并通过这三个步骤不断更新自己的行为逻辑。June形容这是一种新的模拟范式——不是把世界简化为规则,而是让系统容纳不确定性和例外,这恰恰是人类社会的真实状态。
记忆、反思与“可置信性”:AI第一次被用来理解人类复杂性
为了让Agent“像人一样”,团队很快意识到,单次Prompt远远不够。真正的挑战在于长期行为的一致性——角色要记得自己遇见过谁、发生过什么,并基于这些经历形成新的判断。
为此,Generative Agents引入了外部长期记忆系统,并通过检索函数按“最近性、重要性、相关性”打分。例如,刷牙的重要性可能是1,而一次分手是10;当累计重要性达到150时,系统才会触发一次反思。这种设计让Agent能够形成类似人类的高层认知,比如“这个人好像每天早上都吃煎蛋”。
团队最终选择用“可置信性(believability)”作为评估标准——看它们的行为是否让人产生共鸣。但有趣的是,这个标准本身就暴露了人类的不确定性。June分享了一个失败案例:有Agent中午去酒吧,被评为“不像人”,结果不少观众反馈说“我就会这么做”。他的结论是:连人类彼此之间都很难预测行为,更别说用一个完美标准去定义‘像人’。
像早期互联网一样的时刻:为什么这些“玩具”可能很重要
a16z合伙人Martine Casado把AI Town比作早期互联网。他回忆,当年人们为“能在网上看到咖啡壶”而兴奋,第一个网页应用只是一个“按了没反应的红色按钮”。这些看似幼稚的玩具,却孕育了后来无法预测的伟大公司。
在他看来,生成式Agent正处在类似阶段。“任何被这种技术触碰到的东西都会变得有点魔法。”他说。很多企业现在还无法理解这种价值,正如当年有人禁止员工使用浏览器一样。
Casado还分享了一个程序员视角的转折点:他曾误把一段代码发给模型,结果模型没有报错,而是直接评论代码。“那一刻我意识到,我面对的不是一个有限状态机。”他甚至把大语言模型比作“研究生”——你不会用形式化语言指挥研究生,而是用自然语言协作。这正是AI Town试图探索的交互未来。
从游戏到社会科学:AI模拟人类行为的真正潜力
在June看来,真正“必须用新技术才能做的事”,是模拟人类行为本身。短期内,这看起来像游戏或创意实验;长期来看,它可能成为社会科学的新工具。
他提到,已经有研究尝试用大语言模型复现经典社会科学实验,结果“出乎意料地有效”。但问题在于:模型是在真正模拟人类,还是只是“记得”那些论文?为绕开这一点,团队曾让GPT-3模拟其训练数据中尚未出现的新社区,比如在疫情成为全球议题前,生成关于疫苗政策讨论的论坛。
结果显示,模型可以通过已有知识推断出合理的社会反应。June认为,如果未来能从“可置信”走向“分布意义上的准确”,这些系统或许能帮助政府、银行和研究者,在现实政策落地前,先观察一个“可能发生的世界”。这不仅是技术进步,更是一种理解人类的新视角。
总结
AI Town并不是在回答“AI能不能像人”,而是在反问“人到底是什么”。通过Generative Agents,研究者第一次用可运行的系统,把记忆、反思、不确定性这些人类特质变成了工程问题。它也许还不准确,但正如早期互联网一样,真正重要的价值,往往诞生在看起来像玩具的地方。
关键词: Generative Agents, AI Town, 大语言模型, AI Agent, 社会模拟
事实核查备注: 视频来源:a16z《Inside AI Town: What AI Can Teach Us About Being Human》;论文:Generative Agents: Interactive Simulacra of Human Behavior;核心人物:June Park、Martine Casado;技术要点:观察-规划-反思架构、外部长期记忆、重要性阈值150、1百万token上下文讨论;相关产品与概念:ChatGPT、AutoGPT、Character.AI。