Palantir 高管警告:AI竞赛真正的敌人不是对手,而是我们自己
正在加载视频...
视频章节
当大多数人还在讨论模型参数和算力时,Palantir 的 Shyam Sankar 抛出了一个刺耳判断:国家最大的风险不是被外部击败,而是自我瓦解。这期 a16z 对谈,把 AI、国家意志、工程文化与个人选择强行拧在了一起,信息密度极高。
Palantir 高管警告:AI竞赛真正的敌人不是对手,而是我们自己
当大多数人还在讨论模型参数和算力时,Palantir 的 Shyam Sankar 抛出了一个刺耳判断:国家最大的风险不是被外部击败,而是自我瓦解。这期 a16z 对谈,把 AI、国家意志、工程文化与个人选择强行拧在了一起,信息密度极高。
“真正的风险是自杀,而不是他杀”
对谈一开始就不讲技术,而是讲“恶”。Shyam Sankar 直言,世界事件一次次提醒我们,野蛮与邪恶并未消失。但更危险的并不是外部威胁,而是内部的松动——“一个国家最大的风险是自杀,而不是他杀”。
这句话的冲击力在于,它直接否定了硅谷最习惯的一种叙事:只要技术足够先进,一切问题都会被解决。Sankar 的逻辑恰恰相反——如果社会失去判断力、工程师不再相信自己在做重要的事,再强的 AI 都可能走向空转。这也为整场讨论定下了基调:AI 不是中性的工具,而是价值选择的放大器。
AI 竞赛的关键,不在模型,而在“愿不愿意”
当话题转向“如何赢得 AI 竞赛”,尤其是走向物理世界的 AI 和机器人时,Sankar 并没有给出任何模型架构或技术路线图。他反复强调的,是意志、动机和领导力。
他说,真正重要的不是“我们能不能”,而是“我们愿不愿意”。这在今天的 AI 圈显得反直觉:行业太容易把胜负归结为算力、数据或论文数量,却很少讨论谁愿意把 AI 用在艰难、脏累、但真正重要的领域。
在他看来,国家层面的 AI 竞争,本质是长期承诺能力的竞争——是否有人愿意在没有短期回报、没有掌声的情况下,把系统真正落地。
从冷战到硅谷:工程师都去了哪里?
对谈中提到一个令人不安的变化:曾经有大量最顶尖的工程与技术人才直接服务于国家级任务,而如今,这个比例大幅下降——更多人流向了更“安全”的商业领域。
Sankar 并没有指责个人选择,而是指出一个结构性问题:当国家不再清晰地表达“什么是值得为之奋斗的工程目标”,人才自然会离开。这不是道德问题,而是激励问题。
他用极具挑衅性的比喻形容那些仍愿意逆流而上的人——这些“异端”,正是历史上在关键时刻撑起体系的人,而不是只在顺风局中获胜的玩家。
软件不是 Demo,而是要扛住现实压力
在谈到实际做软件的经验时,Sankar 反复强调一点:真正重要的软件,必然要承受现实世界的压力。这意味着它不可能一直停留在“beta 状态”,也不可能只追求漂亮的指标。
他提到,价值并不是自动累积的,而是一种选择——选择把研发与生产放在一起,选择让系统在高风险环境中运行,选择为失败负责。这种选择,会极大影响组织文化,也决定了软件最终是“能看”,还是“能用”。
这也是 Palantir 一贯的工程哲学:软件存在的意义,不是展示技术优雅,而是在关键时刻不掉链子。
真正的英雄叙事,正在被重新书写
对谈的后半段,多次回到“故事”和“榜样”上。Sankar 认为,一个社会会奖励什么样的英雄,决定了它最终会产出什么样的工程。
如果最被追捧的是增长最快的产品、融资最多的公司,那么长期、艰难、面向公共利益的建设自然会被边缘化。他呼吁重新讲述那些不那么光鲜、但真正改变系统的故事,并为正在做这些事的人提供支持。
这并不是怀旧,而是一种面向未来的动员:当 AI 能力不断增强,人类更需要明确,哪些目标值得被放大。
总结
这场对谈给 AI 从业者的最大提醒是:技术能力已经不再是稀缺品,稀缺的是方向感和责任感。你选择做什么系统、为谁而建、愿意承担多大现实压力,都会被 AI 成倍放大。下一次你评估一个项目时,不妨多问一句:如果这套系统真的成功了,世界会因此变得更稳固,还是更空洞?这个问题,可能比任何模型参数都重要。
关键词: Palantir, AI竞赛, 工程文化, 国家意志, 软件落地
事实核查备注: 需要核查:Shyam Sankar 的正式职务;工程人才比例变化中提到的具体百分比(如 86%);视频中关于冷战时期与当下的时间对比表述;所有直接引语的原文准确性。