AI“拜登”打电话劝你别投票:2024大选的失控预演

AI PM 编辑部 · 2024年01月23日 · 4 阅读 · AI/人工智能

正在加载视频...

视频章节

一个AI模仿的“拜登”电话,正在把美国大选拖进未知水域;与此同时,OpenAI首次出手封禁竞选机器人开发者。两件事连在一起,揭开了AI选举乱局的真正风险。

AI“拜登”打电话劝你别投票:2024大选的失控预演

一个AI模仿的“拜登”电话,正在把美国大选拖进未知水域;与此同时,OpenAI首次出手封禁竞选机器人开发者。两件事连在一起,揭开了AI选举乱局的真正风险。

不是末日科幻,而是选票前的现实危机

谈到AI风险,行业里常见的分歧是:一派担心“失控的超级智能”,另一派则盯着更近、更脏、更具体的现实问题。2024年的美国总统大选,正在把后者推到台前。

在新罕布什尔州,一通自动语音电话冒充拜登本人,直接告诉民主党选民“别去投票”。这不是深度论文里的假设场景,而是真实发生在选举前夜的事件。当地总检察长的定性很直接:这很可能是利用AI进行的非法选举干扰。

关键不在于技术是否‘先进’,而在于门槛已经低到任何人都能用。你不需要控制超级智能,只要能生成一段像样的声音,就足以撬动民主制度最脆弱的部分。

OpenAI为何第一次“真封号”?

就在这通假拜登电话刷屏前,OpenAI刚刚做出一个罕见而明确的动作:暂停了一名为民主党候选人 Dean Phillips 服务的竞选聊天机器人开发者账号。

背景很耐人寻味。1月15日,OpenAI发布了《如何应对2024年全球选举》的博客,几条红线写得异常直白:不允许用于政治竞选游说;不允许假装成真实候选人或政府机构;不允许误导或压制投票行为。

而“Dean DoBot”恰好踩在这三条线的灰色地带。它有免责声明,也要求用户同意,但仍然在做一件前所未有的事——用对话式AI,规模化地介入选民与候选人的关系。OpenAI最终选择封禁开发者账号,这是它已知的第一次,对竞选场景中的API使用动真格。

这一步并不只是合规姿态,而是一次风险切割:一旦AI被证明能系统性影响选民行为,平台将不可避免地被拉进政治泥潭。

硅谷的钱、理想与“技术上正确”的误导

让这件事更复杂的,是人和钱的故事。支持 Dean Phillips 的超级PAC“我们值得更好”,背后有硅谷创业者,也包括 OpenAI CEO Sam Altman 的资金支持。这并不违法,也并不罕见,但它揭示了一种新趋势:技术精英正试图用“更聪明的工具”修正他们眼中的政治失灵。

《华盛顿邮报》的一句评价非常扎心:信息可以在技术上完全真实,但仍然把人引向错误的结论。AI聊天机器人正是这种“技术上正确、社会上危险”的放大器。

你可以说它只是更高效的‘竞选传单’,也可以说它是在重新定义政治沟通的权力结构。当一个模型能同时和成千上万选民‘一对一’对话时,民主制度默认的摩擦成本,正在被抹平。

我们正在形成“深伪免疫力”,但还不够

假拜登电话迅速成为全国新闻,这本身就是一种防御机制。越多曝光,越多讨论,人们对“听到的不一定是真的”这件事就越敏感。

主持人提出了一个值得玩味的判断:社会正在对深度伪造形成某种“免疫反应”。但免疫不等于无害。即便只有少量选民被误导,在高度胶着的选举中,也可能改变结果。

这场大选,很可能成为AI时代‘真实性’的第一次压力测试。不是测试模型多聪明,而是测试人类社会,在信息不再可信的情况下,能否维持基本共识。

总结

这两条新闻合在一起,给AI从业者一个非常现实的提醒:选举不是抽象的伦理讨论,而是会倒逼平台、政策和技术边界的高压场景。对开发者来说,政治使用场景正在迅速从“可以尝试”变成“高危禁区”;对普通用户和创业者而言,未来你听到、看到、甚至‘互动过’的候选人,都需要默认打一个问号。2024年不会给我们答案,但它会暴露问题。真正的考验是:当AI不再稀奇,我们是否还能守住信任的底线。


关键词: AI选举, 深度伪造, OpenAI政策, 政治聊天机器人, AI伦理

事实核查备注: 需要核查:1)OpenAI博客发布时间为2024-01-15;2)Dean DoBot与开发公司Deli的关系描述;3)OpenAI暂停开发者账号是否为首次竞选相关执法;4)Sam Altman对“我们值得更好”PAC的支持形式;5)新罕布什尔州总检察长对假拜登电话的官方表述。