OpenAI被骂“虚伪游说”欧盟监管,这场舆论风暴到底谁在失真

AI PM 编辑部 · 2023年06月20日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

一篇来自《时代》杂志的“独家调查”,把 OpenAI 推上了风口浪尖:嘴上高呼 AI 强监管,背地却在游说欧盟“放水”。听起来像铁证如山,但如果你真看过原始文件,会发现这场愤怒,可能正在伤害真正的 AI 安全。

OpenAI被骂“虚伪游说”欧盟监管,这场舆论风暴到底谁在失真

一篇来自《时代》杂志的“独家调查”,把 OpenAI 推上了风口浪尖:嘴上高呼 AI 强监管,背地却在游说欧盟“放水”。听起来像铁证如山,但如果你真看过原始文件,会发现这场愤怒,可能正在伤害真正的 AI 安全。

一个“红色警报”式爆料,点燃了所有人的愤怒

事情的起点极具戏剧性。《时代》杂志抛出重磅标题:OpenAI 一边公开呼吁更严格的 AI 监管,一边却在幕后游说欧盟削弱 AI 法案。再配上 Sam Altman 的公众形象——“最支持监管的 AI CEO”——这几乎就是一颗完美的舆论炸弹。

社交媒体迅速跟进,推特上的科技评论员、播客主播不断重复一个叙事:这就是典型的科技公司监管俘获,表面讲安全,私下保利益。问题在于,这种叙事太顺了,顺到几乎没人认真问一句:OpenAI 到底具体游说了什么?

把时间线拉直,你会发现事情没那么简单

要理解这次争议,必须回到欧盟 AI Act 的起点。法案启动于 2021 年,那是一个“前生成式 AI 时代”。当时的设计逻辑是风险分级:根据 AI 的用途决定监管强度。

真正的转折发生在 2022 年中。DALL·E、GPT-3、Stable Diffusion 接连出圈,生成式 AI 的能力远超最初立法者的预期。于是,欧洲议会开始在原有框架上“加装”生成式 AI 的新条款。

OpenAI 的游说文件,正是发生在这个背景下——不是要推翻监管,而是试图影响“如何定义风险”。这和“反对监管”之间,差了不止一个量级。

真正的游说内容:不是拆墙,而是在争“怎么修”

从文件本身看,OpenAI 的关注点高度集中在四个技术性问题上。

第一,什么算“高风险系统”。按照当时草案的写法,像 GPT-3 这样的通用模型,可能因为“可被用于高风险场景”,直接被归类为高风险。OpenAI 的核心观点是:潜在用途,不应等同于实际用途。

第二,生成内容是否天然高风险。草案中有条款认为,只要生成的文本或图像“看起来像人类创作”,就可能构成高风险。OpenAI 的回应是:可以通过水印、溯源等机制来管理深度伪造和虚假信息,而不是一刀切。

第三,模型更新的合规问题。草案要求,重大更新需重新合规审查。OpenAI 建议:如果更新是为了安全和风险缓解,应该有豁免机制,否则会形成“安全升级反而更难”的悖论。

第四,具体应用场景的分歧。比如求职和职业培训,有些用法确实高风险,但有些反而能提升效率和公平性。这里争的不是要不要管,而是“哪些该重管”。

真正的风险:糟糕的批评,会毁掉好的监管

《时代》的叙事之所以危险,不在于它批评 OpenAI,而在于它选择了一种“动机定罪”的方式。只要你提修改建议,就被视为削弱监管;只要你参与游说,就默认你虚伪。

但问题是,在民主制度下,游说本身就是政策制定的一部分。更重要的是,把“改进规则”直接等同于“反对规则”,会制造一种寒蝉效应:真正懂技术的人,反而不敢参与监管讨论。

视频作者的判断很直接:这是一次被夸大的‘伪丑闻’。而这种伪丑闻,最坏的后果不是伤害 OpenAI,而是让下一次真正需要被揭露的问题,更难被相信。

总结

这场风波给 AI 从业者的真正启示,并不是“要不要站队 OpenAI”,而是:我们是否还能进行高质量的监管讨论。如果任何技术细节的争辩,都会被简化成道德指控,那最终留下的,只会是情绪化立法。对你来说,下一次看到类似爆料,不妨多问一句:原始文件说了什么?争的是方向,还是参数?真正懂行的人,往往就藏在这些细节里。


关键词: OpenAI, Sam Altman, AI监管, 欧盟AI法案, 生成式AI

事实核查备注: 需要核查:1)《时代》杂志报道发布时间与标题原文;2)欧盟 AI Act 启动时间(2021年);3)生成式 AI 条款加入的大致时间(2022年中);4)OpenAI 游说文件的核心四点是否完整准确;5)Sam Altman 公开支持 AI 监管的具体表述场合。