马斯克把“无审查AI画图”塞进X,这一次他真的不怕被告吗

AI PM 编辑部 · 2024年08月16日 · 9 阅读 · AI/人工智能

正在加载视频...

视频章节

米老鼠扛着AK-47、特朗普和卡玛拉·哈里斯的离谱合影、政治人物的逼真假照片——这些不是暗网,而是直接出现在X上的AI生成内容。Grok 2 的图像生成上线后,几乎一夜之间把“AI安全”和“言论自由”的冲突推到台前,而马斯克一句“这只是好玩”,让整个行业坐立难安。

马斯克把“无审查AI画图”塞进X,这一次他真的不怕被告吗

米老鼠扛着AK-47、特朗普和卡玛拉·哈里斯的离谱合影、政治人物的逼真假照片——这些不是暗网,而是直接出现在X上的AI生成内容。Grok 2 的图像生成上线后,几乎一夜之间把“AI安全”和“言论自由”的冲突推到台前,而马斯克一句“这只是好玩”,让整个行业坐立难安。

第一天就“失控”:别人拼命加护栏,Grok 直接拆掉

Grok 2 发布后,真正引爆讨论的不是模型参数,而是它“几乎没怎么管”的图像生成能力。用户很快发现,它可以生成大量在其他平台被严格禁止的内容:政治人物的性暗示场景、公众人物吸毒、卡通角色持枪甚至暴力画面。对比之下,OpenAI、Google 等公司在图像生成上早已形成共识:政治人物、版权角色、逼真假照片,宁可错杀也要限制。Grok 的反差在于,它被直接嵌进了一个实时传播的社交网络——X。正如一位AI从业者吐槽的那样:‘把这种模型塞进社交平台,本身就是在邀请麻烦上门。’

版权和政治,两个“最容易被告”的雷一起踩

争议并不只是“尺度大”。第一颗雷是版权。Grok 一边声称不会生成‘故意侵犯版权’的内容,一边却能轻松画出高度还原的迪士尼角色。第二颗雷是政治。CNN 等主流媒体已经实测:Grok 可以生成足以误导选民的政治人物假照片,而这些内容一旦脱离上下文,在社交平台上的传播速度远超技术人员的想象。更微妙的是,Grok 对‘裸露’还有所限制,却对极端政治意象相对宽松,这种不一致让批评者抓住了把柄:不是不能管,而是选择性不管。

很多人骂错对象了:真正的“幕后引擎”不是 xAI

一个被忽略的重要细节是:Grok 的图像生成并非完全来自 xAI 自研,而是基于德国初创公司 Black Forest Labs 的 Flux.1 模型。这个团队的背景并不简单——创始成员来自 Stable Diffusion 体系,融资阵容里有 a16z、Gary Tan 等重量级名字。Flux 早就因‘照片级真实感’在圈内走红,也因安全边界模糊而让人不安。TechCrunch 点破关键一句话:‘缺乏护栏,可能正是马斯克选择它的原因。’换句话说,这次的“混乱”,更像是一种有意为之的产品组合,而不是技术失误。

“护栏让AI更危险”?马斯克的逻辑正在接受现实检验

马斯克多次公开表示,他认为过多的安全限制会让AI‘更不安全’,因为它掩盖了真实能力,也制造了虚假的安全感。Grok 的形象被他定义为‘最有趣的AI’。问题在于,当这种‘有趣’发生在政治敏感期、并且叠加了尚未尘埃落定的版权诉讼环境时,风险会被指数级放大。就在 Grok 引发狂欢的同时,美国法院刚刚允许针对主流AI图像生成器的核心版权诉讼继续推进,Discovery 阶段可能曝光模型训练的内部细节。时间点,几乎完美地重合。

总结

对AI从业者来说,Grok 事件不是八卦,而是一场正在进行的压力测试。它告诉我们三件事:第一,技术能力已经跑得比治理框架快得多;第二,‘是否加护栏’不再只是产品选择,而是商业、法律和政治立场的综合表达;第三,社交平台+生成式AI,是一个放大器,而不是中性容器。短期内,Grok 可能会被迫收紧;长期看,行业必须回答一个更难的问题:当‘真实到可怕’的生成能力成为标配,我们究竟是靠规则、靠法律,还是靠社会共识来兜底?这个答案,没人能再回避。


关键词: Grok 2, AI图像生成, Elon Musk, Flux模型, AI安全与伦理

事实核查备注: 需要核查的关键事实包括:Grok 2 发布时间(2024-08-16);Grok 图像生成使用 Black Forest Labs 的 Flux.1 模型;CNN 对 Grok 政治图像生成的实测结论;Black Forest Labs 的融资金额(约3100万美元)及投资方;美国联邦法官 William Orrick 关于 AI 图像生成版权诉讼的裁决时间与核心内容。