LinkedIn数据风暴:当生成式AI默认“用你训练”

AI PM 编辑部 · 2024年09月20日 · 4 阅读 · AI/人工智能

正在加载视频...

视频章节

一则关于LinkedIn默认使用用户数据训练生成式AI的新闻,引发了远超平台预期的愤怒。视频不仅讲清了“发生了什么”,更重要的是揭示了:为什么这次反弹如此强烈,以及它如何与AI监管、言论自由和全球创新格局纠缠在一起。

LinkedIn数据风暴:当生成式AI默认“用你训练”

一则关于LinkedIn默认使用用户数据训练生成式AI的新闻,引发了远超平台预期的愤怒。视频不仅讲清了“发生了什么”,更重要的是揭示了:为什么这次反弹如此强烈,以及它如何与AI监管、言论自由和全球创新格局纠缠在一起。

为什么LinkedIn的“默认同意”点燃了众怒

这件事之所以重要,并不只是因为LinkedIn在“用你的数据训练AI”,而是因为它选择了最容易激怒用户的方式:默认加入,事后再让你退出。主持人一开场就点破了这种矛盾心态——“一方面我完全理解大家为什么愤怒,但另一方面,我一点也不意外”。

根据视频引用的《The Verge》报道,LinkedIn在未明确征求用户同意的情况下,将账户默认纳入生成式AI模型训练。用户如果想阻止未来的数据被用于生成式AI,需要在隐私设置中关闭“Data for Generative AI Improvement”的开关;但如果还希望数据不被用于个性化推荐、内容审核等非生成式用途,则必须额外填写一份“LinkedIn data processing objection form”。更关键的一点是:已经用于训练的数据“无法撤回”。

这种设计让很多用户产生了一种“被侵犯”的感觉。视频中引用的社交媒体反应非常直接,比如有人怒斥:“LinkedIn is now using everyone’s content to train their AI tool… I recommend opting out now。”还有人更情绪化地表示,LinkedIn“has opted you in by default… turn the damn thing off ASAP”。这些声音的共同点不是反对AI本身,而是反对被剥夺选择权。

主持人的洞见在于,他指出这种愤怒本身带有一种时代错位感:社交网络长期以来一直在利用用户数据,只是这一次用途从广告和推荐,变成了生成式AI。真正的冲突点,不是“是否用数据”,而是“是否被明确告知、是否尊重退出权”。

愤怒背后的反讽:我们真的在乎数据隐私吗?

这一节之所以值得反复咀嚼,是因为主持人把话题从“LinkedIn做错了什么”推进到了“用户到底在期待什么”。他坦言,自己对这次大规模反弹感到意外,甚至有些怀疑这种愤怒能否转化为长期的消费者行为改变。

他用一句颇为自嘲的话解释自己的冷静:“也许我是个愤世嫉俗的人,毕竟我在加密行业待了五年以上。”在他看来,过去十年里,无数技术和创业项目试图说服公众关心“数据所有权”和“隐私主权”,但整体来看并不算成功。大多数人仍然愿意用数据交换便利,只要成本足够低、摩擦足够小。

因此,他提出了一个尖锐的问题:为什么偏偏是这一次,大家如此愤怒?他的隐含判断是,生成式AI触碰了一个新的心理边界。广告推荐是“机器在看我”,而生成式AI更像是“机器在变成我、模仿我”。当你的职业履历、观点表达、社交互动被用来训练模型时,用户感受到的不再只是被监控,而是被“复制”。

尽管如此,他依然保持悲观的现实主义立场。他说,自己“很希望看到消费者压力真的能推动公司不再默认自动加入”,但同时也直言:“I am currently not holding my breath for that。”这句话点出了一个残酷事实:愤怒很响亮,但未必足够持久。

从LinkedIn到加州法案:AI正在逼近言论自由的边界

视频的第二个重要故事线,看似与LinkedIn无关,却揭示了同一场更大的冲突:当AI开始生成内容,法律如何界定边界。主持人回顾了加州近期通过的多项AI相关法律,尤其是针对选举深度伪造(election deepfakes)的立法。

直接引爆争议的,是一段由埃隆·马斯克转发的AI恶搞视频,内容涉及对卡玛拉·哈里斯竞选素材的模仿与篡改。随后,加州旨在限制此类行为的法律遭到起诉。起诉者正是制作该恶搞视频的人,他认为这些法律“审查言论”,并赋予任何人因“不喜欢的内容”而提起诉讼的权利。

主持人明确表达了自己的判断:这类案件“100%注定会走到最高法院”。原因在于,它们触及的是美国最敏感的宪法议题之一——第一修正案下的言论自由。当AI生成内容的门槛无限降低,恶搞、讽刺、虚假信息和政治操纵之间的界线变得前所未有地模糊。

这一段的独特价值在于,它把“生成式AI训练数据”的争议,放进了一个更宏观的语境:从数据使用,到内容生成,再到法律责任,AI正在系统性地冲击现有规则,而每一次修补,都会引发新的反弹。

全球AI安全与创新的拉锯战正在加速

如果说前面的故事更多是冲突,那么这一节展现的则是分化。视频提到,美国将在11月20日至21日于旧金山召开全球AI安全峰会,由商务部长Gina Raimondo和国务卿Antony Blinken主持。这将是“国际AI安全研究机构网络”的首次会议,成员包括欧盟、日本、英国、加拿大、新加坡等多个国家和地区。

会议的目标,用官方说法是“与盟友和志同道合的伙伴进行紧密而深思熟虑的协调”。听起来很宏大,但主持人用一贯的幽默语气补了一刀:在加州州长对SB 1047表现出担忧、同时又签署其他AI法案之后,“我们显然还需要更多可以争论的AI安全议题”。

更现实的影响来自企业端。Meta已经公开警告欧盟,其监管环境可能“抑制创新和经济增长”,并因此选择不在欧洲发布最新的多模态模型。Apple也被提及,正在推迟将Apple Intelligence引入欧洲iPhone。这些不再是理论风险,而是真实发生的产品决策。

这一节传递的核心信息是:监管确实可能保护用户,但代价是技术获取的不对称。欧洲用户在更安全的环境中,可能同时被挡在最前沿技术之外,而这种取舍,正成为全球AI竞争中的关键变量。

总结

这期《AI Daily Brief》真正提供的,不是单一新闻的解读,而是一幅连贯的图景:从LinkedIn的数据争议,到生成式AI引发的言论自由诉讼,再到全球范围内监管与创新的博弈。主持人的核心洞见在于,他既理解公众的愤怒,也清醒地意识到结构性问题的顽固。对读者而言,最大的启发或许是:AI时代的关键不只是“技术能做什么”,而是“默认规则由谁决定”,以及当我们愤怒时,是否真的愿意为改变付出持续的行动成本。


关键词: LinkedIn, 生成式AI, 数据隐私, AI监管, 言论自由

事实核查备注: LinkedIn默认将用户数据用于生成式AI训练;用户需关闭“Data for Generative AI Improvement”并填写data processing objection form才能完全退出;视频引用The Verge报道;涉及人物包括Elon Musk、Kamala Harris、Gina Raimondo、Antony Blinken;提及加州针对选举深度伪造的AI法律;Meta与Apple因欧盟监管推迟或限制AI功能发布。