27%的工作已站在AI悬崖边:真正的风险不是失业

AI PM 编辑部 · 2023年07月12日 · 8 阅读 · AI/人工智能

正在加载视频...

视频章节

如果你还以为AI威胁“主要是蓝领”,这份最新报告会让你背后一凉。OECD发现,27%的工作正处在AI自动化的最高风险区,而且数据还没算上ChatGPT。更微妙的是:一边是裁员焦虑,另一边却是效率、幸福感和心理健康的同步提升。

27%的工作已站在AI悬崖边:真正的风险不是失业

如果你还以为AI威胁“主要是蓝领”,这份最新报告会让你背后一凉。OECD发现,27%的工作正处在AI自动化的最高风险区,而且数据还没算上ChatGPT。更微妙的是:一边是裁员焦虑,另一边却是效率、幸福感和心理健康的同步提升。

27%不是危言耸听,而是“已经算保守了”

OECD在2023年发布的年度就业报告里,给出了一个让很多从业者坐不住的数字:27%的工作,处在AI自动化“最高风险”层级。这个结论并不是拍脑袋得出的——他们调查了7个国家、2000家企业、5300名专业人士,并把“拥有至少25项可被AI轻松自动化技能”的岗位,统一划进高风险区。

真正让人不安的是一句补充说明:这些数据,采集于ChatGPT爆发之前。也就是说,今天你看到的27%,很可能只是“低配版风险”。这次中招的,并不只是重复劳动者,而是大量知识型、流程型岗位——金融、制造业首当其冲。AI不是在替代某个职业名称,而是在拆解职业内部的技能模块。

同一份报告里,AI一边制造焦虑,一边让人更快乐

如果只看到“27%”,你会以为这是纯粹的坏消息。但OECD报告的另一半,明显更复杂,甚至有点反直觉。

在金融和制造业中,超过六成的公司选择“内部再培训”,而不是直接裁人;64%的金融公司优先考虑提升现有员工技能。更意外的是体验层面的变化:63%的制造和金融从业者表示,AI让他们“更享受工作”;79%的金融员工、80%的制造员工认为,自己的工作表现被AI显著提升。

甚至连心理健康都受益了——一半以上的受访者表示,AI减少了他们的压力来源。矛盾点在这:同一批人中,仍有63%的金融从业者、57%的制造业员工,担心未来10年会因AI失业。AI正在同时扮演‘减负工具’和‘潜在裁员官’这两个角色。

谷歌被告、OpenAI买单:模型训练的两条路

当AI重塑工作,另一个暗流也在加速:模型到底该用谁的数据来训练?

谷歌最近被集体诉讼,指控其“未经许可抓取数百万美国人的数据”来训练AI模型。谷歌的回应很硬:我们一直使用公开网页和公共数据集,而且合规。但就在不久前,谷歌更新了隐私政策,明确扩大了“可用的公开信息”范围——这让争议更难降温。

对比之下,OpenAI和Shutterstock的做法几乎是反面案例:签6年协议,直接付费获得图片、视频、音乐及其元数据的训练权,并把最新模型能力反向嵌入Shutterstock产品。这和Getty Images起诉Stability AI形成鲜明对照——一个是‘先谈钱’,一个是‘先上法庭’。未来模型竞争,可能不仅是参数之争,而是“数据合法性”的耐力赛。

国会真正害怕的,不只是AI,而是中国

在白宫首次面向参议员的AI机密简报后,一个共识迅速浮现:AI监管很急,但不能急到把自己绑住。共和党、民主党罕见地站在了同一条线上。

参议员的话很直白——AI潜力巨大,“如果它没先把我们干掉的话”。但真正反复被点名的‘大反派’,是中国。多位议员强调,AI不是普通科技,而是地缘政治筹码。Chuck Schumer给出了一个耐人寻味的时间表:立法不是几年,也不是几周,而是‘几个月’。这意味着,政策窗口正在快速收窄,而产业不会等人。

总结

这期AI新闻串在一起,其实讲的是同一件事:AI正在把“工作、数据、国家竞争力”拉进同一个加速器里。对从业者来说,真正的风险不是某个岗位消失,而是你的技能组合,是否还停留在“容易被模块化”的那一层。短期内,最安全的选择不是对抗AI,而是成为那个最会用AI、最懂它边界的人。一个值得你现在就思考的问题是:如果把你今天的工作拆成100个技能点,有多少个,已经能被模型稳定接管?


关键词: AI自动化, 就业风险, 模型训练数据, OpenAI, AI监管

事实核查备注: 需要核查的事实包括:OECD就业报告中27%的具体定义与方法;调查样本数量(5300人、2000家公司、7个国家);金融和制造业中各项百分比数据;谷歌集体诉讼的法律主体与指控原文;OpenAI与Shutterstock合作期限(6年)及合作内容;参议员相关引语与时间节点(2023-07)。