73%的人信AI写的内容:真正可怕的不是模型,而是人类的放松警惕

AI PM 编辑部 · 2023年06月20日 · 3 阅读 · AI/人工智能

正在加载视频...

视频章节

如果你以为大众还在“害怕AI”,那这组数据会让你后背发凉:73%的消费者信任AI生成的内容,甚至愿意让AI给理财和医疗建议。这不是未来推演,而是已经发生的现实。

73%的人信AI写的内容:真正可怕的不是模型,而是人类的放松警惕

如果你以为大众还在“害怕AI”,那这组数据会让你后背发凉:73%的消费者信任AI生成的内容,甚至愿意让AI给理财和医疗建议。这不是未来推演,而是已经发生的现实。

73%的信任率:这个数据,比AGI更值得警惕

Capgemini在2023年4月完成的一项消费者研究,抛出了一个极具冲击力的结论:73%的消费者信任生成式AI写的内容。更夸张的是,53%的人愿意信任AI辅助的理财规划,67%的人认为自己能从AI医疗建议中受益,66%的人甚至会向AI咨询人际关系问题。

这个结果连每天追踪AI新闻的主持人都直言“完全超出预期”。原因不只是高,而是高得不合逻辑——在一个充斥着幻觉、偏见和不透明训练数据的技术阶段,人类的信任却提前到位了。更反直觉的是,Boomer和Gen X对AI工具的认知度,反而高于Millennials。也就是说,最早被互联网教育要‘保持怀疑’的一代,这次没有踩刹车。

几乎没人担心风险:AI安全讨论,严重脱节了

如果说高信任度已经让人不安,那风险感知的数据才是真正的冷水。49%的受访者不担心AI制造的假新闻;只有34%的人担心AI钓鱼诈骗;仅33%的人在意艺术家作品被用于训练却得不到回报。

问题不在于公众‘无知’,而在于时间差。这项调查的主要时间窗口是2022年10月到2023年4月——恰恰发生在AI安全议题全面升温之前。杰弗里·辛顿从Google离职、行业开始公开讨论失控风险,几乎都发生在调查之后。

这制造了一个危险的错位:行业已经开始紧张,但消费者的信任已经形成惯性。一旦产品默认被相信,错误的放大速度会远超技术修复速度。

资本市场给了另一个答案:怀疑AI,真的很贵

如果你在过去一年选择做一个AI怀疑论者,代价可能高得惊人。《华尔街日报》数据显示,仅2023年,做空美股的投资者已累计亏损1200亿美元,而核心驱动力正是AI。

Meta、Microsoft、NVIDIA的股价在宏观环境紧缩的背景下逆势狂飙。Meta年内上涨134%,让扎克伯格身价增加570亿美元;NVIDIA的爆发直接把黄仁勋推入全球最富有科技领袖行列。短短6月上旬,空头就被‘AI叙事’绞杀了720亿美元。

资本市场给出的信号很清晰:不管你是否认同AI的长期价值,短期内,质疑它是一笔极其昂贵的交易。

工具正在补齐信任漏洞,但还远远不够

也并非所有公司都在无视风险。语音AI公司ElevenLabs在完成1900万美元A轮融资的同时,上线了Speech Classifier,用来检测音频是否由其模型生成;同时推出Projects,让长音频内容的生成和编辑流程彻底产品化。

Vimeo也加入战局,用提示词直接生成视频脚本,并通过“改文字即改视频”的方式,降低内容生产门槛。再加上NVIDIA支持的程序化3D数据集Fijen,用‘数学生成现实’来解决未来训练数据枯竭的问题。

这些工具都在解决同一个问题:当AI被无条件信任时,至少要让来源、过程和责任变得可追溯。但现实是,工具的成熟速度,正在被信任的扩散速度反超。

总结

这期AI Daily Brief真正抛出的,不是某个新模型或新融资,而是一个更难回答的问题:当大众已经选择相信,而技术仍不完美时,谁该为后果负责?

对AI从业者来说,takeaway只有一个:不要假设用户会保持怀疑。产品设计、内容标注、风险提示,必须默认在‘高度信任’环境下运行。下一阶段的竞争,可能不在模型参数,而在于你是否提前为“被完全相信”做好了准备。你现在做的每一个决定,都会在信任放大器里被无限放大。


关键词: 生成式AI, AI信任危机, AI安全, 语音AI, 资本市场

事实核查备注: 需要核查:1)Capgemini研究报告名称《Why Consumers Love Generative AI》及调查时间(2022-10 至 2023-04);2)73%、53%、67%、66%、49%、34%、33%等具体比例;3)ElevenLabs A轮融资金额1900万美元;4)WSJ关于2023年空头亏损1200亿美元的数据;5)Meta、NVIDIA等公司股价及个人财富增长数字。