Getty押注“版权安全AI”,生成式图像的真正分水岭来了

AI PM 编辑部 · 2023年09月26日 · 4 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人还在争论AI训练到底侵不侵权时,Getty和Adobe已经换了一个打法:不等法律落地,先把“商业可用”这件事做成。这期《The AI Daily Brief》揭示的,不只是工具更新,而是生成式AI即将分化成两条完全不同的路线。

Getty押注“版权安全AI”,生成式图像的真正分水岭来了

当所有人还在争论AI训练到底侵不侵权时,Getty和Adobe已经换了一个打法:不等法律落地,先把“商业可用”这件事做成。这期《The AI Daily Brief》揭示的,不只是工具更新,而是生成式AI即将分化成两条完全不同的路线。

还没等法院判,赢家已经提前站位

围绕生成式AI的版权问题,监管者还在“加班补课”,但企业用户已经用脚投票了。Getty Images 联合 NVIDIA 推出了一款名字拗口的生成式图像工具,主打一个卖点:版权安全。逻辑非常直接——模型训练数据来自 Getty 自有的图片库,而 Getty 拥有这些图片的版权。

这并不意味着“训练AI是否侵权”这个终极问题已经解决。恰恰相反,视频里明确指出:AI训练是否受版权法约束,几乎注定会打到最高法院。但现实是,在法律给出答案之前,企业法务必须现在就做决策。

对比一下就很清楚了:用 Midjourney、Stable Diffusion、DALL·E 生成图片,训练数据来源复杂;而 Getty 的方案,是“我知道这些数据从哪来”。对企业来说,这种确定性本身就值钱。正如视频里的判断——很多公司的法务部门,会更愿意点头批准 Getty,而不是“野生模型”。这不是技术胜利,而是合规优先级的胜利。

质量不是重点,“能不能用在合同里”才是

一个反直觉但很现实的细节是:Getty 的生成图片,并不追求“惊艳”。The Verge 的测试反馈甚至提到,它继承了典型的“图库气质”——有点冷、理性、去情绪化。但关键在于,它在“像真人”这件事上,反而比 Stable Diffusion 更稳,甚至能骗过朋友。

更重要的是它“不会做什么”。不能生成真实人物,不能模仿在世艺术家的风格。这些限制在普通用户看来是阉割,但在企业用户眼里却是保险丝。

Adobe Firefly 走的是几乎一模一样的路线:训练数据来自自有版权素材、公共领域和 Creative Commons,并且直接承诺——如果因为版权被告,Adobe 出钱打官司。这句话对市场的冲击力,可能比任何技术指标都大。

一个趋势正在变得清晰:生成式图像正在分裂成两条赛道。一条追求极致创作自由,一条追求“可审计、可签合同、可上线广告”。而真正的大钱,几乎注定流向后者。

从版权到监控,AI正在逼出更硬的规则

如果说图像版权是商业层面的焦虑,那么 Meredith Whittaker 在 TechCrunch Disrupt 上的发言,则把问题直接拉到了社会层面。她几乎没有留情面地说:AI 本质上是一种监控技术,是对过去二十多年“监控式广告模式”的强化。

她给出的例子非常具体:人脸识别、情绪识别、行为预测——不管准不准,它们都在生成关于你的数据,而这些系统最终服务的,是雇主、政府、边境机构等“对你有权力的人”。

这也是为什么欧盟 AI Act 采取的是“风险分级”监管,而不是一刀切。用 AI 生成图片,和用 AI 预测潜在犯罪,合规要求完全不同,后者甚至被直接列为不可接受的用途。

把这些线索连起来看,会发现一个更大的趋势:无论是 Getty 的版权围栏,还是欧盟的风险监管,本质都是在给 AI 划边界。AI 不再是“能不能做”,而是“在哪些地方绝对不能越线”。

总结

这期视频真正值得 AI 从业者反复咀嚼的,不是某个新工具,而是一个信号:生成式 AI 的下半场,竞争核心正在从“谁更强”转向“谁更安全”。如果你在做产品,合规和数据来源将不再是附加项;如果你在企业里推动 AI 落地,法务和技术会被迫深度绑定。一个值得思考的问题是:当模型能力逐渐趋同,下一张王牌,会不会根本不在模型本身?


关键词: 生成式AI, AI版权, 文本生成图像, AI监管, 企业级AI

事实核查备注: 需要核查:1)Getty Images 生成式AI工具发布时间与合作方 NVIDIA;2)The Verge 对 Getty 图像质量的具体评价原文;3)Adobe Firefly 提供“全额赔偿(indemnification)”的官方表述;4)Meredith Whittaker 在 TechCrunch Disrupt 的原始发言措辞;5)欧盟 AI Act 中关于高风险与禁止用途的具体条款。