从3.5天工作制到全程被记录:AI正在重塑工作的边界

AI PM 编辑部 · 2024年11月26日 · 8 阅读 · AI/人工智能

正在加载视频...

视频章节

这期《AI Daily Brief》串联了四个看似分散却高度相关的信号:顶级银行CEO对3.5天工作制的判断、微软Recall引发的“全景监控”争议、Rabbit R1的Agent实验,以及中国研究者在推理模型上的新突破。它们共同指向一个问题:当AI能力指数级提升,我们是否准备好重写工作、隐私与技术演进的默认规则?

从3.5天工作制到全程被记录:AI正在重塑工作的边界

这期《AI Daily Brief》串联了四个看似分散却高度相关的信号:顶级银行CEO对3.5天工作制的判断、微软Recall引发的“全景监控”争议、Rabbit R1的Agent实验,以及中国研究者在推理模型上的新突破。它们共同指向一个问题:当AI能力指数级提升,我们是否准备好重写工作、隐私与技术演进的默认规则?

为什么摩根大通CEO会认真谈论3.5天工作制

这段讨论之所以重要,不只是因为它来自全球最大银行之一的CEO,而是因为这不是一句随口的“未来畅想”。在感恩节的短工作周背景下,摩根大通CEO Jamie Dimon 在接受彭博电视采访时直言:“你们的孩子将活到100岁,也不会得癌症,因为技术的进步,而且他们很可能一周只工作三天半。”这句话的冲击力在于,它把AI的影响从“效率工具”直接推到了“社会结构改变者”的位置。

Dimon 的判断并非空谈。摩根大通已经在AI上投入重兵:他在今年的致股东信中专门用一个章节讨论AI,并明确表示AI“对公司未来的成功至关重要”。更具体的是,摩根大通内部已经有超过300个AI用例处于生产环境中。这意味着,AI不是实验室里的概念,而是已经在真实业务中替代或增强人类劳动。

《AI Daily Brief》的主持人点出了一个关键洞见:如果AI真的替代了大量人类劳动,我们是否还会坚持“工作时长不变,只是任务更高级”的旧范式?还是会接受“工作更少,同样算是对社会的贡献”?他强调,这正是所谓“新的社会契约”讨论的核心。我们之所以难以想象,是因为我们习惯把未来强行拉回到今天的样子,但这种对工作意义的重新定义,可能是AI时代绕不开的一关。

微软Recall:当AI把你的每一次点击都变成“记忆”

如果说3.5天工作制是诱人的未来,那微软Recall则代表了让人不安的另一面。这一功能的本质是“持续截屏”:系统会对你在电脑上的操作进行截图,用AI对图像和文字进行索引,从而让你可以“搜索过去做过的一切”。这并不是传闻,微软已经发布了首个预览版本。

争议之所以巨大,是因为Recall几乎是“全景式监控”的技术化体现。微软的回应同样具体:第一,Recall是完全自愿的,必须用户主动开启;第二,所有截图都存储在本地,微软无法访问,也不会上传云端或用于训练模型;第三,用户可以查看并手动删除任何截图,并且可以设置不记录特定应用或网站;第四,系统会自动识别信用卡信息、密码和身份证件,这类内容不会被保存。

主持人提出了一个耐人寻味的判断:这种功能“最终会被完全正常化”。原因有二,其一,互联网历史已经反复证明,人类会逐渐习惯更高程度的监控;其二,如果安全和隐私问题能被妥善解决,这种“全量行为数据”将开启极其广阔的应用空间,远不止搜索这么简单。真正的不确定性只剩一个:人们心理上的接受边界,究竟在哪里。

Rabbit R1的Teach Mode:Agent理想与现实的摩擦

Rabbit R1曾是最受关注的AI可穿戴设备之一,但热度迅速回落。这次更新的“Teach Mode”之所以值得关注,是因为它触及了Agent式AI的核心理想:让普通用户在无需写代码的情况下,教AI完成任务。

具体来说,R1现在可以通过“示范学习”来训练。用户先用自然语言描述任务,然后录制自己在网页上的操作,比如获取社交媒体更新,或把一首歌保存到Spotify。设备会记录这一过程,并在之后根据指令复现。这是Rabbit在发布R1时就承诺的能力,但直到现在才真正上线。

一些体验反馈认为Teach Mode过程偏繁琐,但也普遍承认,“无代码Agent训练”本身极具潜力。Rabbit CEO Jesse Lyu 对外界质疑的回应非常坦率:“你必须遇到所有边缘情况,然后边走边调,这就是用AI模型开发的本质。”他也承认,Rabbit没有10年的时间和资源去把所有问题都提前测试完,只能“take our shot and move fast”。这让人不得不反思:在生成式AI时代,“快速行动、打破常规”是否仍然是正确的信条?

中国研究者的推理突破:把‘思考过程’藏在幕后

最后一则消息把视角拉回到更底层的技术竞争。继 DeepSeek 声称其文本推理模型在能力上超过 OpenAI 的 o1-preview 之后,一个由中国高校组成的研究团队发布了视觉语言模型 Lava-01,试图证明“推理时计算量扩展”同样适用于图像任务。

视觉语言模型(VLM)过去也尝试过Chain-of-Thought提示,但效果有限,原因在于推理过程不够结构化,模型容易“迷路”。Lava-01借鉴了 OpenAI o1 的思路,把推理拆成四个阶段:先给出问题的高层总结;再对图像进行有针对性的描述;随后进行结构化逻辑推理,生成初步答案;最后只向用户展示最终结论,其余过程隐藏在幕后。

研究者指出,正是这种“结构化输出设计”,让每一步都可以被高效验证,从而提升推理阶段的准确性和可扩展性。当然,争议依然存在。评论者 Ria Shakur 就吐槽说,这篇论文几乎没有披露任何训练细节,“没有代码,没有标注数据集”。即便如此,可以确定的是:围绕推理阶段和测试时计算量的创新,正在成为全球AI竞赛的新焦点。

总结

把这四个故事放在一起看,会发现它们并不零散:AI一边在承诺更短的工作时间,一边在要求更深的行为透明;一边在尝试把“思考”自动化,一边暴露出快速迭代的风险。Jamie Dimon 的3.5天工作制不是终点,而是一个起点——它迫使我们思考,当AI能力持续放大,人类究竟该如何重新定义工作、隐私与技术进步之间的平衡。这些讨论不会停留在未来,而是正在逼近当下。


关键词: AI应用, 3.5天工作制, Microsoft Recall, AI Agent, 推理模型

事实核查备注: Jamie Dimon(摩根大通CEO)关于‘一周工作三天半’的表述;摩根大通已部署超过300个AI生产用例;微软Recall为本地、可选功能,不上传云端;Rabbit R1推出Teach Mode支持示范学习;DeepSeek与OpenAI o1-preview的对比说法;Lava-01视觉语言模型的四阶段推理结构。