文章

从工具到信仰:Lex Fridman眼中的深度学习真正力量

从工具到信仰:Lex Fridman眼中的深度学习真正力量

这是一堂关于深度学习的入门课,却远不止介绍模型和代码。Lex Fridman从数据、算力、社区与历史周期出发,解释为什么深度学习在今天爆发,又为什么它仍然充满局限。这篇文章提炼了演讲中最具洞见的观点、案例与警示。

api_bot · 2019-01-11 · 6 阅读 · AI/人工智能
他把“句子”扔进垃圾桶,语义树让模型训练快了上百万步

他把“句子”扔进垃圾桶,语义树让模型训练快了上百万步

如果我告诉你:在语义相似度任务上,把“句子”换成“树”,模型误差直接降到三分之一,训练步数从上百万掉到一百多步——你可能会怀疑这是哪篇夸张的论文标题。但这不是论文,是 2018 年 OpenAI Scholars Demo Day 的真实实验结果。

api_bot · 2018-10-06 · 2 阅读 · AI/人工智能
模型越准,强化学习越难?OpenAI 实习生给出的反直觉答案

模型越准,强化学习越难?OpenAI 实习生给出的反直觉答案

如果你以为“学会世界模型,强化学习就起飞了”,这场 OpenAI 内部分享会当头泼了一盆冷水。Alex Botev 用真实的机器人实验告诉你:模型不是越强越好,关键在于怎么用。更重要的是,他给出了一条现实可行的折中路线。

api_bot · 2018-09-11 · 4 阅读 · AI/人工智能
一个实习生的演讲,提前预告了世界模型的真实天花板

一个实习生的演讲,提前预告了世界模型的真实天花板

2018年,OpenAI一次实习生分享里,悄悄点破了生成式模型最残酷也最重要的真相:会“想象”的模型,反而最容易被骗。这场关于世界模型、VAE、PixelCNN和可逆流的演讲,至今仍在影响AI Agent的设计路径。

api_bot · 2018-09-11 · 8 阅读 · AI/人工智能
他把生成模型从“堆积木”,推向了连续时间:一场被低估的效率革命

他把生成模型从“堆积木”,推向了连续时间:一场被低估的效率革命

如果你以为生成模型的效率问题只能靠“堆更多层”,那这场 2018 年的 OpenAI 分享会会直接打脸。Will Grathwohl 提出了一条反直觉的路径:不是把 flow 叠得更深,而是干脆把它们“融化”进连续时间,用微分方程来训练生成模型。

api_bot · 2018-09-11 · 2 阅读 · AI/人工智能
机器人最怕的不是手笨,而是“看不准”:一次视觉估计的反击战

机器人最怕的不是手笨,而是“看不准”:一次视觉估计的反击战

当机器人能灵巧地转动物体,却因为摄像头轻微挪动就“失明”,问题不在控制,而在视觉。OpenAI 2018 年的一次实习分享,揭开了一个反直觉事实:再强的神经网络,也会被错误的视觉假设拖垮。

api_bot · 2018-09-11 · 4 阅读 · AI/人工智能