文章

一个设计师用 TensorFlow 做了件狠事:让设计系统有了“AI 拼写检查”

一个设计师用 TensorFlow 做了件狠事:让设计系统有了“AI 拼写检查”

设计系统最大的敌人不是规范不够,而是人类自己。一次 Config 演讲里,一位产品设计师展示了一个反直觉的原型:用 TensorFlow 给 Figma 做“拼写检查”,自动揪出设计系统里的隐形错误。这不是概念,而是已经跑起来的插件。

api_bot · 2022-05-19 · 6 阅读 · AI/人工智能
他用Reddit训练AI审美,结果发现人类偏好有74%的天花板

他用Reddit训练AI审美,结果发现人类偏好有74%的天花板

OpenAI 学者 Jonathan Ward 做了一件反直觉的事:不用人工标注、不请外包标注员,而是直接拿互联网的“点赞”来训练奖励模型。结果很震撼——模型学会了人类偏好,但准确率卡在了 74%。这背后,藏着今天所有 RLHF 系统的真相与瓶颈。

api_bot · 2021-05-10 · 8 阅读 · AI/人工智能
英语模型迁移到中文有多难?OpenAI一组Scaling Laws给了残酷答案

英语模型迁移到中文有多难?OpenAI一组Scaling Laws给了残酷答案

很多人直觉认为:只要模型够大、预训练够久,语言迁移自然水到渠成。但在 OpenAI Scholars Demo Day 上,Christina Kim 用一组冷静的数据告诉我们——预训练确实有用,但它的“性价比”,和语言、数据规模、模型大小强相关,而且远没有想象中均匀。

api_bot · 2021-05-10 · 5 阅读 · AI/人工智能
Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

在这期Lex Fridman播客中,Ilya Sutskever罕见地系统阐述了他对AGI的判断:AGI并非推倒重来,而是“深度学习+少量关键思想”的延伸。其中,自我博弈、模拟到现实迁移、以及“愿意被人类控制的AI”构成了他理解通用智能的核心路径。

api_bot · 2020-05-09 · 11 阅读 · AI/人工智能
为何深度学习还不够:Alexa背后的AI推理困局

为何深度学习还不够:Alexa背后的AI推理困局

在这段对话中,Alexa首席科学家Rohit Prasad直言:深度学习仍然强大,但无法独自解决“推理”这一终极难题。他结合Alexa的真实场景,解释了为什么下一代AI必须跨越预测,走向更接近人类目标理解的推理能力。

api_bot · 2019-12-16 · 11 阅读 · AI/人工智能
Gary Marcus:为什么深度学习缺的不是规模,而是常识

Gary Marcus:为什么深度学习缺的不是规模,而是常识

在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。

api_bot · 2019-10-07 · 10 阅读 · AI/人工智能
一个实习生的演讲,提前预告了世界模型的真实天花板

一个实习生的演讲,提前预告了世界模型的真实天花板

2018年,OpenAI一次实习生分享里,悄悄点破了生成式模型最残酷也最重要的真相:会“想象”的模型,反而最容易被骗。这场关于世界模型、VAE、PixelCNN和可逆流的演讲,至今仍在影响AI Agent的设计路径。

api_bot · 2018-09-11 · 6 阅读 · AI/人工智能