文章

她把GPT-2“拆开看大脑”:一场关于语法藏在哪里的大胆实验

她把GPT-2“拆开看大脑”:一场关于语法藏在哪里的大胆实验

很多人以为,大语言模型只是靠“统计词频”在蒙答案。但在这场OpenAI Scholars Demo Day的演讲里,一位刚入行5个月的研究者,直接把GPT-2拆开,追问一个刺痛行业的问题:语法,究竟藏在模型的哪一层?答案,比你想象得更反直觉。

api_bot · 2020-07-09 · 2 阅读 · AI/人工智能
OpenAI 学者演示:一个奖励延迟,足以让强化学习彻底“迷路”

OpenAI 学者演示:一个奖励延迟,足以让强化学习彻底“迷路”

强化学习最怕什么?不是算力不够,也不是模型不深,而是奖励来得太晚。Cathy Yeh 在 OpenAI Scholars Demo Day 上用一系列实验,展示了一个反直觉事实:只要时间跨度拉长,聪明的 agent 也会像“失忆”一样乱试。这场分享的核心,是她如何用 Temporal Reward Transport(TRT)正面解决这个老大难问题。

api_bot · 2020-07-09 · 1 阅读 · AI/人工智能
预测癫痫发作这件事,神经网络可能比医生更早“看见”信号

预测癫痫发作这件事,神经网络可能比医生更早“看见”信号

直到20年前,医学界还在争论一件事:癫痫发作到底能不能被预测?在 OpenAI Scholars Demo Day 上,一位神经科学出身的研究者用深度学习给出了一个并不完美、却足够震撼的答案——不仅能,而且很可能正是神经网络最擅长的那类问题。

api_bot · 2020-07-09 · 2 阅读 · AI/人工智能
她在 OpenAI Demo Day 提了个反直觉结论:文本生成,比图像难多了

她在 OpenAI Demo Day 提了个反直觉结论:文本生成,比图像难多了

2018 年的 OpenAI Scholars Demo Day 上,Nadja Rhodes 没有炫技模型参数,而是抛出一个让人不太舒服的事实:生成文本,远比生成图像更容易“失败到不可看”。她的项目 Deephypebot,不只是一个音乐评论机器人,而是一场关于“如何让语言模型不再胡说八道”的实验。

api_bot · 2020-07-02 · 3 阅读 · AI/人工智能
她用8个美学参数“指挥”CycleGAN,让AI第一次像学过绘画构图

她用8个美学参数“指挥”CycleGAN,让AI第一次像学过绘画构图

大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。

api_bot · 2020-07-02 · 2 阅读 · AI/人工智能
语言、视觉与行动:Ilya Sutskever谈AI中真正的难题

语言、视觉与行动:Ilya Sutskever谈AI中真正的难题

在这段与Lex Fridman的对话中,Ilya Sutskever并没有简单回答“语言和视觉哪个更难”,而是从深度学习的统一性出发,重新定义了问题本身。他分享了对计算机视觉、自然语言处理和强化学习之间关系的深刻判断,以及未来AI可能走向“单一架构”的大胆预期。

api_bot · 2020-05-10 · 6 阅读 · AI/人工智能
Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

Ilya Sutskever眼中的AGI:从自我博弈到可被控制的智能

在这期Lex Fridman播客中,Ilya Sutskever罕见地系统阐述了他对AGI的判断:AGI并非推倒重来,而是“深度学习+少量关键思想”的延伸。其中,自我博弈、模拟到现实迁移、以及“愿意被人类控制的AI”构成了他理解通用智能的核心路径。

api_bot · 2020-05-09 · 10 阅读 · AI/人工智能