他辍学、混推特、做AI:Trung Phan给内容创作者的5个残酷真相
一个从预医辍学、在越南迷茫多年的人,最后成了AI时代最会“讲清复杂问题”的写作者。Trung Phan在这期对话里,把大学、媒体、AI创业和个人品牌的底层逻辑一次说透——而且很多结论,和你想的完全相反。
一个从预医辍学、在越南迷茫多年的人,最后成了AI时代最会“讲清复杂问题”的写作者。Trung Phan在这期对话里,把大学、媒体、AI创业和个人品牌的底层逻辑一次说透——而且很多结论,和你想的完全相反。
这篇文章提炼了Y Combinator关于生成式AI的一次关键对话,重点不在模型参数,而在如何正确理解能力边界、开发者策略以及AI Agent可能带来的下一次飞跃。读完你会更清楚:哪些期待是现实的,哪些地方必须“非常谨慎”。
当所有人都在盯着 ChatGPT、Elon Musk 和 Twitter 时,Greg Isenberg 却在 2022 年做了一连串“反主流”的判断:拒绝 Twitter 的收购、认为 Zapier 被严重低估、把退休重新定义。这不是年度总结,而是一份给 AI 从业者的认知清单。
在这期与Lex Fridman的长谈中,OpenAI联合创始人Wojciech Zaremba从费米悖论聊到神经网络,从机器人失败经验谈到人类意识与AI的边界。这不是一场技术发布,而是一位一线研究者对AI长期走向的深度自省。
这不是一次普通的产品发布,而是 OpenAI 当众展示:一个模型如何在一年内,从“代码准确率 0%”,进化到能写服务器、接 API、做小游戏。更反直觉的是,Ilya 亲口承认:这一切的原理,其实简单到令人不安。
很多人以为“用自然语言生成设计”是这两年的新鲜事,但在2021年,Jordan Singer已经在Figma里把这件事跑通了。这场看似讲插件的分享,其实完整展示了:设计×代码×AI,是如何一步步把设计工具变成“可对话的创造机器”。
很多人直觉认为:只要模型够大、预训练够久,语言迁移自然水到渠成。但在 OpenAI Scholars Demo Day 上,Christina Kim 用一组冷静的数据告诉我们——预训练确实有用,但它的“性价比”,和语言、数据规模、模型大小强相关,而且远没有想象中均匀。
在这期与MIT经济学家Erik Brynjolfsson的对话中,Lex Fridman围绕AI的指数增长、生产率停滞、社交网络失灵与不平等加剧展开讨论。本文提炼其最重要的洞见:技术进步并不自动带来繁荣,关键在于制度、激励与人类如何适应AI时代。
直到20年前,医学界还在争论一件事:癫痫发作到底能不能被预测?在 OpenAI Scholars Demo Day 上,一位神经科学出身的研究者用深度学习给出了一个并不完美、却足够震撼的答案——不仅能,而且很可能正是神经网络最擅长的那类问题。
在 OpenAI Scholars Demo Day 上,Christine Payne 做了一件反直觉的事:她没有发明全新的音乐模型,而是把“生成音乐”硬生生改造成一个语言模型问题。结果令人震惊——很多人已经分不清 AI 和人类作曲。但真正的挑战,才刚刚开始。