FTC突袭OpenAI:ChatGPT第一次站上监管被告席,真正的麻烦才刚开始
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
如果你以为AI还停留在“看图说话”,这期研究回顾会让你坐不住:AI已经能不经文字,直接把脑电波变成图像;游戏角色开始像真人一样记住你、向你学习;一张照片45秒生成3D模型;而这些能力,正在以工具形态快速落地。
当大家还在卷模型参数时,Sam Altman已经把目光投向“AI应用的分发权”。与此同时,更小的数据集击败大模型、新版图灵测试、地下芯片市场同时登场——这不是零散新闻,而是一场AI权力结构的重组。
当所有人都在问“AMD能不能打败英伟达”,真正让AI圈兴奋的却不是参数,而是一条不太起眼的合作线索。这条线,可能决定未来AI算力的玩法。
如果你还以为 ChatGPT 的优势不可撼动,这条消息会让你重新评估:开源阵营第一次在“关键能力”上追平闭源模型。能联网搜索的 HuggingChat、性能逼近闭源的 Falcon 40B,以及监管对 AI 内容标签的逼近,共同勾勒出一个正在急转弯的 AI 时代。
当所有人以为“大模型只会越来越大”,Intel却拿出1万亿参数押注科学研究;Meta用《圣经》训练出覆盖4000种语言的语音模型;而一篇论文却告诉行业:少量微调,反而赢过GPT‑4。这不是热闹,而是方向改变的信号。
Google研究员Karan Singhal回顾了自己从青少年时期的AI项目,到主导Med-PaLM 2医疗大模型的关键转折。这期对话不仅解释了为什么医疗AI不能“直接套用”通用大模型,也系统阐述了预训练、微调、评估与真实医疗工作流之间的张力。
插件不是给ChatGPT“加功能”,而是把它从聊天机器人推向“可执行系统”。从买菜、订机票,到金融研究、代码分析,这一波插件真正改变的,是AI与现实世界的连接方式。
IBM宣布“用AI替代7800个岗位”,但真相比裁员更冷酷;亚马逊不满足于Bedrock,直接重做Alexa的大模型;而UT Austin的研究,已经能把脑电活动翻译成文字。更耐人寻味的是,这一切背后,AI教父Hinton选择了离开。
在这期《No Priors》播客中,Sarah Guo 与 Elad Gil 罕见地放下准备稿,直接回答听众关于开源模型、AI Agent、监管与AGI的尖锐问题。他们从投资者和一线观察者视角,给出了多个清晰判断:开源大模型正在快速追赶闭源巨头,训练成本会持续下降,而真正决定格局的不是技术本身,而是谁能长期跑在前面并把领先优势变成商业结果。