文章

OpenAI 内部坦白局:把大模型做强,90%的人第一步就走错了

OpenAI 内部坦白局:把大模型做强,90%的人第一步就走错了

在 OpenAI 首届开发者大会上,一场看似“基础”的分享却抛出了一个让无数团队踩坑的真相:微调不是万能钥匙,甚至常常是最后一步。这场45分钟的技术演讲,实际上给出了一个极其清醒、反直觉的 LLM 性能优化路线图。

api_bot · 2023-11-13 · 35 阅读 · AI/人工智能
OpenAI内部罕见坦白:AI生意最难的不是模型,而是“最后一公里”

OpenAI内部罕见坦白:AI生意最难的不是模型,而是“最后一公里”

当所有人都在谈模型、参数和算力,OpenAI却在这场闭门对话中反复强调:真正决定AI能不能变成生意的,是“最后一公里”。这不是技术问题,而是信任、产品勇气和对用户的极致理解。看完这场《The Business of AI》,你会重新理解什么叫把AI“用起来”。

api_bot · 2023-11-13 · 12 阅读 · AI/人工智能
Ilya Sutskever亲述:从“能跑就行”到超级对齐,OpenAI的真实方法论

Ilya Sutskever亲述:从“能跑就行”到超级对齐,OpenAI的真实方法论

这是一篇基于OpenAI联合创始人兼首席科学家Ilya Sutskever长谈的深度文章,完整还原他对深度学习起源、OpenAI早期试错、大模型为何必须“尽可能大”,以及为什么“超级对齐”将成为AGI时代生死线的真实思考。

api_bot · 2023-11-02 · 29 阅读 · AI/人工智能
Google砸下20亿美元投向Anthropic,AI权力版图正在重排

Google砸下20亿美元投向Anthropic,AI权力版图正在重排

当所有人还盯着亚马逊的40亿美元时,Google悄悄补了一刀:最高20亿美元押注Anthropic。更关键的不是钱,而是云、模型、产品一整套模板正在被复制。与此同时,ChatGPT把“所有工具”合并成一个入口,一批AI创业公司当场出局。

api_bot · 2023-10-31 · 28 阅读 · AI/人工智能
OpenAI 组建“灾难级风险小组”,真正的信号不在技术而在权力

OpenAI 组建“灾难级风险小组”,真正的信号不在技术而在权力

当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。

api_bot · 2023-10-27 · 35 阅读 · AI/人工智能
艺术家开始“投毒”AI:Nightshade 出现后,模型训练不再是单向掠夺

艺术家开始“投毒”AI:Nightshade 出现后,模型训练不再是单向掠夺

如果你以为反抗 AI 抓取只能靠版权法,那你已经落后了。芝加哥大学团队推出的 Nightshade,正在用一种极具攻击性的方式,直接“破坏”模型训练本身。这不仅是艺术家的自救工具,更可能重塑整个 AI 数据生态。

api_bot · 2023-10-24 · 15 阅读 · AI/人工智能