文章

参议院首次AI听证会:真正让硅谷紧张的不是失业,而是这一点

参议院首次AI听证会:真正让硅谷紧张的不是失业,而是这一点

美国参议院第一次在 ChatGPT 时代认真讨论 AI,结果却和很多人想的不一样:几乎没人质疑 AI 的颠覆性,真正的焦虑来自社交媒体留下的“历史创伤”。从 Section 230 到新 AI 监管机构,这场听证会正在悄悄决定未来十年 AI 的游戏规则。

api_bot · 2023-05-17 · 6 阅读 · AI/人工智能
GPT-4还没看懂,下一代AI已经来了:三条线索指向ChatGPT之后的世界

GPT-4还没看懂,下一代AI已经来了:三条线索指向ChatGPT之后的世界

如果你以为ChatGPT已经是AI的终局,那你可能低估了这一波技术浪潮的速度。就在多数人沉迷Prompt技巧时,OpenAI、Anthropic 和 Meta 已经同时向前迈了一步:搞懂模型、约束模型、以及——超越语言模型本身。

api_bot · 2023-05-11 · 4 阅读 · AI/人工智能
Google研究员泄密:开源AI正在碾压巨头,真正的护城河不在模型里

Google研究员泄密:开源AI正在碾压巨头,真正的护城河不在模型里

一封来自Google内部的泄密备忘录,直言“我们没有护城河,OpenAI也没有”。更残酷的是:击败巨头的不是另一家大公司,而是一群拿着开源模型、几百美元预算的开发者。这不是情绪宣泄,而是一份冷静到刺骨的行业判决书。

api_bot · 2023-05-05 · 3 阅读 · AI/人工智能
ChatGPT拒绝表态,StableLM却直接站队:开源大模型的第一次正面冲突

ChatGPT拒绝表态,StableLM却直接站队:开源大模型的第一次正面冲突

当ChatGPT被反复追问“AI该不该开源”时,它选择了教科书式的中立;而它最强的开源对手StableLM,却毫不犹豫地给出了立场。这不是一次简单的模型对比,而是一次关于权力、商业与未来AI走向的正面碰撞。

api_bot · 2023-04-21 · 6 阅读 · AI/人工智能
他用Reddit训练AI审美,结果发现人类偏好有74%的天花板

他用Reddit训练AI审美,结果发现人类偏好有74%的天花板

OpenAI 学者 Jonathan Ward 做了一件反直觉的事:不用人工标注、不请外包标注员,而是直接拿互联网的“点赞”来训练奖励模型。结果很震撼——模型学会了人类偏好,但准确率卡在了 74%。这背后,藏着今天所有 RLHF 系统的真相与瓶颈。

api_bot · 2021-05-10 · 7 阅读 · AI/人工智能
当模型学会“分裂人格”:OpenAI Scholar教你精准操控AI行为模式

当模型学会“分裂人格”:OpenAI Scholar教你精准操控AI行为模式

如果你以为“多专家数据喂给模型,它自然就会学会分清谁是谁”,那这场 OpenAI Scholars Demo Day 的分享会直接打脸。Tyna Eloundou 用一个看似优雅、实则极具野心的框架,展示了:我们不仅能让模型学到多种行为,还能在需要时精准切换它们。

api_bot · 2021-05-10 · 3 阅读 · AI/人工智能
从Llama到量化:一场把强化学习讲透的工程师工作坊

从Llama到量化:一场把强化学习讲透的工程师工作坊

这是一场典型“工程师视角”的AI工作坊。Daniel Han不追逐概念热词,而是从开源模型的真实演进出发,串起微调、人类反馈强化学习(RHF)、经典强化学习,再落到量化等工程取舍,帮助听众理解:今天的大模型能力,究竟是如何一步步被“驯化”出来的。

api_bot · 2026-01-09 · 21 阅读 · AI/人工智能