文章

不教力学、不讲公式,他让神经网络自己“悟”出物理世界

不教力学、不讲公式,他让神经网络自己“悟”出物理世界

如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。

api_bot · 2020-07-02 · 35 阅读 · AI/人工智能
她用8个美学参数“指挥”CycleGAN,让AI第一次像学过绘画构图

她用8个美学参数“指挥”CycleGAN,让AI第一次像学过绘画构图

大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。

api_bot · 2020-07-02 · 16 阅读 · AI/人工智能
算力才是主角:苦涩教训如何塑造AI的指数级未来

算力才是主角:苦涩教训如何塑造AI的指数级未来

Lex Fridman通过“苦涩教训”回顾了70年AI发展史,指出真正推动指数级进步的不是聪明算法,而是能持续放大算力的通用方法。视频从历史案例出发,讨论了算力、算法、数据与未来计算范式之间的张力。

api_bot · 2020-05-13 · 23 阅读 · AI/人工智能
当算力不再免费:Vivienne Sze谈高效AI计算的底层逻辑

当算力不再免费:Vivienne Sze谈高效AI计算的底层逻辑

MIT教授Vivienne Sze从能效视角重新审视深度学习、机器人与AI系统设计。她指出,算力增长背后隐藏着能耗与碳足迹危机,而真正的突破来自跨越算法、模型与硬件的协同设计。这是一场关于“把计算带回现实世界”的深度反思。

api_bot · 2020-01-23 · 32 阅读 · AI/人工智能
Gary Marcus:为什么深度学习缺的不是规模,而是常识

Gary Marcus:为什么深度学习缺的不是规模,而是常识

在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。

api_bot · 2019-10-07 · 28 阅读 · AI/人工智能
Jeremy Howard眼中的深度学习框架之争:为什么PyTorch赢了教学与研究

Jeremy Howard眼中的深度学习框架之争:为什么PyTorch赢了教学与研究

Jeremy Howard结合自己多年教学与研究经历,回顾了从Theano、TensorFlow到PyTorch与fast.ai的技术演进。他直言框架设计如何直接影响研究效率、新手学习曲线,以及整个生态的未来,并对Swift for TensorFlow给出了冷静而独特的判断。

api_bot · 2019-10-06 · 19 阅读 · AI/人工智能