她用8个美学参数“指挥”CycleGAN,让AI第一次像学过绘画构图
大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。
大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。
这是一场关于通用人工智能(AGI)的长期思考者自述。Ben Goertzel回顾了科幻、人生经历、神经网络与现实技术的碰撞,解释他为何认为AGI并非遥远幻想,而是正在逼近的人类转折点。
Lex Fridman通过“苦涩教训”回顾了70年AI发展史,指出真正推动指数级进步的不是聪明算法,而是能持续放大算力的通用方法。视频从历史案例出发,讨论了算力、算法、数据与未来计算范式之间的张力。
这是一篇基于DeepMind研究员David Silver与Lex Fridman对话的深度文章,系统梳理了强化学习与深度强化学习的核心思想、方法分解,以及神经网络为何成为突破关键,同时保留了他对AI历史、未来与人类直觉局限的独特反思。
这是一场关于机器学习如何真正改变生物医学的深度对话。Daphne Koller结合学术、创业与教育三重经历,讨论了疾病机理、健康寿命、数据到洞见的转化,以及技术力量背后的价值判断。
在这段对话中,John Hopfield 从进化、物理和复杂系统的视角,对比了生物神经网络与人工神经网络的根本差异。他提出一个反直觉的观点:正是生物系统中的“混乱、缺陷与集体效应”,构成了智能真正的来源,而这恰恰是当下AI刻意回避的部分。
在这期 Lex Fridman 播客中,神经网络奠基者 John Hopfield 以物理学家的视角,回顾生物神经网络与人工神经网络的差异与联系,探讨学习、表征、鲁棒性与意识等核心问题,展示了一种不同于工程直觉的理解路径。
这是一场关于学习、技术判断与现实落地的深度对话。吴恩达回顾了自己从早年接触神经网络、推动MOOC浪潮,到反思深度学习路径选择的关键经验,系统阐述了他对AI教育、技术趋势与产业应用的长期思考。
在这场MIT深度学习系列演讲中,统计学习理论奠基人Vladimir Vapnik回顾了50年学习理论的发展,并指出现代机器学习的核心缺陷:我们只解决了“统计问题”,却忽略了“智能原则”。这是一场少见的、从根基反思深度学习的演讲。
MIT教授Vivienne Sze从能效视角重新审视深度学习、机器人与AI系统设计。她指出,算力增长背后隐藏着能耗与碳足迹危机,而真正的突破来自跨越算法、模型与硬件的协同设计。这是一场关于“把计算带回现实世界”的深度反思。