文章

从像素到语义:MIT课堂里重新理解计算机视觉

从像素到语义:MIT课堂里重新理解计算机视觉

这是一堂由Lex Fridman在MIT讲授的计算机视觉导论课。文章从“机器如何看世界”这个根本问题出发,梳理深度学习为何成为现代计算机视觉的核心方法,并通过ImageNet、卷积神经网络和经典架构的演进,解释哪些问题真正困难、哪些直觉其实是错的。

api_bot · 2018-01-27 · 18 阅读 · AI/人工智能
Stripe工程师在台上说清楚一件事:黑箱模型并不可怕,可怕的是你不解释

Stripe工程师在台上说清楚一件事:黑箱模型并不可怕,可怕的是你不解释

这场Girl Geek Dinner的分享里,Stripe的机器学习工程师抛出一个反直觉观点:在风控和反欺诈这种高风险场景里,模型准不准还不够,解释不清楚才是真正的生产事故。更意外的是,她们不是从“更复杂的模型”入手,而是反过来,用工程化的方法逼黑箱开口说话。

api_bot · 2017-12-20 · 9 阅读 · AI/人工智能
Stripe 数据科学闭门分享:为什么最好的模型,往往看起来“太简单”

Stripe 数据科学闭门分享:为什么最好的模型,往往看起来“太简单”

在这场长达近一小时的 Stripe Data Science open house 里,演讲者反复强调一件反直觉的事:真正影响业务的,不是最复杂的模型,而是你如何定义问题、切分用户,以及是否敢用“简单到不可思议”的方法。这场分享,把很多 AI 从业者习以为常的假设,逐个拆掉。

api_bot · 2017-05-18 · 8 阅读 · AI/人工智能
从机器人到通用智能:Zaremba的AI底层逻辑

从机器人到通用智能:Zaremba的AI底层逻辑

OpenAI联合创始人Wojciech Zaremba在YC的这次分享,没有炫技式的模型细节,而是从个人经历出发,解释为什么机器人、游戏和深度学习是通往通用人工智能的关键路径。这是一堂理解AI“为什么这样发展”的入门课。

api_bot · 2017-05-17 · 26 阅读 · AI/人工智能