Figma现场给设计师泼冷水:AI不会拯救设计系统,只会放大混乱

AI PM 编辑部 · 2025年11月17日 · 4 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人都在把AI往设计流程里塞时,LinkedIn的设计系统团队却在Figma现场抛出一个反直觉结论:真正的危机不是“不会用AI”,而是“人人都能用AI”之后,设计如何不失控。这场分享,讲清了设计系统在生成式AI时代为什么必须彻底变形。

Figma现场给设计师泼冷水:AI不会拯救设计系统,只会放大混乱

当所有人都在把AI往设计流程里塞时,LinkedIn的设计系统团队却在Figma现场抛出一个反直觉结论:真正的危机不是“不会用AI”,而是“人人都能用AI”之后,设计如何不失控。这场分享,讲清了设计系统在生成式AI时代为什么必须彻底变形。

真正的麻烦不是AI太强,而是太多人能参与产品设计

分享一开始,Grant先抛了个看似轻松、实则尖锐的问题:有多少人在设计系统里已经用了AI?又有多少人“还不知道该怎么用”?答案并不重要,重要的是他们自己的判断——没人真的想清楚了。

在LinkedIn内部,AI带来的变化并不是“设计师效率翻倍”这种老生常谈,而是角色边界正在被打散。借助大语言模型,不再只有设计师和工程师能参与产品构建,任何职能的人,都可能直接生成界面、流程和原型。

这听起来很民主,但问题随之而来:当贡献者指数级增加,谁来保证质量?谁来保证产品看起来像“同一家公司的”?Grant点破了一个行业不太愿意正视的现实——质量问题不是新的,但规模是前所未有的。设计系统,第一次站在“公司级失控风险”的正中央。

LLM正在制造“高级同质化”,而设计系统要负责对抗它

Grant用了一个让在场设计师都点头的观察:LLM天然会趋向“相似答案”。不管是组件结构、交互模式,还是视觉风格,只要你用的是同一套模型、同一批训练语料,结果就会越来越像。

Shadcn、Tailwind、React生态的流行,让这种同质化更明显。工具越强,区分度反而越低。Grant的判断很明确:未来用不用LLM已经不是分水岭,能不能在使用LLM的同时保持独特视觉语言,才是。

这也是为什么LinkedIn重新审视设计系统的定位——如果系统只是组件仓库,它对抗不了“AI生成的千篇一律”。设计系统必须变成品牌和质量的放大器,而不是AI输出的被动接收者。

从组件库到“可被查询的服务”,设计系统开始像API一样思考

一个关键转折点,是他们不再把设计系统看成“一堆组件和文档”,而是一个“可以被查询的服务”。

他们把文档、规范、组件规格,甚至可供LLM消费的token,一起放进核心系统中。系统的核心不再是UI本身,而是数据如何被调用、被组合、被约束。

在Figma Make的实验中,这个思路被彻底跑通:设计系统团队提前把颜色token、组件规则、暗黑模式逻辑、常见提示语全部“预烘焙”进模板。使用者不需要理解复杂的系统知识,也不必从零写prompt,就能生成符合LinkedIn标准的结果。

这一步的本质,是把“质量控制”前移。不是在结果出来后审核,而是在生成发生之前,就把正确的边界设好。

AI不是让设计系统更轻松,而是让它第一次真正重要

一个容易被忽略的细节是:这些能力并不只服务设计师。分享中提到,用Make做原型的,有UX研究团队,有非设计背景的人。

这恰恰说明了问题的核心——当非设计师也能批量产出界面,设计系统就不再是“给设计师用的工具”,而是公司级的质量基础设施。

Grant最后的态度很克制:这会带来更多工作,而不是更少。但回报是,设计系统终于从“维护成本中心”,变成了“赋能中心”。在AI时代,它决定了一家公司是看起来统一、可信,还是快速滑向视觉噪音。

总结

这场分享真正的价值,不在于Figma Make的技巧,而在于一个清醒判断:生成式AI会放大一切,包括组织的混乱和设计系统的缺陷。如果你正在做AI相关产品,或维护设计规范,现在是时候问自己三个问题:你的系统能不能被AI正确理解?质量控制是在生成前还是生成后?当非设计师大量参与时,你的品牌还能站得住吗?

可以预见的是,未来最重要的设计系统,不是组件最全的,而是“最会和AI共事的”。


关键词: 设计系统, 生成式AI, 大语言模型, Figma Make, Token

事实核查备注: 需要核查:Grant的全名与职务;分享是否明确发生在Schema by Figma 2025;Figma Make的具体功能描述是否与现场演示一致;LinkedIn内部插件Realish的命名与用途