聊聊“容错空间”:为什么 AI 能画好图,却不容易搞好某些工作
最近在观察 AI 在不同领域的落地情况时,尝试把背后的逻辑抽象成一个简单判断:
AI 替代潜力 ≈ 容错空间 /(责任权重 × 验证成本)
不一定严谨,但用来理解“哪些工作容易被 AI 吃掉,哪些不太行”,还算顺手。
不同任务对“不完美”的接受程度差别很大。
高容错空间的工作(插画生成、营销文案撰写、基础 UI 排版):
结果差一点,通常只是“没那么好”
有一定偏差,整体价值仍然存在,甚至可能被当成风格
低容错空间的工作(外科手术中的实时操作决策、在轨航天器轨道参数调整、核心系统的控制与调度逻辑):
问题不在于错多少,而在于能不能错
一旦越过阈值,后果往往是非线性的,直接归零甚至更糟
AI 的输出本质是概率性的,这在高容错场景不是问题,在接近零容错的场景就很致命。
如果一项工作的失败后果涉及重大损失、法律风险或人身安全,责任归属就会变得很重要。
由于算法无法承担法律责任,只要最终责任仍然在人类身上,人类就不可能完全放手。 在高责任场景下,AI 更像是辅助工具,而不是决策主体。
AI 是否真的省事,很大程度取决于“验证它对不对要花多少代价”。
验证成本低的任务(如画图):
人类可以快速判断结果好坏
AI 的效率优势很明显
验证成本高的任务:
AI 给方案很快
但人类为了确认其在各种极端情况下都安全,往往要投入大量时间
当验证成本接近甚至超过自己处理的成本时,AI 的替代价值就会明显下降。
目前 AI 主要擅长的是:
容错空间大
验证成本低
责任后果可控的任务
而在低容错、高验证成本、高责任权重的场景中,人类的深度介入短期内仍然很难被替代。
(AI 参与润色)
1
metalvest 5 天前 via Android
单个任务越小,多个任务之间越独立,越不容易失败。任务耦合越高,token/算力消耗越大,越容易失败。生成一个大型风景图集和生成一部长篇漫画,验证成本都很低,但后者显然更容易失败。
|