{"text":[[{"start":9.28,"text":"若使用得当,生成式 AI 能够显著提升人类的生产力。它可以协助团队探索战略、起草营销方案,并大幅拓展个人产出的广度与速度。"}],[{"start":20.32,"text":"但伴随这些收益而来的是组织内部涌现的一个新挑战:“工作废料”(workslop)——即那些乍看之下打磨精致且合乎情理,实则内容空洞的作品。《哈佛商业评论》近期的一篇文章引入了这一术语,精准概括了许多管理者在日常工作中遇到的现状:包装精美的草案最终反而给他人增加了额外的工作负担。"}],[{"start":42.49,"text":"在 AI 时代来临之前,识别劣质工作通常相对容易,因为工作的“卖相”与“实质”之间至少存在某种松散的联系。篇幅、润色程度和连贯性虽然不是完美的指标,但往往能反映出投入的精力。然而,AI 切断了这种关联。"}],[{"start":60.67,"text":"如今,生成流畅且形式上看似正确的备忘录、演示文稿、代码和分析报告的成本极低。但其真实性、严谨性和相关性却难以保障,除非有人投入时间进行仔细核查。"}],[{"start":75.27,"text":"这种转变催生了一种“评估税”(evaluation tax),它带来的后果不仅是技术层面的,更是组织层面的。作为企业最稀缺的资源,“注意力”必须从“生产”环节转移到“验证”环节。"}],[{"start":88.55,"text":"但这并不意味着要放慢一切。它意味着我们必须认识到,对于组织中最具价值的贡献者而言,其核心任务正日益从“谁能起草初稿”转变为“谁能判断文稿中的主张是否站得住脚”。"}],[{"start":102.39999999999999,"text":"由于注意力稀缺,且决策者早已不堪重负,人们很容易倾向于对那些看似完美的产出进行“橡皮图章”式的盲目批准。这种捷径可能代价高昂。2025年10月,德勤澳大利亚(Deloitte Australia)同意向政府退还部分款项,原因是一份长达237页的报告被发现包含明显的AI生成错误,其中包括引用了并不存在的论文以及错误归属的法律引言。"}],[{"start":128.7,"text":"即便该报告的大致结论在逻辑上是合乎情理的,这一事件仍引发了补救工作,削弱了信任,并导致了合约层面的争执。问题的根源并不在于使用 AI 本身,而在于使用了 AI 却未加核查。"}],[{"start":143.83999999999997,"text":"如果 AI继续加速草案的生成,管理者将面临一个不可回避的问题:组织如何在获得规模与范围红利的同时,不被“工作废料”所淹没?"}],[{"start":154.24999999999997,"text":"面对这一评估难题,一种自然的反应是询问 AI 自身能否承担核查任务。如果 AI 能生成内容,为何不让 AI 也来验证它?在某些领域,这种方法行之有效。"}],[{"start":167.54999999999998,"text":"数学是最典型的例子。诸如 Lean 这样的工具可以精确地对证明进行正式的验证。在这些场景中,人类探索思路,机器核查正确性。这种验证是正式的、无歧义的,且具备可扩展性。"}],[{"start":183.24999999999997,"text":"然而,大多数组织工作并不像数学。战略制定、研究综述、政策分析、咨询建议以及许多软件设计工作,都是无法进行正式验证的。这些工作依赖于判断力、语境和解读。在这些领域,验证无法完全自动化,仍然需要人类的投入。"}],[{"start":202.77999999999997,"text":"更糟糕的是,基于 AI 的核查往往非但不能补充人类的验证,反而会将其削弱。对于算法辅助评估的研究证据表明,当算法执行了初步检查后,人类往往会降低自身的审查力度。自动化检查工具的存在改变了人们的行为模式:一旦人们认为“系统已经查过了”,他们对仔细进行人工验证的预期回报感就会下降。"}],[{"start":227.05999999999997,"text":"这引出了更深层的问题:激励机制。AI 降低了生产成本,却提高了“动力成本”(cost of motivation)。即便做正确的事变得更容易了,但做错误的事也变得更加容易。当生成看似合理的产出变得极其低成本时,产出便不再能可靠地反映投入的努力或判断力。这并非职业道德的沦丧,而是对工作回报机制的一种理性反应。"}],[{"start":252.57999999999998,"text":"人们是基于可见的交付成果——生成的文档、提交的幻灯片、完成的分析——来接受评估的。AI让达到这些标准变得毫不费力。相比之下,验证工作依然耗时耗力,且在很大程度上是“不可见”的。当激励机制依然与“生产”挂钩,而非与“审查”挂钩时,人们的努力方向便会随之转移,导致验证工作系统性地供给不足。"}],[{"start":278.86,"text":"面对这种验证不足,组织主要有两种干预途径。"}],[{"start":283.02000000000004,"text":"第一种是重塑流程。 AI不仅仅是一个加速现有工作流程的工具;它改变了哪些类型的工作流程是可行的。例如在软件开发中,当代码是由人类以人类的速度编写时,逐行审查是合理的。但面对 AI 生成的代码,这种方法不再具备可扩展性。高效能团队的应对之策并非“更仔细地审查”,而是重塑流程本身:将验证工作向上游转移,聚焦于规范明细、约束条件、测试用例和交互界面。稀缺的技能从“生成产出”转变为“定义何为正确”。"}],[{"start":319.81000000000006,"text":"第二种是重塑激励机制。对于那些无法形式化规范的重判断型工作,企业必须让隐形的验证工作变得“可见”。这需要彻底转变对劳动价值的评估方式。组织应当将“捕捉到一个微妙错误”、“完善一个复杂的论点”或“指出一个看似合理但错误的结论”视为晋升的途径。如果企业希望人类承担起艰难的判断工作,就必须停止奖励数量和速度,转而奖励对错误的侦测。这会直接导致专业技能的重新分配:从起草转向验证;企业将日益把稀缺的人才从内容生产中抽离出来,转而让他们负责审查并签署那些真正关键的工作成果。"}],[{"start":362.30000000000007,"text":"如果企业在这两方面都无所作为,它们将退而求其次,选择第三种更具破坏性的方案:标准化。企业将转向那些更容易规范、衡量和检查的工作。职能范围将缩小,自由裁量权将缩减,复杂的任务将被分解为标准化的碎片。"}],[{"start":381.37000000000006,"text":"其结果是滑向“糟糕的工作”(bad jobs)——那些并非为了判断力,而是为了合规性和生产力所打造的岗位。这种趋势有可能导致人类的工作体验被“掏空”。我们面临的风险是创造出一支被困在“认知浅水区”的劳动力大军——执行着那些审计起来很安全,但做起来却令人心力交瘁的标准化任务。"}],[{"start":404.26000000000005,"text":"为了避免这种未来,我们必须认识到,AI 带来的挑战主要不在于技术,而在于组织。为了一个人类能够蓬勃发展的未来,我们必须重新设计流程和激励机制,以解决这一评估难题。"}],[{"start":418.36000000000007,"text":"作者介绍:香港大學人工智能管理与组织中心副主任,港大经管学院管理及商业策略副教授Matthias Fahn;香港大學人工智能管理与组织中心主任,港大经管学院管理及商业策略主任教授李晋。本文仅代表作者观点。责任编辑邮箱:Tao.feng@ftchinese.com)"}]],"url":"https://audio.ftcn.net.cn/album/a_1767827191_2540.mp3"}