AI 疲劳是真实存在的,却无人提及
你在使用 AI 提高生产力。那为什么你比以前更疲惫?每个工程师都需要面对的悖论。
上季度我产出的代码比职业生涯任何时候都多。但我也比职业生涯任何时候都更疲惫。这两件事并非无关。
我的工作就是构建 AI 代理基础设施。我是 OpenFGA(云原生计算基金会孵化项目)的核心维护者之一,我构建了 agentic-authz 用于代理授权,我构建了 Distill 用于上下文去重,我交付了 MCP 服务器。我不是那种业余玩 AI 的人。我身处其中。我构建的是其他工程师用来在生产环境中运行 AI 代理的工具。
然而,我撞上了一堵墙。那种无论多少工具或工作流优化都无法解决的疲惫。
如果你是一名每天使用 AI 的工程师——用于设计评审、代码生成、调试、文档、架构决策——而且你注意到自己比以前更累了,这不是你的错觉。你没有问题。你正在经历一些真实存在的事情,而这个行业却在 aggressively 假装它不存在。如果一个全职构建代理基础设施的人都会在 AI 上倦怠,那它可能发生在任何人身上。
我想诚实地谈谈。不是"AI 太棒了,这是我的工作流"版本。是真实版本。那个在晚上 11 点盯着屏幕、被 AI 生成的代码包围、仍然需要审阅的人,想着为什么那个本该节省你时间的工具却消耗了你一整天。
没有人警告我们的悖论
一旦你看清这一点,原因就很简单,但我花了几个月才明白。AI 确实让单个任务变快了。这不是谎言。以前需要 3 小时的事情现在只需 45 分钟。起草设计文档、搭建新服务、编写测试用例、研究不熟悉的 API。都快了。
但我的日子变得更难了。不是更简单。是更难。
原因很简单:每个任务花的时间更少了,但你不会做更少的任务。你会做更多的任务。你的能力看起来扩展了,所以工作也随之扩展。还会更多。你的经理看到你交付更快了,所以期望也调整了。你看到自己交付更快了,所以自己的期望也调整了。基准线移动了。
在 AI 之前,我可能会花一整天在 一个设计问题上。我会在纸上草图,在淋浴时思考,散步走走,回来时思路清晰。节奏慢但认知负荷可控。一个问题。一天。深度专注。
现在呢?我一天可能会处理六个不同的问题。每个"用 AI 只花一小时"。但在大脑之间切换六个问题是极其昂贵的。AI 在问题之间不会累。我会。
这就是悖论:AI 降低了生产成本,却增加了协调、审查和决策的成本。而这些成本完全落在了人类身上。
你成为了审阅者,却没有人告诉你
在 AI 之前,我的工作是:思考问题,写代码,测试它,交付它。我是创造者。制造者。这就是吸引我们大多数人来工程领域的原因——构建的行为。
在 AI 之后,我的工作越来越多变成了:提示,等待,读取输出,评估输出,判断输出是否正确,判断输出是否安全,判断输出是否符合架构,修复不匹配的部分,重新提示,重复。我变成了审阅者。裁判。质量检查员,在一条永不停歇的生产线上。
这是一种根本不同的工作。创造是充满能量的。审阅是消耗精力的。有研究支持这个——生成性任务和评估性任务之间的心理差异。生成性工作给你心流状态。评估性工作给你决策疲劳。
我最先注意到的是在我一周内大量使用 AI 开发一个新微服务的时候。到了周三,我无法再做简单的决定了。这个函数应该叫什么?我不在乎。这个配置应该放在哪里?我不在乎。我的大脑满了。不是因为写代码——而是因为评审代码。一整天,数以百计的小判断。
残酷的讽刺是,AI 生成的代码比人类编写的代码需要更仔细的审阅。当一个同事写代码时,我知道他们的模式、他们的长处、他们的盲点。我可以略过我信任的部分,专注于我不信任的部分。对于 AI,每一行都可疑。代码看起来很自信。它能编译。它甚至可能通过测试。但它可能在生产环境中 subtly 错误,在负载下,在凌晨 3 点才暴露。
所以你阅读每一行。而阅读你没有写的代码,是被一个不理解你的代码库历史或你的团队约定的系统生成的,是令人精疲力竭的工作。
这也就是为什么我认为代理安全和授权如此重要。如果我们不能审查 AI 产生的一切——我们不能规模化地做到——那么我们需要系统来首先约束代理能做什么。最少权限访问、作用域令牌、审计跟踪。"AI 做了什么危险的事情吗"这个问题越不需要担心,你在真正重要的工作上就有更多认知预算。这不只是安全问题。这是人类可持续性问题。
非确定性问题
工程师接受确定性训练。同样的输入,同样的输出。这就是契约。这就是让调试成为可能的原因。这就是让推理系统成为可能的原因。
AI 打破了这个契约。
我有一个提示在周一完美工作。为 API 端点生成干净、结构良好的代码。周二我用同样的提示做类似的端点。输出结构不同,使用了不同的错误处理模式,引入了我没有要求的依赖。
为什么?没有理由。或者更准确地说,没有我能访问的理由。"模型今天决定走不同方向"没有堆栈跟踪。"温度采样选择了路径 B 而不是路径 A"没有日志。它就是……不同地发生了。
对于一个整个职业生涯都建立在"如果它坏了,我能找出原因"的人来说,这令人深感不安。不是戏剧性的方式。是缓慢的、grinding的、背景焦虑的方式。你永远无法完全信任输出。你永远无法完全放松。每次互动都需要警惕。
我试图对抗这个。我版本控制我的提示。我构建了详尽的系统消息。我创建了模板。有些帮助。没有什么能解决根本问题:你正在与一个概率系统协作,而你的大脑是为确定性系统设计的。那种不匹配是一种持续的、低度的压力来源。
这种沮丧实际上促使我构建了 Distill——用于 LLM 的确定性上下文去重。没有 LLM 调用,没有嵌入,没有概率启发式。纯算法在 ~12ms 内清理你的上下文。我希望 AI 管道中至少有一部分是我可以推理、调试和信任的。如果模型的输出是概率性的,我能做的最少是确保输入是干净和可预测的。
我见过的处理这个问题的最好的工程师是那些已经接受了它的人。他们把 AI 输出当作一个聪明但不可靠的实习生的初稿。他们期望重写 30% 的内容。他们为此预算时间。当输出错误时他们不会沮丧,因为他们从不期望它是对的。他们期望它是有用的。这是有区别的。
FOMO 跑步机
深呼吸,试着跟上最近的几个月。Claude Code 交付了子代理,然后是技能,然后是 Agent SDK,然后是 Claude Cowork。OpenAI 推出了 Codex CLI,然后是 GPT-5.3-Codex——一个 literally 帮助编写自己的代码的模型。新的编码代理宣布后台模式有数百个并发自主会话。Google 推出了 Gemini CLI。GitHub 添加了 MCP Registry。每周都有收购。Amazon Q Developer 获得代理升级。CrewAI、AutoGen、LangGraph、MetaGPT——选择你的代理框架,每周都有一个新的。Google 宣布 A2A(代理到代理协议)来与 Anthropic 的 MCP 竞争。OpenAI 交付了自己的 Swarm 框架。Kimi K2.5 推出了代理 swarm 架构编排 100 个并行代理。"氛围编码"成为一种事物。OpenClaw 推出了技能市场,一周内,研究人员在 ClawHub 上发现 400+ 恶意代理技能上传。而在这一切的中间,某个在 LinkedIn 上发帖的人说"如果你不在 2026 年使用带子代理编排的 AI 代理,你已经过时了。"
这不是一年。是几个月。而且我在遗漏东西。
我严重陷入了这个陷阱。我周末花时间评估新工具。阅读每一个变更日志。观看每一个演示。试图保持在前沿,因为我害怕落后。
这实际上看起来像什么:我会花周六下午设置一个新的 AI 编码工具。到周日我会有一个基本工作流。到下周三,有人会发布一个"好得多"的不同工具。我会感到一阵焦虑。到下一个周末,我会在设置新东西。旧的东西会闲置不用。一个编码助手到下一个再下一个又回到第一个。每个迁移都花我一个周末,可能只有 5% 的改进,我甚至无法正确衡量。
乘以每一个类别——编码助手、聊天界面、代理框架、多代理编排平台、MCP 服务器、上下文管理工具、提示库、swarm 架构、技能市场——你会得到一个永远在学习新工具却从未深入任何一个的人。仅仅 Hacker News 首页就足以让你头晕目眩。一天是"Show HN: 自主研究 Swarm",另一天是"Ask HN: AI swarm 如何协调?"没人知道。每个人都在构建。
最糟糕的是知识衰减。我在 2025 年初花了两个星期构建一个复杂的提示工程工作流。精心设计的系统提示、少样本示例、思维链模板。它效果很好。三个月后,模型更新了,提示最佳实践改变了,我的一半模板产生的效果比简单的单行提示还差。那两个星期没了。不是投资。是花了。我的 MCP 服务器设置也发生了同样的事情——我构建了五个自定义服务器(Dev.to 发布器、Apple Notes 集成、Python 和 TypeScript 沙箱,还有更多),然后协议进化了,然后 MCP Registry 在 GitHub 上推出了,突然有数千个预构建的可用。一夜之间我的一些自定义工作变得多余了。
代理框架流失更糟糕。我看到团队在一年内从 LangChain 到 CrewAI 到 AutoGen 到自定义编排。每次迁移都意味着重写集成、重学 API、重建工作流。那些等待和什么都不做的人通常比那些早期采用并不得不迁移两次的人处于更好的位置。
我从此采用了不同的方法。不是追逐每一个新工具,而是在它们下面的基础设施层深入。工具来了又走。它们解决的问题不会。上下文效率、代理授权、审计跟踪、运行时安全——这些是持久的问题,无论本月哪个框架流行。这就是为什么我在 OpenFGA 上构建 agentic-authz 而不是将其绑定到任何特定的代理框架。这就是为什么 Distill 在上下文级别工作,而不是在提示级别工作。在不会流失的层面上构建。
我仍然密切跟踪这个领域——你在为它构建基础设施时必须这样做。但我跟踪是为了理解生态系统的走向,而不是采用每一个新东西。知情和反应式是有区别的。
"再一个提示"陷阱
这个很阴险。你试图让 AI 生成某些特定的东西。第一个输出 70% 正确。所以你优化你的提示。第二个输出 75% 但打破了第一个正确的东西。第三次尝试:80% 正确但现在结构不同了。第四次尝试:你已经花了 45 分钟,你本来可以在 20 分钟内从头写出这个东西。
我称之为提示螺旋。这是 AI 版的剃须。你从一个明确的目标开始。30 分钟后你在调试你的提示而不是调试你的代码。你在优化给语言模型的指令而不是解决实际问题。
提示螺旋特别危险,因为它感觉像是在生产。你在迭代。你在接近。每次尝试都稍微好一点。但边际收益正在迅速递减,而你忘记了目标从来不是"让 AI 产生完美的输出"。目标是交付功能。
我现在有一个硬性规则:三次尝试。如果 AI 在三次提示中没有让我达到 70% 可用,我就自己写。没有例外。这条规则节省了我的时间比任何我学过的提示技术都多。
完美主义遇见概率输出
工程师倾向于完美主义。我们喜欢干净的代码。我们喜欢通过的测试。我们喜欢可预测的系统。这是一个特性,不是 bug——这就是让我们擅长构建可靠软件的原因。
AI 输出从不完美。它总是"挺好"。70-80% 在那。变量名有点 off。错误处理不完整。边缘情况被忽略了。对于你的代码库来说抽象是错误的。它能工作,但不对。
对于完美主义者来说,这是折磨。因为"几乎正确"比"完全错误"更糟糕。完全错误,你扔掉重新开始。几乎正确,你花一个小时修补。而修补 AI 输出特别令人沮丧,因为你正在修复别人的设计决策——那些由一个不共享你的品味、你的上下文、你的标准的系统做出的决策。
我学会了放手。不是放弃质量——我仍然关心质量。而是放弃 AI 会产生质量的期望。我现在把每一个 AI 输出当作粗糙的草稿。起点。原材料。我一看到它就在心里标记为"草稿",而这种 framing 的改变alone 将我的沮丧减少了一半。
在 AI 中最挣扎的工程师往往是最好的工程师。那些标准最高的工程师。那些注意到每一个不完美的人。AI 奖励一种不同的技能:从不完美的输出中快速提取价值的能力,不要执着于让它变得完美。
思维萎缩
这个最让我害怕。
我是在一次设计评审会议上注意到的。有人让我在白板上推理一个并发问题。没有电脑。没有 AI。只有我和一支笔。我挣扎了。不是因为我不了解这些概念——我了解。但我好几个月没有锻炼那块肌肉了。我一直在把初稿思维外包给 AI,以至于我的从头思考能力已经退化了。
这就像 GPS 和导航。在 GPS 之前,你构建心理地图。你了解你的城市。你可以推理路线。多年 GPS 之后,没有它你无法导航。技能萎缩了,因为你停止使用它了。
同样的事情正在 AI 和工程思维中发生。当你总是先问 AI,你就停止构建来自自己挣扎问题的神经通路。挣扎是学习发生的地方。困惑是理解形成的地方。跳过那个,你得到更快的输出但更浅的理解。
我现在故意在没有 AI 的情况下度过一天中的第一个小时。我在纸上思考。我手工画架构。我用慢速方式推理问题。它感觉低效。它确实是低效的。但它保持我的思维敏锐,而这种敏锐在我确实使用 AI 的那天剩余时间会带来红利——因为当我自己推理能力热身时,我可以更好地评估它的输出。
比较陷阱
社交媒体上充满了似乎已经掌握 AI 的人。他们发布他们的工作流。他们的生产力数字。他们的"我用 AI 在 2 小时内构建了整个应用"帖子。然后你看看你自己的体验——失败的提示、浪费的时间、不得不重写的代码——你想:我怎么了?
你没有问题。那些帖子是精选片段。没有人发布"我花了 3 小时试图让 Claude 理解我的数据库模式,最终放弃了,手动写了迁移。"没有人发布"AI 生成的代码导致了生产事件,因为它悄悄吞掉了一个错误。"没有人发布"我累了。"
比较陷阱被放大的原因是 AI 技能很难衡量。传统工程,你可以看一个人的代码并大致估计他们的能力。使用 AI,输出取决于模型、提示、上下文、温度、月相某人令人印象深刻的演示可能无法在你的机器上用你的代码库重现。
我对社交媒体上的 AI 内容变得更加挑剔。我仍然密切跟踪这个领域——我必须,这是我的工作。但我转移了从消费每个人的热点帖子到专注于实际上构建和交付的人,而不仅仅是演示。信号与焦虑的比例很重要。如果一个 feeds 让你感到落后而不是知情,那它对你没有服务。
什么真正有帮助
我会具体说明是什么改变了我与 AI 的关系,从对抗性到可持续的。
时间限制 AI 会话。我不再以无限制的方式使用 AI。我设置计时器。用 AI 做这个任务 30 分钟。当计时器响起时,我交付我有的或切换到自己写。这同时防止了提示螺旋和完美主义陷阱。
将 AI 时间与思考时间分开。上午用于思考。下午用于 AI 辅助执行。这不是 rigid 的——有时我打破这个规则。但有默认结构意味着我的大脑以正确比例获得锻炼和帮助。
从 AI 接受 70%。我不再试图获得完美的输出。70% 可用是标准。我会自己修复其余的。这种接受是单一最大的 AI 相关挫折在我的工作流中的减少器。
对炒作周期保持战略意义。我跟踪 AI 领域因为我为它构建基础设施。但我停止采用每周发布的新工具。我使用一个主要的编码助手并深入了解它。当新工具经过数月而非数天证明了自己时,我才评估它们。知情和反应式是不同的。
记录 AI 在哪里帮助、在哪里没有帮助。我保持了一个简单的日志两周:任务,使用 AI(是/否),花费时间,对结果满意度。数据揭示了。AI 在样板文件、文档和测试生成上节省了我大量时间。它在架构决策、复杂调试和任何需要深入了解我的代码库的事情上让我花费时间。现在我知道什么时候该用它,什么时候不该。
不审查 AI 产生的所有东西。这很难接受。但如果你使用 AI 生成大量代码,你不可能以同样的严谨性审查每一行。我将审查精力集中在最重要的部分——安全边界、数据处理、错误路径——并依靠自动化测试和静态分析来处理其余的。非关键代码中的一些粗糙是可以接受的。
可持续性问题
科技行业在 AI 之前就有倦怠问题。AI 正在使它变得更糟,不是因为 AI 不好,而是因为 AI 移除了曾经保护我们的自然速度限制。
在 AI 之前,一天能产出多少是有上限的。那个上限由打字速度、思考速度、查找东西所需的时间设定。它有时令人沮丧,但它也是一个调节器。你无法工作到自己累死,因为工作本身施加了限制。
AI 移除了调节器。现在唯一的限制是你的认知耐力。而大多数人在认知极限被超越之前都不知道自己的极限是什么。
我在 2025 年底倦怠了。不是戏剧性的——我没有辞职也没有崩溃。我只是不再关心了。代码评审变成了橡皮图章。设计决策变成了"AI 建议的任何东西"。我在走过场,产出比以往任何时候都多,感受却越来越少。我花了一个月才意识到发生了什么,又花了一个月才恢复。
恢复不是关于使用更少的 AI。而是关于以不同的方式使用它。有边界地。有意图地。带着理解,我不是机器,我不需要与机器保持 pace。构建正确的东西而不是追逐趋势地 deliberate 构建。
讽刺的是,倦怠期间是我一些最好的工作发生的时候。当我停止尝试使用每一个 AI 工具并开始思考什么真正 broken,我第一次清楚地看到了问题。上下文窗口充满垃圾——那变成了 Distill。代理拥有全有或全无的 API 密钥访问——那变成了 agentic-authz。无法审计代理实际做了什么——那正在成为 AgentTrace。疲劳迫使我停止消费并开始构建。不是更快地构建更多功能,而是 deliberate 构建正确的东西。
真正的技能
这就是我认为 AI 时代真正的技能是什么。它不是提示工程。不是知道使用哪个模型。不是拥有完美的工作流。
它是知道何时停止。
知道 AI 输出何时足够好。知道何时自己写。知道何时关闭笔记本电脑。知道边际改进不值得认知成本。知道你的大脑是有限资源,保护它不是懒惰——是工程。
我们优化我们的系统以实现可持续性。我们添加断路器。我们实现背压。我们设计优雅降级。我们应该对自己做同样的事情。
AI 是我用过的最强大的工具。它也是最消耗精力的。两件事都是真实的。在这个时代茁壮成长的工程师不会是那些使用 AI 最多的。而是那些使用 AI 最明智的。
如果你累了,不是因为你做错了。这是因为这确实很困难。工具是新的,模式仍在形成,行业正在假装更多的产出等于更多的价值。它不是。可持续的产出才是。
我仍然每天在这个领域构建。代理授权、上下文工程、审计跟踪、运行时安全——使 AI 代理真正在生产环境中工作的基础设施。我比以往任何时候都更致力于 AI。但我以我的方式、我的节奏、构建重要的事情而不是追逐流行事物地 commitment。
照顾好你的大脑。这是唯一一个你拥有的,没有 AI 可以替换它。