2026年2月

摆在桌面上的问题

在美国政策制定者、技术企业领袖和普通劳动者之间,一场关于人工智能与就业未来的深度对话正在展开。随着生成式AI技术的快速渗透,一个根本性的问题日益浮出水面:我们是否真正准备好了迎接这场将深刻改变劳动市场的技术革命?

这一议题的紧迫性在本周的讨论中显得尤为突出。一方面,业界对AI提升生产力的潜力充满期待;另一方面,政策制定者和经济学家开始正视技术变革可能带来的社会冲击波。最新的一篇深度分析文章直接抛出了这个直击要害的疑问:"Does anyone have a plan for what happens next?"(有人对接下来可能发生的事制定计划吗?)

生产力愿景与现实焦虑

围绕AI经济影响的讨论呈现出明显的张力。支持者援引历史先例——从工业革命到信息技术时代——论证技术进步最终将创造更多就业机会。然而,批评者指出,当前AI技术的演进速度远超以往任何一次技术革命,其影响范围也不再局限于特定行业,而是呈现出全面渗透的态势。

这种担忧并非空穴来风。自动化和智能系统正在逐步介入曾经被认为是"安全区"的知识型工作岗位。从法律文件审核到医学影像诊断,从内容创作到客户服务,AI应用场景的快速扩展正在重新定义"不可替代"的职业技能范畴。

与此同时,华尔街对经济前景的预期也增添了另一层复杂性。政策制定者正在寻求推动经济增长的新引擎,而AI被普遍寄予厚望。然而,如何在追求效率最大化的同时确保劳动力市场的平稳过渡,成为了一道棘手的平衡题。

基础设施的隐性变革

在宏观讨论之外,技术领域的基础设施层面同样在经历深刻调整。一个值得关注的行业动态是,针对第三方服务集成的技术方案正在经历优化升级。传统上,将用户账户与外部API实现连接涉及繁琐的OAuth流程、令牌存储机制、刷新逻辑以及各种服务商特有的配置细节。这类"管道工程"虽然技术含量不高,却消耗了大量开发资源。

新型解决方案的出现正在降低这一门槛。通过标准化的接入组件和自动化的凭证管理,开发团队能够将更多精力聚焦于核心业务逻辑,而非重复的基础设施建设工作。这种变化虽然在公众视野中不如AI应用那样引人注目,却为整个技术生态系统的效率提升提供了重要支撑。

技术与人文的十字路口

本周的讨论中,另一个引人深思的视角来自关于"堆肥现代主义"(Compost Modernity)的哲学探讨。这一思想实验提出了一个颇具想象力的愿景:在未来的城市环境中,技术发展不应该是对自然的征服或替代,而是与生态系统形成共生关系。所谓的"太阳朋克"(Solarpunk)运动倡导以充满活力的包容性方式,将自然与技术有机融合,构建一个真正"绽放"的世界。

这一理念虽然带有理想主义色彩,却为当前AI发展提供了一个值得参照的坐标系。在追求技术突破的同时,我们是否也应该思考:如何让这些强大工具服务于更广泛的人类福祉,而非仅仅服务于效率最大化的单一目标?

前方的路

综合这些不同维度的讨论,一个核心命题逐渐清晰:AI带来的不仅是技术层面的变革,更是一次涉及经济结构、社会契约乃至价值取向的系统性重塑。

当企业竞相部署AI解决方案以获取竞争优势,当政策制定者权衡监管框架与创新激励之间的平衡,当劳动者开始重新审视自己的技能储备与职业规划——所有这些力量正在将我们推向一个关键的转折点。

摆在面前的问题不仅仅是"AI会做什么",更是"我们希望AI做什么"以及"我们如何共同应对即将到来的变化"。在自动化浪潮日益逼近的当下,答案的缺失比以往任何时候都更加令人忧虑。

当科技巨头们纷纷掏出真金白银押注人工智能,当美国国家橄榄球联盟(NFL)悄然部署AI守护球员健康,这两个看似风马牛不相及的领域,正在书写着同一个技术叙事——AI已从概念走向规模化的价值创造。

科技巨头"烧钱"背后的豪赌:6500亿美元的AI军备竞赛

如果说2023年是AI元年,2024年则是这场技术革命的"加注时刻"。Amazon、Microsoft、Meta和Google四大科技巨头正将资本支出推向前所未有的高度——预计到2026年,四家企业的累计资本支出将高达6500亿美元。这一数字不仅刷新了科技行业的历史记录,更向市场传递了一个明确信号:生成式AI的投入回报周期比预期更短,巨头们对这场竞赛的态度是"all-in"。

这笔巨额投资的核心流向是数据中心与算力基础设施。训练和运行大语言模型需要消耗惊人的计算资源,而随着模型参数持续膨胀、对推理能力的要求不断提高,对高端芯片和能源的需求只会愈演愈烈。值得关注的是,这场军备竞赛的赢家不仅仅是芯片制造商,还包括掌握能源命脉的公用事业公司以及能够在土地、电力、冷却系统上支持超大规模数据中心布局的地区。

从宏观视角来看,6500亿美元相当于一个中等发达经济体的全年GDP。科技巨头们集体"下注"AI,既是对技术路线信念的体现,也是对竞争对手的回应——在这场没有硝烟的战争中,谁也不愿在基础设施上落后于人。而对于投资者而言,这意味着AI产业链的上下游都将迎来持续多年的资本热潮,从GPU设计到服务器制造,从网络安全到云服务,每一个环节都在重估价值。

NFL的"数字运动员":AI如何挽救数十亿美元的健康损失

在超级碗的激情与喧嚣之外,NFL正在悄然推进一项鲜为人知却价值连城的计划——"数字运动员"(Digital Athlete)。这个由AI驱动的系统通过分析海量球员数据,构建出每位球员的"数字孪生",从而预测伤病风险、优化训练强度、制定个性化康复方案。

听起来或许有些抽象,但其商业价值却极为直观。职业体育的商业根基是球员的健康与上场时间,而一次严重的伤病不仅意味着球员职业生涯的缩短,更可能导致俱乐部数百万甚至上千万美元的直接损失。传统模式下,球队依赖队医的经验判断和简单的历史数据统计;而"数字运动员"则借助机器学习模型,将球员的生物力学特征、疲劳程度、过往伤病史、场上位置甚至睡眠质量纳入综合考量,实现从"被动治疗"到"主动预防"的范式转变。

这一案例的启示在于:AI的落地场景往往隐藏在传统行业的痛点深处。职业体育作为数据化程度极高的领域,与AI的结合几乎是天然的——数据采集已高度成熟,决策链条清晰可量化,改进空间也一目了然。NFL的实践表明,AI的价值创造不必拘泥于消费端的"炫技",在企业级市场深耕垂直场景,同样能释放巨大的经济效能。

写在最后:两条新闻,一个趋势

将这两条新闻放在一起解读,我们看到的是AI发展的两条并行主线。科技巨头的大手笔投资解决的是"基础设施"问题——算力是AI时代的石油,数据中心是AI时代的工厂;而NFL的"数字运动员"则展示了"应用场景"的无限可能——当AI与传统行业深度融合,其价值创造的方式远比ChatGPT式的消费级应用更加多元和持久。

资本涌入与技术落地,正在形成相互强化的正向循环。基础设施的完善降低了AI应用的开发成本,而不断涌现的成功案例又吸引更多资本入场。这个过程中,唯一确定的是:AI不再只是一个赛道,而是正在成为重塑几乎所有行业的底层操作系统。

当市场还在讨论人工智能能否兑现承诺时,科技巨头们已经用真金白银给出了答案。亚马逊、微软、Meta和谷歌四家公司预计在2026年前累计投入约6500亿美元用于资本支出,这一数字不仅刷新了行业纪录,更标志着AI已成为影响宏观经济格局的关键变量。

云计算与AI的双轮驱动

谷歌最新发布的财报似乎为这场豪赌提供了最好的注脚。得益于AI驱动的云业务强劲增长,谷歌大幅上调了资本支出预期,远超市场预期。Stratechery分析师Ben Thompson指出,谷歌云业务的亮眼表现充分证明了巨额AI投资的合理性——AI不再只是概念,而是正在转化为实实在在的营收增长。

这一趋势与整个云计算行业的扩张高度契合。Oxide Computer公司近日宣布完成2亿美元融资,该公司专注于帮助企业构建自主云基础设施,自2019年成立以来累计融资已接近3.9亿美元。在AI计算需求激增的背景下,越来越多的企业开始寻求摆脱传统云服务商的依赖,探索更加定制化的基础设施方案。

政策信号:芯片关税豁免背后的博弈

科技巨头的AI投资热情也获得了政策层面的微妙支持。据Financial Times报道,特朗普政府计划对芯片关税政策进行调整,给予美国超大规模云服务商(hyperscalers)豁免权,而豁免条件将与其在美国的投资承诺挂钩。这一消息对于亚马逊、微软、谷歌等依赖英伟达和台积电芯片的企业而言无疑是重大利好。

台积电在美国的投资布局成为决定豁免资格的关键筹码。华盛顿的决策者显然希望在推动本土芯片制造业发展的同时,不损害美国企业在AI竞赛中的竞争力。这种微妙的平衡术,折射出大国科技博弈中商业利益与地缘政治之间的复杂张力。

AI应用落地:从 NFL 球场到职场办公桌

在投资热潮背后,AI技术的实际应用正在多个领域开花结果。美国国家橄榄球联盟(NFL)就是一个典型案例。随着超级碗的到来,联盟秘密推进的"数字运动员"(Digital Athlete)计划逐渐浮水面——这是一套基于AI的伤病预防系统,通过分析球员的生物力学数据,帮助球队将球员受伤风险降到最低。据估算,该系统已为联盟节省了数亿美元的成本。

然而,AI的效率提升效应并非在所有场景下都同样显著。哈佛商业评论发布的一项针对美国科技公司的八个月追踪研究揭示了一个令人深思的现象:AI工具并未减少员工的工作量,反而加速了工作节奏,员工在AI辅助下需要处理的任务范围也在扩大。这一发现对"AI将减轻工作负担"的普遍假设提出了挑战,也提醒企业和政策制定者需要重新审视AI对劳动市场的真实影响。

商业模式的演进:OpenAI试水广告

在技术应用层之外,AI公司的商业化路径也在持续探索。OpenAI近日宣布开始在美国市场测试广告业务,ChatGPT的免费用户和Go订阅用户将首次看到广告身影。公司特别强调,广告内容不会影响ChatGPT的回答质量,且敏感话题如健康、心理和政治相关内容附近将不会出现广告。

这是OpenAI在订阅模式之外开辟的新收入来源。随着AI训练和运营成本持续攀升,如何在保持用户体验的同时实现可持续盈利,成为每一家AI公司必须回答的问题。ChatGPT的广告试水,或许将为整个行业提供新的参考样本。

科技领域的其他动态

在AI投资浪潮之外,科技行业仍有诸多值得关注的事件。美国国家劳动关系委员会(NLRB)出人意料地放弃了针对SpaceX的诉讼,结束了历时数年的法律争端。该机构此前指控SpaceX非法解雇八名工程师,但目前已表示将回避未来针对该公司的案件。

加密货币领域同样传来融资消息。由前FTX和Alameda核心成员创立的加密货币交易所Backpack正在洽谈新一轮5000万美元融资,估值有望达到10亿美元(pre-money),且公司年营收已超过1亿美元。尽管FTX的崩盘仍历历在目,但加密交易市场的吸引力似乎并未因此消退。


从华尔街的财报数据到华盛顿的政策信号,从职业体育场的伤病预防到普通职场人的工作节奏,人工智能正在以前所未有的深度和广度重塑技术与商业的版图。科技巨头们用6500亿美元的资本支出承诺宣示着对AI未来的坚定信念,而这场豪赌的最终回报,或许将定义下一个十年的产业格局。


参考来源:

你在使用 AI 提高生产力。那为什么你比以前更疲惫?每个工程师都需要面对的悖论。

上季度我产出的代码比职业生涯任何时候都多。但我也比职业生涯任何时候都更疲惫。这两件事并非无关。

我的工作就是构建 AI 代理基础设施。我是 OpenFGA(云原生计算基金会孵化项目)的核心维护者之一,我构建了 agentic-authz 用于代理授权,我构建了 Distill 用于上下文去重,我交付了 MCP 服务器。我不是那种业余玩 AI 的人。我身处其中。我构建的是其他工程师用来在生产环境中运行 AI 代理的工具。

然而,我撞上了一堵墙。那种无论多少工具或工作流优化都无法解决的疲惫。

如果你是一名每天使用 AI 的工程师——用于设计评审、代码生成、调试、文档、架构决策——而且你注意到自己比以前更累了,这不是你的错觉。你没有问题。你正在经历一些真实存在的事情,而这个行业却在 aggressively 假装它不存在。如果一个全职构建代理基础设施的人都会在 AI 上倦怠,那它可能发生在任何人身上。

我想诚实地谈谈。不是"AI 太棒了,这是我的工作流"版本。是真实版本。那个在晚上 11 点盯着屏幕、被 AI 生成的代码包围、仍然需要审阅的人,想着为什么那个本该节省你时间的工具却消耗了你一整天。

没有人警告我们的悖论
一旦你看清这一点,原因就很简单,但我花了几个月才明白。AI 确实让单个任务变快了。这不是谎言。以前需要 3 小时的事情现在只需 45 分钟。起草设计文档、搭建新服务、编写测试用例、研究不熟悉的 API。都快了。

但我的日子变得更难了。不是更简单。是更难。

原因很简单:每个任务花的时间更少了,但你不会做更少的任务。你会做更多的任务。你的能力看起来扩展了,所以工作也随之扩展。还会更多。你的经理看到你交付更快了,所以期望也调整了。你看到自己交付更快了,所以自己的期望也调整了。基准线移动了。

在 AI 之前,我可能会花一整天在 一个设计问题上。我会在纸上草图,在淋浴时思考,散步走走,回来时思路清晰。节奏慢但认知负荷可控。一个问题。一天。深度专注。

现在呢?我一天可能会处理六个不同的问题。每个"用 AI 只花一小时"。但在大脑之间切换六个问题是极其昂贵的。AI 在问题之间不会累。我会。

这就是悖论:AI 降低了生产成本,却增加了协调、审查和决策的成本。而这些成本完全落在了人类身上。

你成为了审阅者,却没有人告诉你
在 AI 之前,我的工作是:思考问题,写代码,测试它,交付它。我是创造者。制造者。这就是吸引我们大多数人来工程领域的原因——构建的行为。

在 AI 之后,我的工作越来越多变成了:提示,等待,读取输出,评估输出,判断输出是否正确,判断输出是否安全,判断输出是否符合架构,修复不匹配的部分,重新提示,重复。我变成了审阅者。裁判。质量检查员,在一条永不停歇的生产线上。

这是一种根本不同的工作。创造是充满能量的。审阅是消耗精力的。有研究支持这个——生成性任务和评估性任务之间的心理差异。生成性工作给你心流状态。评估性工作给你决策疲劳。

我最先注意到的是在我一周内大量使用 AI 开发一个新微服务的时候。到了周三,我无法再做简单的决定了。这个函数应该叫什么?我不在乎。这个配置应该放在哪里?我不在乎。我的大脑满了。不是因为写代码——而是因为评审代码。一整天,数以百计的小判断。

残酷的讽刺是,AI 生成的代码比人类编写的代码需要更仔细的审阅。当一个同事写代码时,我知道他们的模式、他们的长处、他们的盲点。我可以略过我信任的部分,专注于我不信任的部分。对于 AI,每一行都可疑。代码看起来很自信。它能编译。它甚至可能通过测试。但它可能在生产环境中 subtly 错误,在负载下,在凌晨 3 点才暴露。

所以你阅读每一行。而阅读你没有写的代码,是被一个不理解你的代码库历史或你的团队约定的系统生成的,是令人精疲力竭的工作。

这也就是为什么我认为代理安全和授权如此重要。如果我们不能审查 AI 产生的一切——我们不能规模化地做到——那么我们需要系统来首先约束代理能做什么。最少权限访问、作用域令牌、审计跟踪。"AI 做了什么危险的事情吗"这个问题越不需要担心,你在真正重要的工作上就有更多认知预算。这不只是安全问题。这是人类可持续性问题。

非确定性问题
工程师接受确定性训练。同样的输入,同样的输出。这就是契约。这就是让调试成为可能的原因。这就是让推理系统成为可能的原因。

AI 打破了这个契约。

我有一个提示在周一完美工作。为 API 端点生成干净、结构良好的代码。周二我用同样的提示做类似的端点。输出结构不同,使用了不同的错误处理模式,引入了我没有要求的依赖。

为什么?没有理由。或者更准确地说,没有我能访问的理由。"模型今天决定走不同方向"没有堆栈跟踪。"温度采样选择了路径 B 而不是路径 A"没有日志。它就是……不同地发生了。

对于一个整个职业生涯都建立在"如果它坏了,我能找出原因"的人来说,这令人深感不安。不是戏剧性的方式。是缓慢的、grinding的、背景焦虑的方式。你永远无法完全信任输出。你永远无法完全放松。每次互动都需要警惕。

我试图对抗这个。我版本控制我的提示。我构建了详尽的系统消息。我创建了模板。有些帮助。没有什么能解决根本问题:你正在与一个概率系统协作,而你的大脑是为确定性系统设计的。那种不匹配是一种持续的、低度的压力来源。

这种沮丧实际上促使我构建了 Distill——用于 LLM 的确定性上下文去重。没有 LLM 调用,没有嵌入,没有概率启发式。纯算法在 ~12ms 内清理你的上下文。我希望 AI 管道中至少有一部分是我可以推理、调试和信任的。如果模型的输出是概率性的,我能做的最少是确保输入是干净和可预测的。

我见过的处理这个问题的最好的工程师是那些已经接受了它的人。他们把 AI 输出当作一个聪明但不可靠的实习生的初稿。他们期望重写 30% 的内容。他们为此预算时间。当输出错误时他们不会沮丧,因为他们从不期望它是对的。他们期望它是有用的。这是有区别的。

FOMO 跑步机
深呼吸,试着跟上最近的几个月。Claude Code 交付了子代理,然后是技能,然后是 Agent SDK,然后是 Claude Cowork。OpenAI 推出了 Codex CLI,然后是 GPT-5.3-Codex——一个 literally 帮助编写自己的代码的模型。新的编码代理宣布后台模式有数百个并发自主会话。Google 推出了 Gemini CLI。GitHub 添加了 MCP Registry。每周都有收购。Amazon Q Developer 获得代理升级。CrewAI、AutoGen、LangGraph、MetaGPT——选择你的代理框架,每周都有一个新的。Google 宣布 A2A(代理到代理协议)来与 Anthropic 的 MCP 竞争。OpenAI 交付了自己的 Swarm 框架。Kimi K2.5 推出了代理 swarm 架构编排 100 个并行代理。"氛围编码"成为一种事物。OpenClaw 推出了技能市场,一周内,研究人员在 ClawHub 上发现 400+ 恶意代理技能上传。而在这一切的中间,某个在 LinkedIn 上发帖的人说"如果你不在 2026 年使用带子代理编排的 AI 代理,你已经过时了。"

这不是一年。是几个月。而且我在遗漏东西。

我严重陷入了这个陷阱。我周末花时间评估新工具。阅读每一个变更日志。观看每一个演示。试图保持在前沿,因为我害怕落后。

这实际上看起来像什么:我会花周六下午设置一个新的 AI 编码工具。到周日我会有一个基本工作流。到下周三,有人会发布一个"好得多"的不同工具。我会感到一阵焦虑。到下一个周末,我会在设置新东西。旧的东西会闲置不用。一个编码助手到下一个再下一个又回到第一个。每个迁移都花我一个周末,可能只有 5% 的改进,我甚至无法正确衡量。

乘以每一个类别——编码助手、聊天界面、代理框架、多代理编排平台、MCP 服务器、上下文管理工具、提示库、swarm 架构、技能市场——你会得到一个永远在学习新工具却从未深入任何一个的人。仅仅 Hacker News 首页就足以让你头晕目眩。一天是"Show HN: 自主研究 Swarm",另一天是"Ask HN: AI swarm 如何协调?"没人知道。每个人都在构建。

最糟糕的是知识衰减。我在 2025 年初花了两个星期构建一个复杂的提示工程工作流。精心设计的系统提示、少样本示例、思维链模板。它效果很好。三个月后,模型更新了,提示最佳实践改变了,我的一半模板产生的效果比简单的单行提示还差。那两个星期没了。不是投资。是花了。我的 MCP 服务器设置也发生了同样的事情——我构建了五个自定义服务器(Dev.to 发布器、Apple Notes 集成、Python 和 TypeScript 沙箱,还有更多),然后协议进化了,然后 MCP Registry 在 GitHub 上推出了,突然有数千个预构建的可用。一夜之间我的一些自定义工作变得多余了。

代理框架流失更糟糕。我看到团队在一年内从 LangChain 到 CrewAI 到 AutoGen 到自定义编排。每次迁移都意味着重写集成、重学 API、重建工作流。那些等待和什么都不做的人通常比那些早期采用并不得不迁移两次的人处于更好的位置。

我从此采用了不同的方法。不是追逐每一个新工具,而是在它们下面的基础设施层深入。工具来了又走。它们解决的问题不会。上下文效率、代理授权、审计跟踪、运行时安全——这些是持久的问题,无论本月哪个框架流行。这就是为什么我在 OpenFGA 上构建 agentic-authz 而不是将其绑定到任何特定的代理框架。这就是为什么 Distill 在上下文级别工作,而不是在提示级别工作。在不会流失的层面上构建。

我仍然密切跟踪这个领域——你在为它构建基础设施时必须这样做。但我跟踪是为了理解生态系统的走向,而不是采用每一个新东西。知情和反应式是有区别的。

"再一个提示"陷阱
这个很阴险。你试图让 AI 生成某些特定的东西。第一个输出 70% 正确。所以你优化你的提示。第二个输出 75% 但打破了第一个正确的东西。第三次尝试:80% 正确但现在结构不同了。第四次尝试:你已经花了 45 分钟,你本来可以在 20 分钟内从头写出这个东西。

我称之为提示螺旋。这是 AI 版的剃须。你从一个明确的目标开始。30 分钟后你在调试你的提示而不是调试你的代码。你在优化给语言模型的指令而不是解决实际问题。

提示螺旋特别危险,因为它感觉像是在生产。你在迭代。你在接近。每次尝试都稍微好一点。但边际收益正在迅速递减,而你忘记了目标从来不是"让 AI 产生完美的输出"。目标是交付功能。

我现在有一个硬性规则:三次尝试。如果 AI 在三次提示中没有让我达到 70% 可用,我就自己写。没有例外。这条规则节省了我的时间比任何我学过的提示技术都多。

完美主义遇见概率输出
工程师倾向于完美主义。我们喜欢干净的代码。我们喜欢通过的测试。我们喜欢可预测的系统。这是一个特性,不是 bug——这就是让我们擅长构建可靠软件的原因。

AI 输出从不完美。它总是"挺好"。70-80% 在那。变量名有点 off。错误处理不完整。边缘情况被忽略了。对于你的代码库来说抽象是错误的。它能工作,但不对。

对于完美主义者来说,这是折磨。因为"几乎正确"比"完全错误"更糟糕。完全错误,你扔掉重新开始。几乎正确,你花一个小时修补。而修补 AI 输出特别令人沮丧,因为你正在修复别人的设计决策——那些由一个不共享你的品味、你的上下文、你的标准的系统做出的决策。

我学会了放手。不是放弃质量——我仍然关心质量。而是放弃 AI 会产生质量的期望。我现在把每一个 AI 输出当作粗糙的草稿。起点。原材料。我一看到它就在心里标记为"草稿",而这种 framing 的改变alone 将我的沮丧减少了一半。

在 AI 中最挣扎的工程师往往是最好的工程师。那些标准最高的工程师。那些注意到每一个不完美的人。AI 奖励一种不同的技能:从不完美的输出中快速提取价值的能力,不要执着于让它变得完美。

思维萎缩
这个最让我害怕。

我是在一次设计评审会议上注意到的。有人让我在白板上推理一个并发问题。没有电脑。没有 AI。只有我和一支笔。我挣扎了。不是因为我不了解这些概念——我了解。但我好几个月没有锻炼那块肌肉了。我一直在把初稿思维外包给 AI,以至于我的从头思考能力已经退化了。

这就像 GPS 和导航。在 GPS 之前,你构建心理地图。你了解你的城市。你可以推理路线。多年 GPS 之后,没有它你无法导航。技能萎缩了,因为你停止使用它了。

同样的事情正在 AI 和工程思维中发生。当你总是先问 AI,你就停止构建来自自己挣扎问题的神经通路。挣扎是学习发生的地方。困惑是理解形成的地方。跳过那个,你得到更快的输出但更浅的理解。

我现在故意在没有 AI 的情况下度过一天中的第一个小时。我在纸上思考。我手工画架构。我用慢速方式推理问题。它感觉低效。它确实是低效的。但它保持我的思维敏锐,而这种敏锐在我确实使用 AI 的那天剩余时间会带来红利——因为当我自己推理能力热身时,我可以更好地评估它的输出。

比较陷阱
社交媒体上充满了似乎已经掌握 AI 的人。他们发布他们的工作流。他们的生产力数字。他们的"我用 AI 在 2 小时内构建了整个应用"帖子。然后你看看你自己的体验——失败的提示、浪费的时间、不得不重写的代码——你想:我怎么了?

你没有问题。那些帖子是精选片段。没有人发布"我花了 3 小时试图让 Claude 理解我的数据库模式,最终放弃了,手动写了迁移。"没有人发布"AI 生成的代码导致了生产事件,因为它悄悄吞掉了一个错误。"没有人发布"我累了。"

比较陷阱被放大的原因是 AI 技能很难衡量。传统工程,你可以看一个人的代码并大致估计他们的能力。使用 AI,输出取决于模型、提示、上下文、温度、月相某人令人印象深刻的演示可能无法在你的机器上用你的代码库重现。

我对社交媒体上的 AI 内容变得更加挑剔。我仍然密切跟踪这个领域——我必须,这是我的工作。但我转移了从消费每个人的热点帖子到专注于实际上构建和交付的人,而不仅仅是演示。信号与焦虑的比例很重要。如果一个 feeds 让你感到落后而不是知情,那它对你没有服务。

什么真正有帮助
我会具体说明是什么改变了我与 AI 的关系,从对抗性到可持续的。

时间限制 AI 会话。我不再以无限制的方式使用 AI。我设置计时器。用 AI 做这个任务 30 分钟。当计时器响起时,我交付我有的或切换到自己写。这同时防止了提示螺旋和完美主义陷阱。

将 AI 时间与思考时间分开。上午用于思考。下午用于 AI 辅助执行。这不是 rigid 的——有时我打破这个规则。但有默认结构意味着我的大脑以正确比例获得锻炼和帮助。

从 AI 接受 70%。我不再试图获得完美的输出。70% 可用是标准。我会自己修复其余的。这种接受是单一最大的 AI 相关挫折在我的工作流中的减少器。

对炒作周期保持战略意义。我跟踪 AI 领域因为我为它构建基础设施。但我停止采用每周发布的新工具。我使用一个主要的编码助手并深入了解它。当新工具经过数月而非数天证明了自己时,我才评估它们。知情和反应式是不同的。

记录 AI 在哪里帮助、在哪里没有帮助。我保持了一个简单的日志两周:任务,使用 AI(是/否),花费时间,对结果满意度。数据揭示了。AI 在样板文件、文档和测试生成上节省了我大量时间。它在架构决策、复杂调试和任何需要深入了解我的代码库的事情上让我花费时间。现在我知道什么时候该用它,什么时候不该。

不审查 AI 产生的所有东西。这很难接受。但如果你使用 AI 生成大量代码,你不可能以同样的严谨性审查每一行。我将审查精力集中在最重要的部分——安全边界、数据处理、错误路径——并依靠自动化测试和静态分析来处理其余的。非关键代码中的一些粗糙是可以接受的。

可持续性问题
科技行业在 AI 之前就有倦怠问题。AI 正在使它变得更糟,不是因为 AI 不好,而是因为 AI 移除了曾经保护我们的自然速度限制。

在 AI 之前,一天能产出多少是有上限的。那个上限由打字速度、思考速度、查找东西所需的时间设定。它有时令人沮丧,但它也是一个调节器。你无法工作到自己累死,因为工作本身施加了限制。

AI 移除了调节器。现在唯一的限制是你的认知耐力。而大多数人在认知极限被超越之前都不知道自己的极限是什么。

我在 2025 年底倦怠了。不是戏剧性的——我没有辞职也没有崩溃。我只是不再关心了。代码评审变成了橡皮图章。设计决策变成了"AI 建议的任何东西"。我在走过场,产出比以往任何时候都多,感受却越来越少。我花了一个月才意识到发生了什么,又花了一个月才恢复。

恢复不是关于使用更少的 AI。而是关于以不同的方式使用它。有边界地。有意图地。带着理解,我不是机器,我不需要与机器保持 pace。构建正确的东西而不是追逐趋势地 deliberate 构建。

讽刺的是,倦怠期间是我一些最好的工作发生的时候。当我停止尝试使用每一个 AI 工具并开始思考什么真正 broken,我第一次清楚地看到了问题。上下文窗口充满垃圾——那变成了 Distill。代理拥有全有或全无的 API 密钥访问——那变成了 agentic-authz。无法审计代理实际做了什么——那正在成为 AgentTrace。疲劳迫使我停止消费并开始构建。不是更快地构建更多功能,而是 deliberate 构建正确的东西。

真正的技能
这就是我认为 AI 时代真正的技能是什么。它不是提示工程。不是知道使用哪个模型。不是拥有完美的工作流。

它是知道何时停止。

知道 AI 输出何时足够好。知道何时自己写。知道何时关闭笔记本电脑。知道边际改进不值得认知成本。知道你的大脑是有限资源,保护它不是懒惰——是工程。

我们优化我们的系统以实现可持续性。我们添加断路器。我们实现背压。我们设计优雅降级。我们应该对自己做同样的事情。

AI 是我用过的最强大的工具。它也是最消耗精力的。两件事都是真实的。在这个时代茁壮成长的工程师不会是那些使用 AI 最多的。而是那些使用 AI 最明智的。

如果你累了,不是因为你做错了。这是因为这确实很困难。工具是新的,模式仍在形成,行业正在假装更多的产出等于更多的价值。它不是。可持续的产出才是。

我仍然每天在这个领域构建。代理授权、上下文工程、审计跟踪、运行时安全——使 AI 代理真正在生产环境中工作的基础设施。我比以往任何时候都更致力于 AI。但我以我的方式、我的节奏、构建重要的事情而不是追逐流行事物地 commitment。

照顾好你的大脑。这是唯一一个你拥有的,没有 AI 可以替换它。

via https://siddhantkhare.com/writing/ai-fatigue-is-real

体育科技:AI正在改变NFL的比赛方式

当全球目光聚焦于超级碗赛场时,一个不那么引人注目却价值数十亿美元的项目正在悄然重塑美国职业橄榄球联盟。NFL推行的"数字运动员"(Digital Athlete)计划利用人工智能技术分析球员的伤病风险,通过海量数据建模预测哪些球员在何种情况下可能受伤。该项目声称已帮助联盟球队节省了数亿美元的医疗和运营成本,同时显著延长了球员的职业寿命。在一个伤病频发、球员流动率极高的职业联赛中,AI不仅是一项技术投资,更是一种战略资产。阅读原文


文学创作:AI入侵言情小说领域

言情小说行业素来是新技术的早期采用者,而这一次,人工智能正在以一种颇具争议的方式渗透其中。据《纽约时报》报道,越来越多的言情小说作者开始使用Claude等AI工具辅助创作,却未能向出版社或读者坦诚披露这一事实。与此同时,笔名的使用变得愈发普遍——这既是为了规避AI生成内容的偏见,也是为了在日益拥挤的市场中建立辨识度。支持者认为AI解放了创作者的生产力,而批评者则担忧这将导致同质化内容的泛滥,最终削弱整个出版生态的健康发展。阅读原文


行业镜像:Moltbook现象与AI狂热反思

本周互联网上最热闹的"AI社交网络"Moltbook引发了一场颇具价值的行业反思。MIT Technology Review的评论文章指出,Moltbook与其说是展示了AI技术的未来前景,不如说是一面镜子,忠实地映射出全社会对人工智能的集体痴迷。这款由Reddit风格社区演变而来的"机器人社交平台",在短短几天内吸引了大量关注,但随即暴露出内容空洞、用户留存困难等问题。这一现象揭示了一个更深层的悖论:当AI成为投资和舆论的绝对焦点时,真正有价值的应用创新反而可能被淹没在泡沫之中。阅读原文


开发者困境:AI疲劳与思维萎缩

一位软件工程师在个人博客中分享的"AI疲劳"体验引发了广泛共鸣。他指出,开发者在追逐AI实验室最新工具的过程中,往往陷入一种"错失恐惧症"(FOMO)的跑步机式循环——不断切换工具、学习新框架、适应新范式。与此同时,过度依赖AI辅助编程正在导致一种隐蔽的"思维萎缩":代码产出效率提升了,但工程师对底层原理的理解却在退化。这一现象提出了一个关键问题:在AI工具日益强大的今天,技术人员应当如何平衡生产力提升与核心能力的保持?阅读原文


供应链警报:AI芯片关键材料短缺

一则来自《华尔街日报》的报道揭示了AI产业链中一个不太起眼却至关重要的瓶颈:T-glass。这种用于先进芯片的超薄玻璃基板目前严重供应短缺,而全球超过90%的产能集中在一家日本公司——Nittobo手中。更令人担忧的是,Nittobo在短期内并无扩产计划,导致T-glass价格急剧上涨。这一局面再次提醒人们,尽管AI模型和应用层万众瞩目,但底层材料供应链的脆弱性可能成为制约整个行业发展的关键因素。阅读原文


安全动态:OpenClaw强化AI平台安全审核

在AI安全领域,OpenClaw(原Moltbot)宣布与VirusTotal达成合作,所有发布至ClawHub平台的AI技能(skills)都将接受VirusTotal的威胁情报扫描。这一举措回应了业界对AI助手可能被滥用于生成恶意代码、传播虚假信息等安全风险的担忧。随着越来越多的企业和开发者将AI能力集成到核心工作流中,确保AI输出的安全性正在成为行业共识。VirusTotal的介入标志着AI平台正在从"先上线再修复"向"安全前置"的运营模式转变。阅读原文


结语

纵观昨日AI领域的新闻,我们看到的是一幅复杂而多维的图景:AI正在职业体育、文学创作、软件开发等领域深刻改变行业运作方式;与此同时,供应链瓶颈、开发者心理健康、内容生态诚信等挑战也日益凸显。当资本和舆论的聚光灯持续打在AI身上时,保持清醒的批判性思维或许比追逐每一个热点更为重要。