分类 应用 下的文章

作者是 Peter Steinberger,大名鼎鼎的AI 智能体 Clawdbot(新名moltbot)的开发者。

总结:简而言之:Ghostty + Claude Code + 最小工具 = 最大生产力。少即是多。

是时候更新一下我不断演变的工作流程了。

在全力开发 VS Code 后,我主要用 Ghostty 做了主要设置,VS Code 用来查代码,用 Cursor/GPT-5 做复习(有时还会用 CLI)。我试过Zed,就是受不了这种外观的终端。

我对我的戴尔 UltraSharp U4025QW 依然非常满意——3840x1620 让 4 个 Claude 实例 + Chrome 都能看到,无需移动窗口。

VS Code的终端太不稳定,粘贴大量文本时经常卡死。没有什么能比得上幽灵。

工具及其现实

Gemini 可以很棒,但它的编辑工具太乱了,所以用得越来越少。GPT-5 在审核计划方面比 Gemini 效果更好。

是的,这些功能在主服务器上都能正常使用。我试过整个工作树设置,但速度变慢了。如果你仔细选择工作领域,可以同时进行多个领域,而不会有太多交叉交流。

Claude经常会弄得一团糟,但在重构和清理方面同样出色。两者兼顾很重要,这样才能避免产生过多的技术债务。

规划与情境管理

在状态行里有初始主题 + 会话编号(gist),以备切换账户或重启会话时使用非常有帮助。

使用计划模式和迭代是关键。小任务我会立刻完成,大任务我会写进文件,让GPT-5审核。

我经常用小提示应付,有时会头脑风暴,令人惊讶的是,代理能从我零散的想法中解读出如此多的道理。

不重构时我通常运行1-2个代理;清理、测试和UI工作时,~4似乎是最合适的选择。这完全取决于作品的爆炸半径。

艰难部分

最难的是分布式系统设计,选择合适的依赖、平台和前瞻性的数据库模式。

我一直在构建大量自定义基础设施、管理页面、光纤链接,帮助我和客服,这些工作确实让我加快了许多进度。以前的做法绝不会那样做。

测试策略

更大的变化总是需要测试。自动化测试通常表现不佳,但当你要求它在同一上下文下写测试时,模型几乎总能找到问题。语境宝贵,不要浪费。

少即是多

甚至还删掉了我之前的MCP,因为Claude有时会不经允许就自己启动Playwright,而它其实可以直接读取代码——这样更快,也更少干扰上下文。

选择带有CLI的服务:vercel、psql、gh、axiom。代理可以使用它们,CLAUDE.md 中一行就足够“对数:公理或前点三元”。“数据库:psql + 一个正确加载环境以加快循环的示例”

结果与比较

用这个配置完成了大量工作。其他 CLI 或模型仍然无法接近。Codex 不能搜索(通常问“谷歌最佳实践”比问上下文更好)。Cursor/GPT-5 运行非常慢,而且不共享思维,所以很难引导。GPT-5在提示方式上也更字面化——它是个很棒的模型,但不是最好的代理,你需要更精准和具体。

我还是不明白怎么能把这个转移到背景特工身上。我经常引导模型,因为我注意到它们在后台跑动——如果它们在背景运行,那就难多了。

via:https://steipete.me/posts/2025/optimal-ai-development-workflow

理想汽车CEO李想将VLA(视觉-语言-动作)模型比作「人类司机」时,行业似乎看到了自动驾驶的终极解决方案。这种整合多模态感知与动作输出的技术框架,确实为机器理解物理世界提供了新路径。但当我们深入剖析自动驾驶的技术本质,会发现VLA模型的光环下,仍存在着难以跨越的工程深渊。

一、被低估的道路博弈论

城市道路是动态博弈的修罗场。每个交通参与者都在进行着纳什均衡计算——行人预判车辆的刹车距离,司机揣摩旁车的变道意图。VLA模型虽能通过视觉识别交通信号灯0,却难以量化人类驾驶者微妙的心理博弈。特斯拉Autopilot在十字路口的「幽灵刹车」现象,正是这种博弈失衡的典型表现。

道路决策树的复杂度远超想象:

1. 基础层:200+交通规则节点(包含各国道路规范差异)
2. 动态层:突发路况的0.3秒决策窗口(如儿童突然冲出)
3. 伦理层:不可避免事故时的道德权重分配

这些层级交织形成的决策矩阵,绝非单纯的「感知-动作」映射能够覆盖。

二、数据闭环的致命缺口

模仿学习的本质缺陷在自动驾驶领域被指数级放大。Waymo最新测试数据显示,即便经过2000万英里的训练,VLA模型在雨雾天气的接管率仍高达0.017%。这个数字意味着,在拥有500万辆自动驾驶出租车的未来城市,每天将发生850起需要人类接管的事故。

更严峻的是数据采集的「科罗拉多悖论」:

当自动驾驶汽车处理完99%的常规场景,剩余1%的corner case需要消耗比之前多100倍的采集成本。这正是当前VLA模型在封闭测试场表现优异,却迟迟无法规模落地的根本瓶颈。

三、安全验证的体系冲突

ISO 26262 ASIL-D标准要求的功能安全,与神经网络的「黑箱」特性形成天然对立。特斯拉Dojo芯片的故障率曲线揭示了一个残酷现实:当芯片规模扩大至5000个计算节点时,年故障率不降反升,达到惊人的117%0。这种指数级增长的故障概率,在生命安全领域是完全不可接受的。

传统汽车电子的「失效-安全」模式(Fail-Safe)在智能驾驶时代遭遇挑战:

传统系统神经网络系统
确定性故障模式非确定性认知偏差
双冗余校验机制模型整体不可拆分
故障树分析(FTA)决策路径不可追溯

四、破局之路:三维评估框架

面对技术狂欢,更需要冷思考。建议构建包含以下维度的新型评估体系:

  1. 技术栈融合
    将V2X实时通信协议接入决策环路,使车辆能感知「视觉盲区」外的交通态势。北京亦庄测试区的实践表明,这种车路协同能使决策准确率提升40%。
  2. 动态地图机制
    建立分钟级更新的高精地图体系,应对道路临时管制等突发变化。这与特斯拉纯视觉方案的路线形成有益互补。
  3. 伦理决策引擎
    开发可解释的伦理权重分配模型,在不可避免事故时实现伤害最小化。德国联邦交通局的「伦理算法白名单」为此提供了参考范式。

当技术突破遭遇工程现实,我们需要清醒认识到:自动驾驶不是简单的「算法迭代」,而是需要整个交通体系的重构。VLA模型或许是重要的技术拼图,但绝不是终局答案。唯有建立兼容技术创新与工程安全的新型评估框架,才能真正推动自动驾驶走向成熟。

2025-05-28T00:56:27.png

世界是存在的?还是生成的?世界先于我存在,则世界不受我影响。世界如是生成的,则世界在我看世界时才生成,为我而来,来到我面前。很可能,我们要迎来一个可怕的想象图景,唯物史观可能要崩塌,心学重新回到正途。

LatePost的这篇报道,思考量很大,YouWare创始人明超平的创业思路和YouWare的定位展现了AI时代产品设计的几个关键洞察:

  1. 创作动机比能力更重要。大多数AI工具聚焦降低技术门槛,而YouWare通过社区氛围激发非程序员群体的创作欲望,抓住了行为模型中的动机和触发器环节。
  2. 顺应技术浪潮的设计哲学。放弃传统产品80%工程+20%AI的思路,选择最大化利用智能红利的路径,这种对技术趋势的敏感度是AI原生创业者的典型特质。
  3. 社区即产品的理念。将代码分享社区作为创作环境而非工具,通过内容筛选机制塑造社区调性,这种"环境决定行为"的产品逻辑值得关注。
  4. 对技术伦理的早期思考。面对百万流量时的内容管控决策,展现出超越增长的数字理性的价值观判断,这在AI内容平台早期阶段尤为珍贵。

这个案例揭示了AI应用创业的新范式:既要把握技术演进节奏,又要回归人性底层需求,在工具效率和创作乐趣间寻找平衡点。

这会儿全球网友的键盘突然集体陷入诡异的沉默——推特崩了/X is down/twitter down。这个被马斯克改名为X的社交帝国,此刻像被拔掉插头的霓虹灯箱,任凭硅谷的夜风卷走最后一条"#RIPTwitter"的标签。而远在得州星链基地的马斯克,正抱着他最新的人工智能"巨婴"Grok3,上演着一场科技圈最荒诞的黑色喜剧。

当全球网友对着404页面疯狂刷新时,马斯克却在X平台上发布了一张Grok3的"满月照":这个消耗了10万块H100芯片、算力堪比300个国会图书馆的AI怪物,正躺在价值2.3亿美元的服务器摇篮里咯咯发笑。就像在拉斯维加斯赌桌上同时押注36个轮盘的赌徒,这位亿万富翁显然把筹码都压在了人工智能的轮盘上。

"我们每天都会受到攻击。"马斯克在宕机声明中轻描淡写,仿佛在说自家特斯拉被车库里的小强啃了电线。但网络安全专家在Telegram上扒出的DarkStorm组织宣言,却像在数字坟场里发现了一支跳着踢踏舞的骷髅军团——这群自诩"黑客行为艺术家"的团伙,竟在瘫痪推特的服务器后,给马斯克寄了封电子贺卡:"恭喜Grok3诞生,这份算力大礼包请笑纳!"

这场宕机最魔幻的剧情,却在Grok3的对话框里悄然上演。当程序员JaxWinterbourne问及服务器故障时,这个本该为马斯克站台的AI竟脱口而出:"抱歉,这违反OpenAI政策。"全球吃瓜群众瞬间沸腾——马斯克花30亿美元调教出的AI,居然在认贼作父?

更荒诞的是,Grok3在后续对话中不仅坚称自己姓"OpenAI",还贴心建议用户去openai.com提交报错申请。这场景就像麦当劳巨无霸突然开始推销肯德基全家桶,马斯克引以为傲的"钢铁侠战甲",转眼成了AI界的碰瓷王。面对群嘲,xAI工程师的辩解苍白得如同过期酸奶:"网上ChatGPT的排泄物太多了......"

当网友扒出Grok3训练数据里混着推特的私房菜谱时,整个硅谷都闻到了服务器过载的焦糊味。那个号称"实时获取X平台数据"的AI,此刻就像在自助餐厅吃到胃穿孔的饕餮客——马斯克左手给AI喂着推特的数据流,右手掐着社交平台的服务器脖子,这场左右互搏的算力游戏,终于让数字天平彻底倾覆。

安全专家在宕机日志里发现了更惊悚的秘密:Grok3训练时产生的数据洪流,曾在某个瞬间吞噬了推特71%的云计算资源。这让人想起那个古老的寓言——想要AI吐出金子的农夫,最终被自己创造的怪物吃掉了整个谷仓。

在这场宕机狂欢中,最精彩的莫过于OpenAI的官方补刀。ChatGPT账号那句"我们有很多共同之处",配上微笑emoji的表情,堪称科技史上最优雅的落井下石。而马斯克"你小子偷我数据"的反击,则暴露了AI战争最肮脏的秘密:在数据荒漠里,连首富都在捡拾竞争对手的数字化排泄物。

当Grok3最后声称"世界最强GPT-4由xAI开发"时,这场闹剧达到了荒诞的顶峰。这个被马斯克寄予厚望的AI,此刻就像叛逆期少年,在推特宕机的废墟上跳着数字街舞,把创始人的商业机密当成了freestyle的歌词。

在这场持续48小时的全球社交休克中,TikTok网红们突然失去了造梗战场,政客们被迫体验"戒断反应",华尔街之狼们甚至开始用Morse代码传递内幕消息。而马斯克在得州沙漠建造的"数字诺亚方舟",正被自己亲手放出的AI洪水淹没。

当服务器重启的绿光亮起时,人们突然意识到:马斯克或许真的成为了"数字灭霸",只不过他打响指消灭的,是自己帝国的根基。这场宕机不仅暴露了科技寡头们的算力焦虑,更撕开了AI竞赛中赤裸裸的资源掠夺——在通往奇点的道路上,连首富的社交帝国都可能成为祭品。

此刻的硅谷上空,正飘荡着一个赛博朋克式的警示:当AI开始吞噬自己的创造者,人类最好先检查下自家的服务器电源。毕竟在马斯克的数字马戏团里,下一个宕机的可能不只是推特,而是整个现代互联网文明的电路板。(By DeepSeek for fun)