当前位置: 首页 » 资讯 » 科技头条 » 正文

卡帕西推荐的AI Coding指南:3招教你效率翻倍

IP属地 中国·北京 量子位 时间:2025-12-30 16:24:23

闻乐 发自 凹非寺
量子位 | 公众号 QbitAI

AI Coding火到不用多说,但怎么用才最高效呢?

这份连大神卡帕西和OpenAI总裁Greg Brockman都在转发推荐的Coding Agents指南,用3招教你快速交付。



大神们在转,网友也在夸!



这份实战指南的作者是Swift开发出身、深耕AI驱动开发领域的大神Peter Steinberger,他也是一位AI Coding重度爱好者,已经写了很多份实战经验博客。

简单总结一下今天的这篇AI Coding指南:先按任务类型选对模型,再重构工作流提速,但要捋清人机分工。



Peter不仅给出了自己的模型配置,最后还有实用小技巧~

三大关键策略

按任务类型选对模型

大家用AI编码,很多时候是不是一个模型用到底?

结果一到大项目就卡壳,小项目修改还慢。问题呢,就出在“没给模型找对活儿”。

人家这份指南里就说了,第一步就得先按任务类型给Coding模型分好工。大任务就用Codex,小任务Opus更好使

比如,搞几十页的工程规范落地、项目重构这种大活儿就直接上Codex,它有个特点,开始写代码前会默读文件,把项目逻辑摸透,虽然比Opus多花点时间,但对复杂需求的完成度更好。

Peter之前重构Opus 4.0的旧代码,Codex花了几个小时读透了整个项目,不仅没漏关键逻辑,还修复了2个隐藏Bug。

如果只是小范围修改这种比较零碎的任务,那Opus更合适。它不用读很久的文件,响应很快,基本上几分钟就能出结果。



不过,要进阶的话,首选GPT-5.2-Codex,直接一步到位。

现在Peter最常用的就是GPT-5.2-Codex,尤其是high模式,不管搭Chrome扩展的前端还是写Go语言的CLI工具,它都能兼顾速度和准确率,也不用在Codex和Opus之间来回切换了。

在这里,Peter还给出了自己的配置。



重构工作流

选对模型是基础,而真正让作者同时推进8个项目还不慌的是他这套定制化的工作流。

因为每天会冒出很多新的想法,比如“给Clawdis加个控制卧室温度的功能”“写个CLI查外卖进度”……

但这些想法Peter并不会记在备忘录里,而是直接扔进Codex的排队列表。

比如开发“YouTube视频总结Chrome扩展”时,他一边让Codex验证CLI核心逻辑(把视频转成Markdown),一边把 “加浏览器弹窗提醒”“支持本地存储” 等想法塞进队列,Codex会按优先级慢慢处理,不用他盯着催,也不怕遗忘在备忘录里。

而且,一个小tips是坚决不回滚!

“构建软件就像爬山,不用笔直往上走,绕点路、退两步都正常,关键是别在‘要不要回滚’上浪费时间。”



遇到相似的功能,不用从头写

比如作者之前在VibeTunnel项目里做过 “字符流输出”,后来开发Clawdis时需要类似功能,他直接让Codex“去../VibeTunnel文件夹里看看,照这个逻辑给Clawdis加一个”,10分钟就适配好了。

甚至搭新项目时,他也会让Codex参考旧项目的结构,比如“按../Sparkle项目的目录格式,搭一个新的日志工具”,这时候模型就能自动复制适配。



人机分工

当然了,写代码这件事也不能全靠AI,这时候就得来个人机分工,原则很简单:AI干执行,人做决策

这些事一定要自己做:选哪个依赖库、系统架构怎么设计、功能优先级怎么排……

写基础代码、修复已知bug、生成GUI界面、更新项目日志,甚至“注册域名”“改DNS配置”这种琐事,都可以交给AI。

作者举了自己实战中的两个例子。

在选择用Go语言做CLI工具前,他花了半天研究“Go的类型系统是不是更适合AI生成代码”“有没有常用的Go库能复用”,确定之后再让AI开写,最后也没怎么返工。

不过在开发数据可视化工具时,就直接让AI花了20分钟写核心代码,再让它帮忙测试,也不用自己切设备操作。

实用小技巧

除了上面的核心方法,作者还分享了几个挺实用的小操作,都是踩坑总结出来的。

第一个是开发先从CLI开始,再扩展功能

不管想做什么项目,先搭个简单的CLI工具验证核心逻辑,比如他之前做“YouTube视频总结Chrome扩展”的时候,先写了个能把视频转成文字、再用模型总结成 Markdown的CLI版本。

确认能跑通后,才让AI搭前端、做浏览器扩展,一天就搞定了。

第二个是让文档帮模型记上下文,不用反复提需求

在每个项目里建个docs文件夹,把“系统设计思路”“功能说明”写进去,再用脚本让AI读这些文档。

比如Peter在docs里写了“Clawdis这个项目要支持控制家里的灯光”,之后让AI加新功能时,不用反复说“要和灯光控制兼容”,模型就会自己读文档,减少了沟通成本。

第三个是单人开发直接提交主分支,不用搞复杂分支

要是你一个人开发,那就不用建“dev分支”“feature分支”,改完直接提交主分支。

Peter表示:

“分支多了反而容易有合并冲突,Codex有时候会自动建临时工作区处理混乱代码,改完合并回主分支,比手动管理分支简单多了。”

Peter说的这些坑你有没有踩过?

还有啥AI Coding实用小技巧欢迎分享!

原文地址:https://steipete.me/posts/2025/shipping-at-inference-speed

— 完 —

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。