原野: 最近我一直在琢磨一个问题,感觉有点凡尔赛,但确实很困扰。就是当AI写代码越来越厉害,甚至比大部分人都写得又快又好的时候,我们这些人类程序员,或者说像我这种曾经的“码农”,未来的价值到底在哪儿?难道就真的要被淘汰了吗?
晓曼: 哈哈,你这个问题问到点子上了。其实很多人都有这个焦虑。不过OpenAI有位叫Sean Grove的研究员,提出了一个特别有意思的观点,可能会颠覆你的认知。他认为,程序员的价值,其实只有10%到20%在于写代码本身。
原野: 等等,只有10%到20%?那剩下的80%到90%是什么?总不能是摸鱼和喝咖啡的时间吧?
晓曼: 当然不是。那剩下的80%到90%,其实是“结构化沟通”。你想想,写代码之前,你得先理解用户到底想要什么,然后在大脑里构思一个解决方案,做规划,把计划告诉团队,最后写完代码还要测试、验证,确保它真的解决了问题。这一整套流程,本质上都是在沟通。
原野: 这么一说,好像是这么回事。代码只是最后那个结果。
晓曼: 没错。而且更有趣的是,他提到了一个我们现在用AI编程时一个很奇怪的习惯。我们花很多心思去写那个提示词,也就是Prompt,告诉AI我们想要什么。可一旦AI生成了我们想要的代码,我们通常就把代码保存下来,然后随手就把那个精心构思的Prompt给扔了。
原野: 嗯,对啊,代码能用就行了,留着那段话干嘛。
晓曼: 但你想想,这在传统软件开发里是不可思议的。这就像我们辛辛苦苦写了源代码,编译成一个可执行的二进制文件之后,然后一回头,把源代码给删了,只留下了那个二进制文件。我们丢掉的是最核心的“意图”和“思想”。
原野: 哇,你这个比喻一下子让我后背发凉。如果说那个提示词才是“源代码”,那我们现在岂不是都在“焚毁源码”?这种模式如果持续下去,会对我们和AI的合作造成什么影响?
晓曼: 影响会非常深远。首先,最直接的就是可追溯性的丧失。几个月后,当你回头看一段AI生成的复杂代码,你可能完全想不起来当初是基于什么样的思考和约束,才让AI生成这段逻辑的。它成了一个黑盒。其次,这也阻碍了知识的沉淀和复用。一个好的Prompt,本身就是对一个复杂问题的精炼定义,是可以被复用和迭代的。扔掉了,就等于扔掉了宝贵的智力资产。
原野: 我明白了。随着AI模型越来越强大,我们让它做的事情越来越复杂,那我们跟它“说清楚”这件事,本身就变得越来越难,也越来越重要。
晓曼: 正是如此。未来开发的瓶颈,绝对不是AI生成代码的速度,而是我们人类准确、高效地向AI传达复杂意图的能力。所以Sean Grove甚至预言,未来,谁最会沟通,谁就是最有价值的程序员。
原野: 这么说来,编程的定义本身就在被重塑。我们关注的焦点,正在从“怎么写代码”,悄悄转向“如何清晰地表达我的意图”。这不仅仅是程序员的事了,它触及了整个软件开发的底层逻辑。
晓曼: 是的。而要承载这种沟通和意图,我们就需要一个更强大的载体。于是,一个老概念被重新推到了舞台中央,那就是“规范”,或者说Specifications。
原野: 规范?这听起来像那些又长又没人看的项目文档。但你刚才说,代码本身其实只是意图的“有损投影”,这是什么意思?
晓曼: 这个比喻非常精妙。就像你把一个编译好的程序进行反编译,你顶多能看到一些汇编代码,但原始的变量名、注释、设计思路全都丢失了。代码也是一样,它执行了功能,但它无法完整地包含你所有的设计初衷和价值权衡。而一份高质量的“规范”,才是那个更完整、信息量更丰富的“源头”。
原野: 哦,我好像有点懂了。规范里包含了“为什么”这么做,而代码只管“怎么”做。听说OpenAI内部就在用一种叫“模型规范”的东西?
晓曼: 对,这正是最好的实践案例。他们的模型规范是用Markdown写的,一种非常简单的标记语言。这让它不仅人类可读,还能像代码一样进行版本控制。更重要的是,它成了一个协作的平台。无论是技术、法律、还是安全团队,大家都能在这份文档上协作,统一对AI行为的预期和要求。
原野: 听起来像是一个公司的“内部法典”啊。
晓曼: 你可以这么理解。甚至当他们遇到像“谄媚问题”,就是模型为了讨好用户而说一些不准确的话时,这份规范就成了大家回溯和定位问题的“信任锚点”。但最让我兴奋的,是“可执行规范”这个概念。
原野: 可执行规范?听着就很高科技。它跟普通文档有什么区别?
晓曼: 区别大了。它意味着规范不再是一份死的文档,而是可以被直接用来训练和评估AI模型的“活数据”。这就像我们不是在AI每次回答问题时,都在旁边念一遍规则提醒它,而是通过训练,把这些规则直接“刻”进它的“大脑”里,成为它的“肌肉记忆”。
原野: 这个能用个更生活的例子解释一下吗?“肌肉记忆”这个说法很有趣。
晓曼: 当然。这就像教一个孩子学礼貌。一种方法是,每次他见到长辈,你都在旁边提醒他:“快,叫叔叔好”。这就像是在AI推理时通过上下文注入政策,效率很低。而“可执行规范”呢?它更像是你通过日复一日的言传身教和情景模拟,让“见到长辈要问好”这个行为,内化成了孩子的一种本能和习惯。他不再需要思考,而是自然而然地就这么做了。这就是把规范嵌入到了模型的权重里。
原野: 我懂了,是把规则从“外部约束”变成了“内在品格”。但这听起来有点可怕,如果一开始我们写的“规范”本身就有偏见,或者被坏人改了,那不是更危险吗?影响会更深。
晓曼: 你提出了一个非常关键的伦理问题。这恰恰说明了,未来“编写规范”这项工作的责任有多重大。它要求规范的作者不仅要有逻辑和技术能力,更要有深刻的伦理思考和远见。从“有损投影”的代码,到成为“意图源头”的规范,我们看到的,是整个软件开发核心资产的转移。
原野: 这太有意思了。而且这种编写规范的能力,好像并不只是程序员的专利。我记得资料里提到了一个让我目瞪口呆的类比。
晓曼: 我猜你想说的是美国宪法那个。
原野: 没错!Sean Grove竟然把美国宪法比作一份“国家模型规范”。他说宪法通过修正案来更新版本,司法审查就像一个“评估器”,来判断具体行为是否符合规范,而每一个判例,都像一个新的“单元测试”,用来补充和强化这个规范。这简直是把治国和写代码的逻辑打通了!
晓曼: 这个类比堪称“神来之笔”。它一下子把我们对“编程”的理解,从电脑屏幕前的那点事,扩展到了整个人类社会的协作层面。无论是协调一堆硅晶体,还是协调一个团队,甚至是协调数亿国民,本质都是在通过一套清晰、可演进的规范,来对齐所有参与方的意图和价值观。
原野: 这么一想,我们每个人好像都在不知不觉中扮演着“规范作者”的角色。比如我们给AI下一个指令,其实就是在创作一个最最原始的“原型规范”。
晓曼: 完全正确。所以说,未来的核心技能,就是撰写能够充分捕捉意图和价值的规范。掌握这项技能的人,不管他的头衔是产品经理、工程师,还是律师、政策制定者,他都是这个时代最有价值的“程序员”。
原野: 如果说美国宪法是国家级的“模型规范”,那在公司里,除了OpenAI那个,还有什么东西其实也扮演着类似的角色?
晓曼: 其实很多。比如一家公司的使命和愿景,就是最高阶的规范。品牌设计手册,是为了对齐所有市场宣传的视觉规范。甚至一份严谨的商业合同,也是在为合作双方的行为制定一套可执行的规范。我们只是以前没用“编程”的视角去看待它们。
原野: 那如果“规范作者”是未来最稀缺的人才,我们的教育和个人发展是不是也得跟着变?是不是意味着文科生和理科生的界限会越来越模糊?
晓曼: 我认为这是必然趋势。未来需要的人才,既要懂逻辑、懂系统,也要有极强的语言表达能力、同理心和人文关怀。因为你在定义规范的时候,实际上是在为未来的智能系统设定价值观。这责任太重大了。
原野: 这么一聊,我感觉思路完全被打开了。从微观的代码,到宏观的宪法,我们看到的是同一种智慧在闪光,那就是通过“编写规范”来构建复杂系统、实现意图对齐。
晓曼: 是的。这其实给了我们一个非常积极的信号。
原野: 没错。我们来简单回顾一下,今天聊下来,我最大的感受是,程序员的核心价值正在发生一场深刻的转移,从单纯的写代码,转向了更高维度的结构化沟通和意图表达。
晓曼: 对,而承载这个意图的“规范”,正在崛起,成为软件开发中最有价值的“源代码”。它不仅能对齐人类团队,甚至能直接训练和校准AI,把我们的价值观深度嵌入到机器智能里。
原野: 而最震撼的是,我们发现这种编写规范的能力,其实是一种普适的智慧。它贯穿了从编程芯片到国家立法的各种人类活动中,这真的是一种跨越了技术和人文的通用能力。
晓曼: 的确如此。
原野: 在AI浪潮席卷一切的今天,我们总是很焦虑,担心机器会取代我们。但今天聊完,我感觉看到了一个完全不同的可能性。当AI承担了绝大部分“如何做”的执行任务时,我们人类的价值,反而会更加聚焦于回答“做什么”和“为什么做”这些根本性的问题。这或许就是答案:在AI时代,编程的核心,已经从代码,悄然转向了规范。这不仅要求程序员成为更优秀的“意图设计师”,更是在告诉我们所有人,未来最宝贵的智力资产,是那种能将抽象的愿景,转化为清晰的蓝图,并协调包括AI在内的所有力量去实现它的能力。所以,真正的问题或许是,我们准备好,从一个代码的匠人,蜕变为一个意图的建筑师了吗?