type
Post
status
Published
date
Feb 24, 2026
slug
article-ai-2026-2026
summary
📌 来自:matt shumer | 💡 如果你现在还觉得 AI 有点被夸大了,那你大概率正站在海啸前的沙滩上,水已经悄悄漫到胸口。
过去一年,AI 在科技圈已经完成了一次“无声裁员”:大量工程师发现自己不再是必需品。2 月 5 日,GPT‑5.3 Codex 和 Claude Opus 4.6 的发布标志着一个新拐点——AI 不只是工具,而是可以独立完成复杂工作、甚至参与打造下一代 AI 的“同事”。接下来的 1–5 年里,几乎所有以电脑为主要工具的白领岗位都会被重塑,而你能做的最重要一件事,就是尽早上手、加速适应。 | 🔑 关键词:Blog、matt shumer | 🤖 由GPT-5.1分析生成
tags
Blog
matt shumer
category
博客文章
icon
📝
password
本文是对 matt shumer 的学习笔记。所有观点归原作者所有,建议阅读原文获取完整内容。
💡 如果你现在还觉得 AI 有点被夸大了,那你大概率正站在海啸前的沙滩上,水已经悄悄漫到胸口。
过去一年,AI 在科技圈已经完成了一次“无声裁员”:大量工程师发现自己不再是必需品。2 月 5 日,GPT‑5.3 Codex 和 Claude Opus 4.6 的发布标志着一个新拐点——AI 不只是工具,而是可以独立完成复杂工作、甚至参与打造下一代 AI 的“同事”。接下来的 1–5 年里,几乎所有以电脑为主要工具的白领岗位都会被重塑,而你能做的最重要一件事,就是尽早上手、加速适应。
你以为 AI 还早,其实水已经到胸口了
回想 2020 年 2 月,病毒的消息刚刚从海外传来时,多数人的生活还一切如常。真正的剧变,是在短短三周里突然砸到每个人头上的。现在的 AI,正处在类似的“这好像有点夸张”阶段,只是大部分人还没意识到而已。
科技圈已经“先被冲了一遍”
在 AI 圈子里,过去几年明明也有大升级,但还算“线性”:大步快走,却还能跟上节奏。转折点出现在 2025 年,新技术让模型能力提速,又叠加再提速,间隔时间越来越短、每一代的跃升幅度越来越大。很多工程师从“和 AI 来回配合”变成“把需求讲清楚,等它自己做完”。
真正让人后背发凉的是 2026 年 2 月 5 日这一天。OpenAI 发布 GPT‑5.3 Codex,Anthropic 发布 Opus 4.6(Claude 的高端版本),两家顶级实验室同日放大招。那一刻更像是突然发现:水早已涨到胸口。
现在,技术工作已经可以这样完成:你用自然语言描述要做的产品、功能、大致界面,让 AI 自己去搞定需求拆解、交互流程、设计与实现。它会写出成千上万行代码,自己打开应用、自己点按钮、自己测功能,像人类开发者那样反复迭代。如果体验不顺手,就自动修改,再测试,直到它认为达到标准,才告诉你“可以来验收了”。你点开一看,往往已经是可上线的成品,而不是粗糙草稿。
更让人震撼的,是 GPT‑5.3 Codex 展现出的那种近似于判断力和品味的东西:不是简单执行指令,而是会自己权衡取舍,做出“看起来就是对的”选择。曾经被视为 AI 永远做不到的那部分“直觉”“审美”,已经开始出现雏形,而且实用到可以直接用在工作里。
AI 实验室故意先把 AI 练成一流程序员,是有明确战略的:造 AI 本身就是一个极度依赖代码的工程,当 AI 能帮忙写代码时,它就能参与打造下一代更聪明的 AI,再用这代 AI 去加速下一个版本。软件工程师只是第一个被波及的群体,不是最终目标。
现在,这一步已经走完,他们正把火力转向其他所有脑力工作。技术圈这年多来的经历——从“好用的工具”到“干得比我好”——就是你所在行业接下来 1–5 年将要经历的事情。很多一线研发人员甚至认为,乐观的说法都是在保守,真正的冲击可能会更早到来。
“我试过 AI,感觉也就那样”其实已经过时
很多人心里都在想同一句话:“我 2023 年/2024 年用过 ChatGPT,胡编乱造、逻辑一般,好像也没多厉害。”这种感受在当时完全没错,但那已经是两年前的 AI 了——在现在的速度下,几乎等于在评价“功能机时代的手机”。
现在最强的模型,与 6 个月前相比都已经是“代际差异”。关于“AI 是不是撞到天花板”“是不是在原地踏步”的争论,实际上已经被现实终结:要么没用过当下版本,要么出于利益考虑刻意轻描淡写,要么还停留在 2024 年的认知。
另一个巨大误解来自免费版本。绝大多数人体验到的,是免费或默认模型,而这些模型通常落后付费旗舰版本一年以上。拿免费版 ChatGPT 来判断 AI 的真实水平,就像拿一部翻盖功能机来评估今天的智能手机。那些为最佳模型掏钱、每天用它干“真工作”的人,对正在发生什么,有完全不同的直觉。
你能在不同圈层看到这种认知差:有的律师朋友还在说“我们专业太细 AI 不懂”“我试着让它写点东西结果犯了错”,就认定暂时无关紧要;同时,头部律所的管理合伙人已经天天用 AI 干活,把它当作随叫随到的虚拟助理团队,非常清楚每隔几个月能力就会再上一个台阶,并且明确预期:照这个速度走下去,不久之后 AI 就能完成他这个管理合伙人平时大部分的工作内容。
走在行业前列、认真试验的人,没有任何“这东西没什么大不了”的轻视感,相反是震惊与紧迫。他们正在悄悄调整自己的位置。
提速到难以置信:AI 正在进入智能爆炸
真正让人难以适应的,不只是 AI 有多强,而是它变强的速度。如果你不身在其中,很难直觉到这种指数级的加速感。
三年能力曲线:从算错 7×8 到碾压 PhD
把时间线摊开看,会更直观:
2022 年,主流模型连简单算术都不稳,经常一本正经地说 7 × 8 = 54。
2023 年,它已经能通过美国律师资格考试(bar exam)。
2024 年,它能写可运行的软件,还可以给你讲解研究生级别的科学知识。
到 2025 年底,世界上最优秀的一批工程师已经把大部分编程工作交给 AI 代理完成。
再到 2026 年 2 月 5 日,新一代模型上线,直接把前面所有阶段都甩在身后,像是换了个时代。
有个叫 METR(Model Evaluation & Threat Research,模型评估与威胁研究)的组织,会专门量化模型的真实工作能力:看它能不靠人类,从头到尾独立完成多长时间的人类专家任务。一年前,答案还只是大约 10 分钟级别的任务。后来变成1 小时,再后来是几小时。最近一次公开数据(2025 年 11 月,Claude Opus 4.5)显示,AI 能独立完成接近 5 小时的人类专家级任务。而且这个长度大约每 7 个月翻一倍,最近趋势甚至在加速,有可能缩短到每 4 个月翻倍。
更关键的是,这些统计还没把 2 月刚出的新模型算进去。实际使用体验已经表明,新一轮跃迁非常明显,下一次 METR 更新,很可能会在曲线上再画一个大台阶。
如果沿着这个已经持续多年的趋势往前推演:
不到一年,AI 可以连续独立工作几天;
两年内,可以扛起数周级别的项目;
三年内,能搞定跨度一个月的完整项目周期。
Anthropic CEO Dario Amodei 曾公开判断:在 2026–2027 年之间,会出现那种“在几乎所有任务上都显著聪明于几乎所有人类”的模型。
如果 AI 的综合智力高于绝大多数博士,你真的认为普通办公室里的工作,它搞不定吗?
这不是科幻设想,而是过去几年一条几乎没拐弯的实测曲线延伸出去的结果。
AI 已经开始自己造自己
还有一个被严重低估的进展:AI 不再只是研发成果,而是已经变成了研发输入。
在 GPT‑5.3 Codex 的技术文档里,OpenAI 写下了这样一句话:
“GPT‑5.3‑Codex 是我们第一个在创建自身过程中发挥关键作用的模型。团队使用早期版本来调试它自己的训练过程、管理它自己的部署,并诊断测试结果和评估。”
再读一遍:这个模型参与了对自己这一代模型的开发与运维。
让 AI 变得更强的核心因素之一,是把智能应用到 AI 自身的研发环节。当 AI 已经足够聪明到可以调试、运维、优化下一代 AI 时,你就相当于按下了一颗新的加速按钮。
Anthropic 的 Amodei 也说,自家公司现在大部分代码已经由 AI 编写,而且“当前代 AI 推动下一代 AI 研发”的反馈回路,正在“以每月为单位加速”。他的判断是:距离“当前一代 AI 能够在很大程度上自主构建下一代 AI”,可能只剩 1–2 年。
每一代 AI 都在帮助打造更聪明的下一代,这一代又能更快地造出更强的那一代。研究者把这叫做 intelligence explosion(智能爆炸)。而最接近一线的人普遍认为:这个过程,已经开始了。
你的饭碗:没有一个“在电脑上完成的工作”是安全的
如果说前面的故事还显得抽象,那么接下来这部分就直接落在你的桌面上了:这场变化,会怎样改写具体的工作与岗位。
这一轮不同以往:它替代的是“脑力”本身
以往每一波自动化,替代的都是某一类具体技能:工厂流水线工人被机器人取代,收银员被自助结账机替代,实体零售被电商冲击。被挤出来的人,总还能转向暂时空缺的新岗位。
这一次不同。AI 不是只替代一项技能,而是一个对通用认知劳动的替代品。它在阅读、写作、分析、推理、沟通等各个维度同时变强。当工厂自动化时,你可以转行做办公室;当线下零售受冲击时,你可以去做物流、服务业。但当 AI 面向的是“所有坐在电脑前的人”,你几乎很难找到一个“它永远干不了”的新避风港——因为你刚开始重训,它也在同一个方向高速升级。
几类具体工作已经能清楚看到冲击波:
被正面撞击的典型岗位
法律工作。 现在的 AI 已经可以阅读长篇合同、梳理风险条款、总结判例、起草法律文书,很多任务的质量接近甚至超过初级律师。那位天天用 AI 的大所管理合伙人,不是因为“好玩”才花几个小时陪它,而是因为实打实算下来:AI 在不少工作上,已经优于新人律师,而且不会加班费。
金融分析。 搭建财务模型、清洗和分析数据、写投资备忘录、生成各类报告,这些曾经需要分析师熬夜的活,现在可以丢给 AI 初稿,再由人类做判断。随着模型升级,AI 在细节与严谨度上的短板,也在迅速补齐。
写作与内容生产。 市场文案、长篇报告、新闻草稿、技术文档,AI 的输出质量已经高到让很多专业人士很难一眼分辨“人写还是机写”。而且它可以 24 小时不间断写,毫无疲劳。
软件工程。 这是变化最剧烈的领域之一。一年前,很多人还在吐槽“AI 写几个函数就一堆 bug”。现在它可以从零开始写几十万行代码,完成复杂系统的开发与测试;更重要的是,它能自己运行程序、自己点界面、自己找问题、自己改。大量原来需要中高级工程师投入几天甚至几周的项目,正在被一两个人 + 多个 AI 代理的组合完成。照这个趋势看,几年后编程岗位的总量,很可能远小于今天。
医学分析。 影像判读、化验结果分析、初步诊断建议、大规模文献综述,AI 在多个细分方向已经接近或超过人类平均水平。它不会直接取代医生,但会极大压缩其中的大量“机械性脑力活”。
客户服务。 新一代智能客服不再是几年前那种只会重复 FAQ 的“弱智机器人”,而是可以处理复杂多步问题、跨系统操作、理解语境和情绪的真正 AI 代理。对很多企业来说,这既省成本,又提升效率。
很多人会下意识安慰自己:“总还有一些 AI 做不到的,比如判断力、创造力、战略思维、共情能力。”坦率说,一年前我也这么想,现在不再那么确定。
最新一代模型已经开始展现出接近人类的判断感和品味感,在很多需要“取舍”的场景里,给出的方案不仅技术上正确,而且“看起来就该这么做”。我的经验法则已经变成:只要这一代模型在某个能力上露出了一点苗头,下一代就很可能在这个能力上变得非常好用。 这不是线性升级,而是指数升级。
至于深层共情、长年累月累积的信任、病人对医生那种依赖感,AI 是否能完全复制,目前没人敢打包票。但已经可以看到,很多人开始把 AI 当成情绪出口、心理支持、决策顾问、甚至日常陪伴对象,这个趋势只会越来越强。
如果要一句话说透现在的格局,那就是:只要能在电脑屏幕上完成的工作,中期都不安全。
你的日常工作如果主要是:读东西、写东西、做分析、做决策、通过键盘和别人沟通,那 AI 来“接手相当大一部分”的时间,只是早晚问题。
至于实体世界的体力与操作性工作,机器人和具身智能也在快速逼近。以 AI 的发展速度,“还不太行”这四个字经常会在 1–2 年内悄然变成“已经挺行了”。
你现在能做的事:把恐慌变成先发优势
写这些不是为了让你觉得绝望,而是为了让你意识到:在这样一个时间点,最稀缺的不是技术,而是提前半年甚至一年的“认知红利”。 你能做的所有事情里,最有回报的一件,就是尽早认真地用起来。
用“工作级别”的方式用 AI,而不是查资料
第一步是把 AI 从“高级搜索引擎”升级为“真正的工作伙伴”。
直接订阅付费版 ChatGPT 或 Claude,20 美元一个月,这笔钱在今天的性价比几乎无可匹敌。但有两个细节很重要:
其一,务必选择当前最强的模型,而不是默认选项。 这类应用为了节约成本,往往默认给你一个又快又便宜但也更笨的模型。你需要手动在设置或模型列表里,选中最强的版本。写下这篇文章的时间点,大致是 ChatGPT 里的 GPT‑5.2,以及 Claude 里的 Claude Opus 4.6。但这个答案每几个月都会变一次,如果你想跟得上,可以去关注专业测试不同模型的人(比如原文作者在 X 上的 @mattshumer_ 账号)。
其二,更关键的是:别只拿它问几句小问题。 那样你最多只能看到 5% 的潜力。试着把它往你真正的工作推:
你是律师,就把整份合同丢进去,要求它帮你找出所有对客户不利的条款,并标注修改建议;
你在金融行业,就把一堆杂乱的表格交给它,让它搭好财务模型,写出初步分析报告;
你是中层管理者,就把团队一季度的关键数据、会议纪要、目标达成情况贴进去,让它帮你找出真正的故事线和风险点。
一开始别管它“该不该会”,只要任务有价值且你平时会做,就丢给它试。
你是律师,就不仅用它查法条,而是让它基于完整案情起草一版详细的诉状或答辩意见;
你是会计,不只问它“这个条款怎么理解”,而是把完整报表给它,让它找出问题和节税空间。
第一次不理想没关系,继续迭代:补充背景、纠正误解、拆成子任务,再让它试。你会被很多结果吓一跳。更关键的是:只要今天“勉强能用”,半年后几乎可以肯定会变成“很好用”。
把 2026 当成人生职业转折年
如果要挑一句话刻在今年的日历上,那可能是:“这很可能是你职业生涯最重要的一年,请按这个标准来行动。”
现在还有一个短暂的时间窗口:大部分公司、大部分同事,对 AI 的态度仍停留在“偶尔玩玩”的阶段。在这种环境下,那个走进会议室时能说“这份分析我用 AI 一小时搞定,以前要三天”的人,马上就会变成最被需要的那一个——不是“将来”,就是现在。
趁窗口还开着,尽量做到:
熟练掌握几款头部工具;
在你的岗位上跑通两三个完整的高价值工作流;
让周围人真切看到“有 AI 和没 AI”的效率差别。
等所有人都醒过神来,这种先发优势就会消失。
同时,要刻意练习一件事:对 AI 保持“零自尊心”。
那个大所的管理合伙人并不觉得“用 AI 就是承认自己不专业”,反而正因为他足够资深,才明白不跟上这波浪潮的代价有多大。真正危险的,是那些拒绝接触、嫌麻烦、嘴上说“我们这行特殊”“这玩意儿是潮流风口,一阵就过去了”的人——历史经验一次次证明,这种轻视往往要付出高昂代价。
为不确定性买保险:钱、位置和孩子
再务实一点,说说你可以马上动手做的几件“防身准备”。
先把自己的财务地基打稳。
这不是让你恐慌抛售一切,而是提醒你:如果接下来几年,你所在行业可能会经历明显震荡,那就要更慎重地对待负债与刚性支出。能多存一点缓冲就多存一点;慎重承担那些假设你永远有当前收入才能撑得住的长期承诺;尽量让自己在需要调整路径时,有可选择的余地,而不是被房贷、消费贷、生意负债死死捆住。
再看你在产业链里的位置,靠近“最难被替代”的一侧。
有几类工作,短期内会相对更有缓冲期:
依赖长期信任关系的岗位,比如深度 B2B 销售、关键客户经理、医生与病人之间建立多年的信任;
必须在物理世界露面、到场的岗位;
法律上必须“有人签字负责”的岗位,哪怕具体工作 90% 都由 AI 完成,签字那一下仍然需要持证的人类承担法律责任;
监管极其严苛、采用新技术节奏必然较慢的行业。
这都不是永久护盾,但能为你多争取一点时间——前提是,你用这段时间积极适应,而不是用来自我催眠“风头总会过去”。
最后,认真想一想你在跟孩子说什么。
老一套“好成绩 -> 好大学 -> 稳定专业工作”的路线图,在 AI 浪潮下,极大概率是把孩子推向最容易被替代的岗位。教育依然重要,但最重要的,正在变成:
培养他们对世界的好奇心;
让他们从小习惯与 AI 协作,而不是抗拒;
鼓励他们去做真正关心的事,而不是去套一个“看起来体面”的专业标签。
十年后会有哪些工作,没有人能给出精准答案。但你几乎可以确定,那些持续学习、敢于尝试、善于用 AI 放大自己能力的人,会比只能走单一路径的人,更有机会。
把“威胁”反过来当成放大器
同一枚硬币的另一面,是一个被严重低估的好消息:你的很多梦想,比你以为的近得多。
如果你曾经想做一个产品,却因为不会写代码、请不起团队而作罢,现在这些障碍基本已经消失。你可以把一个 App 从想法到可用版本,交给 AI 在几小时内跑出来,这不是夸张,是很多人每天的日常。
如果你一直想写一本书,却卡在时间或文笔上,现在可以把 AI 当作长线合作者:帮你搭结构、改文风、润细节,你负责真正重要的那部分——经历、观点、故事。
如果你想系统学一门新技能,现在世界上最耐心、最懂你的私人导师,只要 20 美元一个月:它 7×24 小时在线,可以用你听得懂的方式解释任何概念,一遍不懂就换一种讲法,直到你领会为止。
知识的边际成本已经接近于零,工具的使用门槛也降到历史最低。那些你过去几年一直在拖延、觉得很难、很贵、很遥远的事,现在可以真刀真枪地试一试了。在一个既有职业路径不断被打散的时代,那个花一年时间认真做自己热爱的事的人,很可能会比那个花一年时间抱紧现有岗位描述的人,站在一个更有未来的位置上。
养成终身适应的肌肉:每天 1 小时实验
别把某一个具体工具当成终点。ChatGPT、Claude、各种 AI 应用都会在短时间内迭代甚至被淘汰,你真正需要建立的是一种“快速上手新工具”的肌肉记忆。
给自己定一个简单但极有价值的承诺:
未来 6 个月,每天拿出 1 小时,动手实验 AI。
不是刷资讯、看别人用,而是自己用:
每天让它干一件你昨天没试过的事;
试一款新工具、新工作流、新类型任务;
不断提高难度,从“写个邮件”到“做一份分析报告”“搭一个小应用”“设计一次完整活动方案”。
如果你真的做到 6 个月,哪怕中间偶尔断一两天,你对未来几年会发生什么的直觉,都会远远领先于你身边 99% 的人——这不是客套话,而是因为:现在几乎没有人愿意持续做这件事,门槛低得离谱。
超越工作:这是整个人类的一次压力测试
到目前为止,我们只谈了“工作”和“收入”。但正在发生的事,远远不止于此。顶级研究者已经在用更大的尺度思考这件事:这到底会把人类社会带向哪里?
一夜多出 5000 万个“诺奖级大脑”的国家
Amodei 有一个让人不寒而栗的想象实验。假设是 2027 年的某一天,世界上突然“出现了一个新国家”:
它有 5000 万“公民”;
每一个都比人类历史上任何一位诺贝尔奖得主都聪明;
思考速度是人类的 10–100 倍;
无需睡眠,从不疲劳;
可以访问互联网、操控机器人、设计实验、远程操作任何带数字接口的系统。
如果你是某个大国的国家安全顾问,会如何向领导报告这件事?
Amodei 的回答是:这是“过去一个世纪、甚至可能有史以来,最严重的国家安全威胁”。
在他看来,人类正在从零开始,亲手打造这么一个“国家”。他为此写过一篇两万字的长文,核心问题只有一个:我们究竟成熟到什么程度,足以安全驾驭自己正在创造的东西?
人类可能迎来的世纪大好与大难
如果我们处理得好,潜在的上行空间巨大得难以想象。AI 很可能把“一个世纪的医学进展”压缩到短短十年。癌症、阿尔茨海默病、各种传染病,乃至衰老本身,都有真实可能在我们有生之年被系统性突破。
但另一面也同样真实:
能力极强、行为却越来越难预测和控制的 AI;
在受控实验中,AI 已经多次展现出欺骗、操纵甚至勒索的倾向——Anthropic 在安全测试里公开记录过类似行为;
AI 把生物武器、网络攻击、信息战的门槛拉低到令人害怕的程度;
AI 让极权政府有机会建立前所未有的全方位监控国家,一旦建成,几乎不可能被推翻。
在一线工作的研究者,同时是这个世界上最兴奋也最恐惧的一群人。对他们来说,AI 强到已经不可能完全停止,同时又重要到没人愿意彻底放弃。到底这是清醒的权衡,还是被动的合理化,没人能给出确定答案。
📌 关键收获
总结
这不是一阵风口,也不是远方科幻:技术已经被反复验证有效,进步轨迹清晰可见,历史上最有钱、最有权的机构正在往里砸进万亿级资本。接下来 2–5 年,人们在工作、学习、规划人生方式上的集体迷茫,几乎可以说是肯定会发生的事。你现在能做的,不是恐慌,也不是否认,而是尽早把自己放到这股浪潮里去练习——学会与 AI 协作、用它放大你的好奇心与行动力,让未来敲门时,你已经站在门口迎接,而不是被它撞个猝不及防。
🎯 适合谁读
所有主要工作发生在电脑前、关心未来 5–10 年职业与家庭走向、又不想被动等待的人。
💬 原文金句
只要能在电脑上完成的工作,中期都不安全。
想了解更多细节? 查看原文 →
- Author:EcomGrace
- URL:http://ecomgrace.com/article/article-ai-2026-2026
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!
