DC娱乐网

2026年AI行业观察:从语料依赖到算力分化,大模型的现实与未来

当时间进入 2026 年,人工智能行业已经告别了 2023 年的爆发式狂热,也走过了 2024 年的落地探索期,进入了一

当时间进入 2026 年,人工智能行业已经告别了 2023 年的爆发式狂热,也走过了 2024 年的落地探索期,进入了一个更加务实、也更加暴露真实问题的阶段。

过去两个月里,行业内的两个核心观察 —— 大模型对语料的底层依赖,以及 AI 技术带来的社会分化趋势,正在逐渐打破人们对 AI 的浪漫想象,也为我们揭示了这个行业接下来的真实走向。本文将结合近期的行业实践与研究,从技术底层、能力进化、社会影响、产品生态以及人与 AI 的关系五个维度,梳理当前 AI 行业的最新热点与未来趋势。

技术底层的真相:大模型的 "语料天花板"

很长一段时间里,公众对大模型的认知都停留在 "通用智能" 的浪漫想象中:很多人认为,大模型已经拥有了和人类类似的学习能力,只要给它足够的信息,它就能学会任何技能,解决任何问题。但近期的一个实验,彻底戳破了这个幻觉。

在 2026 年 3 月的一项研究中,两位研究者选取了当前业界最主流的五个大模型 ——GPT-5.2、O4-mini、Gemini 3 Pro、Qwen3-235B、Kimi K2,让它们使用五种极为小众的编程语言完成编程任务,这五种语言分别是 Brainfuck、Befunge-98、Whitespace、Unlambda 和 Shakespeare。选择这些语言的核心原因非常明确:它们的使用范围极小,网上几乎没有相关的公开资料,也就是说,这些语言的内容几乎不可能出现在大模型的训练语料中。

实验的结果出乎很多人的意料:这五个被认为是当前最顶尖的大模型,在这些小众语言任务上的平均正确率仅为 3.8%—— 换句话说,100 道题目,它们只能做对不到 4 道。而作为对比,它们处理我们日常使用的 Python 语言的任务时,正确率可以达到 90%。更值得注意的是,仅有的这几道答对的题目,全部都是最基础的入门级题目;一旦难度提升到初级、中级甚至高级,所有五个大模型的正确率直接降为 0,没有任何例外。

这个结果用最直白的方式告诉我们:大模型从来都不是什么拥有自主学习能力的 "硅基生命",它本质上还是一个基于统计规律的拟合模型。它的所有能力,都来自于训练语料中的统计规律:如果某个领域的语料足够多,它就能把这个领域的任务做得很好;如果某个领域没有语料,它就和一个没有经过训练的 "智障" 没有区别,根本无法完成哪怕是稍微复杂一点的任务。

这个实验的背后,其实是整个大模型行业正在面临的 "语料天花板" 危机。早在 2023 年,就有斯坦福大学的研究指出,按照当前大模型的训练需求,以及互联网公开内容的增长速度,到 2026 年左右,全球可用于训练大模型的高质量公开文本语料就会基本耗尽。这个预测正在一步步变成现实:现在的大模型厂商,已经很难找到新的公开语料来提升模型能力,要么转向企业的私有内部数据,要么尝试用大模型自己生成的合成语料来训练模型。

但合成语料的问题同样明显:大模型自己生成的内容,本身就带有模型的固有偏差,用这些内容来训练新的模型,就会导致误差的不断累积,最终让模型的能力不升反降。而私有语料的获取,又会进一步加剧行业的分化:头部的科技公司,拥有海量的用户私有数据,他们可以用这些数据来训练自己的模型,而中小公司,根本没有能力获取这么多的私有语料,只能用公开的、已经被用烂了的语料,这就导致头部和中小公司的模型差距越来越大。

还有很多人会问:如果我给大模型一本完整的小众语言的使用手册,它能不能通过读手册学会这个语言?这其实涉及到大模型的上下文学习能力。理论上,现在的大模型已经拥有了百万甚至千万级别的上下文窗口,完全装得下一本完整的手册。但实际的情况是,就算大模型读完了手册,它也很难真正学会这个语言 —— 因为它没有足够的样本,去拟合这个语言的规律,它只能理解手册上的文字,却无法真正掌握这个语言的逻辑,更不用说用它来解决复杂的问题。

这也就意味着,接下来的大模型技术,已经不能再像之前那样,单纯地堆参数、堆算力了。我们需要解决的核心问题,变成了怎么在有限的语料下,提升大模型的学习能力:怎么让大模型真正的学会逻辑,而不是仅仅拟合统计规律?怎么提升小样本学习的能力,让大模型只靠一本手册,就能学会一个全新的技能?这些问题,将是接下来 AI 技术突破的核心方向。

能力进化的标尺:大模型的加速进化与瓶颈

在解决语料问题的同时,我们也需要重新思考,怎么衡量大模型的能力进步。过去,我们衡量大模型的能力,都是用 MMLU、GSM8K 这类标准化的测试集,通过模型在这些测试集上的分数,来判断模型的好坏。但这种方法有一个很大的缺陷:它只能用来做不同模型之间的横向比较,很难直观地衡量大模型的进步速度,我们很难说清楚,今年的模型,比去年的模型到底强了多少,对我们的生活到底有多大的改变。

而近期的一篇论文,提出了一个全新的、非常直观的衡量方法,给了我们一个全新的视角。这个方法的逻辑非常简单:首先,我们计算人类完成某一项任务需要多少时间,比如,做一道简单的加法题,人类需要 2 秒;做一个复杂的项目开发,人类需要 12 小时;做一个完整的行业研究,人类需要一个月。然后,我们测试大模型,能不能以 50% 的成功率完成这项任务。如果能,那就说明,这个大模型的能力,已经达到了能处理这个时间长度的任务的水平。

用这个方法,研究者统计了不同阶段的大模型的能力,得到了一个非常惊人的结果:

• GPT-2 时代,大模型只能以 50% 的成功率,完成人类 2 秒就能做完的简单任务;

• 到了 Claude 3.7 Sonnet,这个时间提升到了 50 分钟;

• 接下来的 O3 模型,已经能处理人类需要 2 小时的任务;

• 而最新的 Opus 4.6 模型,已经能完成人类需要 12 小时才能做完的任务。

更重要的是,研究者发现,大模型的能力进化,在对数坐标下是一条完美的直线:每 7 个月,大模型能够以 50% 成功率完成的任务,时间范围就会扩大一倍。

这个速度有多快?我们熟悉的摩尔定律,是每 18 个月,芯片的性能翻一倍;而大模型的能力进化速度,是每 7 个月翻一倍,比摩尔定律快了一倍还多。按照这个趋势,我们可以做出一个非常直观的预测:

• 到 2027 年左右,大模型就能完成人类需要一天才能做完的任务;

• 到 2029 年左右,就能完成人类需要一周的任务;

• 到 2031 年之前,大模型就将能以 50% 的成功率,完成人类专家需要一个月才能做完的复杂任务。

这也就意味着,按照当前的进化速度,今年年底的大模型,能力就会比今年年初的模型强一倍;再过一年,就会强四倍,再过两年,就是八倍。这个速度,是我们之前从未见过的技术进步速度。

但问题是,这个速度真的能一直维持下去吗?

答案可能是否定的,因为这个进化速度的背后,有两个无法绕开的瓶颈。第一个就是我们上一部分提到的语料瓶颈,如果没有新的语料,大模型的能力就没法继续提升。而第二个瓶颈,就是摩尔定律的失效。

我们都知道,摩尔定律是过去几十年 IT 行业发展的基础,它说的是,每 18 个月,芯片上的晶体管数量就会翻一倍,性能也会翻一倍。但很少有人提到,摩尔定律有一个伴生的效应:芯片工厂的建造成本,每 5 年就会翻一倍。

25 年前,全球有差不多 40 家公司,有能力建造先进的芯片工厂,当时一个工厂的成本,大概是 20 到 40 亿美元。而到了今天,全球只剩下 2 到 3 家公司,才有能力建造最先进的芯片工厂,而一个工厂的建造成本,已经飙升到了几百亿美元。按照这个趋势,再过 10 年,可能全球连一家能承担这个成本的公司都没有了。

现在的芯片制造工艺,已经逼近了 1 纳米的物理极限,再往下走,技术壁垒和资金壁垒都会同时达到顶点。这也就意味着,摩尔定律很快就会失效,未来我们很难再依靠单芯片的性能提升,来获得算力的增长。未来的算力增长,只能靠把更多的芯片堆在一起,做集群算力,而不是单芯片的性能提升。

这也就意味着,大模型的那个 7 个月翻一倍的进化速度,很快就会遇到瓶颈。如果我们没有新的技术突破,比如新的芯片架构,比如量子计算,那这个进化速度,迟早会慢下来。这也是为什么,现在整个行业都在转向算法优化,比如稀疏激活、推理优化、模型压缩这些技术,希望能用同样的算力,获得更高的模型能力,来维持这个进化速度。

社会层面的冲击:AI 时代的算力鸿沟

当大模型的能力越来越强,一个更严峻的问题也随之出现:AI 技术,正在加剧社会的贫富分化,这是它和之前所有技术都不一样的地方。

在过去的几百年里,我们经历的技术革命,不管是工业革命,还是信息革命,本质上都是在抹平贫富差距,实现 "消费者平等"。因为工业品有规模效应:产量越大,单位成本就越低。当一个产品大规模生产之后,价格就会越来越低,最终,穷人和富人,都能用上一样的产品。

比如,我们喝的可口可乐,世界首富和普通人喝的,是一模一样的;我们用的苹果手机,不管你是亿万富翁,还是普通的上班族,买到的都是同一个型号的手机;哪怕是互联网,马斯克和你用的是同一个网站,同一个 App,没有区别。这些技术,最终都让普通人也能享受到和富人一样的服务,缩小了人与人之间的差距。

但 AI 不一样,AI 不仅没有抹平这个差距,反而在拉大它。

最核心的原因就是,大模型不存在规模效应。对于工业品来说,你生产 100 万件产品,单位成本会比生产 1 万件低很多;但对于大模型来说,越好的模型,推理成本就越高,而且,用户越多,你需要的服务器就越多,你需要扩建机房,改造电路,改造水冷系统,这些都会推高你的单位成本,而不是降低它。

这就导致了一个结果:费用越贵,模型的效果就越好。因为模型的效果,和算力直接挂钩:更多的算力,更大的上下文窗口,更多的参数,都需要钱。你花的钱越多,你就能用到越好的模型,获得越好的服务。

这种分化,其实现在已经出现了。

现在最贵的 AI 编程工具,Claude Code 的 Max 套餐,月费就要 200 美元,这个价格,已经有很多普通人承担不起了。而 OpenAI 之前甚至设想过一个月费 2 万美元的顶级套餐,提供最顶级的、无限量的大模型服务。这个价格,只有顶级的富豪和大企业才能用得起,普通人根本想都不敢想。

未来的社会,很可能会变成这样:富人和大企业,付费使用顶级的大模型,这些模型能帮他们做战略规划,做行业咨询,生成高质量的内容,做全流程的自动化,帮他们把效率提升到极致;而普通人,只能用免费的、基础的大模型,这些模型的效果很普通,只能帮你做一些简单的聊天,写一些简单的文案,解决不了复杂的问题。

这种差距,最终会变成效率的差距:富人用顶级的 AI,一天能做普通人十天才能做完的工作,他们的财富积累速度,会越来越快,而普通人,根本追不上。最终,AI 就会变成一个加剧贫富分化的工具,让富人越富,穷人越穷。

当然,马斯克提出了另一种可能性,他说,算力本质上就是能源转化的一种形式,如果未来我们能实现廉价能源的大量供应,比如空间太阳能,比如可控核聚变,那能源就会变得非常便宜,算力也会跟着变得非常便宜,到那个时候,所有人都能用得起最好的模型,也就不存在分化了。

但问题是,这个未来太遥远了。可控核聚变到现在还没有实现商业化,空间太阳能也还处在实验阶段,短期来看,我们根本看不到这些技术落地的可能。所以,更现实的情况是,在接下来的很长一段时间里,AI 的分化都会越来越明显。

而且,这种分化,现在已经开始向硬件领域蔓延了。AI 的爆发,导致了显卡、内存、硬盘这些硬件的价格一路飙升,很多读者都在反馈,现在组装一台电脑的成本,比几年前高了太多,很多预算不够的人,连一台能用的电脑都买不起了。富人能买得起最顶级的显卡,自己部署顶级的开源模型,而普通人,连基础的硬件都快承担不起了,这个差距,正在越来越大。

当然,也有很多人说,未来免费模型的能力也会提升,现在的免费模型,能力会超过几年前的顶级付费模型。这话没错,但问题是,那个时候,顶级的付费模型,能力又会提升很多,差距还是存在的。就像现在,我们的免费手机,比十年前的顶级手机性能还好,但是,富人还是能用最新的顶级手机,两者的差距,还是存在的,而且,在 AI 时代,这个差距带来的效率影响,会比手机大得多。

产品生态的变革:AI 落地的新形态

在技术和社会层面发生变化的同时,AI 的产品形态和生态,也在发生着深刻的变革。

最明显的一个变化,就是 AI 生态的开放。3 月份,微信官方发布了所谓的 "龙虾接口",这个接口的核心作用,就是让 AI 机器人可以向微信发送消息。这个看起来很小的更新,其实彻底打开了 AI Agent 的生态大门。

在此之前,AI Agent 都只能活在自己的平台里,比如你用某个 AI 助手,只能在它自己的 App 里用,没法进入到你日常的社交场景里。但现在,有了这个接口,AI 机器人可以直接接入微信,你可以拥有一个自己的 AI 助手,它在微信里帮你回复消息,帮你整理聊天记录,帮你处理工作,甚至帮你和朋友聊天。这一下子就把 AI 的使用场景,从专门的工具 App,扩展到了我们每天都在用的国民社交平台,整个 AI 生态,一下子就活了。

现在已经有很多开发者,基于这个接口做了二次开发,比如微信的机器人 SDK,比如 Agent 的网关接入工具,这些工具,让普通人也能很容易的搭建自己的微信 AI 机器人,这在之前是根本不可能的。

除了生态的开放,AI 的产品形态,也在发生着根本性的变化,其中最值得关注的,就是 "无头应用" 的概念。

过去,我们使用手机应用,都需要有一个界面,你要打开 App,点击按钮,输入内容,自己操作。但未来,如果我们都通过 AI 助手来使用手机的话,那这些 App 根本就不需要界面了。你不需要自己去操作 App,你只要跟你的 AI 助手说你要做什么,AI 助手会直接调用 App 的接口,帮你完成所有的操作。

比如,你要订一张去北京的机票,你不需要打开携程 App,自己选航班,填信息,付钱,你只要跟你的 AI 助手说:"帮我订下周三去北京的机票,要上午的,经济舱,预算 2000 块",然后 AI 助手就会直接调用携程的接口,帮你选好航班,填好你的信息,付好钱,然后把结果告诉你。

在这个过程中,携程 App 根本就不需要显示任何界面,它只要给 AI 助手提供一个接口就够了,这就是 "无头应用"—— 没有显示模块,只有后端接口。

这个变化,会彻底改变我们的移动互联网生态。现在我们的手机里,装了几百个 App,每个 App 都有自己的界面,我们要在不同的 App 之间切换。但未来,我们的手机里,可能只有一个 AI 助手,所有的 App,都变成了 AI 助手的后端服务,我们再也不需要自己去操作各种 App 了,所有的事情,都交给 AI 助手帮我们做。

而在 C 端的产品上,我们也看到了越来越明显的分层。比如微软近期发布的 MAI-Image-2 图像生成模型,这个模型的生成质量非常高,有评论认为,它的效果仅次于谷歌的 nano-banana-2 模型。微软开放了免费的试用平台,任何人都可以免费生成图片。

但如果你用过就会发现,这个免费服务,有很多的限制:每天的免费额度只有 15 张,每次生成要间隔 30 秒,而且只能生成长宽比 1:1 的图片,也不支持图片编辑。这些限制,本质上就是成本的限制:高质量的图像生成,推理成本很高,微软不可能让免费用户无限制的使用。所以,免费用户只能用基础的、有限的服务,而付费用户,就能解锁更多的额度,更高的分辨率,更多的功能,这个就是产品的分层,和我们之前提到的模型分层,是完全对应的。

这种分层,甚至已经蔓延到了传统的客服领域。惠普近期推出了新的客服政策:用户打客服电话,首先会被引导去用 AI 客服,如果你坚持要找真人客服,就要排队等 15 分钟,而且中途挂电话的话,就要重新排队。这其实就是一种服务的分层:免费的用户,只能用成本更低的 AI 客服,如果你想要真人客服,要么花钱,要么花时间排队。未来,这种模式很可能会变成常态:免费的服务,都是 AI 提供的,而真人服务,都需要付费。

人与 AI 的重构:职业的边界与核心价值

随着 AI 的发展,很多人都在担心,AI 会不会让自己失业?但实际上,AI 的发展,不是在替代人,而是在重构人和工作的关系,重新定义人的核心价值。

有一个开发者的分享,很能说明问题。他说,他越用 AI 编程,就越不担心自己的职业,哪怕 AI 的编程能力越来越强。因为他发现,AI 编程,只是他工作的很小一部分,他真正的工作,80% 都不是写代码。

他的真正工作是:找出可以用代码解决的问题,把这个问题定义清楚,然后验证 AI 写出来的代码,是不是真的解决了这个问题。AI 可以帮你写代码,但是它不知道你要解决什么问题,它不知道用户的需求是什么,它也不知道,写出来的东西,是不是真的符合你的预期。这些事情,只能人来做。

这其实就是 AI 时代,人的核心价值:我们不是执行的工具,我们是问题的定义者,是需求的发现者,是结果的验证者。AI 可以帮我们完成执行的部分,但是,发现问题、定义问题、判断结果,这些才是人的价值所在。

而 AI 对就业市场的影响,也和我们之前想的不一样。贝莱德的老板拉里・芬克就提到,AI 的发展,会减少办公室工作的需求,反而会创造大量体力工作的岗位。

原因很简单:办公室的很多工作,比如文案写作,比如数据输入,比如基础的分析,这些都是标准化的、基于信息的工作,很容易被 AI 替代。但是,体力工作,比如电工,比如焊工,比如水管工,这些工作,需要你动手,需要你在现场处理各种突发的问题,需要你和物理世界交互,这些工作,AI 很难替代。

所以,未来,办公室的白领岗位会越来越少,而这些体力工作的需求,会越来越大,工资也会越来越高。这也就意味着,我们的职业教育,也会发生变化:之前,我们都告诉孩子,要好好读书,将来做白领,不要做体力活。但未来,做体力活,也能有很好的职业生涯,也能拿到很高的工资,我们需要引导孩子,找到适合自己的方向,而不是所有人都挤破头去做白领。

同时,我们也要明白,AI 不是万能的,它不能替我们做所有的事情。比如写作,有一个观点说的非常好:写作的目的,不是写完那篇文章,而是在写作的过程中,整理你自己的思路,加深你自己的理解,让你自己想明白这件事。如果你让 AI 替你写作,那就像花钱请人替你健身一样,别人替你练了,你自己得不到任何锻炼,你也得不到任何成长。

AI 可以帮你润色文字,帮你整理素材,但是,它不能替你思考,不能替你理解,这个过程,必须你自己来。

当然,我们也要看到,现在很多企业,正在把 AI 当做裁员的借口。很多公司,根本不管 AI 到底能不能胜任工作,就以 AI 为理由,开除员工,降本增效。比如很多公司,开除了前端开发,说 AI 能写代码,但是实际上,AI 根本做不了前端的全部工作,他们只是为了省钱而已。这种情况,是我们需要警惕的,AI 的发展,不应该成为资本家剥削工人的工具。

结语

未来的竞争重点不会只落在底座模型本身,而会越来越体现在模型与记忆、工具、工作流、私有数据和反馈机制结合后的整体能力上。文章一直在谈语料、上下文和能力分层,其实都在说明,单靠一次模型前向生成,已经越来越难支撑复杂任务。未来产品的核心价值,也会越来越来自对模型短板的结构化补偿,比如用检索、记忆、任务编排和长期状态管理,去弥补模型在分布外任务和长程上下文上的不稳定。文章虽然没有明确这样表述,但它提出的很多问题,本质上都在把系统层能力的重要性推到前面。