DC娱乐网

中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能

中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。”   真实的差距就是梁文锋说的,原创和模仿的鸿沟。这可不是小打小闹的技术差异,是从根上就不一样。美国那边是从0到1搞发明,咱们好多时候是在别人的底子上从1到10做改进。 就说战略上的差别吧,美国那边的思路就是要拿技术霸权,从根上控制AI的未来。他们搞的那些计划,比如“创世纪计划”“AI曼哈顿计划”,都是奔着通用人工智能去的,就是要突破技术天花板,定下全球的规则。 他们一边砸钱搞基础研究,一边又用“小院高墙”那套把核心技术捂着,芯片、算法这些关键东西都卡着不让外流,还拉着盟友搞小圈子,就是要让别人永远跟在后面。 咱们这边呢,更多是把AI当工具,用来给实体经济赋能,政策也都是围着场景落地转,比如智慧城市、智能制造这些,确实落地快,看着热闹,但都是在解决具体问题,没往最底层的理论和架构上使劲儿。 这种战略导向的不同,直接就把“0到1”和“1到10”的路子给分开了,美国盯着源头创新,咱们盯着应用改进,时间长了,差距自然就不是技术参数能衡量的了。 再看产业生态,这更是能看出原创和模仿的差距。硬件上,美国的芯片优势太明显了,不只是性能强,更关键的是他们建了别人拆不掉的生态壁垒。 就说英伟达的芯片,不光算力高,配套的CUDA系统让全球开发者都习惯了,想换成别的,成本高得吓人,就算给咱们的芯片性能缩水一半,该买还得买。 咱们的芯片虽然在某些特定场景里能效比还行,比如智慧城市的视频分析,但真要搞千亿参数的大模型训练,替代率还不到两成,又慢又费钱,根本没法跟人家比。 这就是模仿的局限,能造出相似性能的硬件,却建不起人家那种从芯片到软件的完整生态。 软件和创新这块更明显,美国是从底层架构就攥在手里。全球开发者用的主流框架,比如TensorFlow、PyTorch,都是美国的,论文引用率占了一大半,OpenAI、谷歌那些大模型直接定义了全世界的研发方向。 咱们呢,专利数量看着比美国多好几倍,短视频里的AI应用渗透率也高,但底层框架还是弱,自己的框架引用率连十分之一都不到。 那些最核心的理论,比如Transformer架构、RLHF训练方法,全是美国搞出来的,咱们做的更多是在这些理论基础上做优化,换个场景应用,根本没摸到原创的边儿。 这就像人家发明了电灯,咱们能把灯泡做得更亮、更省电,却没搞明白电是怎么来的,永远得依赖别人的基础理论。 人才和资本的问题也绕不开。咱们培养的顶级AI研究人员数量快赶上美国了,占了全球快一半,但创新活力差远了,斯坦福的报告里说咱们的创新活力得分还不到美国的六成。 关键在哪儿?美国的资本有耐心,愿意砸钱给那些看不见短期回报的基础研究,高校和企业也能拧成一股绳,研究出来的东西能快速变成真东西。 咱们这边呢,钱更多愿意投到能快速赚钱的应用上,高校的研究和产业脱节得厉害,很多合作就停在发论文上,真正能转化成原创技术的少之又少。没有这种鼓励原创的生态,就算有再多人才,也只能在别人的赛道上跑,没法自己开新路。 还有个很关键的差别,就是对技术的态度。美国那些顶尖大模型基本都是闭源的,核心技术和数据藏得严严实实,就是要靠技术壁垒赚垄断钱。 咱们虽然也搞闭源,但更多走开源路线,想靠开放扩大影响力,这本身没毛病,甚至能帮着咱们在应用上快速追赶,但也暴露了底层原创不足的问题。开源能让咱们站在别人的肩膀上,但要是自己总不长出新肩膀,永远只能仰着头看别人。 就像梁文锋他们搞开源,虽然让全球都能用咱们的模型,甚至美国的初创公司都在用,但那些最核心的架构创新,还是得跟着美国的节奏走,这就是模仿者的无奈。 说来说去,这真不是技术代差那点事儿,是从战略到生态,从人才到理念的全方位差距,核心就是原创能力的缺失。 美国是从根上造东西,咱们是在别人的根上长枝叶,枝叶再茂盛,根不自己扎深,风一吹就容易倒。 梁文锋说有些探索逃不掉,真是说到了要害,要是一直满足于在别人的底子上改进,不往原创上使劲,那永远只能做追随者,看着别人定规矩,别人卡脖子。 现在咱们虽然在应用上热闹,但这热闹背后的隐忧得看清楚,原创这道坎,躲不过去,也绕不开,必须得啃下来,不然永远只能跟在后面跑。