1 月 7 日上午,英伟达总裁黄仁勋在全球最大的消费电子展上作了演讲。
添加微信好友, 获取更多信息
复制微信号
此前就有海外科技博主预测,英伟达即将发布的新版显卡,其 GPU 性能,又要提升一大截。而在演讲中,黄仁勋发布了英伟达 RTX 50 系列显卡。按英伟达的说法,RTX 5090 整体性能是上一代 RTX 4090 的两倍。
由此,也有些声音担忧,在美国对华断供高端芯片的背景下,无法获得最高性能 GPU 用于训练的中国人工智能行业,与美国的差距是否会被进一步拉大。
人工智能领域," 算力焦虑 " 一直是种流行的叙事。作为主导全球的 GPU 企业,英伟达 H100 GPU 数量一度成为了衡量大模型公司算力的指标,黄仁勋曾言:" 英伟达是 AI 世界的引擎 ",在他的叙事下,英伟达的硬件是发展人工智能大模型的决定性产品。
不过,谭主跟在现场的朋友聊了聊,他表示:
算力和人工智能大模型已经不再是现场多数企业最关心的问题。相比之下,如何将人工智能落地应用是 2024 年很明显的一个重点,在这方面,很多时候并不需要最高性能的 GPU 芯片。
相比之下,黄仁勋却显得没有那么 " 淡定 ",在演讲中渲染英伟达 "Blackwell 架构芯片是人类历史上最大的单芯片 "" 前所未有的规模 " 的同时,却也对其消费级的产品采取了性能不变,但降价至三分之一的策略。
这跟此前舆论场认为英伟达产品将继续涨价的预期,形成了反差。显然,在主导地位遭遇越来越多挑战的情况下,英伟达也开始考虑多找 " 几条腿 " 走路。
实际上,全球几家还在全力投入人工智能大模型研发的头部企业,也正在掀起一股 " 去英伟达 " 的趋势。
诸如 Open AI、苹果公司等都开始自研芯片和生态系统,支撑自身的大模型训练。
而这股趋势更重要的意义在于,英伟达营销人工智能 " 算力为王 " 的认知,已经被人工智能行业的新动向打破了。
除了自研 AI 芯片,Open AI 等全球头部的人工智能公司,都在更多地聚焦大模型本身的设计优化。
模型训练层面,Mistral AI 公司公开将混合专家模型引入大模型训练,用许多个特定领域的 " 小专家 " 配合几个 " 通用专家 ",先决定问题类型,再用少数适合的专家处理不同类型的问题。 以 DPO、LoRA 为代表的高效微调方法,将原本需要高算力和复杂调优算法的模型对齐过程进行了化简,大幅度降低了模型对齐复杂度。
在这样的趋势下,国产大模型也逐渐明确了自己的发展方向。
2024 年,国产大模型突飞猛进,不乏通过底层优化,实现用 2048 块 GPU,接近头部公司数万块 GPU 训练才具备的大模型性能的案例。
在全球最大的大模型和数据集社区 Hugging Face 推出的开源大模型排行榜单上,从去年 6 月开始,中国国产开源大模型曾一度第一名,到年末,这个纪录又被新的国产开源大模型刷新,身位已经稳定在领先行列。
业内人士跟谭主分析:
之所以能做到这一点,是因为国产大模型主要进行了三个方面的创新:底层大模型数据结构的创新,训练过程的创新,以及数据准备有创新。
中国工业互联网研究院的最新数据显示,DeepSeek-V3 通过采用混合精度方法,有效平衡训练精度和效率,结合混合专家模型架构,大模型训练成本降低至 500 万美元,仅为同性能模型的 5%~10%,其性能上却跟 GPT-4o 以及 Claude 3.5 Sonnet 相差无几。而目前,国内类似的大模型成本、训练时长都已经大幅下降。
这种新的模型训练方法,不仅大幅度降低了大模型行业的门槛,还推动了全球大模型的降价潮。而大模型的降价,对于人工智能技术的应用和转化有着革命性的意义。
行业人士告诉谭主:
在当前全球人工智能大模型的竞争中,算力虽然重要,但从来不是决定性因素。只有跟软件、应用场景结合起来,才能真正成为赋能行业转型、提高经济效率的引擎。
相比之下,目前部分人工智能项目存在 " 假智能 " 的问题——靠大量数据叠加出来答案,缺乏真正的创造力和想象力。
这与当前发展道路的 " 唯算力论 " 有关。现在市场上的许多 AI,说白了就是用户告诉它怎么改,它一步步按要求调整,最终生成一个看上去 " 对 " 的答案,但它本身缺少主动思考或提出创新解决方案的能力。
虽然一些前沿大模型探索了 " 思维链 ",试图让大模型长时间思考模拟人类的思维推导,在一些问题上已经有一定效果,但如何实现 " 通用人工智能 " 仍然有较大障碍。
更大的问题是,这种只靠算力的方式,迟早会碰到天花板。
行业人士跟谭主分析:
拿美国当前的大模型来说,他们的模型已经读完了几乎所有的英文书籍。可是,接下来怎么办?这就是人工智能大模型的发展瓶颈。由于世界上没有更多的新书可以喂进去,那 AI 只能让自己写书,但这种 " 自己生成自己喂 " 的方式,其实并没有真正突破。这就好比饿了没东西吃,只能 " 自给自足 ",显然不长久。
要突破这个瓶颈,就不能再光盯着算力和数据,而是要回到大模型的技术本质,去解决更关键的方向性问题。就像一个不算聪明但记性好的同学,读了一万本书以后,问到的问题只要书里有答案,他就能直接告诉你怎么解决。可如果书里没有,他就无从回答了。这正是现有大模型的局限。
也就是说,真正要把大模型做好,不只是加算力,而是让它 " 活 " 起来,这就需要操作系统、应用场景的发展协同,帮助它从归纳走向创新。
中国的国产大模型,显然正在运用这种高效、灵活的路径,找到更加 " 聪明 " 的人工智能发展方向。
人工智能,不是一场跑道和圈数划定的跑步比赛,而是一场向着未知的探险。中国企业选定的方向,不会轻易被各式的 " 焦虑 " 裹挟。
能者非他,能自树立不因循者是也。
还没有评论,来说两句吧...