1月8日,北京智源人工智能研究院发布2025人工智能十大技术趋势。该预测认为,基于Scaling Law(尺度定律)推动基础模型性能提升的训练模式“性价比”持续下降,后训练与特定场景的Scaling law不断被探索。构建原生多模态大模型成为多模态大模型进化的重要方向,世界模型有望成为多模态大模型的下一阶段。基础模型在自主决策上的持续进步带来了潜在的失控风险,模型能力提升与风险预防并重。具身智能将继续从本体扩展到具身脑的叙事主线,近百家具身初创企业或将迎来洗牌,厂商数量开始收敛。
添加微信好友, 获取更多信息
复制微信号
趋势一:AI4S驱动科学研究范式变革
大模型引领下的AI4S(AI for Science)已成为推动科学研究范式变革的关键力量。2024年,科研人员使用AI的比例快速增加,AI对科学研究方法和流程的变革效应也开始显现。提升科学研究效率,推动科学研究从聚焦优化特定任务向更复杂、更动态、更交叉的问题发展,大模型赋能下的AI4S较以往展现出截然不同的效果。2025年,多模态大模型将进一步融入科学研究,赋能多维数据的复杂结构挖掘,辅助科研问题的综合理解与全局分析,为生物医学、气象、材料发现、生命模拟、能源等基础与应用科学的研究开辟新方向。
趋势二:具身大小脑和本体的协同进化
2025年的具身智能将继续从本体扩展到具身脑的叙事主线。在行业格局上,近百家具身初创企业或将迎来洗牌,厂商数量开始收敛;在技术路线上,端到端模型继续迭代,小脑大模型的尝试或有突破;在商业变现上,可以看到更多工业场景下的具身智能应用,部分人形机器人迎来量产。
趋势三:统一的多模态大模型实现更高效AI
人工智能本质在于对人思维的信息过程的模拟,人类对于信息的交互和处理总是呈现多模态、跨模态的输入输出状态。当前的语言大模型、拼接式的多模态大模型对人类思维过程的模拟存在天然的局限性。从训练之初就打通多模态数据,实现端到端输入和输出的原生多模态技术路线给出了多模态发展的新可能。基于此,训练阶段即对齐视觉、音频、3D等模态的数据实现多模态统一,构建原生多模态大模型,成为多模态大模型进化的重要方向。
趋势四:Scaling Law扩展,模型泛化从预训练向后训练、推理迁移
基于Scaling Law推动基础模型性能提升的训练模式“性价比”持续下降,后训练与特定场景的Scaling law不断被探索。强化学习作为发现后训练、推理阶段的Scaling Law的关键技术,也将会得到更多的应用和创新使用。
趋势五:世界模型加速发布,有望成为多模态大模型的下一阶段
更注重“因果”推理的世界模型赋予AI更高级别的认知和更符合逻辑的推理与决策能力,这种能力不仅能推动AI在自动驾驶、机器人控制及智能制造等前沿领域的深度应用,更有望突破传统的任务边界,探索人机交互的新可能。
趋势六:合成数据将成为大模型迭代与应用落地的重要催化剂
高质量数据将成为大模型进一步Scaling up的发展阻碍。合成数据已成为基础模型厂商补充数据的首选。合成数据可降低人工治理和标注成本,缓解对真实数据的依赖,不再涉及数据隐私问题;提升数据的多样性,有助于提高模型处理长文本和复杂问题的能力。此外,合成数据可以缓解通用数据被大厂垄断,专有数据存在获取成本等问题,促进大模型应用落地。
趋势七:推理优化迭代加速,成为AI Native(AI原生)应用落地的必要条件
大模型硬件载体从云端向手机、PC等端侧硬件渗透。在AI算力、内存等资源受限的设备上,大模型的落地应用会面临较大的推理侧的开销限制,对部署资源、用户体验、经济成本等均带来巨大挑战。算法加速和硬件优化技术持续迭代,双轮驱动加速AI Native应用落地。
趋势八:重塑产品应用形态,Agentic AI成为产品落地的重要模式
2025年更通用、更自主的智能体将重塑产品应用形态,进一步深入工作与生活场景,成为大模型产品落地的重要应用形态。从Chatbot(聊天机器人)、Copilot(AI助手)到AI Agent(AI智能体)、Agentic AI,2023年以来行业对于AI应用形态的理解越发深入。2023年底,AI Agent应用编排框架收敛,Agentic AI概念被提出。从更强调产品概念的Agent,到更强调应用智能程度的Agentic AI,2025年将看到更多智能化程度更高、对业务流程理解更深的多智能体系统在应用侧落地。
趋势九:AI应用热度渐起,超级App花落谁家犹未可知
近一年时间,生成式模型在图像、视频侧的处理能力得到大幅提升,叠加推理优化带来的降本,Agent/RAG(检索增强生成)框架、应用编排工具等技术的持续发展,为AI超级应用的落地积基树本。虽然超级APP花落谁家尚未尘埃落定,但从用户规模、交互频次、停留时长等维度来看,AI应用热度持续攀升,已到应用爆发的黎明前夕。
趋势十:模型能力提升与风险预防并重,AI安全治理体系持续完善
作为复杂系统,大模型的Scaling带来了涌现,但复杂系统特有的涌现结果不可预测,循环反馈等特有属性也对传统工程的安全防护机制带来挑战。基础模型在自主决策上的持续进步带来了潜在的失控风险,如何引入新的技术监管方法,如何在人工监管上平衡行业发展和风险管控,这对参与AI的各方来说,都是一个值得持续探讨的议题。
还没有评论,来说两句吧...