作者:泽平宏观团队
来源:泽平宏观展望(ID:renzepinghg) ]article_adlist-->1956年,达特茅斯会议首次提出AI概念。2012年,深度学习迎来算力革命的黎明。2023年,ChatGPT掀起大模型浪潮。2025年,DeepSeek横空出世,AI发展迎来转折点。
从整个社会变革的角度,人工智能仍处于发展初期和应用爆发期。技术上,通用人工智能AGI还很遥远,AI在接近但还未完全拥有接近人类的逻辑、推理、抽象思维等“智能”能力。商业上,AI技术应用还在商业化早期阶段。
人工智能发展提速,未来十年有哪些重大机遇?是否有新的技术路线和应用突破?
从产业大周期看,预计未来人工智能发展有十大机遇:
机遇1:原生多模态大模型占据主流
机遇2:具身智能发展加速,人形机器人在工业领域大规模落地
机遇3:智能体进化,Agent AI,自主智能解决问题
机遇4:AI科研落地,跨学科融合,解决复杂难题
机遇5:类人智能,赋予AI高级认知能力
机遇6:算法革命,唯算力论失效,低参数、高效率
机遇7:硬件突破,AI芯片跨越摩尔定律瓶颈
机遇8:边缘AI进步,推动AI原生应用普及
机遇9:AI推动能源效率革命
机遇10:人机对齐,AI安全越来越重要
正 文
机遇1:原生多模态AI成为主流
大模型进化的终极目标是通用化,像人一样具备处理通用任务的能力,通用人工智能(AGI)。
多模态大模型通过赋予AI“五官”来模仿人类感知多维世界,具备了处理和生产文本之外的语音、图像、视频等多维能力的深度模型。
但传统的多模态模型发展存在明显限制,在大模型基础上通过“打补丁”植入其他模态能力,存在反应时间、推理深度、交互限制等瓶颈。
发展原生多模态大模型是大势所趋。从一开始就采用统一框架和混合多模态数据共生训练,突破了传统模型的信息壁垒与效率瓶颈,能够更精准的理解时空关系。
一是解决反应时长。传统的多模块串联推理延迟达到秒级,比如GPT4.0的响应时长就超过4秒,而原生的GPT-4o平均只需要320毫秒,和人类相当。
二是加强推理深度。由于传统多模态分阶段处理方式,会不可避免的导致细节丢失,如语音中的情感、图像中的纹理等关键信息丢失,缺乏深度时空推理能力。而原生多模态可以直接处理原始信息,在推理精度和深度方面都具备明显优势。
三是解除交互限制。传统多模态依赖对齐精细度,只适用于图文转换这类简单的跨模态任务,交互限制较大,应用场景有限。而原生多模态具备时空感知和搭建动态环境的预测能力,不仅能用于机器人避障决策,成为具身智能落地的必选项;甚至有潜力在脑机接口领域应用,未来实现脑电信号与意念控制结合。
机遇2 :具身智能AI,人形机器人、工业场景先落地
人形机器人硬件难度高、产业空间大,是具身智能集大成者。
但当前的人形机器人工作效率低,在操作精度、灵活度和协调程度方面远不及人类,且成本高昂。以特斯拉Optimus为例,一台价格在5——6万美元,在汽车车间工作的平均速度只有人类的20%——30%,简单动作上勉强能到人类速度的60%,但长时间后也会因关节过热而降频。
长期看,具身智能的商业化铺开需要多方面技术进步来实现。
一方面,硬件上的工程进步和降本是关键。执行器是人形机器人完成动作的关键模组,包含减速器、电机、传感器、丝杠等组成,相当于人类肌肉和关节,占整体硬件成本达到55%。虽然Optimus通过复杂的设计协同可以完成各种动作,但以目前的工程水平和灵巧手技术人形机器人在行动自由度、复杂度和平滑程度方面远达不到人类的水平。此外,关节组件的材料升级也是提升可靠性必须攻克的难题。
另一方面,软件层面运动控制算法进步需要克服训练的数据障碍,这依赖于多模态的视觉模型发展,以及VR技术进步带来的训练数据。人形机器人的AI训练难度远超大模型,大模型可以通过数据集扩大实现“举一反三”,但人形机器人需要和物理世界交互的稀缺多维数据,通常由人为穿戴VR设备来采集,效率低且成本高。另一条路线是仿真模拟训练,通过让AI学习互联网数据来生成视频训练机器人。但这条路线的难度也高于VR采集,用AI训练AI的方法还在探索早期。
机遇3 :智能体进化,Agent AI,自主智能解决问题
2025年初Manus问世让AI Agent(AI智能体,或称AI代理)进入大众视野,AI Agent技术赋予了AI调用软件工具的能力,让AI能够在人类指令下自主规划并执行相对复杂的任务,最后交付完整成果。
虽然AI Agent较大模型具备更强的通用性和实际商用价值,但由于AI Agent通常处理单一任务,缺乏与其他Agent的协作能力,且学习和适应能力平凡,主要适用于客服机器人、虚拟助手等限定场景。
长期看,工具型的AI Agent只是过渡产品,能进行自主决策的Agent AI才是演进目标。
Agent AI(自主智能体)不仅在智能协作和管理能力上比单个AI Agent高出一个维度。拥有团队化、系统级的自主性,可以在更高层次进行任务规划和行动,还具备在不同环境的任务中进行学习和适应的能力。对比看,自主智能体在两方面跨越了AI智能体的瓶颈。
一是当前的AI智能体并没有达到理论上的自主状态,在缺乏人为干预的情况下通常只是被动响应,无法主动发现问题。自主智能体则能分解目标和分配任务,发现矛盾点后协调处理冲突,有必要时根据环境变化来主动调整策略。
二是AI智能体只能进行单步推理,无法胜任多步骤、长时间复杂任务。而自主智能体拥有多个代理协同规划,不但智能水平上实现“1+1>2”,还能积累经验并学习形成多层次的记忆体系,能应用在项目开发、业务流程优化、供应链管理等高附加值领域。
从落地看,Agent AI面临的技术挑战较大。随着系统中的代理数量增加,智能体调试复杂度呈指数级增长,单个故障和推理错误可能导致整个系统出错。并且Agent AI的自主水平更高,管理和维护难度大,随着智能水平的提高,产生行为的不可预测性也在增加。
机遇4 :AI科研,跨学科融合、解决复杂问题
AI赋能科学(AI4Science)是指通过AI技术模拟、预测、优化研究来解决传统科研进程中的瓶颈。比如对环境要求严苛的气象领域,对人力有要求、耗时长的分子学领域;成本高、涉及跨学科多的生物医学领域。
AI4Science的重要性体现在四方面:
探索广度上,传统人力的科研规模有限,无法处理如材料晶体结构筛选、蛋白质折叠等超大规模组合优化问题。而AI可通过扩散模型进行万亿级空间的并行筛选,例如DeepMind开发的GNoME耗时17天就完成了相当于人力科研800年的成果,预测了220万种新材料晶体结构。
计算深度层面,即使在高性能计算的支持下,人类在微观物理系统状态的研究能力也十分有限,而AI可以处理高纬度函数,并利用强大的生成能力模拟量子多体系统。
实验速度上,传统科研以月、年为实验周期,而AI科研不仅可以实现分钟级模拟,还具备自主化实验设计到执行验证的能力。
跨知识领域融合是AI科研的核心能力,一是人类的学习能力受到时间和精力的限制,知识更新速度慢;二是跨学科研究对团队协作的要求高,知识共享和收集流程繁琐。AI则不存在上述瓶颈。
2024年诺贝尔化学奖授予了基于人工智能的蛋白质结构预测研究。 该技术通过整合多序列比对信息与蛋白质空间结构特征,最终输出自由能最低的构象作为预测结果。DeepMind团队创新性融入了蛋白质的序列进化信息和空间几何约束等物理特征,并采用迭代精修策略,显著提升了预测结果的准确性,实现了跨越式突破。
AI4Science正在重塑科研边界,其核心价值不仅是效率提升,更是开启人类独立无法触及的新知识疆域——从量子尺度的精准操控到星系级复杂系统的推演,最终推动科学范式的第五次革命。
机遇5:类人智能,赋予AI高级认知能力
智能的本质是什么?大模型的智能是数据驱动的概率关联,人的通用智能是基于对自然法则和因果规律的掌握。
神经网络之父杨立昆认为,现在的AI大模型只是从静态数据中学习统计相关性,并不具备真正的智能。长期来看,大模型将无法达到AGI水平。
实现AGI就意味要赋予AI高级认知能力,甚至创造出“心智”,为此,世界模型(World Models)概念在2018年问世,其核心理念是让AI像人类一样与真实环境交互,在物理世界学习和构建知识体系,是AI研究突破的重要方向。
世界模型和大语言模型从技术路线角度来看完全不同,大模型是被动接受知识,基于统计概率预测下一个token,本质上是相关性推理。而世界模型注重主动学习、因果推理和理解物理规律。
世界模型包括三个核心组件:多模态模型、记忆模型、控制器模型。多模态模型将观察到的物理世界信息压缩,记忆模型掌握时间动态和预测,控制器模型负责设立目标和子目标来完成行动和感知。
对比看,大模型的优势在于快速的知识整合和内容生成,而世界模型可以进行时空推理,掌握物理规律,并可以脱离现实进行模拟预测。
构建世界模型的挑战也极大,需要跨学科协作,融合认知科学、系统神经科学等不同领域研究观点。在规模、数据、算力等层面的要求比起大模型是数量级增长。
世界模型已在特定领域小范围应用。比如,特斯拉用于无人驾驶和机器人的通用世界模型、英伟达的Cosmos工业环境仿真和机器人训练模型。
总体而言,大模型代表了“数字智能”,世界模型代表了“类人智能”,对应人类认知的研究和模仿,使AI超越生成式工具,具备更接近人类的深度理解和智能水平。但世界模型还处于发育的幼年期,离追赶成熟期的大模型还存在较大距离。
机遇6:算法革命,唯算力论失效,未来要低参数、高效率,抽象思维力
2023年大模型在算力进步的加持下突飞猛进,行业曾盛行“算力充足可以力大飞砖”。随着模型参数量的堆积超过某个临界点后,会拥有惊人的表现。如GPT-3、PaLM、LaMDA模型在参数量达到百亿时产生“涌现”,准确度显著提高。
在Scaling Law的指引下,AI发展进而演变为:参数堆叠——扩大训练——提高算力的三步走共识,而行业竞争加剧下,支持大规模训练的GPU资源稀缺,供不应求最终演变为了“唯算力论”。
但到2024年末,“唯算力论”开始逐渐显露瓶颈:越大的模型,进行扩大训练的边际效益递减也越明显。比如,GPT4.0是2025年前拥有最大算力资源训练出的最先进AI模型,OpenAI对其迭代后的GPT5寄予厚望,却迟迟未能发布,直接原因是训练进度滞后,效果未达预期。
2025年DeepSeek的出现给“唯算力论”画上句号,直接颠覆了“AI训练必依赖强大算力”的认知。DeepSeek仅用了相对少、较落后的显卡和较短的训练时长就推出了V3和R1两款在性能上优秀,训练和使用成本却都低于同类的先进模型。
DeepSeek让产业界意识到了AI发展已经到了新的转折点,一方面在算力上内卷无法达到AGI,Scaling Law不再是唯一出路,在算法、数据上尝试创新;从治理、能源角度进行优化;切入超级应用场景推动商业化落地;甚至于开发新的AI推倒大模型重新来过,这些尝试都有可能成为下一场AI变革的起点。
算法革新的核心是高效地做减法。
AI模型需要兼顾网络深度、计算速度、和结果准确度。当前AI大模型参数量大,但复杂不等于效率高。
DeepSeek是首个从“规模定律”转向“密度定律”做减法的企业,其V3模型的算法优化方法具有很大前瞻性。传统大模型在调用大参数量的模型时,会激活全部网络,因此每次输入时都会对所有参数进行计算,消耗大量计算资源,造成浪费。
而混合MOE的专家分工提升了资源使用效率,解决子模型协作时的传输瓶颈,平衡了模型推理的延迟问题,同时大幅减少了对算力需求和能耗,降低了落地成本。
抽象思维一直是AI研究的最大短板,而要实现强人工智能就无法回避这一点。
当前的大模型需要强大算力支持才拥有近似智能的能力,而人脑仅需要少量算力就可以达到。这是因为模型受限于“具象思维”模式。具象思维的特点是计算确定性,对算法来说,其“感官意识”来源于集成电路闭合输出的0和1,擅长计算数字和确定性。
抽象思维的特点是模糊和不确定,人的“感官意识”来源于神经元,人的深度抽象能力可以脱离实际对照来生成概念和知识体系,并以此为基础进行联想和判断。
人工智能模型的神经网络架构设计和人类大脑相似,但机器难以复制思维的载体,因此AI算法还无法做到兼顾模糊和不确定性,这也被视为是机器智能迈向强人工智能的最大障碍和未来长期的攻克方向。
机遇7:AI硬件突破
人工智能的硬件基础是芯片,半导体行业的进步速度间接决定了未来AI的潜力上限。但当下芯片的小型化面临前景模糊的难题。
摩尔定律已经失效。芯片的小型化发展是以单个芯片性能的提升为目标,增加可容纳晶体管的数量。摩尔定律是指单个芯片上可容纳的晶体管数量每18至24个月翻一倍,性能翻倍、成本减半。从2018年起,40nm到28nm突破开始放缓,28nm后定律失效,到14nm节点的成本不降反升。至此,制程升级带来边际的性能提升显著降低,性价比下降。当下,2nm工艺也在台积电和三星开启预生产,但芯片制程接近硅原子物理极限意味着芯片小型化或到达技术边界,一场硬件革命迫在眉睫。
先进封装或能为摩尔定律的失效提供下一步破局方向。封装本是半导体制造的下游环节,先进封装是指不以单个芯片性能提升为目标,而是以提升集成后的整个芯片系统的性能为目标,灵活、有效地组合各类芯片为系统级芯片(Soc,System of Chips)来提升性能密度,节约开发时间与成本。
台积电凭借着CoWoS先进封装技术成为了唯一能代工英伟达AI芯片的晶圆厂。2023年苹果Ultra Fusion技术实现了“无缝合成”M2 Ultra,突破了“1+1<2”的缝合封装瓶颈,依靠的也是台积电的先进封装技术。
先进封装有别于传统封装在于需要上下游协同定制,从设计、晶圆制造、封测多个环节进行统一研发。而在整个产业链中封测厂承担的技术难度低、话语权小,因此技术推动主要依赖于晶圆代工厂和芯片设计龙头。目前主流的技术主要仍由台积电、三星等国际半导体龙头掌握。
互连技术架构和材料选择是2nm及以下的另一大进步方向。互连技术指芯片内用金属线连接的晶体管的架构。随着芯片节点的进步,晶体管尺寸缩小,连接的金属线也必须在整体架构中同步缩小,但3nm的互连已十分狭窄接近,金属间距停留在110um已有20多年,继续减小线宽或高度将极大增加线的电阻,或导致电流过大使金属连线断裂、芯片失效。
主流半导体企业开始探索架构变化和材料替换的可能。2022年,英特尔宣布将在其20Å代和18Å代(对应2nm、1.8nm)采用新PowerVia背部供电结构和RibbonFET全环绕栅极晶体管。此外,钼和钌替代铜的可行性正被评估。自1997年IBM宣布220nm铜双镶嵌工艺到展望2nm已经28年,而铜互连工艺或在2nm时代退出舞台。接下来的晶体管架构和材料决定了未来人工智能的潜力上限。
机遇8:边缘AI发展,推动原生应用普及
边缘AI是边缘计算和人工智能的结合。边缘设备指手机、传感器、智能家居等具备本地运算和处理能力的设备。
边缘计算使得本地设备上产生的数据无需发送回云端,在本地就可以实时处理,减少响应延迟的同时还提供了更高效的反馈,同时,独立于网络的决策系统也提高了完成任务的可靠性,数据储存在本地也减少了泄露风险。
AI的特点是能够快速分析大量数据以提取信息进行进一步的预测和决策,因此“AI+边缘计算”能进一步提高边缘设备的运行效率和智能化水平。
边缘AI对算力和算法要求较高。一方面,边缘设备体积小,以保障性能和续航为前提,兼顾算力和功耗就对芯片就有极高要求。此外,边缘AI无法达到云端AI模型的体量,因此优化算法是必选项,数据预处理是必要步骤,常见的技术包括数据清洗、特征选择和特征提取。或采用数据蒸馏,用“教师模型”开发轻量级的“学生模型”也可以提高本地部署效率。
当下,边缘AI已经开始初步应用于汽车辅助驾驶、VR游戏、智能工厂、安全摄像头和可穿戴医疗设备等领域。对传统边缘设备升级只是第一步,作为交互革命载体,推动AI原生应用商业化普及是大势所趋。
比如AI眼镜,作为原生AI消费电子需要边缘AI进步来提高能力上限。AI眼镜注重高精度显示、深度交互、沉浸式体验、续航和佩戴舒适度。但当前的边缘AI技术还无法达到兼顾性能、体验、重量的水平。以2024年销量最高的第二代Meta Ray-ban为例,其特点是轻便灵巧,AI功能丰富。芯片方面搭载了高通骁龙AR1,AI采用的是行业头部的Llama 3模型,但由于端侧算力不足,主要AI功能仍需要云端调用,本地化AI功能十分有限,眼镜本身的显示效果也无法做到精细化。
边缘AI发展将解决AI消费电子市场痛点,推动AI原生应用普及。随着算力提升和算法优化使复杂模型本地运行成为可能,AI眼镜的功能不再受物理尺寸和端侧算力限制,一场AI时代的交互革命将推动C端需求迎来爆发。更丰富的AI内容生态和原生应用也会出现,与人们的生活和工作场景形成全方位融合,开启AI的“iPhone时刻”。
机遇9:AI推动能源效率革命
AI热潮导致全球算力需求以前所未有的速度增长,供需矛盾给能源基础设施带来巨大压力。一次GPT-4训练消耗的电力相当于上万户家庭全年用电需求。2024年国际能源署报告显示,全球数据中心年耗电量已与英国相当,中国数据中心年耗电量也突破1500亿千瓦时,相当于一个中等省份的工业用电总量。
全球数据中心增长将面临严重的供需错配。比如,美国预计到2028年数据中心用电量平均年增速最高达到26.9%。数据中心建成周期在1——2年,但配套电网的升级周期通常要4——10年,供需错配预期下能源缺口将越来越大。为此,美国环保局在2025年5月起草法案取消发电厂碳排放限制来确保“AI新基建”的电力供给。
发展绿色AI从需求侧、供给侧两大方位去实现。
需求侧的首要目标是提高数据中心的资源利用率,降低能耗。全球领先的云服务商数据中心利用率在30%——40%,传统的数据中心普遍低于20%。一是部署的模型庞大导致运算需求大,二是大量数据占用储存空间,三是服务器通常在无任务时也会维持待机耗能状态。
当前AI厂商的努力方向主要是算法枝剪和模型蒸馏,以此减少冗余计算和AI本地部署成本。比如DeepSeek-R1采用FP8混合精度计算,将内存带宽需求降低50%,推理能耗降至传统大模型的1/10。
除了采取算法优化来降低运算需求外,最直接的方式是改造冷却系统提高散热,减少总能耗。比如,联想海神液冷技术可以将PUE(能源利用效率)降低至最低1.05,戴尔服务器采用浸冷式后能效提高40%。
供给侧的大趋势是扩大可再生能源在能源体系中的占比。发展清洁能源来应对AI发展带来的电力需求是全球共识。沙特阿美为在建的全球人工智能中心铺路,提出“AI+天然气制氢”方案,并计划到2030年蓝氢产量达成1100万吨/年。阿布扎比国家石油则投入230亿美元开发AI低碳技术。欧盟预计2030年电力结构中绿电占比将超过60%,计划将AI调度系统覆盖率提升至80%。
中国的新能源发展走在前列,“西部液冷中心+东部稀疏模型”调度可实现绿电占比60%,综合算力成本降低35%。在东数西算的基础上,分布式算力消纳和源网荷储协同也在降低弃风弃光率。比如上海崇明北堡风电场部署分布式算力节点,90%时间直接使用风电,算力中心绿电利用率95%,年减碳850吨。南方电网AI调度模型整合3500节点数据,实现70%新能源渗透率下的实时电网模拟,弃风弃光率从15%降至5%。
机遇10:人机对齐,AI安全越来越重要
AI安全问题的核心在于,训练AI在不同情形和复杂环境中做出符合人类价值观的判断,即人机对齐问题(Alignment Problem)。
算法和人类学习的方式相似,但并不清楚人类对公平性、安全性、道德性的认知。所以特定领域需要人为筛选、标记数据、在监督学习中应对具体的问题。
第一类是算法搭建谬误:训练用的数据样本是准确的,但训练规则没有考虑到统计学偏差。
第二类是数据来源偏见。公共信息本身就存在偏见,数据背后的动机和目标并非纯粹理性。因此,当数据已尽可能的具有包容性时,AI的非监督训练会直接产生道德问题。
第三类是道德困境(Moral Dilemma)。由于人类社会的道德框架并非完全一致,不同的价值观、文化、认知背景存在道德差异,以共识的行为准则来建设“AI的道德性”是难题。
为解决人机对齐问题进行尝试,AI企业除了发布各自的伦理准则,也通过收集用户反馈进行算法改进,政府监管引导也不可或缺。OpenAI提出过超级对齐要求准则,微软通过可视化工具和解释性算法来揭示模型工作机制。各主权政府也相继出台文件监管,中国注重安全评估标准和生成内容标识,美国提出算法歧视保护和数据隐私要求,欧洲强调AI的自主性、预防伤害、公平性和可解释性。
版权声明:部分文章推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。安联配资-合法配资公司-深圳股票配资-证券配资官网提示:文章来自网络,不代表本站观点。