从芯片到智能体平台,联发科正重构AI体验边界

引言:作为全球领先的无晶圆IC设计公司,联发科正从传统SoC厂商加速转型为面向端侧智能体的平台级公司。

2025年4月11日,联发科技在深圳举办年度天玑开发者大会 2025(MDDC 2025),以“AI随芯,应用无界”为主题,全面展示其面向智能体AI(Agentic AI)的战略布局。此次大会不仅发布了旗舰5G智能体AI芯片天玑9400+,还推出全新的天玑开发工具集、升级的天玑AI开发套件2.0及生态共建计划,体现其在AI计算、软件工具链与终端应用协同上的系统化能力,并提出“从智能走向智慧”的全新愿景。

(图:MediaTek董事、总经理暨营运长 陈冠州)

从大模型参数为王,到效率优先、结构重构

2024年,面对端侧生成式AI应用快速崛起,联发科提出“混合式AI”协同架构战略,结合云端训练与本地推理,解决算力瓶颈与隐私、安全挑战。同年,联发科首次提出“Agentic AI”概念,强调AI系统将向具备上下文理解、自主决策与持续学习能力的“智能体”演进。2024年10月,联发科发布了天玑9400,集成“天玑AI智能体化引擎”(Dimensity Agentic AI Engine),支持端侧LoRA训练、视频生成、Agentic任务开发等能力,成为业界首款面向智能体的AI芯片。

本次MDDC 2025上,联发科发布了全新旗舰5G智能体AI芯片天玑9400+。该芯片采用台积电N3E制程工艺,搭载3.73GHz的Cortex-X925超大核、三颗Cortex-X4超大核和四颗Cortex-A720大核,构成第二代全大核CPU架构。在AI计算方面,其第八代NPU 890显著增强推理性能、功耗控制与模型兼容性,全面支持DeepSeek-R1等主流大模型的关键能力,包括混合专家模型(MoE)、多Token预测(MTP)、多头潜在注意力机制(MLA)及FP8低精度推理技术。芯片还集成SpD+推理解码引擎,上下文解析效率提升20%。在端侧运行70亿参数模型时,功耗降低25%;Stable Diffusion图像生成速度达到1.5秒/张,领先业界平均水平。

此外,天玑9400+配备12核Arm GPU Immortalis-G925,支持硬件级光线追踪和帧率倍增技术,显著增强AI在游戏、视频、图像等多媒体场景中的应用能力。其设计理念强调“能力适配”而非单纯性能堆叠,体现联发科对AI技术演进趋势的快速响应。

从本次MDDC 2025大会观察可知,仅仅一年时间,手机芯片厂商对AI大模型的认知已发生显著变化。从过去“大模型参数为王”的阶段,转向“效率优先、结构重构”的技术路线。联发科技无线通信事业部技术规划资深总监李俊男表示,知识密度正以每3.3个月翻倍的速度增长,小语言模型在蒸馏与量化压缩技术加持下,已能在手机端实现媲美大模型的推理效果。以DeepSeek为代表的开源小模型,展现出卓越的性能与理解能力,成为端侧AI部署的新基准。

(图:联发科技无线通信事业部技术规划资深总监 李俊男)

这一趋势促使芯片设计理念从“堆高理论算力”转向提升单位能效(TOPS/W)、资源调度效率与AI任务吞吐量。联发科技无线通信事业部总经理李彦辑指出,AI生态变化节奏极快,尤其是DeepSeek等轻量高效模型的涌现,要求芯片具备灵活快速支持新模型的能力。如果Plus版本无法紧跟生态演进,将直接拖慢终端产品迭代速度。

(图:联发科技无线通信事业部总经理 李彦辑)

场景赋能:智能体AI落地终端生态

本次联发科在发布天玑9400+芯片的同时,还推出了“Agentic AI UX”,围绕五大核心体验特征——主动及时、知你懂你、互动协作、学习进化、专属隐私信息守护,系统化提升智能体化用户体验。同时发布的Neuron Studio、Dimensity Profiler等工具,构成了全新的天玑开发工具集,进一步降低开发门槛、激活生态创新。

在“天玑智能体化体验领航计划”中,联发科联合小米、荣耀、阿里云等终端与云厂商,推动Agentic AI从手机延伸至家居、车载等多设备场景,标志着这一战略从技术验证进入规模化部署阶段。

随着智能体(Agentic AI)从实验室走向消费终端,AI技术在手机、家居、IoT等场景的落地速度正在显著加快。AI不再只是厂商发布会上演示的亮点功能,而是逐步渗透为主流用户“可感知、可体验”的真实能力。这一转变的背后,是终端厂商与芯片厂商在多模态模型部署、端侧算力优化与生态协同方面的密集布局。

1、终端AI能力深化:从语音助手到任务执行体

以vivo、OPPO、小米为代表的终端厂商,正通过联发科天玑平台部署具备Agentic特征的AI能力。例如,vivo X200系列的AI字幕功能已可在本地实时识别多语种语音内容,生成字幕,准确率较传统方案提升30%。其AI相册则可基于用户偏好智能分类、标注甚至生成叙述文本,表现出一定的自主认知与语义处理能力。

OPPO Find X8则通过任务流编排技术,使其智能助手能够响应用户语音请求,自动调度日历、地图、支付等多App资源,构建“闭环式”本地指令执行流程。这一变化意味着AI不仅能听懂用户意图,更具备完成复杂任务的能力,而无需依赖云端服务器推理,隐私保障与实时性大幅提升。

联发科也正推动这类AI能力下沉至更多边缘设备,例如音箱、电视、IoT控制器等,与众多合作伙伴共建家庭AI生态,实现环境感知、行为预测与能耗优化。这标志着AI正在从手机中心逐步向“全屋智能”扩展。

2、多模态模型驱动体验跃迁

联发科技无线通信事业部副总经理陈一强指出,多模态大模型的突破是智能体AI走入终端的关键:“要真正颠覆下一代手机体验,AI必须不仅能听,也能看,甚至要懂你的内心。”这要求模型能综合处理语音、图像、行为轨迹等信息,在理解用户真实意图基础上提供智能建议。

(图:联发科技无线通信事业部副总经理 陈一强)

要实现这一能力,仅靠模型本身远远不够。陈一强强调,真正关键在于模型、芯片与系统工具链之间的协同。他指出,联发科从2024年开始推动开发者大会引入“工具”生态,推动模型厂商、应用开发者、终端厂商三方融合,以充分释放模型与芯片协同的潜力。

此次MDDC 2025大会中,联发科发布全新升级的“天玑开发工具集”,包含Neuron Studio与Dimensity Profiler两大模块,反映其正由“硬件商”向“平台型企业”转型。

Neuron Studio是一款面向AI模型开发与部署的全流程工具,具备模型可视化编排、执行路径分析、实时性能监控、自定义算子支持、自动压缩与调优等能力,并可与MLKits工具链打通,构建模型-算法-硬件协同闭环。Dimensity Profiler则面向游戏开发者,支持在Android平台下进行CPU、GPU、NPU、帧率、温度、功耗等多维性能调优分析,提供实时、逐帧与深度回放模式,用于优化能效与用户体验。

此外,联发科还推出了“天玑AI开发套件2.0”,其模型库(Model Hub)数量为上一代的3.3倍,新增端侧LoRA微调加速引擎,支持在终端设备上进行模型个性化调优,增强智能体适应性。

面对智能体AI的复杂性,芯片的硬件能力必须显著提升。联发科技无线通信事业部总经理李彦辑指出:“知识密度越来越高,系统资源要求却未同步提升的背景下,我们希望在系统需求不增加的情况下,实现5到20倍的智能体能力提升。”他强调,工具、第三方合作与终端厂商的紧密结合,将成为未来一两年加速发展的关键。

据介绍,联发科正在打造“一站式全链路闭环工具”,帮助开发者在模型到应用的全流程中快速找出瓶颈与问题,例如微秒级定位性能瓶颈、稳定性问题、应用断点等。这一系列工具让开发者不再需要耗费数天手动调试模型参数,而是在两三个小时内通过神经网络自动调优完成最优配置,大幅提升开发效率。

联发科技无线通信事业部生态发展资深总监章立补充道,联发科作为平台提供方,不直接开发三方APP或系统,而是将工具交到手机厂商与第三方开发者手中,让他们能发现并解决如卡顿、断点等实际问题。Dimensity Profiler、Neuron Studio与天玑AI开发套件2.0的协同使用,正是联发科为开发者提供的关键资源,帮助他们实现更高层次的用户体验优化。

(图:联发科技无线通信事业部生态发展资深总监 章立)

3、AI能力的普及与分层:旗舰引领,中端扩散

AI是否只会在旗舰机型普及,而入门级机型则无缘体验呢?陈一强对此介绍了联发科AI能力“分层普及”的战略考量。

一方面,在用户最关心的影像AI领域,联发科选择“全面铺设”的策略。无论2000元还是4000元价位的产品,都将获得基础的AI图像增强与拍摄优化功能,因为拍照是普遍性的刚需,也是AI最容易体现价值的领域。

另一方面,在需要深度用户数据理解与多环节调度的任务型智能体功能上,联发科承认其落地节奏将更“自上而下”。高复杂度智能体AI体验,初期将集中在旗舰产品与高频用户中,随着使用习惯养成与硬件成本下降,再逐步渗透至主流价位段。

联发科的AI智能体战略:构建生态

笔者认为,AI智能体的真正落地,必须突破“只能聊天”的范式局限,迈向“能做事”的阶段。这一转变不仅关乎模型能力,更取决于从芯片、模型、应用到系统之间的深度协同。联发科正通过开放架构与跨界协作,推动AI智能体在移动终端上的规模化实现与生态标准化。

在模型层面,联发科已与国内头部大模型厂商——阿里通义千问、腾讯混元、DeepSeek、面壁智能等建立了兼容机制。天玑平台可支持这些模型在终端本地进行推理,并提供模型量化、蒸馏、压缩等技术路径,帮助开发者将“实验性模型”迁移为“实用型模型”,降低AI能力落地门槛。芯片的本地推理能力与算力支撑,正成为推动AI从实验走向规模应用的关键基础。

在操作系统层面,联发科与Google合作推动Android动态性能框架的升级,以实现AI任务资源调度的智能化。新版框架将于2025年安卓系统中正式启用,有望带来能耗、性能与AI体验的协同优化。

与此同时,联发科也在推进更底层的生态协议建设。回应产业界对端侧AI碎片化的关切,联发科高度认同类似MCP协议的重要性,认为其可以在大模型与数据之间建立标准化接口,解决长期困扰开发者的数据隔离与多平台重复优化问题。

联发科强调,真正构建具身化智能体,需要其具备“脑”和“手”——既能理解用户需求,也能调用工具完成任务。这不仅要求模型能力强大,还必须有跨APP、跨系统调用的共通API体系支持。联发科已在推动Android开放更多接口,并协助手机厂商构建统一调用机制,从而让智能体AI能够真正在数字世界中“动起来”。

此外,面对三方应用生态碎片化问题,联发科的策略是通过与品牌厂商和开发者合作打造“灯塔项目”。通过几个在图像处理、金融服务等关键场景中实现AI显著价值的样板案例,联发科希望产生行业带动效应,推动其他开发者加入,逐步构建统一、成熟的端侧AI生态系统。正如其所言:“系统级AI—助手—三方应用”三层联动的整合体验,是解决端侧AI碎片化的唯一路径。

至于当前AI应用仍集中于封闭、标准化场景(如点餐、打车、支付等),联发科认为应从“可控场景做深”入手,以逐步积累用户信任。在“知你懂你”的模型理解能力逐渐增强的基础上,AI将能从简单指令识别进阶为对用户情绪、习惯的理解与响应,这也为后续场景扩展提供了技术与心理基础。

联发科的战略转型:从芯片到智能体平台

尽管天玑9400+在端侧Agentic AI领域实现了关键技术突破,联发科并未回避未来挑战。首先,设备功耗与热管理仍是制约AI大模型端侧运行的核心问题。其次,AI模型标准化和平台生态的碎片化亦是行业痛点。

当前多家芯片厂商采用自研SDK或编译器,导致生态割裂,如高通的Hexagon NN和苹果的CoreML,限制了AI模型在不同平台间的通用性与迁移效率。对此,联发科选择走向更开放的路径,已开放50%的AI算子库,支持TensorFlow Lite、PyTorch Mobile等主流框架,同时积极推动Agentic AI跨平台通用规范的制定,降低开发者门槛。

在具体应用层面,联发科也正积极将Agentic AI向AR/VR、智能座舱、AI眼镜等“空间计算”终端扩展。目前,基于天玑平台打造的AR眼镜原型已具备毫米级SLAM定位能力与低于10ms的空间响应延迟,为未来轻量化、沉浸式体验奠定基础。

可以说,联发科的AI智能体战略并非单一技术突破,而是系统性的生态驱动方案。通过构建开放协同的平台架构、兼容主流模型、推动协议标准化并落地于灯塔场景,联发科正在构建一条现实可行的智能体AI落地路径,目标直指终端智能体化新时代。

正如MediaTek董事、总经理暨营运长陈冠州所言:“AI时代的终端设备,不应只是更强的处理器,而应是能与你共感、协作、进化的伙伴。”从NeuroPilot到天玑AI智能体化引擎,联发科正以“芯+软+生态”的协同方式重构智能边界,迈出从传统SoC供应商向Agentic AI平台型公司的关键一步。

编辑:芯智讯-浪客剑

0

付费内容

查看我的付费内容