DeepSeek发布:移动端AI迎来新变革

产业2个月前发布 智能之星
4 0 0

或许下一波 AI 创新重心不在于模型规模的比拼,而在于模型对用户的亲近程度。

DeepSeek R1 正在全面影响科技行业,重新定义人们对 AI 的理解。在移动端,变革正在迅速演进。
2023年2月20日,高通发布了最新 AI 白皮书《AI 变革正在推动端侧推理创新》,阐述了小型高质量语言模型及多模态推理模型的未来前景。DeepSeek发布:移动端AI迎来新变革随着 AI 技术逐步实现大规模应用,我们逐渐认识到端侧大型模型推理所带来的高可靠性,同时提升了数据安全性。技术的迅速发展使得其优势愈显突出。
高通指出,四个趋势正在驱动端侧 AI 的变革:

  • 先进的小型 AI 模型已展现出卓越的性能。模型蒸馏及新型 AI 网络架构的创新,使得在不影响质量的前提下,开发流程得以简化,新模型性能迅速提升,逐渐接近云端的大型模型;
  • 模型参数规模正在迅速减小。借助先进的量化及剪枝技术,开发者能够在不影响准确性的情况下,有效降低模型参数数量;
  • 开发者可以在边缘侧创造更丰富的应用。随着高质量 AI 模型数量的激增,文本摘要、编程助手及实时翻译等功能在智能手机等终端上的普及,使得 AI 能够支持跨边缘侧的规模化应用;
  • AI 正逐渐成为新的用户界面。个性化的多模态 AI 智能体将简化用户交互,提升多种应用间的任务执行效率。

在前沿大型模型技术不断取得进展的同时,科技行业也开始将重点转向边缘侧的高效部署。在训练成本下降、推理速度提升及针对边缘环境的创新驱动下,业界涌现出大量更智能、更小型、更高效的模型。
这些技术进步逐步惠及芯片制造商、开发者和终端用户,形成新的发展趋势。
小型模型的崛起已成为必然发展趋势
综观近年来的大型语言模型发展,显著趋势包括从参数规模的单一竞争转向应用能力的提升,从单一模态向多模态的扩展,以及轻量级模型的崛起与向终端侧的倾斜等。
尤其是最近推出的 DeepSeek V3 和 R1,极大反映了 AI 行业的这些发展趋势,同时也促使了训练成本的降低、推理部署的快速化,以及针对边缘环境的创新,这一切都推动了高质量小型模型的迅猛崛起。深入分析,这种向小型模型的转变是多方面因素共同作用的结果。
首先是模型网络架构的持续创新,从早期以 Transformer 为主流转向混合专家模型(MoE)和状态空间模型(SSM)并存,显著降低了在大型模型开发过程中所需的计算成本和能耗。因此,越来越多的模型开始探索新架构的可能性。
其次是知识蒸馏技术的广泛应用,它已成为构建高效“基础及特定任务”小型模型的关键技术。通过将复杂教师模型所蕴含的知识迁移至更小的学生模型,不仅显著减少了模型的参数和计算量,简化了训练过程,且在存储空间方面的需求也大幅降低,适合部署在资源受限的设备上。同时,学生模型也能够获取丰富的知识,从而保证其准确性和泛化能力。DeepSeek发布:移动端AI迎来新变革                                    Meta Llama 700 亿参数模型与 DeepSeek 相应蒸馏模型的 LiveBench AI 基准测试平均结果对比。来源:LiveBench.ai
此外,量化、压缩及剪枝等技术的不断优化也为大型模型向小型化的转变提供了持续动力。这些技术在显著降低模型的计算需求和存储需求的同时,仍能保持较高的性能水平。
依靠上述底层架构和技术层面的创新,小型模型的能力正在逐渐接近,甚至超越于许多前沿的大型模型。例如,在 GPQA 基准测试中,基于通义千问模型与 Llama 模型的 DeepSeek 蒸馏版本表现出与 GPT-4oClaude 3.5 Sonnet 及 GPT-o1 mini 等模型相当或更优秀的效果。DeepSeek发布:移动端AI迎来新变革                                    来源:DeepSeek,2025 年 1 月。
从整体行业的视角来看,技术的进步正在催生高质量生成式 AI 模型的快速增长。据 Epoch AI 统计,预计在 2024 年推出的 AI 模型中,千亿规模以下的模型将超过 75%,并形成新的主流。DeepSeek发布:移动端AI迎来新变革                                    图源:Epoch AI,2025 年 1 月。型所展现的更快推理速度、更低的内存消耗和更低的功耗,使其成为在手机、个人电脑等终端上部署的理想选择。

在人工智能领域,终端侧模型的参数通常在10亿到100亿之间,而近期发布的某些新模型的参数规模已经降低至20亿以下。随着模型参数规模的持续缩减以及小模型质量的提升,参数大小已不再是衡量模型质量的唯一标准。
相对而言,目前的旗舰智能手机其运行内存配置多在12GB以上,理论上已能够支持多种模型的运行。同时,针对主流配置智能手机的小模型也在不断开发中。
高质量小模型在手机、PC等终端的大规模部署不断加速,这一趋势进一步促进了AI推理功能及多模态生成式AI应用(如文档摘要、AI图像生成、实时语言翻译等)在终端的广泛应用,为AI技术向更广泛的普通用户群体普及奠定了坚实基础。
在推动终端AI落地的过程中,高通公司一直在为行业发展铺平道路。
AI推理时代:高通将引领行业变革
凭借其高能效的芯片设计、领先的AI软件栈及针对边缘应用的全面开发支持等技术专长,高通正引领这一变革并从中获益。
高通技术公司高级副总裁兼技术规划和边缘解决方案业务总经理马德嘉(Durga Malladi)表示,当前的小模型性能已超越一年前推出的云端大模型。他指出,「我们关注的焦点已不再是模型本身,而是演进到终端的应用发展。随着更多高质量AI模型在终端上运行,AI应用开始快速涌现,AI也在重新定义所有终端的用户界面,这意味着AI正成为新的终端UI。」DeepSeek发布:移动端AI迎来新变革高通认为,在AI定义的新纪元,智能体将首先处理包括语音、文本、图像等多种传感器数据,而非直接针对某个特定应用进行操作。智能体获取信息后会将任务分配给不同的后台应用,这一过程对用户而言是透明的。
在传统的手机系统中,开发者能够访问的终端侧模型数量正在迅速增加,AI智能体需要从大量可用的终端模型中选择合适的进行任务处理。这一过程将显著降低交互复杂性,实现高度个性化的多模态能力,并支持跨应用完成任务。
对终端用户而言,AI智能体将作为唯一与用户互动的前端界面,而实际的应用处理则在后台完成。
通过高质量小模型的能力,智能手机等终端可以实现交互方式的创新。在AI从训练向大规模推理转型及从云端向终端扩展的过程中,高通具备一定的战略优势:

  • 高性能与高能效的芯片设计:高通提供行业领先的系统级芯片,集成定制CPU、NPU、GPU及低功耗子系统,可在终端上实现高效的AI推理,同时保持电池续航和整体能效表现,处理复杂的AI任务;
  • 覆盖所有关键边缘细分领域的可扩展性:高通的可扩展硬件和软件解决方案为数十亿智能手机、汽车、XR头显与眼镜、PC及工业物联网等终端赋能,支持广泛的变革性AI体验;
  • 活跃的生态系统:借助高通AI软件栈、高通AI Hub及战略性开发者合作,高通为不同边缘终端领域的模型部署提供工具、框架和SDK,助力开发者在边缘侧加速AI智能体和应用的使用。

高通不仅预见了终端侧模型的快速崛起,同时还积极推动边缘AI推理在各类终端设备上的落地。
高通公司总裁兼首席执行官安蒙(Cristiano Amon)在近期的一季度财报电话会议中分享了他对当前AI行业趋势的看法:「近期的DeepSeek R1及其他类似模型展示了AI模型发展速度的加快,它们变得更小、更强大、更高效,并且可以直接在终端侧运行。事实上,DeepSeek R1的蒸馏模型在发布几天内便已能在搭载骁龙平台的智能手机和PC上运行。」特的产品组合,不仅在终端侧 AI 领域持续保持高度的差异化竞争优势,还为其实现混合 AI 的愿景提供了强有力的支持。

展望未来,终端侧 AI 将在各行各业中发挥愈发重要的作用。

文章中提到的AI工具

DeepSeek
DeepSeek

深度求索:引领未来人工智能技术的探索与创新

Claude
Claude

由Anthropic公司开发的下一代人工智能AI助手

GPT-4o
GPT-4o

OpenAI 最新的旗舰模型

GPT-4
GPT-4

OpenAI 发布的最新一代语言模型

通义千问
通义千问

你的全能AI助手

© 版权声明

相关AI热点

暂无评论

none
暂无评论...