随着开源模型的大量涌现,其性能已能与当下最领先的闭源模型相媲美。同时,开源模式有效降低了模型训练成本,使得最先进的模型得以低成本部署和广泛应用。
在 AI 时代浪潮下,阿里巴巴集团彻底变革了企业发展战略。
2025 年 2 月 24 日,阿里巴巴集团 CEO 吴泳铭宣布,未来三年,阿里计划投入超 3800 亿元用于全球云服务及 AI 硬件基础设施建设,这一投入远超公司过去十年在该领域的总和。
在大模型领域,阿里云已取得瞩目成果。目前,已开源超 200 个不同模型,通义千问(Qwen)衍生模型数量在海内外开源社区突破 10 万个,超越美国 Llama 系列模型,稳居全球开源大模型首位。
阿里云通义千问团队向《商学院》杂志透露,借助开源,阿里云致力于打造强大的 AI 生态系统,助力海量中小企业与 AI 开发者更早、更便捷地使用通义千问,推动大模型技术普及与落地应用,助力中国大模型生态建设。因为只有构建稳固的大模型基础,才能为未来商业化应用创造无限可能。
全面开源推进 AI 生态构建
自 2023 年 8 月起,阿里云率先在国内大规模开源大模型系列,成为我国首家大规模开源的大厂,并多次荣获 Chatbot Arena、司南 OpenCompass 等权威榜单 “全球开源冠军”“国产模型冠军” 称号。2024 年,仅 Qwen2.5-1.5B 一款开源模型,就占据全球最大开源社区 Hugging Face 模型下载量的 26.6%,位居世界第一。
阿里云指出,开源能够汇聚全球开发者智慧与力量,相比单个公司独立研发,能更高效地推动技术创新与迭代。例如,DeepSeek 开源 R1 后,全球掀起复刻 R1 热潮,对 OpenAI 的 o1 推理模型造成冲击,推动全球大模型技术迈入推理模型新阶段。
此外,开源利于生态系统构建。开源模式下,任何人皆可免费下载部署 AI 模型,有力促进新技术普及。像 DeepSeek 的六个蒸馏模型中有四个基于千问开源模型;李飞飞团队也基于千问开源模型,成功训练出性能比肩顶尖推理模型的新模型 s1-32B,在竞赛数学问题上性能较 o1-preview 高出 27%。
再者,开源加速 AI 产业化进程,促进 AI 技术在各行业落地。对于初创企业和中小企业而言,直接使用开源模型可大幅降低进入 AI 领域的技术与资金门槛,结合自身知识库或语料库,快速开发出适用于各行业的垂直解决方案。
尤为值得一提的是,阿里云于 2025 年 3 月 6 日发布的 QwQ-32B,不仅适用于企业,还便于个人开发者与普通用户使用,且能在消费级显卡上本地部署,大幅削减部署使用成本。通过大规模强化学习,该模型在数学、代码及通用能力上实现飞跃,整体性能与 DeepSeek-R1 媲美。
然而,随着 Scaling Law(规模定律)带来的边际效益逐渐降低,以 OpenAI 为代表的大模型厂商在数据积累与算力堆砌上已接近现有技术和资源条件下的极限。因此,探寻新的优化路径成为关键。业界开始通过极致化算力优化降低成本,并在强化学习和推理阶段改进,以更高效的方式训练高性能模型。QwQ-32B 的推出,再次印证了强化学习在提升模型性能方面的巨大潜力。
阿里云表示,随着开源模型的不断涌现,其性能已能与最领先的闭源模型相媲美。开源模式还降低了模型训练成本,使最先进的模型能够低成本部署和应用。
有趣的是,为应对来自中国企业的竞争,谷歌和 OpenAI 等国际巨头也开始调整策略,尝试有限度的开源。例如,谷歌此前专注于闭源模型 Gemini,近期却开源了 Gemma 3;曾被戏称为 CloseAI 的 OpenAI,在中国开源环境的影响下,其 CEO Sam Altman 承认闭源策略有误,并公布了未来开源计划。
“云 + AI” 为应用大爆发做好准备
目前,越来越多企业倾向于直接使用大模型厂商提供的标准 API 服务,尤其适用于业务相对固定、无需大量定制化的场景。使用 API 服务成本更为经济,因其仅在实际调用时产生费用,特别适合有明显波峰波谷需求的场景,如客服系统,除白天高峰时段外,其他时间需求较低,无需从头开发大模型,从而显著降低成本。
阿里云百炼平台是阿里专为企业打造的 AI 大模型服务平台,助力企业和开发者更高效地构建、训练与部署 AI 应用。目前,基于该平台的 API 调用是阿里云大模型商业化的主要途径。阿里云百炼平台提供快速便捷的服务接入方式,方便用户轻松利用阿里云的大模型能力。
除标准 API 调用外,阿里云还提供联合开发的整套 AI 定制化解决方案服务,涵盖模型微调、定制模型等,满足对模型技术不熟悉或有高度定制化需求的客户。针对有数据安全性和隐私保护需求的用户,阿里云推出私有化部署方案,如将模型集成到一体机中直接销售给客户。
在推动开源大模型商业化进程中,阿里云不断探索更具性价比的 AI 能力开放方式。
自 2024 年起,阿里云多次下调通义千问系列模型价格,其中 Qwen-Long API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,降幅达 97%。其他模型如 Qwen-Turbo、Qwen-Plus、Qwen-Max 以及视觉理解模型等也大幅降价,让更多企业和开发者能以更低的成本获取 AI 能力。
值得注意的是,成本的不断降低得益于阿里云在 AI 基础设施方面的持续进步,特别是在提升计算效率、优化网络性能以及加快存储速度等方面。例如,阿里云推出支持超 10 万个 GPU 稳定连接的高性能网络架构 HPN7.0、最大支持单机 16 卡的磐久 AI 服务器以及数据吞吐量达 20TB/s 的 CPFS 文件存储。
此外,阿里云百炼平台已集成 200 多款大模型 API,涵盖国内外主流开源和闭源模型。为降低用户使用文本大模型 API 的成本,阿里云百炼平台推出全新 KV Cache 计费模式,通过自动缓存上下文避免重复计算,进一步降低模型调用成本,适用于长文本、代码补全、多轮对话、特定文本摘要等场景。
总体来看,AI 开源大模型在商业化过程中面临两大痛点:一是缺乏能显著提升用户体验或效率的 “杀手级应用”,意味着市场尚未完全准备好迎接 AI 大模型,其应用场景和潜力有待进一步发掘和验证;二是 B 端市场仍处于初步探索阶段,企业管理层对利用开源大模型实现业务价值的认识不足,相比闭源大模型,更难说服其投资 AI 解决方案。
针对这些挑战和未来规划,阿里通过 “云 + AI” 的一体化全栈方案做了准备。例如,利用 AI 基础设施的产品力拓展 B 端市场。同时,通过夸克的改版升级等实践,在 C 端市场探索大模型应用潜力,旨在打造现象级产品样本,展示最佳的 AI 体验入口。
通义千问的多场景探索
随着大模型技术的不断进步,其在多个场景展现出巨大的应用价值和潜力。
2024 年 1 月,中国一汽联合通义千问推出汽车行业首个基于大模型的商业智能(BI)应用 ——GPT-BI。一汽借助千问大模型能力实现数据智能化,将大量沉睡的数据资产转化为有价值的资源。
具体来说,GPT-BI 助力一汽实现销售数据自动报表生成,极大提升工作效率。一汽红旗品牌运营委员会副总裁门欣表示,AI 在实际工作中还有更多应用场景。例如,在整车开发过程中,涉及大量数据,包括汽车生产的尺寸匹配、工艺评审、装配策略等,这些环节原先依赖人工衡量。如今,红旗基于这些数据和要求生成红旗汽车自动评价模型,并引入整车生产过程,使原本耗时 20 天、50 天甚至 80 天以上的环节,在工作台上缩短至秒级或天级完成。
基于 GPT-BI 等真实业务场景的探索,一汽还计划利用大量高质量数据资产,在 “阿里云百炼” 一站式大模型应用开发平台上打造面向研发、制造、售后服务等多领域的垂直大模型,让大模型在生产、销售等环节充分发挥效用。
2025 年 3 月 11 日,Manus 平台宣布与阿里通义千问团队达成战略合作。双方将基于通义千问系列开源模型,在国产模型和算力平台上实现 Manus 的全部功能,致力于为中国用户打造更具创造力的通用智能体产品。
业界普遍认为,Manus 与阿里的合作不仅是利用先进大模型,也是为了寻找高性价比的云平台以满足庞大算力需求,特别是在中国市场。双方合作将加速 AI 智能体产业化进程,通过高效、经济的云计算解决方案降低运营成本,提升服务性能。
不久前,全球知名科技巨头苹果公司与阿里达成合作,阿里作为苹果供应商为中国版 iPhone 开发人工智能功能。
分析人士指出,苹果选择与阿里合作,一方面看中阿里云平台的算力优势,另一方面是由于通义千问模型系列具备强大多模态能力。对于 AI 智能体而言,除了强大的语言模型,还需具备处理视觉、音频等多模态输入的理解能力,这是苹果等公司在选择 AI 大模型合作伙伴时的关键考量点之一。
在多模态能力方面,通义千问 Qwen-Vision Language 模型表现出色。以最新版 Qwen2.5-VL 为例,该模型不仅能处理文本输入输出,还具备处理视觉和视频输入的能力,包括对长达 1 小时的视频进行理解。
相较于上一代 Qwen2-VL,该模型进行了多项更新。例如,增强的 Grounding 能力提升了对物理事件和物体的识别能力,使模型能更好地关联文字描述与实际图像或视频中的元素。增强的 OCR(光学字符识别)能力在处理复杂或手写文本、长文本时表现出色,无需针对特定类型文本进行额外调优,并且在处理散发性角度的文字时表现更佳。
在 Qwen2.5-VL 中,通义千问团队还设计了更全面的文档解析格式 ——QwenVL HTML 格式,既能精准识别文档中的文本,又能提取文档元素(如图片、表格等)的位置信息,准确还原文档版面布局。
据介绍,该模型除了性能强大外,还内置 agent 能力,例如能输出符合标准 JS 格式的文档,这对于智能体的实际应用至关重要。只有输出格式标准化,智能体才能有效调用这些结果。通过这些巧妙设计,不仅增强了模型的功能性和实用性,也为未来 AI 产业发展提供了有力支持。
自 2024 年起,阿里云开始将大模型直接部署到手机等设备端,以实现本地任务执行,如语音摘要生成等。阿里与苹果的合作采用端云结合架构,云端拥有大型模型,设备端配置较小参数模型,并结合安全措施,这是未来重点发展方向。
从部署模式来看,大模型在手机的部署方式主要有两种:一是本地部署,将大模型内置到手机中,或部署较小模型(如 0.5B 至 7B 参数规模),用于执行对数据敏感的任务;二是云端结合,本地运行较小模型处理敏感数据,复杂任务则通过网络提交给云端大模型处理。
云端大模型优势在于性能强大,能处理复杂任务,参数多,性能表现好,但存在延迟和数据传输隐私问题。本地大模型则提供更好的数据安全性和隐私保护,所有处理在设备上完成,对于基础任务已足够使用,但受尺寸限制,性能不如云端模型,体验可能稍逊。
尽管本地模型能满足基础任务需求,但对于更高智能水平的定制化需求,云端大模型仍是不可或缺的。未来发展趋势可能是寻求平衡,利用本地模型保障数据安全和快速响应,同时依靠云端模型解决复杂问题。