太阳成tyc7111cc·(中国)集团官方网站-Macau Bellwether
女性裸体被❌羞羞漫画 最近更新|更新列表|字母检索|下载排行|苹果专区|分类导航

当前位置:首页专题合集 → w3u7903ejky2ywls

阿里发布并开源模型Qwen3,昇腾海光已适配,英伟达连夜跟进

阿里发布并开源模型Qwen3,昇腾海光已适配,英伟达连夜跟进

4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3(简称千问3),参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等领先模型,登顶全球最强开源模型。

根据官方的说法,千问3的旗舰版本 Qwen3-235B-A22B,在代码、数学、通用能力等基准测试中,达到了与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 同一梯度的水平。

在奥数水平的 AIME25 测评中,Qwen3-235B-A22B 斩获 81.5 分,刷新了开源模型的纪录;在考察代码能力的 LiveCodeBench 评测中,Qwen3-235B-A22B 突破 70 分,表现甚至超过 Grok 3;在评估模型人类偏好对齐的 ArenaHard 测评中,Qwen3-235B-A22B 以 95.6 分超越 OpenAI-o1 及 DeepSeek-R1。

此外,小型MoE模型Qwen3-30B-A3B的激活参数数量是QwQ-32B的10%,表现更胜一筹,甚至像Qwen3-4B这样的小模型也能匹敌Qwen2.5-72B-Instruct的性能。

千问3总参数量235B,刷新了开源模型的智能水平新高,阿里称仅需4张H20即可部署千问3满血版,显存占用仅为性能相近模型的三分之一。

千问3模型版本包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型。

千问3是国内首个“混合推理模型”,模型支持两种思考模式:思考模式:在这种模式下,模型会逐步推理,经过深思熟虑后给出最终答案。这种方法适合需要深入思考的复杂问题。非思考模式:在此模式中,模型提供快速、近乎即时的响应,适用于那些对速度要求高于深度的简单问题。

在预训练方面,千问3的数据集相比Qwen2.5有了显著扩展。Qwen2.5是在18万亿个token上进行预训练的,而千问3使用的数据量几乎是其两倍,达到了约36万亿个token,涵盖了119种语言和方言。

同时,千问3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。在评估模型Agent能力的BFCL评测中,千问3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛。

据悉,千问3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119多种语言,全球开发者、研究机构和企业均可免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用千问3的API服务。个人用户可立即通过通义APP直接体验千问3,夸克也即将全线接入千问3。

目前,阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,已超越美国Llama,成为全球第一开源模型。

与此同时,阿里巴巴千问3开源后,上下游供应链连夜进行适配和调用,英伟达、高通、联发科、AMD等多家头部芯片厂商已成功适配千问3,在不同硬件平台和软件栈上的推理效率均显著提升,可满足移动终端和数据中心场景的AI推理需求。

此外,在阿里千问3开源数小时后,华为官方宣布昇腾支持千问3全系列模型部署,开发者在MindSpeed和MindIE中开箱即用,实现千问3的0day适配。随后海光信息也表示,在“深算智能”战略引领下,海光DCU迅速完成对全部8款模型的无缝适配+调优,覆盖235B/32B/30B/14B/8B/4B/1.7B/0.6B,实现零报错、零兼容性问题的秒级部署。

早在2024年3月,智能手机芯片厂商联发科,已在天玑9300等旗舰芯片上部署通义千问18亿、40亿参数大模型,此次适配千问3是双方芯片级软硬适配的延续。去年10月,高通在在发布会上宣布了跟腾讯混元和智谱的合作,腾讯混元大模型7B和3B版本、智谱的GLM-4V端侧视觉大模型都会在搭载骁龙8 Elite的手机上落地。

相关推荐:丝袜老师踩我巴 日本❌❌❌❌❌10 污污小说流水自慰

分享: 2025-05-07 01:47:41 共81款

电脑

安卓

苹果

相关合集

网友评论 查看所有评论>>

发表评论

(您的评论需要经过审核才能显示) 网友粉丝QQ群号:766969941

查看所有0条评论>>