阿里Qwen3模型凌晨开源,正式登顶全球开源大模型王座!这款新一代通义千问模型在性能上全面超越DeepSeek-R1和OpenAI o1,采用MoE架构,总参数量高达235B,横扫各大基准测试。此次开源的Qwen3家族包含8款混合推理模型,全部采用Apache 2.0许可,免费商用,为全球开发者、研究机构和企业提供宝贵资源。
Qwen3是国内首个混合推理模型,巧妙融合「快思考」与「慢思考」机制。简单需求可低算力秒回答案,复杂问题可多步骤深度思考,显著节省算力消耗。其预训练数据量达36T,后训练阶段通过多轮强化学习,将非思考模式无缝整合到思考模型中,确保更真实的对话体验。Qwen3更符合人类偏好,在创意写作、角色扮演、多轮对话和指令遵循方面表现卓越,提供自然、引人入胜的交互体验。
Qwen3家族亮点纷呈:
· 提供0.6B、1.7B、4B、8B、14B、32B及30B-A3B和235B-A22B等多样化稠密模型和混合专家(MoE)模型
· 无缝切换思考模式(复杂逻辑推理、数学和编码)与非思考模式(高效通用聊天)
· 推理能力显著增强,数学、代码生成和常识逻辑推理超越QwQ和Qwen2.5 instruct模型
· 精通AI智能体能力,支持与外部工具精确集成,复杂任务中开源模型性能领先
· 首次支持119种语言和方言,具备强大的多语言指令跟随和翻译能力
Qwen3已同步上线魔搭社区、Hugging Face、GitHub,并提供在线体验。全球开发者、研究机构和企业均可免费下载模型并商用,也可通过阿里云百炼调用Qwen3 API服务。个人用户可立即通过通义APP体验Qwen3,夸克也即将全线接入。阿里通义已开源200余个模型,全球下载量超3亿次,千问衍生模型数超10万个,成为全球第一开源模型!
Qwen3家族包含2款30B、235B的MoE模型及6款稠密模型,均斩获同尺寸开源模型SOTA。30B参数MoE模型实现10倍性能杠杆提升,仅激活3B即可媲美上代Qwen2.5-32B模型性能。稠密模型性能持续突破,32B版本可跨级超越Qwen2.5-72B性能。所有Qwen3模型均为混合推理模型,API可按需设置「思考预算」,灵活满足不同场景需求。4B模型适合手机端,8B适合电脑和汽车端侧,32B受企业大规模部署青睐。
Qwen3刷新国产及全球开源模型性能纪录:
· AIME25测评斩获81.5分,刷新开源纪录
· LiveCodeBench评测突破70分,表现超越Grok3
· ArenaHard测评以95.6分超越OpenAI-o1及DeepSeek-R1
旗舰模型Qwen3-235B-A22B在编码、数学、通用能力等基准测试中表现亮眼。小型混合专家模型Qwen3-30B-A3B激活参数仅QwQ-32B的十分之一,性能却更胜一筹。Qwen3-4B小模型也能媲美Qwen2.5-72B-Instruct性能。微调模型如Qwen3-30B-A3B及其预训练版本可在Hugging Face、ModelScope和Kaggle等平台找到。
部署方面,阿里推荐SGLang和vLLM框架,本地使用推荐Ollama、LMStudio、MLX、llama.cpp和KTransformers等工具。Qwen3轻松集成到各种工作流程中,为智能体Agent和大模型应用爆发提供强力支持。BFCL评测中创下70.8新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型,大幅降低Agent调用工具门槛。原生支持MCP协议,结合Qwen-Agent框架,实现高效手机及电脑Agent操作。
Qwen3混合推理模式创新:
1. 思考模式:逐步推理,适合复杂问题
2. 非思考模式:快速给出答案,适合简单问题
两种模式灵活切换,根据任务复杂程度控制推理过程,提高模型稳定高效地控制推理资源的能力。性能改进与计算推理预算直接相关,用户可配置特定任务预算,实现成本效率与推理质量的最优平衡。
Qwen3支持119种语言和方言,极大潜力创建风靡全球的国际应用。经过优化的编码和智能体能力,以及加强的MCP支持,展示了Qwen3如何思考并与环境交互。预训练数据集规模达36万亿token,覆盖119种语言和方言,通过网络和PDF文档等提取文本内容。预训练分三个阶段逐步提升模型能力:
· 第一阶段:基础语言能力构建,使用超30万亿token
· 第二阶段:知识稠密型优化,增加STEM、编码和推理数据
· 第三阶段:上下文能力扩展,将上下文长度扩展至32k
得益于模型架构优化、数据规模扩展和高效训练方法,Qwen3 Dense基础模型性能亮眼。Qwen3-1.7B/4B/8B/14B/32B-Base可媲美Qwen2.5-3B/7B/14B/32B/72B-Base,STEM、编码和推理等领域表现更优。Qwen3 MoE模型仅用10%激活参数即可实现Qwen2.5 Dense基础模型相似性能,大幅降低成本并提高部署灵活性。
后训练分四个阶段打造混合模型:
1. 长思维链冷启动:训练基本推理能力
2. 长思维链强化学习:提升探索和利用推理路径能力
3. 思维模式融合:将快速反应能力融入推理模型
4. 通用强化学习:提升通用性和鲁棒性,纠正不良行为
Qwen3开源不到3小时,GitHub狂揽17k星,点燃开源社区热情。苹果工程师Awni Hannun宣布Qwen3支持MLX框架,并在iPhone、MacBook、M2/M3 Ultra等设备上本地运行。实测显示Qwen3与Llama模型不在一个级别,推理更深入,保持更长上下文,解决更难问题。网友称Qwen3像DeepSeek时刻,展现了开源模型的巨大潜力。
本文网址:http://www.idea2003.cn/news/3712.html