《通义千问更新了旗舰版Qwen3模型》

  • 来源专题:数智化图书情报
  • 编译者: 程冰
  • 发布时间:2025-07-29
  • 2025年7月22日,通义千问更新了旗舰版Qwen3模型,推出Qwen3-235B-A22B-FP8非思考模式(Non-thinking)的更新版本,命名为:Qwen3-235B-A22B-Instruct-2507-FP8。

    新的Qwen3模型,通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面。

    在GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent能力)等众多测评中表现出色,超过Kimi-K2、DeepSeek-V3等顶级开源模型以及Claude-Opus4-Non-thinking等领先闭源模型。

    此外,刚刚更新的Qwen3模型,还增强了以下关键性能:

    · 在多语言的长尾知识覆盖方面,模型取得显著进步。

    · 在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。

    · 长文本提升到256K,上下文理解能力进一步增强。

    目前,Qwen3新模型已在魔搭社区和Hugging Face上开源:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8

  • 原文来源:https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8 ​
相关报告
  • 《阿里通义千问团队发布旗舰版模型Qwen2.5 - Max》

    • 来源专题:数智化图书情报
    • 编译者:程冰
    • 发布时间:2025-05-15
    • 1月29日,阿里通义千问团队发布旗舰版模型Qwen2.5 - Max,该模型采用超大规模MoE(混合专家)架构,基于超过20万亿token的预训练数据及精心设计的后训练方案进行训练。2月4日,在Chatbot Arena三方基准测试平台的大模型盲测榜单中位列全球第七名,是非推理类的中国大模型冠军,在数学和编程等单项能力上排名第一,在硬提示方面排名第二。
  • 《阿里云:2025年通义大模型全球下载量6亿次,衍生模型17万个》

    • 来源专题:宁夏重点产业科技信息服务
    • 编译者:刘 悦
    • 发布时间:2025-09-28
    • 近日消息,在今日2025云栖大会上, 阿里通义大模型迎来7连发,阿里云智能首席技术官周靖人发布了多项重磅技术更新。 通义大模型在 模型智能水平、Agent工具调用和Coding能力、深度推理、多模态 等方面实现多项突破。 截至目前,通义大模型已成为全球第一开源模型,也是中国企业选择最多的模型。 当前,阿里通义开源了300余个模型,覆盖不同大小的“全尺寸”及LLM、编程、图像、语音、视频等“全模态”, 全球下载量突破6亿次,全球衍生模型17万个,稳居全球第一。 超100万家客户接入通义大模型,权威调研机构沙利文2025上半年报告显示,在中国企业级大模型调用市场中,阿里通义占比第一。 在大语言模型中,阿里通义旗舰模型Qwen3-Max全新亮相,性能超过GPT5、Claude Opus 4等,跻身全球前三。 Qwen3-Max包括指令(Instruct)和推理(Thinking)两大版本,其预览版已在Chatbot Arena排行榜上位列第三,正式版性能可望再度实现突破。 Qwen3-Max是通义千问家族中最大、最强的基础模型 ,预训练数据量达36T tokens,总参数超过万亿,拥有极强的Coding编程能力和Agent工具调用能力。 下一代基础模型架构Qwen3-Next及系列模型也正式发布,模型总参数80B仅激活3B,性能即可媲美千问3旗舰版235B模型,实现模型计算效率的重大突破。 而在专项模型方面,千问编程模型Qwen3-Coder迎来重磅升级。 新的Qwen3-Coder与Qwen Code、Claude Code系统联合训练,应用效果显著提升,推理速度更快,代码安全性也显著提升。 其开源后调用量曾在知名API调用平台OpenRouter上激增1474%,位列全球第二。 在多模态模型中,视觉理解模型Qwen3-VL重磅开源,在视觉感知和多模态推理方面实现重大突破, 在32项核心能力测评中超过Gemini-2.5-Pro和GPT-5。 Qwen3-VL拥有极强的视觉智能体和视觉Coding能力,不仅能看懂图片,还能像人一样操作手机和电脑,自动完成许多日常任务。 而全模态模型Qwen3-Omni也惊喜亮相, 音视频能力狂揽32项开源最佳性能SOTA, 可像人类一样听说写,应用场景广泛,未来可部署于车载、智能眼镜和手机等。 同时,用户还可设定个性化角色、调整对话风格,打造专属的个人IP。 而在视觉基础模型中,通义万相推出Wan2.5-preview系列模型,涵盖文生视频、图生视频、文生图和图像编辑四大模型。 通义万相2.5视频生成模型能生成和画面匹配的人声、音效和音乐BGM,首次实现音画同步的视频生成能力,进一步降低电影级视频创作的门槛。 视频生成时长从5秒提升至10秒,支持24帧每秒的1080P高清视频生成,并进一步提升模型指令遵循能力。 最后,通义大模型家族还迎来了全新的成员——语音大模型通义百聆,包括语音识别大模型Fun-ASR、语音合成大模型Fun-CosyVoice。 Fun-ASR基于数千万小时真实语音数据训练而成,具备强大的上下文理解能力与行业适应性。 Fun-CosyVoice可提供上百种预制音色,可以用于客服、销售、直播电商、消费电子、有声书、儿童娱乐等场景。