总参数达到1万亿,阿里迄今为止最大的模型来了!
没错,就是前几日大家期待已久的Qwen3-Max-Preview (Instruct)。
1万亿啥概念?几乎一下子就比前一代Qwen3(235B)多了四倍之多,相当于给大学生换了个爱因斯坦的脑子(bushi~
根据官方介绍,其最大亮点如下:
相较于2.5系列,新版本在中英文理解、复杂指令遵循、工具调用等维度实现了显著增强,同时大幅减少了知识幻觉,让模型更智能、更可靠。
而且发布即全面上线,目前可通过通义APP、 Qwen Chat网页和阿里云API体验。
更多官方测评显示,Qwen3-Max-Preview一登场不仅比自家前一代最强模型Qwen3(235B)更强,而且还打败了包括Claude Opus 4在内的国内外劲敌。
国内外反响更是一片热烈,随之而来的还有一大波测评:
1万亿!模型规模真是越来越扩张了,迫不及待想要尝试。
Qwen再次令人惊叹!
so,模型真实效果如何?不妨简单实测一下见真章。
支持多模态,编程已无需抽卡
综合官方测评和网友反馈,接下来我们主要考查Qwen3-Max-Preview解答难题和动手编程的能力。
需要提醒一下,阿里从Qwen3(235B)开始就不再使用混合思维模式,所以这次的Instruct版本仅支持非思考模式。
使用Qwen Chat网页,一上来就给它扔一道AIME数学竞赛题试试:
(AIME:美国数学邀请赛,是介于AMC10、AMC12及美国数学奥林匹克竞赛之间的一个数学竞赛。)
由于Qwen3-Max-Preview支持多模态,这里我们可以直接上传图片。
几乎转眼间,模型就唰唰唰地给出了详细作答过程及结果,最终答案“204”也与AIME这道题的标准答案一致。
小试牛刀过后,接下来进入编程环节。
用p5js创建多彩的可交互动画。
速度同样很快,Qwen3-Max-Preview几乎立即给出了一段完整代码,而且代码能够成功运行。
鼠标点到哪里,哪里就会产生交互效果:
生成一个扫雷游戏。
一句话制作扫雷这种经典小游戏也是轻轻松松,而且是一次成功,无需反复沟通和抽卡。
代码成功运行后,我们也简单试玩了一下,只是很快就“踩雷”了(doge):
最后来试试制作前端网页,不妨就让它来个自我介绍:
帮我制作一个介绍Qwen3-Max-Preview的可交互网站。
网站代码生成后,既可以保存成文件直接打开,还能在问答末尾点击“预览”一键查看效果。
预览效果如下,网站设计简洁直观,也具有初级交互效果:
当然,如果你更懂提示词,效果也会更好,某网友为Qwen3-Max-Preview制作的庆祝网页效果就还不错。
顺带一提,不知道Qwen3-Max-Preview的代码生成速度能不能赶上之前开源的Qwen3-Coder,大家可以感受一下后者的速度:
以>107个token/秒的速度生成4467个token。
以上实测不难看出新模型确实能力更强了,尤其在编程方面,所有尝试都是一次成功。
此外,阿里云百炼平台还透露了模型的API价格——当前版本根据输入Token数,采取阶梯计费。
原生支持的上下文长度及最大输入/输出如下:
虽然目前官方并未正式宣布开源这款模型,但Qwen身为开源阵营的重要一员,其后续仍然值得期待。
One More Thing
就在Qwen3-Max-Preview基础版发布后,通义千问开源负责人林俊旸还在朋友圈透露其正式版很快到来。
而且还表达了自己对这款模型的感受:
确实是我们搞过的最有趣的模型,(虽然)配方上没有大改,但比之前的235B版本明显好了不少。
这也让他对继续扩展模型规模充满信心。
另外,关于正式版人们现在也有了更多推测。
按照官方之前的节奏,预计大概率后面还有一个推理版本,而且或许就在几天之后。(Qwen3-235B推理非推理中间仅隔了4天)
最后,你体验这款新模型了吗?欢迎回评论区分享一波~
立即体验:
Qwen Chat:https://chat.qwen.ai
阿里云百炼API服务:https://bailian.console.aliyun.com/?tab=model#/model-market
相关文章
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读
2025-09-060阅读