阿里再次放大招!通义千问开源320亿参数大模型

AI快讯 2024-04-09

阿里云通义千问再显强大实力,近期开源了拥有320亿参数的Qwen1.5-32B模型,该模型在性能、效率和内存占用方面实现了出色的平衡,为企业和开发者提供了性价比极高的选择。

截至目前,通义千问已经累计开源了七款大语言模型,它们在全球开源社区中的下载量已经突破惊人的300万大关。

image.png

此前,通义千问已经成功开源了参数规模分别为5亿、18亿、40亿、70亿、140亿和720亿的六款大语言模型,并且这些模型都已经升级至1.5版本。其中,几款小型模型特别适合在端侧进行部署,而720亿参数的模型则凭借业界领先的性能,多次荣登HuggingFace等权威模型榜单。

此次开源的320亿参数模型Qwen1.5-32B,在性能、效率和内存占用上实现了更为理想的平衡。与14B模型相比,它在智能体场景下展现出了更强的能力;而与72B模型相比,它的推理成本更低,更易于实际应用。通义千问团队期望这款32B开源模型能够为下游应用提供更为出色的解决方案。

在基础能力方面,通义千问320亿参数模型在MMLU、GSM8K、HumanEval、BBH等多个测评中均取得了优异的成绩,其性能接近通义千问720亿参数模型,并远超其他300亿级参数模型。

在Chat模型方面,Qwen1.5-32B-Chat模型在MT-Bench评测中得分超过8分,与Qwen1.5-72B-Chat模型之间的差距相对较小,展现出了强大的对话能力。

此外,通义千问团队还针对多语言能力进行了深入研究。他们选取了包括阿拉伯语、西班牙语、法语、日语、韩语等在内的12种语言,在考试、理解、数学及翻译等多个领域进行了测评。结果显示,Qwen1.5-32B的多语言能力仅略逊于通义千问720亿参数模型,表现出了强大的跨语言处理能力。

对于想要了解和使用Qwen1.5-32B模型的开发者们,可以在以下链接获取模型的详细信息:

魔搭社区 ModelScope:

https://modelscope.cn/models/qwen/Qwen1.5-32B/summary

https://modelscope.cn/models/qwen/Qwen1.5-32B-Chat/summary

Hugging Face:

https://huggingface.co/Qwen/Qwen1.5-32B

https://huggingface.co/spaces/Qwen/Qwen1.5-32B-Chat-demo

这些链接提供了关于Qwen1.5-32B模型的详细介绍、性能评估以及使用指南,为开发者们提供了极大的便利。

@版权声明:部分内容从网络收集整理,如有侵权,请联系删除!

相关文章