阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

观点
2023
09/25
16:39
亚设网
分享

IT之家 9 月 25 日消息,阿里云今日宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型 Qwen-14B-Chat,免费可商用。

IT之家注:阿里云此前已经开源了 70 亿参数模型 Qwen-7B,一个多月下载量破 100 万。

通过阿里云给出的数据来看,Qwen-14B 在多个权威评测中超越同等规模模型,部分指标甚至接近 Llama2-70B。

据介绍,Qwen-14B 是一款支持多种语言的高性能开源模型,整体训练数据超过 3 万亿 Token,具备更强的推理、认知、规划和记忆能力,最大支持 8k 的上下文窗口长度。

相对的,Qwen-14B-Chat 则是在基座模型上经过精细 SFT 得到的对话模型,可带来更准确的内容,也更符合人类偏好,而且在内容创作的想象力和丰富度方面也有扩展。

今日起,用户可从阿里魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用 Qwen-14B 和 Qwen-14B-Chat。

阿里云 CTO 周靖人表示,阿里云将持续拥抱开源开放,推动中国大模型生态建设。阿里云笃信开源开放的力量,率先开源自研大模型,希望让大模型技术更快触达中小企业和个人开发者。

模型零代码创空间体验地址:

https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo

环境配置与安装

python 3.8 及以上版本

pytorch 1.12 及以上版本,推荐 2.0 及以上版本

建议使用 CUDA 11.4 及以上(GPU 用户需考虑此选项)

使用步骤

注:PAI-DSW 的环境配置下运行 (可单卡运行, 显存最低要求 11G)。

Qwen-14B-Chat 模型链接:

https://modelscope.cn/models/qwen/Qwen-14B-Chat

Qwen-14B 模型链接:

https://modelscope.cn/models/qwen/Qwen-14B

Qwen-14B-Chat-Int4 模型链接:

https://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4

社区支持直接下载模型的 repo:

from modelscope.hub.snapshot_download import snapshot_download


model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

THE END
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表亚设网的观点和立场。

2.jpg

关于我们

微信扫一扫,加关注

Top