Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

阿里Qwen2正式开源,性能全方位包围Llama-3

Qwen 系列会是众多大学实验室新的默认基础模型吗?

斯坦福团队套壳清华大模型的事件不断发酵后,中国模型在世界上开始得到了更多关注。不少人发现,原来中国已经有不少成熟的大模型正在赶超国外。

HuggingFace 平台和社区负责人 Omar Sanseviero 曾表示,AI 社区一直在「忽视」中国机器学习生态系统的工作,他们正在用有趣的大语言模型、视觉大模型、音频和扩散模型做一些令人惊奇的事情,如 Qwen、Yi、DeepSeek、Yuan、WizardLM、ChatGLM、CogVLM、Baichuan、InternLM、OpenBMB、Skywork、ChatTTS、Ernie、HunyuanDiT 等。

图片

今日,阿里云通义千问团队 Qwen2 大模型开源的消息吸引了众多 AI 开发者的目光。Qwen2-72B 性能超过了业界著名的开源模型 Llama3-70B,也超过文心 4.0、豆包 pro、混元 pro 等众多国内闭源大模型。所有人均可在魔搭社区和 Hugging Face 免费下载通义千问最新开源模型。

图片

相比今年 2 月推出的通义千问 Qwen1.5,Qwen2 整体性能实现代际飞跃。而在上海人工智能实验室推出的权威模型测评榜单 OpenCompass 中,此前开源的 Qwen1.5-110B 已领先于文心 4.0 等一众国内闭源模型。可见 Qwen2 的能力更加非凡。

图片

                              OpenCompass 大模型测评榜单上,此前开源的 Qwen1.5-110B 已领先于文心 4.0 等一众国内闭源模型。

本次 Qwen2 系列包括五种尺寸的基础和指令调优模型,包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B。 

图片

魔搭社区模型下载地址:

  • Qwen2-72B https://modelscope.cn/models/qwen/Qwen2-72B

  • Qwen2-72B-Instruct https://modelscope.cn/models/qwen/Qwen2-72B-Instruct

在先前的 Qwen1.5 系列中,只有 32B 和 110B 的模型使用了 GQA(Grouped-Query Attention)。而这一次,Qwen2 系列所有尺寸的模型都使用了 GQA。这让大家能够更加方便地体验到 GQA 带来的推理加速和显存占用降低的优势。针对小尺寸模型,由于 embedding 参数量较大,使用了 Tie Embedding 的方法让输入和输出层共享参数,增加非 embedding 参数的占比。

此外,所有的预训练模型均在 32K tokens 的数据上进行训练,并且研究团队发现其在 128K tokens 时依然能在 PPL 评测中取得不错的表现。然而,对指令微调模型而言,除 PPL 评测之外还需要进行大海捞针等长序列理解实验。在该表中,作者根据大海捞针实测结果,列出了各个指令微调模型所支持的最大上下文长度。而在使用 YARN 这类方法时,Qwen2-7B-Instruct 和 Qwen2-72B-Instruct 均实现了长达 128K tokens 上下文长度的支持。

研究团队投入了大量精力研究如何扩展多语言预训练和指令微调数据的规模并提升其质量,从而提升模型的多语言能力。尽管大语言模型本身具有一定的泛化性,他们还是针对性地对除中英文以外的 27 种语言进行了增强,并针对性地优化了多语言场景中常见的语言转换(code switch)问题,使模型当前发生语言转换的概率大幅度降低。使用容易触发语言转换现象的提示词进行测试,观察到 Qwen2 系列模型在此方面能力的显著提升。

图片

性能一览

Qwen2-72B 在针对预训练语言模型的评估中,对比当前最优的开源模型,Qwen2-72B 在包括自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B。这得益于其预训练数据及训练方法的优化。

图片

大规模预训练后,研究团队对模型进行精细的微调,以提升其智能水平,让其表现更接近人类。这个过程进一步提升了代码、数学、推理、指令遵循、多语言理解等能力。微调过程遵循的原则是使训练尽可能规模化的同时并且尽可能减少人工标注。

研究团队探索了如何采用多种自动方法以获取高质量、可靠、有创造力的指令和偏好数据,其中包括针对数学的拒绝采样、针对代码和指令遵循的代码执行反馈、针对创意写作的回译、针对角色扮演的 scalable oversight 等。在训练方面,开发团队结合了有监督微调、反馈模型训练以及在线 DPO 等方法,还采用了在线模型合并的方法减少对齐税。

图片

Qwen2-72B-Instruct 在 16 个基准测试中的表现优异,在提升基础能力以及对齐人类价值观这两方面取得了较好的平衡。相比 Qwen1.5 的 72B 模型,Qwen2-72B-Instruct 在所有评测中均大幅超越,并且取得了匹敌 Llama-3-70B-Instruct 的表现。而在小模型方面,Qwen2 系列模型基本能够超越同等规模的最优开源模型甚至更大规模的模型。相比近期推出的业界最优模型,Qwen2-7B-Instruct 依然能在多个评测上取得显著的优势,尤其是代码及中文理解上。

图片

在代码方面,Qwen2 的研发中融入了 CodeQwen1.5 的成功经验,实现了在多种编程语言上的显著效果提升。而在数学方面,大规模且高质量的数据帮助 Qwen2-72B-Instruct 实现了数学解题能力的飞升。

图片

Qwen2 系列中的所有 Instruct 模型,均在 32k 上下文长度上进行训练,并通过 YARN 或 Dual Chunk Attention 等技术扩展至更长的上下文长度。下图展示了其在 Needle in a Haystack 测试集上的结果。值得注意的是,Qwen2-72B-Instruct 能够完美处理 128k 上下文长度内的信息抽取任务

此外,Qwen2 系列中的其他模型的表现也十分突出:Qwen2-7B-Instruct 几乎完美地处理长达 128k 的上下文;Qwen2-57B-A14B-Instruct 则能处理 64k 的上下文长度;而该系列中的两个较小模型则支持 32k 的上下文长度。

图片

自 2023 年 8 月开源以来,通义千问不仅在国内开源社区中影响巨大,更是在全球开源社区中占据重要的位置。今日,Qwen2 系列模型的 API 第一时间登陆阿里云百炼平台。在 Llama 开源生态之外,全球开发者现在拥有了更多的选择。

参考链接:

https://qwenlm.github.io/blog/qwen2/

https://x.com/JustinLin610/status/1798747072319074347

产业Qwen2通义千问
相关数据
机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

自然语言理解技术

自然语言理解是人工智能的核心课题之一,也被广泛认为是最困难和最具标志性的任务。最经典的两个人工智能思想实验——图灵测试和中文房间,都是围绕自然语言理解来构建的。自然语言理解在人工智能技术体系中的重要性不言而喻,它一方面承载着机器和人的交流,另一方面直达知识和逻辑。自然语言理解也是人工智能学者孜孜以求的圣杯,机器学习的巨擘 Michael I. Jordan 就曾经在 Reddit 上的 AMA(Ask Me Anything)栏目中畅想用十亿美元建立一个专门用于自然语言理解的实验室。

基准技术

一种简单的模型或启发法,用作比较模型效果时的参考点。基准有助于模型开发者针对特定问题量化最低预期效果。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

拒绝采样技术

在数学中,拒绝抽样是用来从分布产生观测值的基本技术。它也被称为接受拒绝方法或“接受 - 拒绝算法”,是一种蒙特卡罗方法

信息抽取技术

信息/数据抽取是指从非结构化或半结构化文档中提取结构化信息的技术。信息抽取有两部分:命名实体识别(目标是识别和分类真实世界里的知名实体)和关系提取(目标是提取实体之间的语义关系)。概率模型/分类器可以帮助实现这些任务。

阿里云机构

阿里云创立于2009年,是全球领先的云计算及人工智能科技公司,致力于以在线公共服务的方式,提供安全、可靠的计算和数据处理能力,让计算和人工智能成为普惠科技。 阿里云服务着制造、金融、政务、交通、医疗、电信、能源等众多领域的领军企业,包括中国联通、12306、中石化、中石油、飞利浦、华大基因等大型企业客户,以及微博、知乎、锤子科技等明星互联网公司。在天猫双11全球狂欢节、12306春运购票等极富挑战的应用场景中,阿里云保持着良好的运行纪录。 阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。 2014年,阿里云曾帮助用户抵御全球互联网史上最大的DDoS攻击,峰值流量达到每秒453.8Gb 。在Sort Benchmark 2016 排序竞赛 CloudSort项目中,阿里云以1.44$/TB的排序花费打破了AWS保持的4.51$/TB纪录。在Sort Benchmark 2015,阿里云利用自研的分布式计算平台ODPS,377秒完成100TB数据排序,刷新了Apache Spark 1406秒的世界纪录。 2018年9月22日,2018杭州·云栖大会上阿里云宣布成立全球交付中心。

https://www.aliyun.com/about?spm=5176.12825654.7y9jhqsfz.76.e9392c4afbC15r
语言模型技术

统计式的语言模型是借由一个几率分布,而指派几率给字词所组成的字串。语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。

推荐文章
暂无评论
暂无评论~