通义千问再放大招:720亿大模型开源,全尺寸赶上LLaMA-2,还有移动端可用的18亿模型

通义千问再放大招:720亿大模型开源,全尺寸赶上LLaMA-2,还有移动端可用的18亿模型

  时隔一个月,通义千问又放大招了!

  在一个月前的阿里云栖大会上,阿里正式发布通义千问2.0版本,在复杂指令理解、文学创作、通用数学、知识记忆、幻觉抵御等能力上,都有较大提升。并且,阿里云还发布了包括编程、AI阅读、音视频转录、AI角色生成等八大产品模型。

  当时,阿里云就已经预告,接下来还要再发更大规模的开源模型。

  12月1日,三款新模型如约而至——包括Qwen-72B、Qwen-1.8B和Qwen-Audio大模型,通义千问大模型也升级到了2.1版本。

  最受瞩目的首先是Qwen-72B,参数达到720亿,基于3T tokens的高质量数据训练。阿里云表示,Qwen-72B在10个权威基准测评中夺得开源模型最优成绩,在部分测评中超越闭源的GPT-3.5GPT-4

  △来源:阿里云

  具体来说,在英语任务上,Qwen-72B在MMLU基准测试取得开源模型最高分;中文任务上,Qwen-72B在C-Eval、CMMLU、GaokaoBench等基准得分超越GPT-4。

  而在数学推理方面,Qwen-72B在GSM8K、MATH测评中也领先其他开源模型;代码理解方面,Qwen-72B在HumanEval、MBPP等测评中的表现大幅提升,代码能力也有质的飞跃。

  △72B模型做数学题

  在复杂语义理解上,72B的能力也提高了不少,比如,现在就能够听懂中文里的“潜台词”了:

  △72B模型理解“职场之道”

  当前,国内外大模型都分为闭源和开源两大路线。对标国外——OpenAI已走闭源路线,开源模型的代表则是Meta旗下的Llama。Meta在今年7月发布了Llama 2,分别有7B(70亿参数)、13B(130亿参数)和70B(700亿参数)三个尺寸。

  阿里云Qwen-72B的推出,也意味着国内市场又多了一个对标Llama 2-70B的头部开源模型。当前,通义千问的大语言模型家族已经实现全尺寸开源——包括18亿、70亿、140亿、720亿7个参数。

  不同规模和尺寸的模型,意味着应用场景可以拓宽更多。比如,高达720亿参数的Qwen-70B推出后,大中型企业就可以基于此可开发商业应用,高校、科研院所可利用AI来辅助科研工作——这些工作都需要复杂的运算,也依赖于模型能力边界的不断拓展。

  阿里云在会上也请了不少开发者、企业介绍已有的模型实践。比如华东理工大学的X-D Lab,及基于基于开源的通义千问开源模型开发了心理健康大模型MindChat(漫谈)、医疗健康大模型Sunsimiao(孙思邈)、教育/考试大模型GradChat(锦鲤)等,并为下游客户开发基于行业大模型的产品。

  目前,已经有已有超过20万人次用过上述的大模型,X-D Lab已经累计提供了超过100万次的问答服务。

  “当我们用同样的方法,把同样规模的数据应用到各个开源模型,Qwen的效果比其他模型好得多。”华东理工大学·X-DLab(心动实验室)成员颜鑫表示,团队只用20万tokens的数据微调了Qwen基座模型,就获得了比另一家用百万级数据微调的模型更好的效果。

  阿里云还发布了一款参数量更小的大模型——Qwen-1.8B。这是一款专为端侧设计的模型,推理2K长度文本内容仅需3G显存,可跑在消费级终端上——比如手机、电脑等。

  如今算力紧缺,大模型的训练和推理成本都居高不下,超大规模参数的大模型只能在云上部署。为了能让大模型可以跑在更多终端上,近期包括大模型、手机、电脑等厂商都在探索更小尺寸规模的模型。

  最直接的效果就是,1.8B体量的大模型,就能离线在手机、电脑等终端上运行。阿里云CTO周靖人在会后专访中表示,对文档、图像等轻度处理的工作,1.8B体量的模型已经完全能够胜任。

  另外,阿里云也首次开源了音频理解大模型Qwen-Audio,这是在多模态领域的一次探索。

  Qwen-Audio能够感知和理解人声、自然声、动物声、音乐声等各类语音信号。用户可以输入一段音频,要求模型给出对音频的理解,甚至基于音频进行文学创作、逻辑推理、故事续写等等。音频理解能够赋予大模型接近人类的听觉能力。

  简单来说,现在通义千问不仅能“看”,也能“听”了,而且更加耳聪目明。此前8月,通义千问就开源了视觉理解大模型Qwen-VL,这次发布中也有不少提升:通用OCR、视觉推理、中文文本理解基础能力都有升级,还能处理各种分辨率和规格的图像,还能“看图做题”。

  △通义千问开源大模型家族

  可以说,本次发布模型,对应着三个定位:72B意在对标顶尖开源模型;1.8B则是消费侧落地的探索;而Qwen-Audio则是多模态的新探索——这是未来的重要方向。

  当前,阿里云的大模型社区“魔搭”已经有超过150万的模型下载量。用户可在魔搭社区直接体验Qwen系列模型效果,也可通过阿里云灵积平台调用模型API,用阿里云百炼平台、阿里云人工智能平台PAI也可以辅助用户定制大模型应用和深度适配,阿里云也配有轻量级微调、全参数微调、分布式训练、离线推理验证、在线服务等多种功能。

36氪 36氪
0
0
发布评论
后可评论
0/1000
全部评论

暂无评论,来抢沙发

猜你喜欢 换一批
数据加载中,请稍候...