腾讯称混元大模型中文能力超过GPT3.5 我们一起看看
9月7日消息,今日,备受期待的腾讯混元大模型正式亮相,并通过腾讯云对外开放。腾讯集团副总裁蒋杰称,腾讯混元大模型中文能力已经超过GPT3.5。
据了解,腾讯混元大模型是由腾讯全链路自研的通用大语言模型,拥有超千亿参数规模,预训练语料超2万亿tokens。它的能力究竟如何,我们一起来看一下。
首先,让混元大模型先做个自我介绍。它的回答算中规中矩。
腾讯混元大模型回答
国内厂商大模型和GPT3.5都给出了错误的答案,混元大模型和GPT4则给出了详细的解题思路和正确答案。
据了解,腾讯混元大模型训练数据截至2023年7月,目前训练数据在按月迭代。
全链路技术自研
据蒋杰介绍,腾讯混元大模型从第一个token开始从零训练,掌握了从模型算法到机器学习框架,再到AI基础设施的全链路自研技术。
从2021年开始,腾讯先后推出千亿和万亿参数的NLP稀疏大模型。打破CLUE三大榜单记录,实现在中文理解能力上的新突破。
此外,腾讯还自研了机器学习框架Angel,使训练速度相比业界主流框架提升1 倍,推理速度比业界主流框架提升1.3倍。
在中国信通院《大规模预训练模型技术和应用的评估方法》的标准符合性测试中,混元大模型共测评66个能力项,在“模型开发”和“模型能力”两个重要领域的综合评价均获得了当前的最高分。在主流的评测集MMLU、CEval和AGI-eval上,混元大模型均有优异的表现,特别是在中文的理科、高考题和数学等子项上表现突出。
蒋杰表示:“我们研发大模型的目标不是在评测上获得高分,而是将技术应用到实际场景中。腾讯将全面拥抱大模型。”
实际应用情况
据悉,腾讯云、腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ浏览器等超过50个腾讯业务和产品,已经接入腾讯混元大模型测试,并取得初步效果。
蒋杰展示了腾讯会议、腾讯文档、腾讯广告等多个业务,在接入腾讯混元大模型后的实际应用情况。
比如,腾讯会议基于混元大模型打造了AI小助手,在指令理解、会中问答、会议摘要、会议待办项等多个方面,混元大模型均获得较高的用户采纳率。