您好,欢迎访问一九零五行业门户网

单机训练200亿参数大模型:Cerebras打破新纪录

本周,芯片创业公司 cerebras 宣布了一个里程碑式的新进展:在单个计算设备中训练了超过百亿参数的 nlp(自然语言处理)人工智能模型。
由 cerebras 训练的 ai 模型体量达到了前所未有的 200 亿参数,所有这些都无需横跨多个加速器扩展工作负载。这项工作足以满足目前网络上最火的文本到图像 ai 生成模型——openai 的 120 亿参数大模型 dall-e。
cerebras 新工作中最重要的一点是对基础设施和软件复杂性的要求降低了。这家公司提供的芯片 wafer scale engine-2(wse2)顾名思义,蚀刻在单个台积电 7 nm 制程的整块晶圆上,该面积通常足以容纳数百个主流芯片——具有惊人的 2.6 万亿个晶体管、85  万个 ai 计算内核和 40 gb 集成缓存,封装后功耗高达 15kw。
接近晶圆大小的 wafer scale engine-2,面积比一个 ipad 还大。
虽然 cerebras 的单机在体量上已经类似于超算了,但在单块芯片中保留多达 200 亿个参数的 nlp 模型仍然显著降低了数千个 gpu 的训练成本,以及相关的硬件和扩展要求,同时消除了在它们之间分割模型的技术困难。cerebras 表示,后者是「nlp 工作负载中最痛苦的方面之一」,有时「需要几个月才能完成」。
这是一个定制化的问题,不仅对每个正在处理的神经网络,对于每个 gpu 的规格以及将它们联系在一起的网络都是独一无二的——这些元素必须在第一次训练开始之前提前设置好,而且也不能跨系统移植。
cerebras 的 cs-2 是一个独立的超级计算集群,其中包括 wafer scale engine-2 芯片,所有相关的电源、内存和存储子系统。
200 亿的参数量大概是个什么水平?在人工智能领域里,大规模预训练模型是最近各家科技公司和机构正在努力发展的方向,openai 的 gpt-3 是一种 nlp 模型,它可以写出足以欺骗人类读者的整篇文章、做数学运算和翻译,其具有惊人的 1750 亿个参数。deepmind 的 gopher 于去年年底推出,将参数量的纪录提高到 2800 亿。
最近一段时间,谷歌大脑甚至宣布训练了一个超过万亿参数的模型 switch transformer。
「在 nlp 领域中,体量更大的模型被证明效果更好。但传统上,只有极少数公司拥有足够的资源和专业知识来完成分解这些大型模型,将其分散到数百或数千个图形处理单元的艰苦工作,」cerebras 首席执行官、联合创始人 andrew feldman 说道。「因此也只有极少数公司可以训练大型 nlp 模型——这对于行业的其他人来说太昂贵、太耗时且无法使用。」
现在,cerebras 的方法能够降低 gpt-3xl 1.3b、gpt-j 6b、gpt-3 13b 和 gpt-neox 20b 模型的应用门槛,使整个 ai 生态系统能够在几分钟内建立大型模型,并在单个 cs-2 系统上训练它们 。
然而,就像旗舰级 cpu 的时钟速度一样,参数量只是大模型性能的其中一项指标。最近,一些研究在减少参数的前提下已经取得了更好的结果,例如 deepmind 今年 4 月提出的 chinchilla,只用 700 亿个参数就在常规情况下超过了 gpt-3 和 gopher。
这类研究的目标当然是更智能的工作,而不是更努力地工作。因此 cerebras 的成就比人们第一眼看到的更为重要——该研究让我们相信现有的芯片制程水平能够适应日益复杂的模型,该公司表示,以特殊芯片为核心的系统具备了支撑「数千亿甚至数万亿参数」模型的能力。
在单芯片上可训练参数量的爆炸式增长需要依赖 cerebras 的 weight streaming 技术。该技术可以将计算和内存占用分离,根据 ai 工作负载中快速增长的参数量,允许内存进行任意量级的扩展。这使得设置时间从几个月减少到几分钟,并且可以在 gpt-j 和 gpt-neo 等型号之间切换。正如研究者所说:「只需要敲几次键盘。」
「cerebras 以低成本、便捷的方式向人们提供了运行大型语言模型的能力,开启了人工智能令人兴奋的新时代。它为那些不能花费数千万美元的组织提供了一个简单而廉价的,参与到大模型竞争之中的方式,」intersect360 研究公司的首席研究官 dan olds 说道。「当 cs-2 客户在大量数据集上训练 gpt-3 和 gpt-j 级模型时,我们非常期待 cs-2 客户的新应用和新发现。」
以上就是单机训练200亿参数大模型:cerebras打破新纪录的详细内容。
其它类似信息

推荐信息