您好,欢迎访问一九零五行业门户网

OpenAI编程语言加速Bert推理12倍,引擎备受关注

一行代码的威力到底有多大?今天我们要介绍的这个 kernl 库,用户只需一行代码,在 gpu 上就能以快几倍的速度运行 pytorch transformer 模型,从而极大的加快了模型的推理速度。​
具体而言,有了 kernl 的加持,bert 的推理速度比 hugging face 基线快了 12 倍。这一成果主要得益于 kernl 用新的 openai 编程语言 triton 和 torchdynamo 编写了定制的 gpu 内核。项目作者来自 lefebvre sarrut。
github 地址:https://github.com/els-rd/kernl/
以下是 kernl 与其他推理引擎的比较,横坐标中括号里的数字分别表示 batch size、序列长度,纵坐标为推理加速情况。
基准测试在 3090 rtx gpu 运行,以及 12 核 intel cpu。​
由上述结果可得,在长序列输入这一块,kernl 可以说是最快的推理引擎(上图中的右半部分),在短输入序列上接近英伟达的 tensorrt(上图中的左半部分)。除此以外,kernl 内核代码非常简短,易于理解和修改。该项目甚至添加了 triton 调试器和工具 (基于 fx) 来简化内核替换,因此不需要修改 pytorch 模型源代码。​
项目作者 michaël benesty 对这一研究进行了总结,他们发布的 kernl 是一个用于加速 transformer 推理的库,速度非常快,有时会到达 sota 性能,可破解以匹配大多数 transformer 架构。
他们还在 t5 上做了测试,速度提高 6 倍,benesty 表示这仅仅是个开始。
为什么创建 kernl?​在 lefebvre sarrut,项目作者在生产中运行几个 transformers 模型,其中一些对延迟敏感,主要是搜索和 recsys。他们还在使用 onnxruntime 和 tensorrt,甚至创建了 transformer-deploy oss 库来与社区分享知识。​
最近,作者在测试生成语言,并努力加速它们。然而事实证明,使用传统工具做到这些非常困难。在他们看来,onnx 是另一种有趣的格式,它是一种针对机器学习所设计的开放式文件格式,用于存储训练好的模型,具有广泛的硬件支持。
但是,当他们处理新的 llm 架构时,onnx 生态系统(主要是推理引擎)存在以下几种限制:​
没有控制流的模型导出到 onnx 很简单,这是因为可以依赖跟踪。但是动态行为更难获得;与 pytorch 不同,onnx runtime/tensorrt 还没有原生支持实现张量并行的多 gpu 任务;tensorrt 无法为具有相同配置文件的 transformer 模型管理 2 个动态轴。但由于通常希望能够提供不同长度的输入,因此需要每个批大小构建 1 个模型;非常大的模型很常见,但 onnx(作为 protobuff 文件)在文件大小方面有一些限制,需要将权重存储在模型之外来解决问题。​一个非常烦人的事实是新模型永远不会被加速,你需要等着其他人来为此编写自定义 cuda 内核。现有解决方案并不是不好,onnxruntime 的一大优点是它的多硬件支持,tensorrt 则以非常快速著称。
所以,项目作者想要在 python/pytorch 上有像 tensorrt 一样快的优化器,这也是他们创建 kernl 的原因。
如何做到?​内存带宽通常是深度学习的瓶颈,为了加速推理,减少内存访问往往是一个很好的策略。在短输入序列上,瓶颈通常与 cpu 开销有关,它必须被消除。项目作者主要利用了以下 3 项技术:​
首先是 openai triton,它是一种编写 cuda 等 gpu 内核的语言,不要将它与 nvidia triton 推理服务器混淆,它的效率更高。几个操作的融合实现了改进,使得他们不在 gpu 内存中保留中间结果的情况下链接计算。作者使用它重写注意力(由 flash attention 替换)、线性层和激活以及 layernorm/rmsnorm。​
其次是 cuda 图。在预热(warmup)步骤中,它将保存每个启动的内核及它们的参数。然后,项目作者重建了整个推理过程。​
最后是 torchdynamo,这个由 meta 提出的原型机帮助项目作者应对动态行为。在预热步骤中,它会跟踪模型并提供一个 fx 图(静态计算图)。他们使用自己的内核替换了 fx 图的一些操作,并在 python 中重新编译。
未来,项目路线图将涵盖更快的预热、ragged 推理(padding 中没有损失计算)、训练支持(长序列支持)、多 gpu 支持(多并行化模式)、量化(ptq)、新 batch 的 cutlass 内核测试以及提升硬件支持等。
更多详细内容请参阅原项目。
以上就是openai编程语言加速bert推理12倍,引擎备受关注的详细内容。
其它类似信息

推荐信息