transformer无疑是促进自然语言处理领域繁荣的最大功臣,也是gpt-4等大规模语言模型的基础架构。
不过相比语言模型动辄成千上万亿的参数量,计算机视觉领域吃到transformer的红利就没那么多了,目前最大的视觉transformer模型vit-e的参数量还只有40亿参数。
最近谷歌发布了一篇论文,研究人员提出了一种能够高效且稳定训练大规模vision transformers(vit)模型的方法,成功将vit的参数量提升到220亿。
论文链接:https://arxiv.org/abs/2302.05442
为了实现模型的扩展,vit-22b结合了其他语言模型(如palm模型)的思路,使用 qk 归一化改进了训练稳定性,提出了一种异步并行线性操作(asynchronous parallel linear operations)的新方法提升训练效率,并且能够在硬件效率更高的cloud tpu上进行训练。
在对vit-22b模型进行实验以评估下游任务性能时,vit-22b也表现出类似大规模语言模型的能力,即随着模型规模的扩大,性能也在不断提升。
vit-22b 还可以应用于palm-e中,与语言模型结合后的大模型可以显著提升机器人任务的技术水平。
研究人员还进一步观察到规模带来的其他优势,包括更好地平衡公平性和性能,在形状/纹理偏见方面与人类视觉感知的一致性,以及更好的稳健性。
模型架构vit-22b 是一个基于transformer架构的模型,和原版vit架构相比,研究人员主要做了三处修改以提升训练效率和训练稳定性。
并行层(parallel layers)
vit-22b并行执行注意力块和mlp块,而在原版transformer中为顺序执行。
palm模型的训练也采用了这种方法,可以将大模型的训练速度提高15%,并且性能没有下降。
query/key (qk) normalization
在扩展vit的过程中,研究人员在80亿参数量的模型中观察到,在训练几千步之后训练损失开始发散(divergence),主要是由于注意力logits的数值过大引起的不稳定性,导致零熵的注意力权重(几乎one-hot)。
为了解决这个问题,研究人员在点乘注意力计算之前对query和key使用layernorm
在80亿参数模型上的实验结果如下图所示,归一化可以缓解发散问题。
删除qkv投影和layernorms上的偏置项
和palm模型一样,vit-22b从qkv投影中删除了偏置项,并且在所有layernorms中都没有偏置项(bias)和centering,使得硬件利用率提高了3%,并且质量没有下降。
不过与palm不同的是,vit-22b对(内部和外部)mlp稠密连接层使用了偏置项,可以观察到质量得到了改善,并且速度也没有下降。
vit-22b的编码器模块中,嵌入层,包括抽取patches、线性投影和额外的位置嵌入都与原始vit中使用的相同,并且使用多头注意力pooling来聚合每个头中的per-token表征。
vit-22b的patch尺寸为14×14,图像的分辨率为224×224(通过inception crop和随机水平翻转进行预处理)。
异步并联线性运算(asynchronous parallel linear operations)
大规模的模型还需要分片(sharding),即将模型参数分布在不同的计算设备中,除此之外,研究人员还把激活(acctivations,输入的中间表征)也进行分片。
因为输入和矩阵本身都是分布在各种设备上的,即使是像矩阵乘法这样简单的操作也需要特别小心。
研究人员开发了一种称为异步并行线性运算的方法,可以在矩阵乘法单元(在tpu 中占据绝大多数计算能力的单元)中计算时,同时对设备之间的激活和权值进行通信。
异步方法最小化了等待传入通信的时间,从而提高了设备效率。
异步并行线性运算的目标是计算矩阵乘法 y = ax,但矩阵 a 和激活 x 都分布在不同的设备上,需要通过跨设备的重叠通信和计算来实现这一点。矩阵 a 在设备之间进行列分片(column-shard),每个矩阵包含一个连续的切片,每个块表示为 aij,更多细节请看原始论文。
实验结果为了说明vit-22b学习到的表征非常丰富,研究人员使用lit-tuning训练一个文本模型来生成一些表征用来对齐文本和图像。
下面是用parti 和 imagen 生成的分布外(out-of-distribution)图像得到的实验结果,可以看到vit-22b的zero-shot图像分类泛化能力非常强,仅从web上爬取的自然图像就能识别出没见过的物体和场景。
论文中还讨论了vit-22b在视频分类、深度估计和语义分割任务上的效果。
与人类目标识别对齐为了验证 vit-22b 分类决策与人类分类决策的一致性,研究人员对 vit-22b 进行了微调,对分布外(ood)数据集的不同分辨率进行了微调,其中人类比较数据可通过model-vs-human toolbox获得。
该工具箱主要衡量三个关键指标: 模型如何处理失真(准确性) ?人和模型的精度(精度差)有什么不同?人和模型的错误模式(错误一致性)有多相似?
形状偏差评估(值越大代表更多的形状偏差)。许多视觉模型具有低形状/高纹理偏差,而在 imagenet 上进行微调的 vit-22b具有迄今为止在 ml 模型中记录的最高形状偏差,更接近于人类形状偏见
实验结果显示,虽然并非所有的微调解决方案都表现得很好,但 vit-22b 变体在所有三个指标上都达到了新高。
此外,vit-22b 模型在视觉模型中也有最高的形状偏差记录。这意味着他们主要使用目标的形状,而不是目标的纹理来进行分类决策,策略结果类似于人类的感知(其形状偏差为96%)。
标准模型(例如,resnet-50有20-30% 的形状偏差)通常根据纹理来分类,而高形状偏差的模型则倾向于关注形状(下图识别为猫),尽管人类和模型的感知之间仍然存在许多差异,但是 vit-22b 显示出与人类视觉对象识别更多的相似性。
猫还是大象?车还是钟?鸟还是自行车?具有某个物体的形状和另一个不同物体纹理的图像,可用于测量形状/纹理偏差
分布外(out-of-distribution)性能测量 ood 数据集的性能有助于评估模型泛化性。
在这个实验中,研究人员构建了从 jft 到 imagenet 的标签映射,以及从 imagenet 到不同的分布外数据集(如 objectnet)的标签映射。
对这些数据进行预训练后的结果如下图所示,然后在 imagenet 上对模型进行完全微调。
可以观察到缩放 vision transformers 可以提高 ood 性能: 即使 imagenet 的精度达到饱和,也可以看到 objectnet 上从 vit-e 换成 vit-22b 模型可以显著提升性能。
线性探测linear probe线性探测是一种将单个线性层置于冻结模型之上的技术,与完全微调相比,这种方法的训练成本更低,设置起来也更容易。
在 imagenet 上训练的线性探测结果,在 imagenet-real,imagenet-v2,objectnet,imagenet-r 和 imagenet-a 数据集上评估,提供高分辨率微调 vit-e/14作为参考
从结果中可以观察到,vit-22b 的线性探测性能接近于使用高分辨率图像对较小模型进行全面微调的最先进水平,其中具有较高分辨率的训练通常要昂贵得多,但可以在许多任务上取得更好的结果。
蒸馏利用蒸馏法,可以将较大模型的知识转化为较小模型的知识,可以提升成本更高、运行速度更慢的大模型的运行效率。
从实验结果中可以发现,vit-22b 的知识可以迁移到更小的模型,如 vit-b/16和 vit-l/16,并在同等模型尺寸下在imagenet上刷新了性能记录。
公平性与偏见机器学习模型容易受到意想不到的不公平偏见的影响,例如找到错误的相关性或者在各个子群体之间存在性能差距,研究人员发现,扩大模型规模有助于缓解这些问题。
首先,规模是一个有前景的权衡方式,即使模型经过训练后再进行后处理,将其人口平等(demographic parity)水平控制在规定的、可容忍的水平之下,性能也会随着规模的增加而提高。
上图: 去偏前 celeba 中每个子组的精度。下图: y 轴显示了在这个例子中突出显示的两个特定亚组(女性和男性)的表现的绝对差异。与较小的 vit 模型相比,vit-22b 在性能的差距很小。
更重要的是,这不仅适用于以准确性衡量性能的情况,而且适用于其他度量,例如校准,即对模型估计概率的真实性的统计测量,所有子群的分类随着规模的增大而趋于改善,并且vit-22b 降低了各子群之间的性能差距。
结论研究人员提出了一个目前最大的视觉transformer模型 vit-22b,包含220亿参数。
通过对原始模型架构进行微小但关键的修改后,实现了更高的硬件利用率和训练稳定性,从而得到了一个在几个基准测试上提高了模型的上限性能。
使用冻结模型生成嵌入,只需要在顶部训练几层,即可获得很好的性能,并且评估结果进一步表明,与现有模型相比,vit-22b 在形状和纹理偏差方面显示出与人类视知觉更多的相似性,并且在公平性和稳健性方面提供了优势。
以上就是cv开启大模型时代!谷歌发布史上最大vit:220亿参数,视觉感知力直逼人类的详细内容。