您好,欢迎访问一九零五行业门户网

无需下游训练,Tip-Adapter大幅提升CLIP图像分类准确率

论文链接:https://arxiv.org/pdf/2207.09519.pdf代码链接:https://github.com/gaopengcuhk/tip-adapter一.研究背景对比性图像语言预训练模型(clip)在近期展现出了强大的视觉领域迁移能力,可以在一个全新的下游数据集上进行 zero-shot 图像识别。为了进一步提升 clip 的迁移性能,现有方法使用了 few-shot 的设置,例如 coop 和 clip-adapter,即提供了少量下游数据集的训练数据,使得 clip 能够更好的针对不同的视觉场景做出调整。但是,这种额外的训练步骤会带来不小的时间和空间资源开销,一定程度上影响了 clip 固有的快速知识迁移能力。因此,我们提出了 tip-adapter,一种不需要额外下游训练并且能很大程度提升 clip 准确率的 few-shot 图像分类方法。基于此,我们又提出了一种仅需要少量微调就能达到 state-of-the-art 性能的方案:tip-adapter-f,实现了效率和性能的最佳折中。如下表 1 所示,tip-adapter 不需要任何训练时间,即可以将 clip 在 imagenet 数据集提升 + 1.7% 准确率(accuracy),而 tip-adapter-f 仅需要之前方案十分之一的训练时间(epochs,time),就可以实现现有最佳的分类性能。
表 1:不同方案在 imagenet 数据集上 16-shot 的图像分类准确率和训练时间的比较
二.研究方法1.tip-adaptertip-adapter 的整体网络结构如下图 1 所示,对于给定的 few-shot 训练数据集和标签,我们借助 clip 通过一个非训练的方案来构建一个缓存模型(cache model),它存储了来自下游训练数据的分类知识;在测试时,tip-adapter 通过将 cache model 的预测和原始 clip 的预测进行线性加和,来得到更强的最终分类结果。
详细的来说,我们使用 clip 预训练好的视觉编码器(visual encoder)来提取 few-shot 训练集所有图片的特征,作为 cache model 的 keys;并且将对应的图片标签转化为 one-hot 编码的形式,作为 cache model 的 values。这种 key-value cache model 的构建方法由于使用的是已经预训练好的 visual encoder,所以不需要任何训练开销;并且考虑到 few-shot 训练集中,每一个类别只含有少量的图片(1~16 shots),cache model 也几乎不会占用额外的显存开销,参考表一中的 gpu mem. 指标。
对于一张测试图片,我们首先会利用 clip 的 visual encoder 来得到它的特征,再将该特征视为 query 去 cache model 中进行下游 few-shot 数据的知识检索。由于 keys 也是由 clip 的 visual encoder 提取得倒,因此和测试图片特征 query 同源,我们可以直接计算它们之间的余弦相似度得倒一个 key-query 的邻接矩阵,此矩阵可以看作是每一个对应 value 的权重。因此,我们可以计算 values 的加权和来得到该测试图像通过检索 cache model 得到的分类预测。除此之外,我们还可以通过将测试图片特征和 clip 的 textual encoder 文本特征进行匹配,来得到 clip 的 zero-shot 预测。通过将两者进行线性加权求和,我们得到了最终的分类预测,该预测既蕴含了 clip 预训练的图像语言对比性知识,也结合了下游新数据集的 few-shot 知识,因此可以实现更强的图像分类准确率。
基于 tip-adapter 的网络结构,我们可以进一步将 cache model 中的 keys 部分变为学习参数,即可以通过训练来进行更新,该方案为 tip-adapter-f。借助已经构建好的 cache model,tip-adapter-f 仅需要现有 clip-adapter 十分之一的训练回合数和时间,就可以实现更高的性能,如表一所示。
图 1:tip-adapter 和 tip-adapter-f 的网络流程图
2.tip-adapter 和现有方案的区别与联系​
对比 clip-adapter,如图 2 所示,tip-adapter 存储的 keys 和 values 其实可以分别对应于 clip-adapter 中 adapter 结构的两个线性层,只不过前者是不需要训练来构建的,后者是随机初始化,然后需要训练来学习最佳的参数。
图 2:tip-adapter 相比于 clip-adapter
对比现有的其他构建 cache model 的方案,如图 3 所示,tip-adapter 的 cache model 可以看作是一种多模态的视觉语言 cache。因为 clip 的 textual encoder 输出的特征可以看作是文本的 key-value,即相当于测试图片特征作为 query,分别在视觉和文本的 cache 中检索知识,相对于现有的仅含视觉 cache 的方案,tip-adapter 能够利用多模态知识得到更强的识别性能。
图 3:tip-adapter 相比于其他构建 cache model 的方案
三.实验结果1.  在 imagenet 的分类准确率图 4 和表 2 比较了 tip-adapter、tip-adapter-f 和现有各个方案在 1、2、4、8、16 shots 的 few-shot 图像分类准确率;表 3 比较了 16-shot imagenet 数据集上使用不同 clip 的 visual encoder 的准确率比较。可见,我们的两种方案都在资源开销很小的情况下,达到了非常卓越的性能。
图 4 和表 2:imagenet 数据集上不同方法的 1~16-shot 图像分类准确率比较
表 5:16-shot imagenet 上不同 clip 的 visual encoder 的图像分类准确率比较
2.  在另外 10 个图像分类数据集如图 5 所示,我们提供了另外 10 个图像分类数据集的准确率比较结果,分别是 standfordcars,ucf101,caltech101,flowers102,sun397,dtd,eurosat,fgvcaircraft,oxfordpets 和 food101。如图所示,我们的 tip-adapter-f 均取得了最高的识别准确率。
图 5:另外 10 个数据集上不同方法的 1~16-shot 图像分类准确率比较
3.  领域泛化能力的测评我们也测试了 tip-adapter 和 tip-adapter-f 在领域泛化(domain generalization)方面的表现。如表 6 所示,我们的两种方案都表现出了很强的鲁棒性以及特征迁移能力。
四.结论本文提出了 tip-adapter,一种可以免于训练的将 clip 用于下游 few-shot 图像分类的方案。tip-adapter 通过构建一个 key-value cache model,来作为测试图片 query 的知识检索库,并通过融合 cache model 的预测和 clip 的 zero-shot 预测,来得到更强的识别性能。我们期望 tip-adapter 可以启发更多预训练模型高效迁移的后续工作。
以上就是无需下游训练,tip-adapter大幅提升clip图像分类准确率的详细内容。
其它类似信息

推荐信息