比标准 Attention 快 197 倍!Meta 推出多

本篇文章给各位网友带来的资讯是:比标准 Attention 快 197 倍!Meta 推出多头注意力机制“九头蛇” 详情请欣赏下文

尽管 Transformer 已经开始在诸多视觉任务上“大展身手”,但还有一个问题。

那就是在处理大图像上计算比较费劲。

比如面对一个 1080p 的图时,它会有超过 60% 的计算量都耗费在了创建和应用注意矩阵上。

比标准 Attention 快 197 倍!Meta 推出多

究其原因,主要是因为自注意力头的数量是 token 的平方,而 token 的数量又与图形大小呈二次方的关系。

那能怎么办呢?

好消息是 ——

现在 Meta 捣鼓出了一种多头注意力操作方法,可以做到足足比标准注意力快 197 倍

而且在提高计算速度的同时,它也不会牺牲准确率,有时甚至还能将准确率提高 1-2 个点。

比标准 Attention 快 197 倍!Meta 推出多

具体怎么回事儿?

思路来源一个“矛盾点”

这个方法名叫 Hydra Attention,主要针对 Vision Transformer。

(“Hydra”有“九头蛇”之义,来自希腊神话。)

Hydra Attention 的思路源于线性注意力中的一种有点矛盾的点:

使用标准的多头自注意力,再向模型中添加更多头可以保持计算量不变。

而在线性注意力中改变操作顺序后,增加更多的头实际上还会降低层的计算成本。

于是,作者通过将模型中的注意力头数量设置成特征(feature),创建出一个 token 和 feature 的计算都是线性的注意力模块,从而把上述特性发挥到极致。

具体来说:

比标准 Attention 快 197 倍!Meta 推出多

当标准自注意力头是 token 数的平方(O (T2D))时,通过使用可分解核(decomposable kernel),我们重新安排操作顺序,让注意力头的数量变为特征 D 的平方。

然后再使用 Hydra Trick,最大化注意力头 H 的数量,让 H=D,最终就可以化为一个在空间和时间上的 O(TD)简化操作了。

其中,Hydra Trick 的依据见下图:

比标准 Attention 快 197 倍!Meta 推出多

作者在 ImageNet-1k 上训练了具有不同头数的 DeiT-B 模型,包括使用标准自注意力(蓝线,基于 softmax)和使用多头线性注意(红线,基于余弦相似性)的。

前者在 H>96、后者在 H<3 时出现内存不足的情况。

当他们往模型中添加更多的头时,Softmax 注意力模型的准确性似乎会崩溃,而多头线性注意力仍可以保持一致,因此就有了上述操作。

(需要注意的是,H 必须除以 D=768。)

速度快 197 倍,准确率还能更上层楼

来看看 Hydra Attention 交出的成绩单。

可以看到,Hydra 注意力比标准注意力快 197 倍(T=197)。

随着图像大小的增加,它显著提高了模型的 FLOP 数,在创建和应用注意力矩阵所占的计算量上也始终只有 0.02%

比标准 Attention 快 197 倍!Meta 推出多

除此之外,作者发现,使用不同的内核,Hydra Attention 还能让模型的准确率提高大约两个百分点。

比标准 Attention 快 197 倍!Meta 推出多

或者用 Hydra Attention 替换特定的注意力层,也能将模型的精度在 ImageNet 上提高 1% 或者与基线维持不变。

比标准 Attention 快 197 倍!Meta 推出多

比标准 Attention 快 197 倍!Meta 推出多

当然,最多可替换 8 层。

另外,作者表示,这个方法应该可以扩展到 NLP 领域,不过他们还没试。

比标准 Attention 快 197 倍!Meta 推出多

作者介绍

这篇成果已入选 ECCV 2022 Workshop

作者一共 5 位,分别来自 Meta AI 和佐治亚理工学院。

比标准 Attention 快 197 倍!Meta 推出多

其中华人 3 名,分别是:

Cheng-Yang Fu,本硕毕业于清华大学,博士毕业于美国北卡罗来纳大学教堂山分校,现在是 Meta 计算机视觉方面的研究科学家。

Xiaoliang Dai,本科毕业于北大,博士毕业于普林斯顿大学,同就职于 Meta。

Peizhao Zhang,本硕毕业于中山大学,博士于美国德克萨斯 A&M 大学,已在 Meta 工作五年。

论文地址:

https://arxiv.org/abs/2209.07484

参考

  • https://www.reddit.com/r/MachineLearning/comments/xgqwvu/r_hydra_attention_efficient_attention_with_many/

© 版权声明
好牛新坐标
版权声明:
1、IT大王遵守相关法律法规,由于本站资源全部来源于网络程序/投稿,故资源量太大无法一一准确核实资源侵权的真实性;
2、出于传递信息之目的,故IT大王可能会误刊发损害或影响您的合法权益,请您积极与我们联系处理(所有内容不代表本站观点与立场);
3、因时间、精力有限,我们无法一一核实每一条消息的真实性,但我们会在发布之前尽最大努力来核实这些信息;
4、无论出于何种目的要求本站删除内容,您均需要提供根据国家版权局发布的示范格式
《要求删除或断开链接侵权网络内容的通知》:https://itdw.cn/ziliao/sfgs.pdf,
国家知识产权局《要求删除或断开链接侵权网络内容的通知》填写说明: http://www.ncac.gov.cn/chinacopyright/contents/12227/342400.shtml
未按照国家知识产权局格式通知一律不予处理;请按照此通知格式填写发至本站的邮箱 wl6@163.com

相关文章