从零搭建Pytorch模型教程(三)搭建Transformer网络
前言 本文介绍了Transformer的基本流程,分块的两种实现方式,Position Emebdding的几种实现方式,Encoder的实现方式,最后分类的两种方式,以及最重要的数据格式的介绍。
本文来自公众号CV技术指南的
欢迎关注公众号
在讲如何搭建之前,先回顾一下Transformer在计算机视觉中的结构是怎样的。这里以最典型的ViT为例。
如图所示,对于一张图像,先将其分割成NxN个patches,把patches进行Flatten,再通过一个全连接层映射成tokens,对每一个tokens加入位置编码(position embedding),会随机初始化一个tokens,concate到通过图像生成的tokens后,再经过transformer的Encoder模块,经过多层Encoder后,取出最后的tokens(即随机初始化的tokens),再通过全连接层作为分类网络进行分类。
下面我们就根据这个流程来一步一步介绍如何搭建一个Transformer模型。、
分块
目前有两种方式实现分块,一种是直接分割,一种是通过卷积核和步长都为patch大小的卷积来分割。
直接分割
直接分割即把图像直接分成多块。在代码实现上需要使用einops这个库,完成的操作是将(B,C,H,W)的shape调整为(B,(H/P *W/P),P*P*C)。
这里简单介绍一下Rearrange。
Rearrange用于对张量的维度进行重新变换排序,可用于替换pytorch中的reshape,view,transpose和permute等操作。举几个例子
从这几个例子看可以看出,Rearrange非常简单好用,这里的b, c, h, w都可以理解为表示符号,用来表示操作变化。通过这几个例子似乎也能理解下面这行代码是如何将图像分割的。
这里需要解释的是,一个括号内的两个变量相乘表示的是该维度的长度,因此不要把”h”和”w”理解成图像的宽和高。这里实际上h = H/p1, w = W/p2,代表的是高度上有几块,宽度上有几块。h和w都不需要赋值,代码会自动根据这个表达式计算,b和c也会自动对应到输入数据的B和C。
后面的”b (h w) (p1 p2 c)”表示了图像分块后的shape: (B,(H/P *W/P),P*P*C)
这种方式在分块后还需要通过一层全连接层将分块的向量映射为tokens。
在ViT中使用的就是这种直接分块方式。
卷积分割
卷积分割比较容易理解,使用卷积核和步长都为patch大小的卷积对图像卷积一次就可以了。
在swin transformer中即使用的是这种卷积分块方式。在swin transformer中卷积后没有再加全连接层。
Position Embedding
Position Embedding可以分为absolute position embedding和relative position embedding。
在学习最初的transformer时,可能会注意到用的是正余弦编码的方式,但这只适用于语音、文字等1维数据,图像是高度结构化的数据,用正余弦不合适。
在ViT和swin transformer中都是直接随机初始化一组与tokens同shape的可学习参数,与tokens相加,即完成了absolute position embedding。
在ViT中实现方式:
在swin transformer中的实现方式:
在TimeSformer中的实现方式:
以上就是简单的使用方法,这种方法属于absolute position embedding。
还有更复杂一点的方法,以后有机会单独搞一篇文章来介绍。
感兴趣的读者可以先去看看这篇论文《
Encoder
Encoder由Multi-head Self-attention和FeedForward组成。
Multi-head Self-attention
Multi-head Self-attention主要是先把tokens分成q、k、v,再计算q和k的点积,经过softmax后获得加权值,给v加权,再经过全连接层。
用公式表示如下:
所谓Multi-head是指把q、k、v再dim维度上分成head份,公式里的dk为每个head的维度。
具体代码如下:
这里没有太多可以解释的地方,介绍一下q、k、v的来源,由于这是self-attention,因此q=k=v(即tokens),若是普通attention,则k= v,而q是其它的东西,例如可以是另一个尺度的tokens,或视频领域中的其它帧的tokens。
FeedForward
这里不用多介绍。
把上面两者组合起来就是Encoder了。
depth指的是Encoder的数量。PreNorm指的是层归一化。
分类方法
数据通过Encoder后获得最后的预测向量的方法有两种典型。在ViT中是随机初始化一个cls_token,concate到分块后的token后,经过Encoder后取出cls_token,最后将cls_token通过全连接层映射到最后的预测维度。
在swin transformer中,没有选择cls_token。而是直接在经过Encoder后将所有数据取了个平均池化,再通过全连接层。
组合以上这些就成了一个完整的模型
数据的变换
以上的代码都是比较简单的,整体上最麻烦的地方在于理解数据的变换。
首先输入的数据为(B, C, H, W),在经过分块后,变成了(B, n, d)。
在CNN模型中,很好理解(H,W)就是feature map,C是指feature map的数量,那这里的n,d哪个是通道,哪个是图像特征?
回顾一下分块的部分
根据这个可以知道n为分块的数量,d为每一块的内容。因此,这里的n相当于CNN模型中的C,而d相当于features。
一般情况下,在Encoder中,我们都是以(B, n, d)的形式。
在swin transformer中这种以卷积的形式分块,获得的形式为(B, C, L),然后做了一个transpose得到(B, L, C),这与ViT通过直接分块方式获得的形式实际上完全一样,在Swin transformer中的L即为ViT中的n,而C为ViT中的d。
因此,要注意的是在Multi-head self-attention中,数据的形式是(Batchsize, Channel, Features),分成多个head的是Features。
前面提到,在ViT中会concate一个随机生成的cls_token,该cls_token的维度即为(B, 1, d)。可以理解为通道数多了个1。
以上就是Transformer的模型搭建细节了,整体上比较简单,大家看完这篇文章后可以找几篇Transformer的代码来理解理解。如ViT, swin transformer, TimeSformer等。
下一篇我们将介绍如何写train函数,以及包括设置优化方式,设置学习率,不同层设置不同学习率,解析参数等。
欢迎关注公众号
CV技术指南创建了一个交流氛围很不错的群,除了太偏僻的问题,几乎有问必答。关注公众号添加编辑的微信号可邀请加交流群。
其它文章