Back

注意力机制#

RNN 中的注意力机制由于串行架构的存在还是计算复杂度过高。因此我们对 RNN 的注意力计算公式进行改进,引入 Query、Key、Value 的概念。其中 Query 为查询信息,Key 为知识库,Value 为知识库中每个知识的释义。形式化表示为:

wij=α(qi,kj)ci=j=1twijvjw_{ij}=\alpha{(q_{i},k_j)} \\ c_i=\sum_{j=1}^{t}w_{ij}v_j

即通过评分函数 α()\alpha(\cdot) 计算 Query 对每一个 Key 的相似度,然后将相似度矩阵与对应的 Value 聚合起来得到上下文向量,表示查询中的哪些部分是对输入是有影响的。

用查字典来举例:我们需要查询的信息为 “中国”,计算完对字典中每个词的相似度之后,得到相似度最大的两个词 “华夏”、“唐宋”。然后将这两个词对应的信息聚合起来,来代表 “中国” 这个词,即这两个词对 “中国” 的影响是最大的。

Transformer#

缩放点积注意力#

自注意力(Self-Attention) 指的是 计算同一段序列中不同令牌之间的注意力,通过该机制可以对序列中的每一个令牌进行上下文建模。

缩放点积注意力

上图表示了如何计算第一个令牌与其余令牌的注意力,并将其汇总为上下文向量。这里有几点需要注意:

  • 缩放参数 dk\sqrt{d_k} 防止 softmax 梯度饱和。且 softmax 函数是在注意力权重矩阵的 列维度 上进行计算;
  • QQKKVV 矩阵是同一段序列通过不同的权重矩阵 WqW^qWkW^kWvW^v 加权得到;
  • 每一个 qqkkvvyy 的维度都是 dd,即单个令牌的词向量维度。

多头注意力#

单头无法表征序列的所有信息,通过引入不同的头在 同一时刻关注序列中的不同部分,从而学习到不同的上下文信息。

多头注意力

上图表示了如何计算第二个头所对应的注意力、并将其汇总得到第二个头的上下文向量。然后将所有头的上下文向量拼接起来,这里需要注意拼接之后的向量是 高维向量,需要压缩使得输入和输出维度保持不变。

  • 实践中需要设计的超参数为头的个数 hh,每个头对应的 qqkkvvyy 的维度都是 dh\frac{d}{h}
  • 不同头之间的计算都是并行的,但是十分占用显存。

逐位前馈神经网络#

将注意力层输出的特征进一步进行非线性变换,提升模型的表达能力。逐位指的是 每个词元的特征重计算都是独立的

逐位前馈神经网络

上图右侧的计算表示 “深” 这个特征通过权重矩阵加权之后得到另一个更好的特征。这里使用的是两层 FFN,且权重矩阵 W1W_1W2W_2 是共享的,这就类似于 RNN 的思想,因此就能够很好的处理变长序列。

绝对位置编码#

自注意力机制具有 置换不变形,无法捕捉序列中的顺序关系。因此引入位置编码对序列信息进行位置建模。

位置编码

原始的 Transformer 使用的是基于 正余弦 的绝对位置编码(Sinusoid) - 即根据正余弦函数来生成 对应位置的唯一位置嵌入,并将其加到令牌的词向量上。对于维度大小为 dd 的词向量,它的编码方式为:

{pk,2i=sin(k/100002i/d)pk,2i+1=cos(k/100002i/d)\begin{cases} p_{k, 2i} = \sin\left(k/10000^{2i / d}\right) \\ p_{k, 2i+1} = \cos\left(k/10000^{2i / d}\right) \end{cases}

其中 pk,2ip_{k,2i}pk,2i+1p_{k,2i+1} 是位置 kk 的词向量的第 2i2i2i+12i+1 个分量、dd 是词向量的维度。将该结果加到词向量对应位置上形成最终的模型输入。

作者也使用了可学习的位置编码,但是发现使用 Sinusoid 编码可以让模型拥有更好的长度外推能力。

编码器 / 解码器#

原始 Transformer 模型分别堆叠了六层编码器(Encoder)和解码器(Decoder)。且每层输入和输出的维度都是 (batch, time, dimension),即批量大小、序列长度、词向量维度。

解码器是 自回归模型,也叫 Next-token prediction。在训练阶段,使用自回归模型会有弊端。因为提供了输入序列和目标序列,使得模型在训练的时候 “作弊”,即参考目标序列直接获得下一个单词。

因此提出 掩码多头注意力。即通过对注意力矩阵进行遮掩,使得模型在训练阶段 只能参考历史信息。具体来说,对注意力矩阵中的元素通过下述规则进行遮掩(下三角遮掩):

aij={0if jiif j>ia_{ij}=\begin{cases} 0 & \text{if } j \leq i \\ -\infty & \text{if } j > i \end{cases}

这样,在使用 softmax 计算上下文向量的时候,由于出现了极大的负值,导致对应位置的指数趋近于 0,从而屏蔽了未来信息,保持了解码器的自回归属性。

掩码多头注意力机制

为了保证输入序列长度一致,会在输入向量中添加 [pad] 来对齐长度。而在计算注意力矩阵的时候需要忽略这些信息,实践中通过获取 q/k 的非填充重叠部分作为掩码添加到注意力矩阵中即可(与下三角掩码原理一致)。Causal Attention 中需要用到两个掩码,其余只需要用到对齐掩码。

并且引入 交叉注意力(Cross Attention) 处理来自编码器的 K/V 和来自解码器的 Q。需要注意传入的 K/V 是编码器最后一层的输出,且传入到解码器的每一层当中。但是解码器的 Q 是当前层计算的结果。

交叉注意力

激活函数#

GeLU 全称为 Gaussian Error Linear Unit,它利用高斯分布的累积分布函数来调节输入信息的激活程度,使得中间区域的输入梯度更为平滑,起到正则化的作用。

GeLU(x)=xΦ(x)=x12(1+erf(x2))\begin{aligned} \text{GeLU}(x)&=x\cdot \Phi(x) \\ &= x\cdot \frac{1}{2}\left(1+\text{erf}(\frac{x}{\sqrt{2}})\right) \end{aligned}

其中 Φ(x)\Phi(x) 是累积分布函数、erf()\text{erf}(\cdot) 表示误差函数。

SwiGLU 全称为 Swish-Gated Linear Unit,它将 Swish 的平滑与 GLU 的门控机制结合起来使得梯度能够有有效传播,适用于深度模型。

SwiGLU(x)=Swish(xW1+b1)(xW2+b2)\text{SwiGLU}(x)=\text{Swish}(xW_1+b_1)\odot(xW_2+b_2)

在 Llama3.1 中的代码实现为:

self.w2(F.silu(self.w1(x)) * self.w3(x)) # 没有添加 bias

注意力模块的优化#

自注意力模块是二次复杂度 O(n2)O(n^{2}),因为它要对序列中的任意两个词向量都要计算相似度,得到一个 n2n^2 大小的注意力矩阵。

Sparse Attention#

从注意力矩阵的角度来说,就是除了相对距离不超过 kk 的、相对距离为 kk 的倍数的注意力都设置为 0。这样注意力就具有了 局部紧密相关和远程稀疏相关 的特性。

该方法的不足之处就是需要人工选择保留的注意力区域,不利于扩展。但是由于将每个词元的注意力压缩在了较小的空间中(每个词元只能看到训练长度的词元),能一定程度上缓解长度外推问题。

Linear Attention#

线形注意力

制约注意力性能的关键因素是 softmax 函数。如果没有该函数,去掉缩放系数的注意力公式实际上就是三个矩阵连乘,复杂度仅有 O(n)O(n)。一个自然的想法就是拿掉 softmax 函数,并用一般函数 sim()sim(\cdot) 进行替代。此时注意力公式为:

Attn(qi,kj,bj)=j=1nsim(qi,kj)vjj=1nsim(qi,kj)\text{Attn}(q_i,k_j,b_j)=\frac{\sum_{j=1}^{n}sim(q_i,k_j)v_j}{\sum_{j=1}^{n}sim(q_i,k_j)}

为了保留注意力相似的分布特征,需要保证 sim(qi,kj)0sim(q_i,k_j) \geq0 恒成立。

线形注意力就是用 核函数 代替这个一般函数,即 sim(qi,kj)=ϕ(qi)Tϕ(kj)\text{sim}(q_i, k_j) = \phi(q_i)^{\text{T}}\phi(k_j)。此时注意力公式为:

Attn(qi,kj,vj)=ϕ(qi)[ϕ(kj)Tvj]\text{Attn}(q_i, k_j, v_j) = \phi(q_i)\cdot \left[\phi(k_j)^{\text{T}}v_j\right]

其中核函数选择 ϕ(x)=elu(x)+1\phi(x)=\text{elu}(x)+1

KV Cache#

自回归模型中的 Causal Decoder 在 token-by-token 递归生成的时候,每个时刻都需要重复计算历史时刻的 K/V。

KV Cache 指的是 缓存之前的结果,仅计算当前时刻的 K/V,然后与之前的结果连接起来即可。

但是反复读取显存、导致带宽瓶颈。后续的 MQA、GQA、MLA 都是围绕如何减少 KV Cache 的同时尽可能地保证效果。目的就是要实现在更少的设备上推理更长的上下文,或者在相同的上下文长度下让推理的批量大小更大,从而实现更快的推理速度或者更大的吞吐总量。

MLA

Multi-Query Attention(MQA)#

当 KV Cache 中存储的历史信息越来越多的时候,反复进行读取会导致带宽瓶颈。

MQA 的思想是让 所有的 Attention Head 都共享同一个 K/V,它将 KV Cache 压缩 1/h1/h

该技术在 PaLM、StarCode、Gemini 等模型中使用。

Group-Query Attention(GQA)#

MQA 对 KV Cache 的压缩太过严重,会影响模型的学习效率以及最终效果。

GQA 的思想是将 Attention Head 分成 gg 个组,每组共享同一个 K/V,它将 KV Cache 压缩 g/hg/h。通常设置 g=8g=8 保证单机八卡中的每张卡负责计算一组 K/V。

该技术在 Llama2/3、DeepSeek-V1、ChatGLM2/3 等模型中使用。

Multi-Head Latent Attention(MLA)#

Flash Attention / 单机多卡#

原始的注意力计算过程中,最大的中间过程结果就是注意力矩阵,而最终的上下文向量反而很小。反复读取大尺寸注意力矩阵会导致 HBM 带宽瓶颈。

Flash Attention 通过 矩阵分块算子融合 等方法,将中间计算结果保留在大带宽的 SRAM 中,获得最终结果再写回小带宽的 HBM 中,从而避免了带宽瓶颈。

Flash Attention

上图左侧是原始数值稳定版本的 softmax 实现,右侧是将输入分块后,分别计算 softmax 并融合的实现。具体来说对于 Key/Value 的每一块,计算它们和所有 Query 的注意力矩阵,并保存在 SRAM 中。当计算得到最终上下文向量的时候在将结果写回 HMB 中。

HBM IO 复杂度对比:

  • Vanilla Attention - O(Nd+N2)O(Nd+N^{2})
  • Flash Attention - O(N2d2/m)O(N2)O(Nd+N2)O(N^2d^2/m) \ll O(N^2) \ll O(Nd+N^2)

算子融合指的是通过将上图右侧的整个计算过程融合成一个高效的算子,从而减少中间数据的存储。

Ring Attention / 多机多卡#

Ring Attention

混合专家模型(MoE)#

混合专家模型

首先通过 门控函数 / 路由网络 计算出每个专家的权重,该权重表示每个专家对当前词元的关注程度。通常是一个简单的神经网络,将输入 utl\mathbf{u}_t^{l} 通过 Softmax\text{Softmax} 映射为概率分布:

si,t=Softmaxi(utleil)s_{i,t}=\text{Softmax}_i(\mathbf{u}_t^{l}\mathbf{e}_i^{l})

然后根据路由权重选择对应的专家进行计算,通常是稀疏激活,即 NN 个专家里只有 KK 个专家参与计算:

gi,t={si,t,si,tTopk({sj,t1jN},K)0,otherwiseg_{i,t}=\begin{cases}s_{i,t},&s_{i,t}\in\text{Topk}(\{s_{j,t}|1\leqslant j\leqslant N\},K) \\0,&\text{otherwise}&&\end{cases}

最后得到所有专家的输出结果之后,与路由权重进行加权,并进行残差连接:

htl=i=1N(gi,t FFNi(utl))+utl\mathbf{h}_t^l=\sum_{i=1}^N\left(g_{i,t}\text{~FFN}_i\left(\mathbf{u}_t^l\right)\right)+\mathbf{u}_t^l

其中  FFNi(utl)\text{~FFN}_i\left(\mathbf{u}_t^l\right) 表示第 ii 个专家的输出、gi,tg_{i,t} 表示第 tt 个词元与第 ii 个专家的路由权重。

上图 (a)(a) 表示传统的 MoE 模型架构,而图 (b)(b)(c)(c) 则是改进的 DeepSeekMoE 架构。因为传统的 MoE 存在问题:

  • 单个专家涵盖多种知识,无法充分同时利用;
  • 多个专家涵盖通用的冗余知识,阻碍了 MoE 的理论性能上限。

DeepSeekMoE 通过划分更细粒度的专家以及利用单个专家存储通用知识来达到单个专家的高度专业化。形式化表达为:

htl=i=1KsFFNi(utl)+i=Ks+1mN(gi,t FFNi(utl))+utl,gi,t={si,t,si,tTopk({sj,tKs+1jmN},mKKs),0,otherwise,\begin{aligned}&\mathbf{h}_t^l=\sum_{i=1}^{K_s}\text{FFN}_i\left(\mathbf{u}_t^l\right)+\sum_{i=K_s+1}^{mN}\left(g_{i,t}\text{~FFN}_i\left(\mathbf{u}_t^l\right)\right)+\mathbf{u}_t^l,\\&g_{i,t}=\begin{cases}s_{i,t},&s_{i,t}\in\text{Topk}(\{s_{j,t}|K_s+1\leqslant j\leqslant mN\},mK-K_s),\\0,&\text{otherwise},&&\end{cases}\end{aligned}

具体来说,将 NN 个专家划分为 mNmN 个专家,即将隐藏层的维度乘上 1/m1/m,同时选取 mkmk 个专家保证参数量与传统 MoE 模型相当。然后隔离出单个专家 KsK_s 来存储通用知识。

归一化#

Post / Pre - Norm#

Post-Norm - 归一化放置在残差计算之后

Post-Norm(x)=Norm(x+Sublayer(x))\text{Post-Norm}(x)=\text{Norm}(x+\text{Sublayer(x)})

训练时间较快、网络容易调优、输出层梯度较大引发的训练不稳定。

Pre-Norm - 归一化放置在子层计算中

Pre-Norm(x)=x+Sublayer(Norm(x))\text{Pre-Norm}(x)=x+\text{Sublayer}(\text{Norm}(x))

训练稳定、效果不如 Post-Norm、缓解梯度消失(爆炸)问题。

RMSNorm#

RMSNorm 沿着输入特征的通道维度进行归一化操作,相较于层归一化而言,它仅保留缩放参数。形式化表示为:

z^=xRMS(x)γ,RMS(x)=1di=1dxi2+ϵ\hat{z}= \frac{x}{\text{RMS}(x)} \cdot \gamma, \quad \text{RMS}(x)=\sqrt{\frac{1}{d}\sum_{i=1}^{d}x_i^2 + \epsilon}

其中 xx 为输入特征、γ\gamma 为缩放参数。并且计算的是输入特征平方的均值。

位置编码#

相对位置编码#

注意力分数计算公式 qiTkjq_i^{\text{T}}k_j 进行因式分解得到:

Ai,jabs=ExiTWqTWkExj+ExiTWqTWkUj+UiTWqTWkExj+UiTWqTWkUjA_{i,j}^{\text{abs}}=E_{x_{i}}^{\text{T}}W_q^{\text{T}}W_kE_{x_j}+E_{x_{i}}^{\text{T}}W_q^{\text{T}}W_{k}U_{j}+U_{i}^{\text{T}}W_q^{\text{T}}W_kE_{x_j}+U_{i}^{\text{T}}W_{q}^{\text{T}}W_{k}U_{j}

其中 EEUU 表示词向量和位置向量。可以发现只有最后一项与相对位置有关。假设去除 WqTW_{q}^{\text{T}}WkW_{k} 那么原始的 Transformer 是包含相对位置关系的。因为加入了非线性变换,导致相对位置信息被抹除了。

Transformer-XL 位置编码#

注意力分数计算公式修改为下述形式:

Ai,jrel=ExiTWqTWk,EExj+ExiTWqTWk,RRij+uTWk,EExj+vTWk,RRijA_{i,j}^{\text{rel}}=E_{x_{i}}^{\text{T}}W_q^{\text{T}}W_{k,E}E_{x_j}+E_{x_{i}}^{\text{T}}W_q^{\text{T}}W_{k,R}R_{i-j}+u^{\text{T}}W_{k,E}E_{x_j}+v^{\text{T}}W_{k,R}R_{i-j}

其中 RR 为绝对位置编码矩阵、uuvv 都是可学习参数。

T5 位置编码#

注意力分数中加入可学习的标量:

Ai,jrel=ExiTWqTWk,EExj+rijA_{i,j}^{\text{rel}}=E_{x_{i}}^{\text{T}}W_{q}^{\text{T}}W_{k,E}E_{x_{j}}+r_{i-j}

可学习参数在所有层之间都是共享的,且每个头使用不同的位置嵌入。

ALiBi#

在 softmax 之前,将注意力分数的计算改为如下格式:

qmTknλ(mn)q_m^{\text{T}}k_n-\lambda(m-n)

其中 mnm-n 是 Query 和 Key 之间的位置偏移、λ=2(8m/k)\lambda=2^{(-8m/k)} 是每个注意力头 kk 的惩罚系数。该编码方式具备优秀的长度外推能力(16000 序列长度)。

长度外推问题指的是模型在推理阶段无法处理比训练阶段更长的输入序列的现象。

RoPE#

为 Query 和 Key 设置了单独的旋转矩阵 R\mathcal{R}。考虑一个二维的情况:

Rmq=(cosmθsinmθsinmθcosmθ)(q0q1)\mathcal{R}_mq= \begin{pmatrix} \cos m\theta & -\sin m\theta \\ \sin m\theta & \cos m\theta \end{pmatrix} \begin{pmatrix} q_0 \\ q_1 \end{pmatrix} \quad

由于内积满足线形叠加性,因此任意偶数维的 RoPE,都可以表示为二维形式的拼接:

(cosmθ0sinmθ00000sinmθ0cosmθ0000000cosmθ1sinmθ10000sinmθ1cosmθ1000000cosmθd/21sinmθd/210000sinmθd/21cosmθd/21)Rm(q0q1q2q3qd2qd1){\underbrace{\begin{pmatrix} \cos m\theta_0 & -\sin m\theta_0 & 0 & 0 & \cdots & 0 & 0 \\ \sin m\theta_0 & \cos m\theta_0 & 0 & 0 & \cdots & 0 & 0 \\ 0 & 0 & \cos m\theta_1 & -\sin m\theta_1 & \cdots & 0 & 0 \\ 0 & 0 & \sin m\theta_1 & \cos m\theta_1 & \cdots & 0 & 0 \\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots & \vdots \\ 0 & 0 & 0 & 0 & \cdots & \cos m\theta_{d/2-1} & -\sin m\theta_{d/2-1} \\ 0 & 0 & 0 & 0 & \cdots & \sin m\theta_{d/2-1} & \cos m\theta_{d/2-1} \\ \end{pmatrix}}_{\boldsymbol{\mathcal{R}}_m} \begin{pmatrix}q_0 \\ q_1 \\ q_2 \\ q_3 \\ \vdots \\ q_{d-2} \\ q_{d-1}\end{pmatrix}}

也就是说,给位置 mm 的向量 qq 乘上矩阵 Rm\mathcal{R}_m、位置 nn 的向量 kk 乘上矩阵 Rn\mathcal{R}_n,用变换后的 QQVV 序列做注意力,那么注意力就自动包含相对位置信息了,因为如下恒等式成立:

(Rmq)T(Rnk)=qTRmTRnk=qTRnmk(\boldsymbol{\mathcal{R}}_m \boldsymbol{q})^{\text{T}}(\boldsymbol{\mathcal{R}}_n \boldsymbol{k}) = \boldsymbol{q}^{\text{T}} \boldsymbol{\mathcal{R}}_m^{\text{T}}\boldsymbol{\mathcal{R}}_n \boldsymbol{k} = \boldsymbol{q}^{\text{T}} \boldsymbol{\mathcal{R}}_{n-m} \boldsymbol{k}

由于 Rm\mathcal{R}_m 的稀疏性,直接使用矩阵乘法来计算会很浪费算力。因此使用下述方法来实现 RoPE:

(q0q1q2q3qd2qd1)(cosmθ0cosmθ0cosmθ1cosmθ1cosmθd/21cosmθd/21)+(q1q0q3q2qd1qd2)(sinmθ0sinmθ0sinmθ1sinmθ1sinmθd/21sinmθd/21)\begin{pmatrix}q_0 \\ q_1 \\ q_2 \\ q_3 \\ \vdots \\ q_{d-2} \\ q_{d-1} \end{pmatrix}\otimes\begin{pmatrix}\cos m\theta_0 \\ \cos m\theta_0 \\ \cos m\theta_1 \\ \cos m\theta_1 \\ \vdots \\ \cos m\theta_{d/2-1} \\ \cos m\theta_{d/2-1} \end{pmatrix} + \begin{pmatrix}-q_1 \\ q_0 \\ -q_3 \\ q_2 \\ \vdots \\ -q_{d-1} \\ q_{d-2} \end{pmatrix}\otimes\begin{pmatrix}\sin m\theta_0 \\ \sin m\theta_0 \\ \sin m\theta_1 \\ \sin m\theta_1 \\ \vdots \\ \sin m\theta_{d/2-1} \\ \sin m\theta_{d/2-1} \end{pmatrix}

其中 \otimes 是逐位相乘。在 θi\theta_i 的选择上,沿用了和 Sinusoidal 位置编码的方案,即 θi=100002i/d\theta_i = 10000^{-2i/d}

RoPE 不带有显式的远程衰减,通过不同频率的三角函数有效区分了长程和短程。并且直接作用于 QQKK,不改变注意力计算的形式,与 Flash Attention 更为契合。容易 Scale Up。

长度外推优化#

长度外推问题指的是模型在推理阶段无法处理比训练阶段更长的输入序列的现象(Train Short, Test Long)。具体来说:

  • 推理的时候用到了没训练过的位置编码(绝对/相对);
  • 推理的时候注意力机制处理的词元数量远超训练时的数量。

注意力机制理论上可以处理任意长序列,但是越多的词元去平均注意力就会导致注意力分布越均匀,也就不能很好地表征词元之间的关系。

Position Interpolation#

NTK-aware#

YaRN#

解码策略#

大模型的输出本质上是一个概率采样的过程,可以分为以下步骤:

  1. 将输入序列传入模型并生成下一个词元的概率分布 / P=M(u)P=M(u)
  2. 从分布中根据不同的采样/解码方法选择下一个词元 / uPu^{\prime} \sim P
  3. 将选择的词元添加到输入序列中,重复步骤 1-2 / uu[u]u \leftarrow u \oplus [u^{\prime}]

贪婪采样的改进策略#

贪心搜索(Greedy Search) - 在每个采样步骤中选择概率最高的词元作为下一个词元。但是该方法容易陷入局部最优,生成重复、不自然的句子。

束搜索(Beam Search) - 在每个采样步骤中选取概率最高的 kk 个句子,并最终选取整体概率最高的生成回复。其中 kk 称为束宽度。

详细可以查看 循环神经网络 / 束搜索 中的部分。

长度惩罚(Length Penalty) - 通过将句子概率除以其长度的指数幂 α\alpha,缓解束搜索倾向于生成较短的句子(每生成一个单词,都会乘以一个小于 1 的概率,使得句子的总体概率逐渐变小)。

出现惩罚(Presence Penalty) - 将已经生成词元的 logits 减去惩罚项 α\alpha 来降低该词元之后出现的概率。

频率惩罚(Frequency Penalty) - 将已经生成词元的 logits 减去其出现次数乘以惩罚项 α\alpha 来降低该词元之后出现的概率。

随机采样的改进策略#

温度采样(Temperature Sampling) - 通过调整 logits 的温度系数,从而保证采样过程的随机性。

采样

Top-k 采样(Top-k Sampling) - 从概率最高的 kk 个词元中进行采样。但是不考虑整体概率分布,无法适应不同的上下文语境。

Top-p 采样(Top-p Sampling) - 从一个符合特定概率条件的最小词元集合中进行采样,要求其中包含的所有词元的累积概率大于或等于预设阈值 pp

语言模型#

预训练模型确立了 预训练-微调 的范式。通过大量无标注文本建立模型的基础能力,然后通过有标注数据进行下游任务的微调。

GPT / Decoder#

  • 模型结构 - 12 层、768 词向量维度、12 个头、40,000 词表大小(B-BPE)、512 tokens 上下文长度;
  • 训练范式 - 标准语言模型训练、SFT 特定任务微调(多任务学习损失);
  • 实验数据 - 4.6GB 数据集、117M 参数量。

GPT-2

  • 模型结构 - 48 层、1600 词向量维度、25 个头、50,257 词表大小、1024 tokens 上下文长度;
  • 训练范式 - 多任务学习、通过 Prompt 实现 Zero-Shot 微调(使用无监督预训练做有监督任务);
  • 实验数据 - 40GB 数据集、1.5B 参数量。

GPT-3

  • 模型结构 - 96 层、12,288 词向量维度、96 个头、50,257 词表大小、2048 tokens 上下文长度;
  • 训练范式 - 大规模上下文学习、Few-Shot 微调;
  • 实验数据 - 570GB 数据集、175B 参数量。

BERT / Encoder#

下面的模型结构均是 base 设置。

  • 模型结构

    • 12 层、768 词向量维度、12 个头、30,522 词表大小(WP)、512 tokens 上下文长度;
    • 在输入维度上加入 Segment Embedding,用来区分不同的句子、双向 Transformer。 假设输入为 [CLS] 句子A [SEP] 句子B [SEP],SE 为句子 A 的所有词元分配一个固定的嵌入向量(0),句子 B 分配另一个嵌入向量(1),从而区分两个句子。
  • 训练范式

    • MLM - 训练过程将输入遮掩 15%。然后预测遮掩的部分;
    • NSP - 判断两个句子是否是上下文关系(50% 正/负样本)。

    微调的时候不会出现 [MASK],会出现训练推理失配问题,可以采用 Scheduled Sampling 解决。即将确定要遮掩的词元,80% 替换成 [MASK]、10% 替换成随机 token、10% 保持不变。

  • 实验数据 - 102 种语言、16GB 数据集、110M/340M 参数量。

RoBERTa

  • 模型结构 - 12 层、768 词向量维度、12 个头、50,265 词表大小(BPE)、512 tokens 上下文长度;
  • 训练范式 - 去掉 NSP 任务、引入 动态掩码 的机制,即每个回合输入句子的 mask 位置都不同;
  • 实验数据 - 160G 数据集、125M/355M 参数量。

ALBERT

  • 模型结构
    • 12 层(参数共享)、128 词向量维度、12 个头、30,000 词表大小(SP)、512 tokens 上下文长度;
    • 输入向量分解成两个较小的矩阵,维度分别为 (v,s)(v, s)(s,d)(s,d),其中 sds \ll d
  • 训练范式 - 使用 SOP 任务预测句子顺序是否正确;
  • 实验数据 - 16G 数据集、12M/18M 参数量。

T5#

将所有的自然语言处理任务都转换成 文本-文本 的形式,并用一个统一的模型。其输入是带有任务前缀的文本序列,输出是对应任务的结果。

  • 模型结构 - 编码器(解码器) 各 6 层、512 词向量维度、8 个头、32,000 词表大小(SP)、512 tokens 上下文长度;
  • 训练范式 - Span Corruption(随机遮掩连续 span,预测被遮掩的文本)、多任务统一学习(分类、翻译、摘要等任务均转换成文本生成任务);
  • 实验数据 - 750GB 的 C4 数据集、220M/770M 参数量。

架构分析#

Transformer 架构

视觉模型#

ViT#

Transformer 架构

首先将输入图像 xRH×W×Cx\in \mathbb{R}^{H\times W\times C} 划分成若干 2D 块然后展平得到 xpRN×(P2×C)x_p \in \mathbb{R}^{N\times (P^2\times C)} ,序列有效长度为 N=HWP2N=\frac{HW}{P^{2}}

然后通过线性映射转化为维度为 DD 的嵌入向量(patch embedding),并在嵌入向量的前端添加一个可学习的类别嵌入,在编码器输出时可作为图像的特征表示。预训练阶段,MLP 分类器将该类别嵌入作为输入(预训练阶段 MLP 只有一个隐藏层,而微调阶段 MLP 只有一个线形层)。

微调阶段使用更高分辨率的图像,且保持每一个块的尺寸不变。但是输入序列的有效长度变长,导致预训练阶段的位置编码不再匹配,因此使用 2D2D 插值调整位置编码。

Swin Transformer#

Swin Transformer 引入基于卷积神经网络的归纳偏置:

  • 局部性 - 只计算窗口和移动窗口内的注意力,同时跨窗口连接;
  • 层次化 - 通过分层结构,提取不同尺度的特征。

Swin Transformer Locality

该模型的每一个阶段都采用两层移动窗口的设置。第一层划分窗口的自注意无法捕捉全局的特征信息。因此第二层将窗口进行滑动,这样原本的四个区域就变成了九个区域。且新窗口包含之前窗口的边界,能够建立不同窗口的连接。

高效计算方法

为了高效地计算,首先将九个区域调整为四个区域,其中三个区域包含来自不同区域的 patch。当两个来自不同区域的 patch 交互时,在它的位置上增加一个比较大的负值,进行 softmax 时候该位置便会趋于 0。

Swin Transformer Architecture

首先将输入图像划分成不重叠的 patch,每个 patch 的大小为 4×44\times 4,可以使用 4×4×3=484\times4\times3=48 维的向量表示。因此网络的输入特征维度时 H4×W4×48\frac{H}{4}\times \frac{W}{4} \times 48

在第一个阶段,首先使用线形嵌入(Linear Embedding)层将每个 patch 的特征维度映射进行映射 。然后使用多组连续的 Swin Transformer 模块处理,如上图 (b) 所示。分别使用了基于窗口和移动窗口的多头自注意力机制。在后三个阶段,每个阶段首先使用图像块合并(Patch Merging)层产生分层表示。通过合并相邻的 2×22\times2 patch 使得特征的维度不断发生变化。

Image GPT#

Image GPT

首先将输入图像进行下采样,将其转换为 1D1D 序列;然后进行模型预训练,采用两种预训练方法:

Next pixel prediction 是一种自回归的预训练方法,该方法根据前面的像素值预测下一个像素值(采用光栅顺序),并最终对图像的概率密度进行整体建模。它训练的目标是最小化负对数似然:

LAR=ExX[logp(xπixπ1,xπ2,,xπi1,θ)]L_{\mathrm{AR}}=\mathbb{E}_{x\sim X}[-\log p(x_{\pi_i}|x_{\pi_1},x_{\pi_2},\cdots,x_{\pi_{i-1}},\theta)]

Masked pixel prediction 首先遮掩输入序列若干位置的值,并对这些值进行预测。它训练的目标是最小化遮掩位置元素的负对数似然:

LMASK=EMiM[logp(xix[1,n]M)]L_{\mathrm{MASK}}=\mathbb{E}_M\sum_{i\in M}[-\log p(x_i|x_{[1,n]\setminus M})]

通过预训练,模型学习到输入序列的分层特征表示。

微调阶段同时优化 LGEN+LCLFL_{GEN}+L_{CLF},其中 LGENL_{GEN} 代表 AR 或 MASK 损失、LCLFL_{CLF} 代表分类损失。该方法也被称为带有 辅助训练目标 的微调(Fine-tuning with auxiliary training objective)。

Credit#

Transformer
https://k1tyoo.ink/blog/dl/trm
Author K1tyoo
Published at January 13, 2025