在编码器的输入序列中,通常需要使用填充标记(pad token)对较短的序列进行填充以使其与较长的序列具有相同的长度。然而,填充标记可能会影响到模型的训练和推理过程,因此在解码器中处理填充标记变得尤为重要。
一种处理填充标记的方法是使用掩码(mask),将填充标记所在的位置在模型的计算过程中忽略掉。下面是一个示例代码,展示了如何使用掩码来处理填充标记:
import torch
from torch import nn
class Encoder(nn.Module):
def __init__(self, vocab_size, embed_size, num_layers, pad_idx):
super(Encoder, self).__init__()
self.embedding = nn.Embedding(vocab_size, embed_size, padding_idx=pad_idx)
self.gru_layers = nn.GRU(embed_size, embed_size, num_layers=num_layers)
def forward(self, src):
# src的形状为[seq_len, batch_size]
embedded = self.embedding(src) # [seq_len, batch_size, embed_size]
# 创建掩码,将所有填充标记的位置设置为0,其它位置设置为1
mask = (src != self.embedding.padding_idx).unsqueeze(1).repeat(1,embedded.size(1),1).float().to(src.device)
# mask的形状为[seq_len, batch_size, embed_size]
outputs, hidden = self.gru_layers(embedded * mask)
return outputs, hidden
上述代码展示了如何通过创建掩码来处理填充标记。首先,我们计算出输入序列中的填充标记的位置,并用0和1的二值化矩阵表示掩码。然后,在GRU层的计算过程中,将掩码与嵌入后的序列相乘,消除了填充标记的影响。这里使用的是GRU层,不同的模型结构可能有不同的实现方式。