BERT模型的训练主要采用了两个损失函数:Masked Language Model (MLM)和Next Sentence Prediction (NSP)。
具体来说,MLM是通过随机将输入序列中的一些单词替换为“[MASK]”标记,然后尝试预测这些单词的真实值;而NSP则是通过判断两个输入句子是否是相邻的,来预测它们是否是真实语言中的连续句子。两个损失函数的权重可以通过调整超参数来平衡训练过程。下面是示例代码:
# MLM损失函数
from transformers import BertForMaskedLM, BertTokenizer
import torch
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForMaskedLM.from_pretrained('bert-base-uncased')
input_text = 'I love [MASK]'
# 获取输入文本的token ID
input_ids = tokenizer.encode(input_text, add_special_tokens=True, return_tensors='pt')
# 获取[MASK]标记的位置
mask_idx = torch.where(input_ids == tokenizer.mask_token_id)[1]
# 使用BERT模型进行预测
outputs = model(input_ids)
predictions = outputs[0]
# 提取出[MASK]标记预测的概率分布
mask_predictions = predictions[0, mask_idx, :]
# 获取真实的token ID
true_token_id = tokenizer.encode('apples', add_special_tokens=False)
# 计算损失函数值
loss = torch.nn.functional.cross_entropy(mask_predictions, true_token_id)
# NSP损失函数
from transformers import BertForNextSentencePrediction
model = BertForNextSentencePrediction.from_pretrained('bert-base-uncased')
input_text = 'I love apples. Do you like them?'
# 获取输入文本的token ID
input_ids = tokenizer.encode(input_text, add_special_tokens=True, return_tensors='pt')
# 进行预测
outputs = model(input_ids)
predictions = outputs[0]
# 获取真实的下一个句子的标签(0表示不相邻,1表示相邻)
true_label = torch.tensor([1]).unsqueeze(0)
# 计算损失函数值
loss = torch.nn.functional.binary_cross_entropy_with_logits(predictions, true_label.float())