在BERT模型中,Token Embeddings是通过将输入文本转换为词向量表示的方式创建的。下面是一个使用Hugging Face库中的transformers模块来创建BERT Token Embeddings的示例代码:
from transformers import BertTokenizer, BertModel
import torch
# 加载BERT预训练模型和tokenizer
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertModel.from_pretrained('bert-base-uncased', output_hidden_states=True)
# 输入文本
text = "Hello, how are you?"
# 使用tokenizer将文本转换为tokens
tokens = tokenizer.tokenize(text)
# 添加特殊标记 [CLS] 和 [SEP]
tokens = ['[CLS]'] + tokens + ['[SEP]']
# 将tokens转换为对应的token ids
token_ids = tokenizer.convert_tokens_to_ids(tokens)
# 创建tensor表示输入
input_tensor = torch.tensor([token_ids])
# 获取BERT模型的输出
outputs = model(input_tensor)
# 获取token embeddings
token_embeddings = outputs[0]
# 输出第一个token的embedding表示
print(token_embeddings[0])
此代码示例中,我们首先加载了预训练的BERT tokenizer和模型。然后,我们将输入文本转换为tokens,并添加特殊的[CLS]和[SEP]标记。接下来,我们将tokens转换为对应的token ids,创建一个输入tensor。然后,我们将输入tensor传递给BERT模型,并获取输出。最后,我们可以从输出中获取token embeddings,并打印第一个token的embedding表示。
请注意,此代码示例中的BERT模型是使用Hugging Face库中的transformers模块加载的,你需要先安装此库。