这个问题可能是由于BERT的代码库更新而引起的。可以尝试使用以下代码来重新实现句子到嵌入的操作:
from transformers import BertModel, BertTokenizer
model = BertModel.from_pretrained('bert-base-uncased')
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
text = "sample text"
input_ids = tokenizer.encode(text, add_special_tokens=True)
outputs = model(torch.tensor([input_ids]))
embeddings = outputs[1]
请注意,此示例使用的是BERT的基本模型,其他模型可能需要不同的代码实现。