这可能是因为在调用BERT模型时,存在未禁用缓存的其他参数。要解决这个问题,需要使用下面的代码段来确保所有参数均被正确禁用缓存:
from transformers import AutoTokenizer, AutoModel
import torch
model_name = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name, cache_dir=None)
model = AutoModel.from_pretrained(model_name, cache_dir=None)
input_ids = torch.tensor(tokenizer.encode("Hello, my name is Alice")).unsqueeze(0) # Batch size 1
outputs = model(input_ids)
请注意,在这个例子中,我们使用了cache_dir=None
来关闭缓存。确保所有参数都禁用缓存将确保BERT不会在启用缓存的情况下存储缓存。