是的,BertModel 的权重是随机初始化的。如果需要加载预训练模型的权重,可以使用以下方法:
from transformers import BertModel, BertConfig
# 初始化模型
config = BertConfig.from_pretrained('bert-base-uncased')
model = BertModel(config)
# 加载预训练模型的权重
model = BertModel.from_pretrained('bert-base-uncased')