问题: 在不同机器上运行相同的PyTorch模型时,推理结果不一致怎么办?
解决方法:
下面是一个示例代码,展示如何在不同机器上运行相同的PyTorch模型并得到一致的推理结果:
import torch
import numpy as np
# 设置随机种子
seed = 123
torch.manual_seed(seed)
torch.cuda.manual_seed(seed)
np.random.seed(seed)
# 加载模型
model = YourModel()
model.load_state_dict(torch.load('model.pth'))
model.eval()
# 检查GPU是否可用
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model.to(device)
# 加载数据
data = torch.tensor([1, 2, 3]).to(device)
# 进行推理
output = model(data)
# 将结果转移到CPU并转换为numpy数组
output = output.detach().cpu().numpy()
print(output)
请注意,以上代码示例中的YourModel
应替换为你自己的模型类。确保在不同机器上使用相同的模型文件和输入数据,并检查其他因素是否导致结果不一致。