阅读量:0
在PyTorch中使用GPU进行计算非常简单,只需将模型和数据加载到GPU上即可。
- 检查GPU是否可用:
import torch if torch.cuda.is_available(): device = torch.device("cuda") print("GPU is available") else: device = torch.device("cpu") print("GPU is not available, using CPU")
- 将模型加载到GPU上:
model = Model() model.to(device)
- 将数据加载到GPU上:
data = data.to(device)
- 在训练循环中,确保每个batch的数据都加载到GPU上:
for batch in dataloader: inputs, labels = batch inputs, labels = inputs.to(device), labels.to(device) # 在GPU上进行计算
通过以上步骤,就可以在PyTorch中轻松地使用GPU进行计算。