阅读量:0
在Torch中处理回归任务通常需要定义一个损失函数和优化器来训练模型。首先,定义一个损失函数来衡量模型预测与真实值之间的差距,常用的损失函数包括均方误差(Mean Squared Error)和平均绝对误差(Mean Absolute Error)等。然后使用一个优化器来调整模型参数以最小化损失函数,常用的优化器包括随机梯度下降(SGD)和Adam等。
下面是一个简单的示例代码来处理回归任务:
import torch import torch.nn as nn import torch.optim as optim # 定义数据 X = torch.tensor([[1.0], [2.0], [3.0]]) y = torch.tensor([[2.0], [4.0], [6.0]]) # 定义模型 model = nn.Linear(1, 1) # 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(), lr=0.01) # 训练模型 for epoch in range(100): optimizer.zero_grad() outputs = model(X) loss = criterion(outputs, y) loss.backward() optimizer.step() if (epoch+1) % 10 == 0: print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, 100, loss.item())) # 测试模型 with torch.no_grad(): test_input = torch.tensor([[4.0]]) predicted = model(test_input) print('Predicted value: {:.2f}'.format(predicted.item()))
在上面的代码中,我们首先定义了数据X和y,然后定义了一个简单的线性模型,损失函数为均方误差,优化器为随机梯度下降。接下来进行模型训练,每个epoch计算损失并更新模型参数,最后测试模型并输出预测结果。