网站开发小工具,教育类网站配色,访问网站 过程,免费seo网站深度学习实践#xff1a;构建并训练卷积神经网络#xff08;CNN#xff09;对CIFAR-10数据集进行分类
引言
在计算机视觉领域中#xff0c;CIFAR-10数据集是一个经典的基准数据集#xff0c;广泛用于图像分类任务。本文将介绍如何使用PyTorch框架构建一个简单的卷积神经…深度学习实践构建并训练卷积神经网络CNN对CIFAR-10数据集进行分类
引言
在计算机视觉领域中CIFAR-10数据集是一个经典的基准数据集广泛用于图像分类任务。本文将介绍如何使用PyTorch框架构建一个简单的卷积神经网络CNN并在CIFAR-10数据集上进行训练和评估。通过本文您将了解到数据预处理、模型定义、训练过程及结果可视化的完整流程。
数据预处理
首先我们需要加载并预处理CIFAR-10数据集。CIFAR-10包含60000张32x32的彩色图像分为10个类别每个类别有6000张图像。我们使用torchvision库来轻松加载这些数据并应用一些基本的变换如归一化。
import torchvision
import torchvision.transforms as transformstransform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5)) # 归一化到[-1, 1]
])trainset torchvision.datasets.CIFAR10(root./data, trainTrue, downloadTrue, transformtransform)
trainloader torch.utils.data.DataLoader(trainset, batch_size64, shuffleTrue)testset torchvision.datasets.CIFAR10(root./data, trainFalse, downloadTrue, transformtransform)
testloader torch.utils.data.DataLoader(testset, batch_size64, shuffleFalse)模型定义
接下来我们定义一个简单的卷积神经网络。该网络包含三个卷积层两个池化层以及两个全连接层。
import torch.nn as nnclass ConvNet(nn.Module):def __init__(self):super(ConvNet, self).__init__()self.conv1 nn.Conv2d(3, 32, 3, padding1)self.pool nn.MaxPool2d(2, 2)self.conv2 nn.Conv2d(32, 64, 3, padding1)self.conv3 nn.Conv2d(64, 64, 3, padding1)self.fc1 nn.Linear(64 * 8 * 8, 64) # 考虑到池化层后的尺寸self.fc2 nn.Linear(64, 10)def forward(self, x):x self.pool(torch.relu(self.conv1(x)))x self.pool(torch.relu(self.conv2(x)))x torch.relu(self.conv3(x))x x.view(-1, 64 * 8 * 8) # flattenx torch.relu(self.fc1(x))x self.fc2(x)return xnet ConvNet()训练过程
我们使用Adam优化器和交叉熵损失函数来训练模型并将模型训练10个epoch。训练过程中我们记录每个epoch的平均损失。
import torch.optim as optimcriterion nn.CrossEntropyLoss()
optimizer optim.Adam(net.parameters(), lr0.001)device torch.device(cuda:0 if torch.cuda.is_available() else cpu)
net.to(device)num_epochs 10
loss_history [] # 记录每个epoch的平均损失
for epoch in range(num_epochs):running_loss 0.0for i, data in enumerate(trainloader, 0):inputs, labels datainputs, labels inputs.to(device), labels.to(device)optimizer.zero_grad()outputs net(inputs)loss criterion(outputs, labels)loss.backward()optimizer.step()running_loss loss.item()if i % 100 99:print(f[{epoch 1}, {i 1}] loss: {running_loss / 100})running_loss 0.0epoch_loss running_loss / len(trainloader)loss_history.append(epoch_loss)print(Finished Training)模型评估
训练完成后我们在测试集上评估模型的性能并计算准确率。
correct 0
total 0
with torch.no_grad():for data in testloader:images, labels dataimages, labels images.to(device), labels.to(device)outputs net(images)_, predicted torch.max(outputs.data, 1)total labels.size(0)correct (predicted labels).sum().item()final_accuracy 100 * correct / totalprint(fAccuracy of the network on the 10000 test images: {final_accuracy} %)结果可视化
最后我们将训练过程中的损失和最终的准确率进行可视化以便更直观地了解模型的训练效果。
import matplotlib.pyplot as plt# 可视化损失
plt.plot(range(1, num_epochs 1), loss_history)
plt.xlabel(Epoch)
plt.ylabel(Loss)
plt.title(Training Loss History)
plt.show()# 可视化准确率
plt.bar(1, final_accuracy, width0.4, labelFinal Accuracy)
plt.xlabel(Epoch)
plt.ylabel(Accuracy (%))
plt.title(Final Accuracy on Test Set)
plt.legend()
plt.show()结论
本文介绍了如何使用PyTorch构建并训练一个简单的卷积神经网络对CIFAR-10数据集进行分类。通过数据预处理、模型定义、训练及结果可视化我们完整地展示了深度学习项目的流程。希望本文能为您提供一些有用的参考和启发帮助您在自己的深度学习项目中取得更好的成果。