当AI模型如ChatGPT、Alpaca、ChatGLM和Bloom等大模型成为热门话题的同时,许多人可能感到时间紧迫,想要跟上AI时代的步伐。然而,对于一般人来说,进入AI领域似乎需要大量资源和知识。本文将以工程师的视角,从零开始搭建和运行一个小型AI模型,以便更接地气地理解AI的工作原理。
开篇故事
假设你是一位普通的工程师,对AI领域充满好奇心,但你认为学习AI需要庞大的算力和海量的数据,感到无从下手。然而,你相信时代不会放弃那些跟不上它步伐的人,而是会压倒他们,因此,你决定学习一些AI知识,以便更好地适应这个新时代。
AI模型的工作原理
首先,我们需要了解AI模型是如何工作的。神经网络是AI的核心计算模型,而深度学习则通过神经网络实现特征学习和模式分析,广泛应用于图像识别等领域。为了更好地理解,我们以最基础的手写数字识别为例,看看一个神经网络的AI模型是如何工作的。
MNIST(Modified National Institute of Stands and Technology)是一个开源的数据集,包含了6万个手写数字图像,每个图像都是28x28的黑底白字。有了这个开源数据集,我们可以训练一个识别手写数字的AI模型,这个练习被称为AI领域的"Hello, world"。
编写AI模型
要编写这个AI模型,我们需要使用一种称为卷积神经网络(CNN)的神经网络结构,具体到代码层面,我们需要使用PyTorch这样的训练框架。PyTorch底层使用C++开发,外部用Python调用,非常方便易用。
下面是一个简单的手写数字识别神经网络模型的Python代码示例:
import torch.nn as nn
class NeuralNetwork(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(1, 32, 3, 1)
self.conv2 = nn.Conv2d(32, 64, 3, 1)
self.fc1 = nn.Linear(in_features=64 * 5 * 5, out_features=128)
self.fc2 = nn.Linear(in_features=128, out_features=10)
def forward(self, x):
x = nn.functional.relu(self.conv1(x))
x = nn.functional.max_pool2d(x, kernel_size=2)
x = nn.functional.relu(self.conv2(x))
x = nn.functional.max_pool2d(x, kernel_size=2)
x = x.view(-1, 64 * 5 * 5)
x = nn.functional.relu(self.fc1(x))
x = self.fc2(x)
return x
这个神经网络模型包含了两个卷积层和两个全连接层,用于输入1通道的手写数字图片,经过卷积、池化和全连接层后,输出10个数字的分类结果。
训练AI模型
接下来,我们需要使用MNIST数据集来训练这个模型。PyTorch框架已经集成了MNIST数据集,可以轻松地进行下载、加载和训练。
以下是一个简单的AI模型训练的Python代码示例:
from time import time
import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets
from torch.utils.data import DataLoader
from torchvision.transforms import ToTensor
from model import NeuralNetwork # 引用前面定义的神经网络模型
# ...代码细节略...
if __name__ == '__main__':
main()
这段代码完成了数据集的准备、模型的训练和模型的保存。训练结果表明,经过5轮训练,准确率可以达到99%以上。
使用AI模型
现在我们已经有了一个预训练的模型,可以用于手写数字识别。我们可以用实际的手写数字图片来测试模型。
以下是一个用于测试AI模型的Python代码示例:
import torch
from torchvision import transforms
from PIL import Image, ImageOps
from model import NeuralNetwork # 引用前面定义的神经网络模型
# ...代码细节略...
if __name__ == '__main__':
main()
这段代码实际上将输入的手写数字图片转换成模型可接受的参数,然后用模型进行识别,输出识别结果和概率。
将AI模型产品化
虽然我们已经有了预训练的模型,并且可以用于手写数字识别,但是要让用户能够方便地使用这个模型,我们需要进一步优化,至少需要提供一个用户界面。以下是一个简单的Web界面,允许用户在页面上用鼠标手写数字,然后通过API获取识别结果的示例:
<!-- HTML代码 -->
<!DOCTYPE html>
<html>
<head>
<title>手写数字识别</title>
</head>
<body>
<canvas id="drawing-canvas" width="200" height="200"></canvas>
<button id="recognize-button">识别</button>
<p id="result-text"></p>
<script src="main.js"></script>
</body>
</html>
// JavaScript代码(main.js文件)
// ...代码细节略...
# Python代码(Flask API
服务)
# ...代码细节略...
这个简单的Web界面允许用户在画布上手写数字,然后点击“识别”按钮,通过API获取识别结果。
思考
AI模型和传统程序有哪些不同之处?让我们来总结一下:
-
代码量:AI模型的代码相对较少,通常只有数十到数百行,而传统程序可能需要数千行甚至数十万行代码。
-
输入参数:传统程序通常有较少的输入参数,例如用户注册信息,而AI模型的输入参数通常是复杂的图像、文本或数据。
-
输出结果:传统程序的输出结果是精确的,而AI模型的输出是概率形式的,具有一定的不确定性。
-
代码参数:传统程序的代码参数是由开发者硬编码的,而AI模型的参数是通过训练数据确定的,开发者无法事先知道每个参数的具体含义。
-
执行层次:传统程序的执行路径复杂,需要经过多层函数调用,而AI模型通常只有几层网络。
-
执行路径:传统程序的执行路径可以精确跟踪,而AI模型的执行路径无法事先确定,只能通过训练来评估。
-
并行性:AI模型具有大规模的并行性,通常使用GPU进行加速,而传统程序的并行性较低。
-
计算资源:AI模型主要依赖GPU进行计算,而传统程序主要依赖CPU。
-
开发时间:传统程序的开发时间主要消耗在编写代码上,而AI模型的开发时间主要消耗在训练模型上。
-
数据需求:AI模型需要大量的训练数据来调整模型参数,而传统程序主要依赖用户产生的数据。
-
程序质量:传统程序的质量取决于设计架构和代码优化,而AI模型的质量取决于神经网络模型和训练数据的质量。
总的来说,虽然AI模型的代码相对较少,但其复杂性在于模型参数的数量和训练过程的复杂性。AI模型是一种黑盒逻辑,输出结果具有一定的不确定性,需要通过训练和调整来提高准确性。与传统程序相比,AI模型更侧重于数据和模型的质量。
结语
尽管AI模型可能看起来复杂,但我们可以从零开始构建和训练一个小型的AI模型,以更好地理解其工作原理。AI时代已经到来,即使作为普通人,也有机会学习和应用AI知识,适应这个新时代的发展。