什么是AI模型训练?到底在训练什么?今天一次讲清楚!

发布时间:2025-03-02   

我们一直惊叹于AI能写文章、能做画、会编程,现在还能生成视频。从宏观上来看,一个完整的通用AI系统如下图所示,在最关键的模型网关处,调用我们已经训练好的模型,进行用户数据交互,反馈最终的结果。所以,结果的好坏,就取决于我们模型的能力水平,因此,2024年我们看到了市场上千模大战的场面,模型的泛化能力正在以天为单位高歌猛进。

什么是AI模型训练?到底在训练什么?今天一次讲清楚!(图1)

通用AI大模型应用平台整体架构
(上图可编辑文档请关注索取)

如何让你的模型,在各项能力上超越对手,不管是在应用的感官上,还是行业的各类指标上都胜人半子,模型的训练被提到了前所未有的高度。深度求索在短短两个月内使用英伟达H800 GPU数据中心就训练出了DeepSeek-V3模型,花费了约558万美元。其训练费用相比OpenAI的GPT-4等目前全球主流的大模型要少得多的多,DeepSeek“AI界拼多多”也由此得名。


什么是AI模型训练?到底在训练什么?今天一次讲清楚!(图2)


DeepSeek性能测评


图片来源:深度求索微信公众号


所有的AI大厂都在卷训练,从质量、价格、性能(每秒生成的Token数以及首个Token生成时间)、上下文窗口等多方面来评测训练的成果。那么问题来了:

什么是AI模型训练?

AI模型训练实质上是利用数据驱动的方法,使人工智能系统能够从经验数据中自主学习,并针对特定任务进行高效预测、分类或内容生成。此过程的核心在于通过优化算法调整模型内部参数(例如,在神经网络中的权重偏置),以最小化模型输出与实际目标值之间的误差或损失函数。这样做的目的是为了提高模型的泛化能力,使其在未见过的数据集上也能保持出色的性能。

AI模型训练在训练什么?

我们来看一个图片识别的训练过程,怎么把一张狗的图片识别并输出“Dog”这个单词的。

什么是AI模型训练?到底在训练什么?今天一次讲清楚!(图3)

这张图展示了一个典型的卷积神经网络(Convolutional Neural Network, CNN)如何处理图像识别任务的过程。


1. 输入层 (Input Layer): 图像被分解成像素,每个像素值作为输入传递给网络。左侧的圆形区域展示了输入图像,这里是一只狗的图像。
2. 第一层 (Layer 1):这一层的主要任务是检测像素值。通过这一层,网络开始学习图像的基本特征,如边缘和纹理。每个节点代表一个神经元,这些神经元通过权重连接到输入层的像素值。
3. 第二层 (L2):在这一层,网络开始识别图像中的边缘。通过多个过滤器(或称为卷积核),网络能够捕捉到图像中不同方向的边缘信息。 这些边缘信息对于后续的特征提取至关重要。
4. 第三层 (L3):在这一层,网络进一步组合边缘信息,识别更复杂的特征组合。例如,某些特定的边缘组合可能对应于图像中的特定部分或形状。这一过程逐步抽象出图像的更高层次特征
5. 第四层 (L4):到了这一层,网络已经能够识别出更高级别的特征,如特定的形状或物体的部分。这些特征通常与图像中的具体对象相关联。网络通过这些特征来构建对图像内容的理解。
6. 第五层 (L5):最后一层进一步组合前一层识别出的特征,最终形成对整个图像的综合理解。这一层的输出用于进行最终的分类决策。
7. 输出层 (Output Layer):输出层给出最终的分类结果。在这个例子中,网络识别出输入图像为“狗”。输出层通常使用softmax函数将神经元的输出转化为概率分布,从而确定最有可能的类别。
整体过程的关键点包括:
特征提取: 从低级特征(如边缘)到高级特征(如特定形状或物体部分)的逐步提取。
层级结构: 每一层都负责不同的特征提取任务,从像素值到最终的分类决策。这些神经元通过连接权重相互作用形成复杂的非线性映射关系,从而能够捕捉输入数据中的深层次特征。每一层神经元执行特定的变换操作,并将结果传递给下一层,直到最终产生对任务有用的输出。


权重调整: 通过训练,网络不断调整各层之间的权重,以优化特征提取和分类性能。

这种分层结构使得CNN能够有效地处理图像数据,基于特征和权重,最终实现较高可信度的识别结果。经过不断地验证(训练的一个环节),添加更多会比在每层中添加更多神经元获得更多的性能提升,所以如果把上面的5层结构增加到100层,将更大程度提高识别的可信度,当然,资源的消耗(算力)也将几何倍的增长。

假设上面这个模型我们拿来测试人脸的识别,看看识别的准确性上怎么样,我们大概率会得到下面的结果


什么是AI模型训练?到底在训练什么?今天一次讲清楚!(图4)

这依然是一个5层的结构,最后一层给出最终的分类结果。在这个例子中,网络识别出输入图像为“马冬梅”。输出层通常使用softmax函数将神经元的输出转化为概率分布,从而确定最有可能的类别。在测试过程中,我们不需要调整权重,但可以计算预测结果与实际标签之间的损失(如果已知真实标签,比如我们知道图片是马冬梅,看看模型能不能识别正确),通过损失函数用于评估模型的预测准确性,虽然在测试阶段不进行权重更新,但可以通过反向传播计算每个权重对损失的贡献(即梯度),从而来分析模型的性能


下面简要说明权重和偏置的修改过程,以及它们在训练中的作用。
1、前向传播(Forward Propagation)输入数据通过神经网络进行前向传播,经过每一层的计算后,最终得出预测输出。定义这神经网络模型的前向传播过程,即网络训练的forward部分,张量数据输入神经网络模型,模型输出具体的预测值,类似 y=fun(x)。
2、计算损失(Loss Function)前向传播之后,网络会根据模型的输出 a 和真实标签 y 计算损失(误差),对应上图是输出的识别结果与真实值之间比较,例如是三个字都错了,还是只错了 1 个 。
3、反向传播(Backpropagation)需要将误差反向传递到网络的每一层,需要计算每一层网络的误差,这个过程是通过链式法则(Chain Rule)实现的。神经网络通常包含多层,每一层的输出都依赖于前一层的输出,因此在反向传播时,我们需要逐层计算每一层的误差 。
4、更新权重和偏置(Gradient Descent)根据优化器(Optimizer)的学习策略,小幅通过反向计算图更新网络模型中的各个权重参数的梯度,即反向传播的过程(backward propagation 或 backwardpass)。先看其梯度的 grad 正负,再根据正负方向对原参数值加减一定比例的梯度值。假设更新公式为 $w = w - n*grad$, 如果梯度值为正,网络模型的权重参数就会减小;如果梯度值为负,网络模型的权重参数值就会增大。
5、训练迭代(Epochs)训练过程中,神经网络会多次进行前向传播、计算损失、反向传播误差并更新权重和偏置。每一次完整的前向传播和反向传播过程叫做一个“epoch”。通常,训练过程会经历多个 epoch,直到模型收敛到较低的损失值,或者达到预设的最大迭代次数,这也是为什么训练过程比较长。



什么是AI模型训练?到底在训练什么?今天一次讲清楚!(图5)

训练原理涉及到使用大量的标注数据样本(狗的图片)作为输入,通过前向传播计算当前模型配置下的输出误差,再利用反向传播算法根据误差梯度调整各层之间的连接权重。这个迭代过程持续进行,直到找到一组最优或接近最优的参数设置,使得模型在验证集上的表现达到我们满意的水平。为了避免过拟合等常见问题,还会采用正则化、dropout等多种技术手段来增强模型的稳定性和泛化能力。总之,整个训练过程是一个精密设计的参数搜索过程,最终实现模型在指定任务上的最佳性能。

如何保证模型训练的质量?

互联网大厂天然具备海量数据的优势,AI公司在互联网上获取大量训练数据,但是,现如今的互联网本就充斥着各种各样用AI生产出来的数据。保守估计,到2026年,90%的互联网数据将由AI生成。这种 “污染” 使得从训练数据集中彻底过滤AI输出将会变得越来越困难。

要确保AI模型在行业的领先地位,高质量的数据是必不可少的,九尺高台始于垒土,高质量的数据是成功训练模型的基础。产品要确保训练的数据集具有代表性、准确性和完整性。在程序进行数据处理时需要提前进行清洗,包括去除噪声、处理缺失值、异常值等。同步在训练过程中,加强对数据进行标准化或归一化处理,使得不同特征之间具有可比性,这有助于加速模型收敛并提高性能。此外,还需要进行数据增强(如旋转、缩放、裁剪等)以增加数据多样性,特别是在图像处理任务中,将会给你带来意想不到的收获。




免责声明:寰云数据遵守行业规则,本站所转载的稿件都标注作者和来源。 转载稿件或作者投稿可能会经编辑修改或者补充. 如有异议可投诉至: hydatapb@yundatas.com