认识神经网络【多层感知器数学原理】

avatar
作者
筋斗云
阅读量:0

文章目录

🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领域学习,擅长web应用开发、数据结构和算法,初步涉猎人工智能和前端开发。
🦅个人主页:@逐梦苍穹
📕所属专栏:人工智能
🌻gitee地址:xzl的人工智能代码仓库
✈ 您的一键三连,是我创作的最大动力🌹

1、什么是神经网络

人工神经网络( Artificial Neural Network, 简写为ANN)也简称为神经网络(NN),是一种模仿生物神经网络结构和功能的计算模型。
人脑可以看做是一个生物神经网络,由众多的神经元连接而成。
各个神经元传递复杂的电信号,树突接收到输入信号,然后对信号进行处理,通过轴突输出信号。
下图是生物神经元示意图:
image.png
当电信号通过树突进入到细胞核时,会逐渐聚集电荷。达到一定的电位后,细胞就会被激活,通过轴突发出电信号。

2、人工神经网络

那怎么构建人工神经网络中的神经元呢?
image.png
这个流程就像,来源不同树突(树突都会有不同的权重)的信息,进行的加权计算,输入到细胞中做加和,再通过激活函数输出细胞值。
接下来,我们使用多个神经元来构建神经网络,相邻层之间的神经元相互连接,并给每一个连接分配一个强度,如下图所示:
image.png
神经网络中信息只向一个方向移动,即从输入节点向前移动,通过隐藏节点,再向输出节点移动。
其中的基本部分是:

  1. 输入层:即输入 x 的那一层
  2. 输出层:即输出 y 的那一层
  3. 隐藏层:输入层和输出层之间都是隐藏层

特点是:

  1. 同一层的神经元之间没有连接
  2. 第 N 层的每个神经元和第 N-1层 的所有神经元相连(这就是full connected的含义)
  3. 第N-1层神经元的输出就是第N层神经元的输入
  4. 每个连接都有一个权值

3、多层感知器

详解上文提到的多层感知器:
image.png

多层感知器 (Multilayer Perceptron, MLP) 结构

3.1、输入层

输入层: Input Layer

输入特征 (Input Features) ( x 1 , x 2 , x 3 ) ( x_1, x_2, x_3 ) (x1,x2,x3)

  1. 输入层的神经元数量等于输入特征的数量。
  2. 在这个例子中,有三个输入特征 ( x 1 , x 2 , x 3 ) ( x_1, x_2, x_3 ) (x1,x2,x3);输入特征可以来自数据集中的一个样本

3.2、隐藏层

隐藏层:Hidden Layers

3.2.1、隐藏层 1

  1. 这是网络中的第一个隐藏层,包含多个神经元。
  2. 每个神经元接收来自输入层的加权输入。
  3. 每个连接(线条)代表一个权重 ( w ) ( w ) (w),这些权重在训练过程中会被调整。
  4. 隐藏层神经元通过激活函数(例如 ReLU、Sigmoid 等)生成输出。

3.2.2、隐藏层 2

  1. 这是网络中的第二个隐藏层,包含多个神经元。
  2. 每个神经元接收来自隐藏层 1 的加权输入。
  3. 这些输入经过加权求和并通过激活函数生成输出。

3.3、输出层

输出层:Output Layer

输出 (Outputs): ( y 1 , y 2 ) ( y_1, y_2 ) (y1,y2)

  1. 输出层的神经元数量等于预测目标的数量。在这个例子中,有两个输出 ( y 1 , y 2 ) ( y_1, y_2 ) (y1,y2)
  2. 每个输出神经元接收来自隐藏层 2 的加权输入。
  3. 输出神经元可以使用线性激活函数(对于回归任务)或其他激活函数(如 Softmax 对于分类任务)生成最终的预测值。

3.4、前向传播

前向传播:Forward Propagation

3.4.1、加权和⭐

加权和:Weighted Sum

  1. 每个神经元接收所有前一层神经元的输出,乘以各自的权重,并加上偏置项,然后计算加权和。
  2. 数学表达式: z j ( l ) = ∑ i = 1 n ( l − 1 ) w j i ( l ) a i ( l − 1 ) + b j ( l ) z_j^{(l)} = \sum_{i=1}^{n^{(l-1)}} w_{ji}^{(l)} a_i^{(l-1)} + b_j^{(l)} zj(l)=i=1n(l1)wji(l)ai(l1)+bj(l)
  3. 公式解释:
    • ( l ) ( l ) (l) 表示当前层, ( j ) ( j ) (j)表示当前层的神经元索引,( i ) 表示前一层的神经元索引
    • z j ( l ) z_j^{(l)} zj(l) 表示第 ( l l l) 层第 ( j j j) 个神经元的输入加权和。
    • n ( l − 1 ) n^{(l-1)} n(l1) 表示第 ( l − 1 l-1 l1) 层的神经元数量。
    • w j i ( l ) w_{ji}^{(l)} wji(l) 表示从第 ( l − 1 l-1 l1) 层第 i i i 个神经元到第 l l l 层第 j j j 个神经元的权重。
    • a i ( l − 1 ) a_i^{(l-1)} ai(l1) 表示第 ( l − 1 l-1 l1) 层第 i i i 个神经元的输出(激活值)。
    • b j ( l ) b_j^{(l)} bj(l) 表示第 l l l 层第 j j j 个神经元的偏置。

3.4.2、激活函数

激活函数:Activation Function

  1. 加权和 ( z ) ( z ) (z)通过激活函数生成当前层神经元的输出。
  2. 数学表达式: a j ( l ) = f ( z j ( l ) ) a_j^{(l)} = f(z_j^{(l)}) aj(l)=f(zj(l))
  3. a j ( l ) a_j^{(l)} aj(l) 表示第 l l l 层第 j j j 个神经元的输出(激活值),其中 f f f 是激活函数。

3.5、反向传播

反向传播:Backward Propagation

3.5.1、计算梯度

计算梯度:Compute Gradients

  1. 反向传播从输出层开始,通过计算损失函数的梯度,逐层向前传播误差,计算每个权重和偏置的梯度。
  2. 数学表达式(举例说明): [ δ j ( l ) = ∂ L ∂ z j ( l ) ] [ \delta^{(l)}_j = \frac{\partial L}{\partial z^{(l)}_j} ] [δj(l)=zj(l)L]
  3. ( δ j ( l ) ) ( \delta^{(l)}_j ) (δj(l))是第 ( l ) ( l ) (l)层第 ( j ) ( j ) (j)个神经元的误差项, ( L ) ( L ) (L)是损失函数。

3.5.2、更新权重和偏置

权重和偏置:Weights and Biases

  1. 使用优化算法(如梯度下降)更新每个权重和偏置,以最小化损失函数。
  2. 数学表达式:KaTeX parse error: {align*} can be used only in display mode.
  3. 其中 ( η ) ( \eta ) (η)是学习率。

4、小结

什么是神经网络:神经网络就是模拟人神经元的工作机理,并构造仿生的神经元来解决实际问题
一个简单的神经网络,包括输入层、隐藏层、输出层,其中隐藏层可以有很多层,每一层也可以包含数量众多的的神经元

广告一刻

为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!