如果说“感知机”是单个的神经元,那么“多层感知机”就是将分散的神经元,连接成了网络。
在输入层和输出层之间,再加入若干层,每层若干个神经元。
然后每一层的每个神经元,与下一层的每个神经元,都通过权重参数建立起连接……
层与层之间,完全连接。
也就是说,第i层的任意一个神经元,一定与第i+1层的任意一个神经元相连。
这就是多层感知机,简称MLP。
但仅仅简单组合在一起,还不算真正的“人工神经网络”,必须对“感知机”的基本结构,做出一定的改进。
首先,必须加入隐藏层,以增强模型的表达能力。
隐藏层可以有多层,层数越多,表达能力越强,但与此同时,也会增加模型的复杂度,导致计算量急遽增长。
其次,输出层的神经元允许拥有多个输出。
这样模型就可以灵活地应用于各种分类回归,以及其他的机器学习领域,比如降维、聚类等。
此外,还要对激活函数做出扩展……
前一篇“感知机”论文中,主要使用的是阶跃函数sign,虽然简单易用,但是处理能力有限。
因此神经网络的激活函数,一般使用其他的非线性函数。
备选的函数有很多:sigmoid函数,tanh函数,ReLU函数……
江寒逐一进行了分析。
通过使用多种性能各异的激活函数,可以进一步增强神经网络的表达能力。
对于二分类问题,只需要一个输出神经元就够了。
使用sigmoid作为激活函数,来输出一个0到1之间的数值,用来表示结果为1的概率。
对于多类分类问题,一般在输出层中,安排多个神经元,每个分类一个。
然后用softmax函数来预测每个分类的概率……
描述完结构之后,就可以讨论一下“多层感知机”的训练了。
首先是MLP的训练中,经典的前向传播算法。
顾名思义,前向传播就是从输入层开始,逐层计算加权和,直到算出输出值。
每调整一次参数值,就需要重头到尾重新计算一次。
这样运算量是非常大的,如果没有强大的硬件基础,根本无法支撑这种强度的训练。
好在现在已经是2012年,计算机性能已经足够强悍。
前向传播无疑是符合直觉的,缺陷就是运算量很大,训练起来效率比较差。
与“感知机”的训练相比,MLP的训练需要引入损失函数和梯度的概念。
神经网络的训练,本质上是损失函数最小化的过程。
损失函数有许多种选择,经典的方法有均方误差、交叉熵误差等,各有特性和利弊。
整个训练过程是很清晰的。
先随机初始化各层的权重和偏置,再以损失函数为指针,通过数值微分求偏导的办法,来计算各个参数的梯度。
然后沿着梯度方向,以预设的学习率,逐步调整权重和偏置,就能求得最优化的模型……
写完这些就足够了,再多的内容,可以安排在下一篇文章里。
不过,江寒想了想,觉得这篇论文的内容,还是有点过于充实。
仔细琢磨了一下,干脆将其一分为二。
多层感知机的结构和前向传播的概述部分,单独成篇。
神经网络训练中,关于激活函数和损失函数讨论的部分,再来一篇。
然后分开投稿,这样不就可以多拿1个学术点了?
反正学术点又不看字数……
当然,这两篇论文都必须以前一篇的感知机为基础,分别进行阐述,而不能互为前提、互相引用。
这样就需要多动点脑筋了。
江寒又花了一个多小时,才将它们全都补充完整,并丰满起来。
接下来校队、润色一番后,翻译成英文,转换PDF……
投稿的时候,江寒仔细琢磨了一下,在三区里选了两家方向对口的期刊,投了出去。
没有选择影响因子更大的二区或一区期刊。
因为二区以上的期刊,虽然影响因子更高,发表后收获的学术点也多。
但发表难度太大,万一被打回来,再重新投递……
时间耽搁不起。
要知道,江寒只有三个月的时间。
一系列操作下来,差不多就到了10点半。
江寒脱掉外衣,去洗了个澡,然后换上睡衣。
忙了一下午带一晚上,直到这时才闲了下来。
然后他就想起了夏雨菲,也不知道她下午过得好不好,开不开心?