1. 神经网络主要分为5层,输入层,卷积层,池化层,全连接层和输出层
输入层,输入图像
卷积层,图片与卷积核的内积,得到一个特征图(局部图),
激活层,常用的卷积核有Sigmoid、relu等,有几个卷积核就有得到几个特征图
池化层,对得到的特征图进行特征提取,降低特征维度,常用的有最大池化和平均值池化
全连接层,将所有的特征图展平,得到的一维特征
输出层,将全连接层得到的一维特征经过计算后得到识别值的一个概率。输出层用的比较多的函数有Sigmoid函数(用于2分类的输出概率)和softmax函数(用于多分类的输出概率)。
其中sigmoid函数和softmax函数的区别:
- softmax函数
softmax 解决多分类问题,只有唯一正确答案的问题时,用softmax函数处理各个原始输出值,softmax函数得到的不同概率之间相互关联。softmax函数,又称归一化指数函数。
- sigmoid函数
sigmoid 有多个正确答案的问题时,用sigmoid函数分别处理各个原始输出值。sigmoid函数是一种logistic函数。
结论:(来自神经网络之输出层设计_神经网络输出层-CSDN博客)
- softmax函数是二分类函数sigmoid在多分类上的推广,目的是将多分类的结果以概率的形式展现出来。
- sigmoid函数可以用来解决多标签问题,softmax函数用来解决单标签问题。
- 对于某个分类场景,当softmax函数能用时,sigmoid函数一定可以用。