![深度学习之模型优化:核心算法与案例实践](https://wfqqreader-1252317822.image.myqcloud.com/cover/833/51089833/b_51089833.jpg)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
1.3.1 卷积的概念
从数学概念上讲,卷积是一种运算,令(x·w)(t)为x、w的卷积,其连续的定义为
![](https://epubservercos.yuewen.com/327D6F/30121700503368506/epubprivate/OEBPS/Images/48152_22_1.jpg?sign=1738846104-pyCsgR9nnpnXPwCvUHUGWGPJRWUjPB6n-0-cd17c185f7d0472c506c6669ca23866e)
离散的定义为
![](https://epubservercos.yuewen.com/327D6F/30121700503368506/epubprivate/OEBPS/Images/48152_22_2.jpg?sign=1738846104-q8tCb7k2kfS29QlNfUjtlgTmfnZVJPNu-0-edb7407d78606019ff07672ea9bb5e9b)
如果将一个二维图像x作为输入,使用一个二维的卷积核w,则输出可表示为
![](https://epubservercos.yuewen.com/327D6F/30121700503368506/epubprivate/OEBPS/Images/48152_22_3.jpg?sign=1738846104-qC03z2Hr3T1QRTtW3R1ERvt4hLZeJ4vu-0-ba9fda3119780ed09dc5eaf1a30c8329)
在这里,卷积就是内积,根据多个确定的权重(卷积核),对某一范围内的像素进行内积运算,输出就是提取的特征,具体可视化的卷积操作将在1.3.2节中介绍。
在传统的BP神经网络中,前后层之间的神经元是“全连接”的,即每个神经元都与前一层的所有神经元相连,而CNN中的神经元只与前一层的部分神经元相连。从仿生的角度来说,CNN在处理图像矩阵问题时会更加高效。例如,人的单个视觉神经元并不需要对全部图像进行感知,只需要对局部信息进行感知即可,距离较远、相关性较弱的元素不在计算范围内。从计算的角度来说,卷积使参数量与计算量大幅度减少。