模型的冷知识 经典语录- 2024-06-06 21:48:02

学界 百度提出冷聚变方法 使用语言模型训练Seq2Seq模型
为什么黑眼圈一旦形成,怎么睡也消不了
度学习神经网络中的“残差连接” 众所周知,神经网络是一种学习算法,它可以通过大量的训练数据来学习并自我优化,从而实现各种各样的任务,如图像分类、目标检测、语音识别等。随着深度学习技术的不断发展,越来越多的神经网络模型被提出,如 AlexNet、VGG、ResNet、Inception、DenseNet 等,其中 ResNet 是近年来十分流行的一个模型。 ResNet 的全称是 Residual Network,它最初由微软的 He 等人于2015年提出,并在 ImageNet 数据集上取得了当时最好的结果。ResNet 之所以得名“残差网络”,就是因为它引入了一种叫做“残差连接(Residual Connection)”的结构。 那么什么是残差连接呢?下面我们来详细解释一下。 在传统的神经网络中,我们通常使用卷积层、池化层、全连接层等基本的操作来构建网络,如下图所示: ![传统神经网络结构](https://img-blog.csdn.net/20181221231402896?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlYmFwcC9TMjg2MjExMjYy/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/q/85) 图1 传统神经网络结构 对于 $N$ 层的传统神经网络,我们可以使用 $x$ 表示输入数据,$y$ 表示输出数据,那么传统神经网络中每一层的计算可以表示为: $$ y = f(x, W) $$ 其中 $W$ 表示该层网络的参数,$f$ 表示该层的前向传播函数。 在 ResNet 中,我们引入了残差块(Residual Block)来替代这种传统的神经网络结构,如下图所示: ![残差块示意图](https://img-blog.csdn.net/20181221231417773?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlYmFwcC9TMjg2MjExMjYy/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/q/85) 图2 残差块示意图 对于一个残差块,我们使用 $x$ 表示输入数据,$y$ 表示输出数据。假设该残差块包含两个卷积层,每个卷积层前都有一个 BN (Batch Normalization)层和 ReLU 激活函数,如下图所示: ![残差块结构图](https://img-blog.csdn.net/20181221231436998?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlYmFwcC9TMjg2MjExMjYy/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/q/85) 图3 残差块结构图 在传统的神经网络中,我们对下一个卷积层的输入进行计算,如下所示: $$ y = f(x, W) $$ 在残差块中,我们通过引入一个跳跃连接(Skip Connection),使输入数据 $x$ 直接与输出数据 $y$ 相加,如下所示: $$ y = f(x, W) + x $$ 这里的“+”表示的是张量的加法,即将输入数据 $x$ 和输出数据 $f(x, W)$ 的张量形式进行逐元素相加。由于残差块的输出数据 $y$ 是由输入数据 $x$ 以及卷积层的输出数据 $f(x, W)$ 相加得到的,因此残差块的作用就在于学习到了数据的残差信息,而这部分残差信息可以传递到后续的卷积层中,从而提升了网络的性能。 在 ResNet 中,我们通常会使用多个残差块来组成网络,如下图所示: ![ResNet网络结构图](https://img-blog.csdn.net/20181221231809636?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dlYmFwcC9TMjg2MjExMjYy/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/q/85) 图4 ResNet 网络结构图 在上面的网络结构中,绿色的块表示 ResNet 的基本模块,蓝色的块表示每个卷积层的输出数据被送到下一层的第一个卷积层上,即使用传统神经网络的连接方式,而灰色的块表示卷积层之间使用残差连接,即使用 ResNet 的连接方式。通过这种方式,我们可以在保证网络深度的同时,避免了梯度消失的问题,从而提升了训练的稳定性和准确性。 总结如下:
1. 传统神经网络中,每一层的输出数据作为下一层的输入数据,学习到的是数据的变化或者转换信息。
2. ResNet 中,引入了残差块来替代传统的神经网络结构,其中每个残差块包含跳跃连接,可以学习到数据的残差信息,在后续的卷积层中传递到更深的层数。
3. 在 ResNet 中,我们通常会使用多个残差块来组成网络,从而实现更深的网络结构。
尼罗河女神vs朔望之晖,女娲唯一的两款皮肤对比,谁的特效更好看
  • 声明:本文内容来自互联网不代表本站观点,转载请注明出处:zx.66688824.com/4f9k12QizK.html

上一篇:冷知识模拟接吻(模拟接吻的玩具)
下一篇:猪小妹冷知识(猪小妹怎么不见了)
相关文章
返回顶部小火箭