语言

资讯中心

了解清数新闻,掌握AI前沿资讯

卷积神经网络常用结构
时间:2025-04-23 16:50:06 点击:


6.jpg


卷积神经网络(CNN)经过多年的发展,涌现出了许多经典且实用的网络结构。这些结构在不同的图像识别、目标检测、语义分割等任务中展现出了卓越的性能。以下为你详细介绍一些常用的卷积神经网络结构:

一、早期经典结构

LeNet - 5

1.提出时间:1998 年由 Yann LeCun 等人提出,是最早的卷积神经网络之一。

2.结构特点

· 包含两个卷积层和两个池化层,以及三个全连接层。

· 卷积层使用较小的卷积核(如 5x5),池化层采用平均池化。

· 输入图像大小为 32x32,输出为 10 个类别(主要用于手写数字识别)。

3.应用场景:手写字符识别,是深度学习在图像识别领域的开创性尝试,为后续 CNN 的发展奠定了基础。


二、深度卷积网络

AlexNet

1.提出时间:2012 年由 Alex Krizhevsky 等人提出,在当年的 ImageNet 图像识别挑战赛中取得了突破性的成绩。

2.结构特点

· 网络深度显著增加,包含 5 个卷积层和 3 个全连接层。

· 引入了 ReLU 激活函数,有效缓解了梯度消失问题,加快了训练速度。

· 使用了 Dropout 技术,防止过拟合。

· 采用了数据增强(如随机裁剪、水平翻转)来增加训练数据的多样性。

3.应用场景:大规模图像分类任务,开启了深度学习在计算机视觉领域的热潮。

VGGNet

1.提出时间:2014 年由牛津大学的 Visual Geometry Group 提出。

2.结构特点

· 采用了非常深的网络结构,如 VGG - 16 有 16 层(13 个卷积层和 3 个全连接层),VGG - 19 有 19 层。

· 全部使用 3x3 的小卷积核,通过堆叠多个小卷积核来实现与大卷积核相同的感受野,同时减少了参数数量。

· 池化层采用最大池化。

3.应用场景:图像分类、目标检测等,其网络结构简单、规整,易于理解和实现,常被用作特征提取器。


三、网络结构创新

 GoogLeNet(Inception 系列)

1.提出时间:2014 年由 Google 团队提出,后续发展出了 Inception - v2、Inception - v3、Inception - v4 等版本。

2.结构特点

· 引入了 Inception 模块,该模块通过并行使用不同大小的卷积核(1x1、3x3、5x5 等)和池化操作,增加了网络的宽度和特征多样性。

· 采用了全局平均池化代替全连接层,大大减少了参数数量,降低了过拟合的风险。

· 在网络中使用了辅助分类器,帮助模型在训练过程中更好地传播梯度。

3.应用场景:大规模图像分类任务,在保证准确率的同时,有效减少了计算量。

ResNet(残差网络)

1.提出时间:2015 年由何恺明等人提出。

2.结构特点

· 提出了残差块的概念,通过跳跃连接(shortcut connection)将输入直接加到经过卷积层处理后的输出上,解决了深层网络的梯度消失和梯度爆炸问题,使得网络可以训练得更深。

· 有多种不同深度的版本,如 ResNet - 18、ResNet - 34、ResNet - 50、ResNet - 101、ResNet - 152 等。

3.应用场景:图像分类、目标检测、语义分割等多个领域,是目前应用最广泛的 CNN 结构之一。

 

四、轻量级网络

MobileNet

1.提出时间:2017 年由 Google 提出。

2.结构特点

· 采用了深度可分离卷积(Depthwise Separable Convolution),将标准卷积分解为深度卷积(Depthwise Convolution)和逐点卷积(Pointwise Convolution),大大减少了参数数量和计算量。

· 有不同的版本(如 MobileNet - v1、MobileNet - v2、MobileNet - v3),不断优化网络结构和性能。

3.应用场景:移动设备和嵌入式设备上的图像识别任务,如手机端的图像分类、目标检测等。

ShuffleNet

1.提出时间:2017 年由旷视科技提出。

2.结构特点

引入了通道洗牌(Channel Shuffle)操作,在保证计算效率的同时,增强了不同通道之间的信息交流。

同样采用了分组卷积和深度可分离卷积等技术,减少了参数数量和计算量。

3.应用场景:对计算资源和能耗有严格要求的场景,如智能摄像头、无人机等设备上的图像识别任务。


0532-58717758

扫一扫
关注公众号

扫一扫关注公众号