导航:首页 > 网络问题 > 双分支网络怎么训练

双分支网络怎么训练

发布时间:2023-02-02 05:14:54

❶ RepVGG:VGG,永远的神! | 2021新文

论文: RepVGG: Making VGG-style ConvNets Great Again

  目前,卷积网络的研究主要集中在结构的设计。复杂的结构尽管能带来更高的准确率,但也会带来推理速度的减慢。影响推理速度的因素有很多,计算量FLOPs往往不能准确地代表模型的实际速度,计算量较低的模型不一定计算更快。因此,VGG和ResNet依然在很多应用中得到重用。
  基于上述背景,论文提出了VGG风格的单分支网络结构RepVGG,能够比结构复杂的多分支网络更优秀,主要包含以下特点:

  当然,想要直接训练简单的单分支网络来达到与多分支网络一样的精度是很难的。由于多分支网络中的各个分支在训练时的权重变化不定,所以多分支网络可看作是大量简单网络的合集,而且其能够避免训练时的梯度弥散问题。虽然如此,但多分支网络会损害速度,所以论文打算训练时采用多分支网络,而推理时仍然使用单分支网络,通过新颖的结构性重参数化(structural re-parameterization)将多分支网络的权值转移到简单网络中。

  由于多分支的存在,使得多分支网络相当于一个包含大量小网络的集合,但其推理速度会有较大影响,所以论文仅在训练时使用多分支进行训练,训练完成后将其权值转移到简单网络中。为了够包含大量更简单的模型,论文在 卷积的基础上添加ResNet-like的identity分支和 分支构成building block,然后堆叠成训练模型。假设多分支网络包含 个building block,则其可以表达 种简单网络结构。

  在开始描述最重要的权值转换之前,先进行以下定义:

  假设 、 以及 ,则有:

  若输入输出维度不相同,则去掉identity分支,即只包含前面两项。 代表是推理时的BN函数,一般而言,对于 ,有:

  权值转换的核心是将BN和其前面的卷积层转换成单个包含偏置向量的卷积层。假设 为从 转换得到的核权值和偏置,则有:

  转换后的卷积操作与原本的卷积+BN操作是等价的,即:

  上述的转换也可应用于identity分支,将identity mapping视作卷积核为单位矩阵的 卷积。

  以上图为例,在 的情况下,将3个分支分别转换后得到1个 卷积和两个 卷积,最终的卷积偏置由3个卷积的偏置直接相加,而最终的卷积核则是将两个 卷积核加到 卷积核中心。需要注意的是,为了达到转换的目的,训练时的 卷积分支和 卷积分支需要有相同的步长,而 卷积的填充要比 卷积的小一个像素。

  RepVGG是VGG风格的网络,主要依赖 卷积,但没有使用最大池化,而是使用步长为2的 卷积作为替换。RepVGG共包含5个阶段,每个阶段的首个卷积的步长为2。对于分类任务,使用最大池化和全连接层作为head,而其它任务则使用对应的head。

  每个阶段的层数的设计如上表所示,除首尾两个阶段使用单层外,每个阶段的层数逐渐增加。而每个阶段的宽度则通过缩放因子 和 进行调整,通常 ,保证最后一个阶段能够提取更丰富的特征。为了避免第一阶段采用过大的卷积,进行了 的设置。
  为了进一步压缩参数,论文直接在特定的层加入分组卷积,从而达到速度和准确率之间的trade-off,比如RepVGG-A的3rd, 5th, 7th, ..., 21st层以及RepVGG-B的23rd, 25th和27th层。需要注意,这里没有对连续的层使用分组卷积,主要为了保证通道间的信息交流。

  SOTA分类在120epoch训练的性能对比。

  200epoch带数据增强的分类性能对比。

  对比多分支效果。

  其它操作与结构重参数化的对比实验。

  作为分割任务的主干网络的表现。

  RepVGG将训练推理网络结构进行独立设计,在训练时使用高精度的多分支网络学习权值,在推理时使用低延迟的单分支网络,然后通过结构重参数化将多分支网络的权值转移到单分支网络。RepVGG性能达到了SOTA,思路简单新颖,相信可以在上面做更多的工作来获得更好的性能。



怎么设置双线双路网络路由

随着路由行业的发展,其市场竞争非常激烈。对于用户来讲,如何正确的设置路由,也是非常重要的问题之一,本文为大家讲解怎么设置双线双路网络路由,希望能帮到大家。

设置双线双路网络路由的知识

众所周知目前我国国内网络接入服务提供商基本由中国网通和中国电信两家垄断,在线路和站点互访方面存在一定的问题,那就是如果你的网络属于中国网通的线路,那么访问中国电信的资源会比较慢,而如果你的网络是中国电信提供的,同样访问中国网通的资源会比较慢。这也是为什么很多企业用户开始申请双线路来解决这种问题的原因,但是身为网络管理员的我们是否了解合理分配网络访问出口和链路方向呢?通过合理分配目的地IP地址可以让我们更好的利用网络资源,让访问电信网络的数据可以发送到电信链路,同理让访问网通的数据可以顺利发送到网通链路。今天就请读者跟 随笔 者一起学习如何通过路由策略实现双线双路网络路由信息的自动分配,让数据包转发更加智能化。

一、路由策略的优势

我们介绍过如何从本地计算机的路由信息入手解决这种双线双路的实际网络问题,然而该 方法 只限于在单台计算机上操作,如果企业的员工计算机非常多,一台一台机器的设置肯定不太现实,这时我们就可以通过路由策略实现对企业网络路由出口的统筹管理,将出口路由器上配置合理的路由策略,从而让网络数据包可以根据不同需求转发到不同的线路。

总体说来路由策略各个命令只需要我们在企业连接网络外部出口的路由器上进行设置即可,该路由器实际连接的是双线双路,即一个接口连接通往中国网通的网络,一个接口连接抵达中国电信的网络。

二、路由策略命令简单讲解

路由策略的意义在于他可以让路由器根据一定的规则选择下一跳路由信息,这样就可以自动的根据接收来的网络数据包的基本信息,判断其应该按照哪个路由表中的信息进行转发了。通过路由策略我们可以为一台路由器指定多个下一跳转发路由地址。下面我们来看一段路由策略指令,然后根据其后面的指示信息来了解他的意义。

(1)路由策略基本信息的设置:

route-map src80 permit 10

//建立一个策略路由,名字为src80,序号为10,规则为容许。

match ip address 151

//设置match满足条件,意思是只有满足ip address符合访问控制列表151中规定的才进行后面的set操作,否则直接跳过。

set ip next-hop 10.91.31.254

//满足上面条件的话就将这些数据的下一跳路由信息修改为10.91.31.254。

access-list 150 deny tcp any 10.80.0.0 0.7.255.255 eq www

access-list 150 permit tcp 10.80.0.0 0.7.255.255 any eq ww

//设置对应的访问控制列表150中的匹配信息

(2)将已经设置的路由策略在某接口启用并生效:

int FastEthernet3/2

//进入千兆快速以太网接口

ip policy route-map src80

//应用路由策略src80。

no ip policy route-map src80

//取消src80路由策略的应用。

当然各个路由策略的实际指令会有所区别,不过基本的诸如match与set等指令类似,我们在实际使用过程中根据需求去修改即可。

三、路由策略设置实例

了解了基本的路由策略设置方法后我们来通过他解决双线双路网络路由实际问题,首先虚拟出这样一个环境,企业申请了双线网络出口,一边是网通线路另一边则是电信线路,我们需要做的就是通过路由策略让发往不同网络的数据可以直接转发到对应网络的接口。

知道了技术应用点后我们就要运用该技术解决实际问题了,策略路由的使用和我们编写程序一样是非常灵活的,他可以设置转发的条件,也可以通过源地址或目的地址信息来指引数据包的发送方向。

(1)基于源地址的策略路由

如果企业是根据网络划分部门的话,我们可以通过基于源地址的策略路由来实现分发网络数据包的目的。针对源地址进行策略路由的话,那就是将网通部门要访问网通的数据都转发到网通线路对应的WAN1接口;而电信部门要访问电信的数据都转发到电信线路对应的WAN2接口。这样两个部门都可以顺利的快速开展业务,而不互相干扰。但是这种设置存在一个问题,那就是如果临时需要网通部工作人员解决电信客户需求时将无法实现,因为网通部的数据只会发送到网通线路,针对电信客户的访问速度会大打折扣。

(2)基于目的地址的策略路由

既然基于源地址的策略路由在交叉网络访问方面存在问题的话,那么基于目的地址的策略路由是否能够完美解决实际问题呢?所谓目的地址就是指我们要访问客户的IP地址,一般来说判断客户是电信还是网通网络是可以通过他的IP地址实现的。所以只要企业收集到了电信和网通网络地址段,就可以基于目的地址采取策略路由,将发送或接收到的电信地址数据通过WAN2(电信线路)接口传输,将发送或接收到的网通地址数据通过WAN1(网通线路)接口传输。即使出现网通部工作人员临时解决电信客户情况时依然可以保证高速状态。

通过上面的分析我们可以明确的是通过设置基于目的地址的策略路由,可以有效的解决企业用户遇到的双线路双路由的访问和维护问题。这里我们假设连接企业路由器WAN2接口的电信对端设备IP为A,而连接WAN1接口网通对端设备IP为B,电信网络的地址段为C,网通网络地址段是D,在路由器上建立基于目的地址的策略路由具体设置命令如下。

第一步:建立匹配C和D的两条访问控制列表,即这两条访问控制列表中针对目的地址设置为C或D,控制列表名称依次为ACLC,ACLD。

第二步:在路由器上使用match ip address ACLC(限定只要地址段符合ACLC访问控制列表设定的条件),set ip next-hop A(将此数据访问的下一跳地址设置A),这样对电信网络的访问将顺利的发送到电信网络对端设备。

第三步:同理使用match ip address ACLD,set ip next-hop B命令即可完成对网通数据的路由策略。

第四步:最后在路由器上应用这两条路由策略即可有效解决企业遇到的双线路访问的问题。让数据包转发更加智能更加灵活,按照需求提高网络访问速度,让企业业务运转得更有效率。

从本文的描述我们可以看出,通过路由策略解决双线双路网络实际问题要比之前介绍过的从本机路由表入手灵活得多,并且解决问题的效率更高,不需要网络管理员为企业员工计算机一台台设置。另一方面路由策略的功能还不仅仅局限于此,了解了他的真谛后我们可以像编写程序一样,从企业实际需求出发制定更合理更有效的转发策略,可以精细到每台计算机路由信息的控制。

设置双线双路网络路由的相关 文章 :

1. 分线路由器怎么设置

2. cisco双线双路网络路由器怎么设置

3. 双WAN口路由器WAN口设置中的“内部网络”功能

4. D-Link设置双路由器连接图解

❸ 双路由设置

你是选择的自动向导设置之后不可以使用么!其实,在TPLINK设置之后,第二个路由的设置可以直接用向导连接,如果不可以的话,把第一个路由(TPLINK)设置为自动,但是别去分配地址,把电脑的IP设置成自动!因为电信原因,想在猫上接2个路由不行,只能接一个,然后在在路由上接另一个,将其中一个路由做分支用!

❹ Fast-SCNN

https://blog.csdn.net/calvinpaean/article/details/88534052

https://arxiv.org/pdf/1902.04502.pdf

https://github.com/Tramac/Fast-SCNN-pytorch

https://github.com/xiaoyufenfei/Efficient-Segmentation-Networks

摘要 :本文介绍一种适用于低内存嵌入式设备、计算高效、可用于高分辨率图像(1024×2048px)的实时语义分割模型FastSCNN。在现有的快速分割的双分支方法的基础上,我们引入“学习下采样”模块,该模块同时计算多个分辨率分支的低层级特征。然后将高分辨率的空间细节与低分辨率提取的深层特征结合起来,在Cityspaces数据集上获得68.0%mIoU的精度,123.5FPS的速度。我们还证明大规模预训练没必要。我们用ImageNet预训练和Cityspaces的粗标记数据对我们的度量进行了实验验证。最后,我们不修改网络结构,在下采样的输入上获得了速度更快、精度有可比性的结果。

1.引言

实时语义分割的研究最近获得了显着的普及[21,34,17,25,36,20]。

我们发现,文献中语义分割通常由具有编码器-解码器框架的深卷积神经网络来处理[29,2],而许多计算高效的方法使用双分支或多分支架构[21,34,17]。通常情况下:

•更大的感受野对于学习对象类之间的复杂关联(即全局上下文)很重要,

•图像中的空间细节是保持物体边界所必需的,以及

•需要具体的设计来平衡速度和准确性(而不是重定位的分类DCNNs)。

具体地说,在两个分支网络中,较深的分支在低分辨率下用于捕获全局上下文,而较浅的分支在全输入分辨率下用于学习空间细节。然后将二者合并,得到最终的语义分割结果。重要的是,较深的分支带来的计算成本的提升需要靠缩小输入尺寸来克服。而要获得全分辨率图只需要较少的层数。因而,在现代GPU上,实时性是可以实现的。与编码-解码不同的是,双分支中不同分辨率的初始卷积是不共享的。这里值得注意的是,引导上采样网络(GUN)[17]和图像级联网络(ICNet)[36]只在前几层之间共享权重。

我们提出FastSCNN,将双分支技术[21,34,17,36]与编码-解码[29,2]结合起来。FastSCNN的结构如图1。因为深度卷积网络的浅层主要提取低级特征[35,19],我们共享了双分支中初始层的计算。我们称这种技术为“学习下采样”,其效果与编码-解码中的跳连相似。我们只使用了一次跳连来保证计算效率。“学习下采样”模块层数比较浅,以保证特征共享的有效性。最后,我们还使用了深度可分离卷积[30,10]和逆残差模块[28]。

在Cityspaces数据集[6]上,FastSCNN在NvidiaTitanXp(Pascal)上处理全分辨率图像(1024×2048px),速度是123.5FPS,精度是68.0%mIoU。比现有最先进技术快两倍。(BiSeNet,71.4%mIoU,[34])。

虽然我们的参数量达到1.11M,但大多数离线分割方法(如DeepLab[4]和PSPNet[37])以及一些实时算法(如GUN[17]和ICNet[36])的参数量多得多。FastSCNN的模型容量特别低,原因是:(1)要在低内存的嵌入式设备上运行,(2)期待有更好的泛化能力。先前的很多工作都建议在ImageNet数据集[27]上预训练以提高精度和泛化能力。我们研究了预训练对低容量的FastSCNN的影响,结论是,使用预训练或者弱标签数据没有明显的提升效果,在Cityscapes数据集上只提升了0.5%mIoU,这一点和那些大容量的模型刚好相反。总结下我们的贡献:

(1) 提出了FastSCNN,在高分辨率图像(1024×2048px)上,精度有竞争力(68.0%),速度特别强(123.5fps)。

(2) 使用离线方法中常用的跳连,提出了一个浅层的“学习下采样”模块,以快速高效地多分支低层级特征提取。

(3)将FastSCNN设计为小容量,并且实验证明,对于小容量网络,多跑一些epoch,和使用预训练或额外的弱标签数据是等效的。

此外,对于下采样的输入,我们不对网络做任何修改就达到了最先进水平。

2.相关工作

我们对比分析语义分割方法,尤其是低功耗低内存的实时语义分割方法[2,20,21,36,34,17,25,18]。

2.1.语义分割的基础

最先进的语义分割结合了两个独立的模块:编码器和解码器。编码器用卷积和池化来提取特征。解码器从低分辨率特征中恢复空间细节,并预测分割结果[29,2]。通常,编码器用一个移除全连接层的分类网络,例如VGG或ResNet。

FCN[29]是大多数分割模型的基础,采样VGG为编码器,双线性上采样结合较低层的跳接来恢复空间细节。U-Net[26]使用密集的跳连进一步利用空间细节。

之后,受全局的图像上下文先验启发[13,16],PSPNet[37]使用金字塔池化模块,DeepLab[4]使用atrous空间金字塔池化(ASPP)对全局上下文进行编码和利用。

其他竞争性的基本分割结构使用条件随机场(CRF)[38,3]或递归神经网络[32,38]。然而它们不实时。

与目标检测[23,24,15]类似,速度是一个重要因素[21,34,17,25,36,20]。SegNet在FCN的基础上引入了联合编解码模型,成为最早的高效分割模型之一。继SegNet之后,ENet[20]还设计了一个具有很少几层的编码器-解码器,以降低计算成本。

最近出现了双分支和多分支方法。ICNet[36]、ContextNet[21]、BiSeNet[34]和GUN[17]通过在深度分支中减少输入的分辨率来学习全局上下文,而在浅层分支的全分辨率特征中学习边缘的细节信息。

然而,最先进的实时语义分割仍然具有局限性,并且通常需要高端GPU。受双分支方法的启发,FastSCNN使用了一个浅层的网络路径来编码细节信息,上下文信息在低分辨特征中被有效地学习,如图2所示。

2.2 DCNN中的高效设计

深度可分离卷积:  MobileNet[10]提出深度可分离卷积,减少了浮点运算和卷积参数,降低了计算量和内存需求。

高效的重新设计:  Chollet[5]使用高效的深度可分离卷积设计了Xception 网络。MobileNet-V2提出了inverted bottleneck resial block[28]来构建一个高效率的深度网络,用于分类任务。ContextNet[21]使用 inverted bottleneck resial block设计了一个双分支网络,用于实时语义分割。

网络量化:  浮点计算相较于整型和二进制操作要昂贵的多,模型运行时间可以进一步通过量化技巧来缩短。

网络压缩:  剪枝可以用于减小预训练网络的大小,使运行速度更快,参数更少,内存占用更少。

FastSCNN很依赖于深度可分离卷积和resial bottleneck blocks[28]。此外,我们还引入双分支结构,与“学习下采样”模块结合起来,允许在多级分辨率上共享特征,如图2所示。注意,尽管多个分支的初始层提取了相似的特征[35,19],但常用的双分支方法并没有使用这一点。网络量化和网络压缩可以正交应用,这个留给我们以后的工作。

2.3 辅助任务的预训练

普遍认为辅助任务的预训练可以提高精度。早期的目标检测[7]和语义分割[4,37]的研究在ImageNet上进行了预训练[27]。其他实时高效的语义分割方法也在ImageNet上进行了预训练[36,34,17]。然而,尚不清楚低容量网络是否有必要预训练。我们实验证明预训练对小网络没有明显的提升效果。数据增广和训练更多的epoch也能取得类似的效果。

3 我们提出的FastSCNN

FastSCNN灵感来自于双分支结构[21,34,17]和具有跳连的编码器网络[29,26]。因为注意到网络的前几层通常提取低级特征,我们将跳连重新解释为一个“学习下采样”模块,这样我们就能够融合两个框架的关键思想,并可以构建一个快速的语义分割模型。图1和表1是FastSCNN的结构。接下来将介绍我们的设计动机和各模块的详细设置。

3.1 动机

当前最先进的实时语义分割方法是基于双分支结构,每个分支作用在不同级别的分辨率上[21,34,17],从输入图像的低分辨特征中学习全局信息,并使用浅层网络的全分辨率来细化分割结果的精度。由于输入分辨率和网络深度是决定运行时间的主要因素,双分支结构使得模型可以是实时的。

众所周知,网络的前几层提取低级特征,例如边和角[35,19]。因此,我们不采用将两个分支完全独立的方法,而是引入学习下采样模块,让两个分支共享浅层的网络模块。

3.2 网络结构

我们的FastSCNN使用“学习下采样模块”,一个粗糙的全局特征提取模块、一个特征融合模块和一个标准的分类器。所有模块都是用深度可分离卷积来构建,深度可分离卷积已经是许多高效网络的关键[5,10,21]。

3.2.1学习下采样

为了保证低层特征共享的有效和高效,学习下采样模块只采用了三层结构。第一层是标准卷积层(Conv2D),另外两层是深度可分离卷积(DSConv)。这里要说明的是,虽然DSConv可以提升计算效率,但由于输入图像只有3个通道,深度可分离卷积放在第一层的话带来的效率的提升是微不足道的,因此第一层用标准卷积。

学习下采样的3层中的每一层的卷积滑动步长都是2,然后是批量归一化和ReLU。标准卷积和深度可分离中的深度层的卷积核尺寸都是3×3。和[5,28,21]一样,我们省略了深度可分离卷积中深度卷积和点卷积的非线性运算。

3.2.2全局特征提取器

全局特征提取模块是为了获取图像分割的全局上下文。与通常的双分支方法在原始图像上获取低分辨率特征不同,我们是取“学习下采样”模块的输出作为全局特征提取器的输入,其分辨率是原始图像的1/8。详细结构如表1所示。我们使用MobileNet-v2[28]中提出的高效的bottleneck resial block,如表2所示。

特别地,当输入输出大小相同时,我们对bottleneck resial block采用残差连接。我们的bottleneck block使用了一个高效的深度可分离卷积,这样参数量更小,浮点计算更少。此外,在末尾添加金字塔池模块(PPM)[37],以聚合基于不同区域的上下文信息。

3.2.3特征融合模块

与ICNet[36]和ContextNet[21]类似,我们更喜欢简单的特征相加,以确保效率。或者,使用更复杂的特征融合模块,例如[34],这样精度更高而计算量也更大。特征融合模块的细节如表3所示。

3.2.4分类器

分类器中使用了两个深度可分离卷积和一个点卷积。我们发现在特征融合模块后增加几层可以提高精度。分类器模块的详细信息如表1所示。

在训练过程中使用Softmax,因为使用了梯度下降。在推理过程中,我们可以用Argmax代替昂贵的Softmax计算。我们将此选项表示为Fast SCNN cls(分类)。另一方面,如果需要输出概率模型,则使用softmax,表示为FastSCNN prob(概率)。

3.3 和现有的最先进技术比较

3.3.1与双分支模型的关系

最先进的实时模型(ContextNet[21]、BiSeNet[34]和GUN[17])使用双分支结构。我们的“学习下采样”模块相当于它们的空间路径,因为它很浅,从全分辨率学习,并用于特征融合模块(图1)。

我们的全局特征提取模块相当于这种方法更深层的低分辨率分支。相反,我们的全局特征抽取器与学习下采样模块共享其前几层的计算。通过共享层,我们不仅降低了特征提取的计算复杂度,而且还降低了所需的输入大小,因为FastSCNN使用1/8分辨率而不是1/4分辨率进行全局特征提取。

3.3.2与编码-解码模型的关系

FastSCNN可以看做是诸如FCN[29]或U-Net[26]等编码-解码框架的特例。然而,与FCN中的多个跳连和U-Net中的密集跳连不同,FastSCNN只使用一个跳连来减少计算量和内存。

与[35]一致,他主张在DCNNs中只在前几层共享特征,我们将跳连放在网络的前几层。和我们相反,现有的最先进技术都是在每个分辨率下使用很深的模块之后才使用跳连。

4.实验

我们在Cityscapes数据集[6]上评估我们的方法,并且在测试集,也就是Cityscapes benchmark server上提交了它的性能。

4.1实现细节

我们用Python、Tensorflow上进行了实验。我们实验的工作站有有Nvidia Titan X(Maxwell)或Nvidia Titan Xp(Pascal)GPU、CUDA 9.0和CuDNN v7。运行时评估在单个CPU线程和一个GPU中执行,以测量前向推理时间。我们取100帧的平均耗时作为单帧耗时。

我们使用SGD(momentum=0.9),批量大小是12。受[4,37,10]的启发,我们使用“poly”学习率,其中基学习率为0.045,幂为0.9。与MobileNet-V2类似,我们发现L2正则化对深度卷积(depthwise convolution)不必要。其他的层,L2系数是0.00004。因为语义分割的训练数据有限,我们使用了多种数据增强技术:随机缩放(缩放率范围是0.5到2)、平移/裁剪、水平翻转、颜色通道噪声和亮度变化。使用交叉熵损失训练。我们发现学习结束时的辅助损失和0.4权值的全局特征提取模块是有益的。

批量归一化在每个激活函数之前使用。Dropout只在最后一层,也就是softmax之前。与MobileNet[10]和ContextNet[21]相反,我们发现使用ReLU训练得更快,而且精度比ReLU6稍高,即使整个模型都使用深度可分离卷积。

我们发现训练更多的迭代次数可以提高性能。除非另有说明,我们使用Cityescapes数据集[6]用1000个epoch训练我们的模型。值得注意的是,Fast-SCNN的容量故意非常低,只有1.11million个参数。后来我们发现有益的数据增强技术使得不太可能过度拟合。

4.2.在Cityscapes数据集上的评估

Cityscapes是最大的公开的城市道路数据集,包含从欧洲50个不同城市拍摄的高分辨率图像(1024×2048px)。它有5000个高质量标注的图像,其中训练集2975个,验证集500个,测试集1525个。训练集和验证集的标注是公开的,测试集的结果可以在评估服务器上进行评估。此外,20000个弱标注图像(粗糙标签)可用于训练。我们在这两者上都进行评估:高质量标注样本和粗糙标注样本。Cityscapes提供30个类别标签,而只有19个类别用于评估。接下来我们报告模型的mIoU和推断时间。下面报告联合上的平均交集(mIoU)和网络推理时间。

我们在Cityscapes不公开的测试集上评估总体性能。我们所提的FastSCNN与其他最先进的实时语义分割方法(ContextNet[21]、BiSeNet[34]、GUN[17]、ENet[20]和ICNet[36])和离线方法(PSPNet[37]和DeepLab-V2[4])的比较如表4所示。FastSCNN达到68.0%mIoU,略低于BiSeNet(71.5%)和GUN(70.4%)。ContextNet在这里只达到66.1%。

表5比较了不同分辨率下的推断时间。在这里,BiSeNet(57.3 fps)和GUN(33.3 fps)明显慢于FastSCNN(123.5 fps)。与ContextNet(41.9fps)相比,在Nvidia Titan X(Maxwell)上,FastSCNN的速度也明显更快。因此,我们得出结论,FastSCNN显着提高了最先进模型的速度,而只以轻微的精度降低为代价。FastSCNN为低内存嵌入设备而设计,使用1.11million个参数,比BiSeNet的5.8million个参数少5倍。

最后,我们将跳连的作用置零,来测试FastSCNN的性能。验证集上,mIoU从69.22%降低到64.30%。图3比较了定性结果。正如所料,跳连对FastSCNN是有益的,特别是在边界和小尺寸物体周围。

4.3 预训练和弱标注数据

大容量的深度卷积网络,如R-CNN[7]和PSPNet[37]已经表明,通过不同的辅助任务,预训练可以提高性能。由于我们的FastSCNN是低容量的,我们希望在使用预训练和不使用预训练的情况下分别测试性能。据我们所知,预训练和弱标注数据对低容量模型的作用的重要性,还没有被研究过。结果如表6所示。

我们在ImageNet[27]上预先训练FastSCNN,用平均池化替换特征融合模块,分类模块现在只有一个softmax层。FastSCNN在ImageNet的验证集上达到60.71%的top-1精度和83.0%的top-5精度。这一结果表明,FastSCNN的容量不足以达到ImageNet上大多数标准DCNNs的性能(>70%top-1)[10,28]。使用ImageNet预训练的Fast-SCNN在城市景观验证集上的准确率为69.15%mIoU,仅比没有预训练的FastSCNN提高0.53%。因此,我们得出结论,在FastSCNN中,使用ImageNet预训练不能获得显着的提升。

由于Cityscapes数据集和ImageNet数据集之间的重叠是有限的,因此可以合理地假设,由于两个领域的容量有限,FastSCNN可能不会受益。因此,我们现在合并了Cityscapes提供的20000张粗糙标记的附加图像,因为这些图像来自类似的领域。然而,使用粗糙标注数据训练的FastSCNN(使用或不使用ImageNet预训练)性能相似,仅在没有预训练的情况下略优于原始的FastSCNN。请注意,由于DCNNs的随机初始化,微小的性能浮动是微不足道的。

我们表明,无论是ImageNet预训练还是弱标记数据都对我们的低容量DCNN没有显着的好处。图4显示了训练曲线。使用粗糙标注数据训练的FastSCNN的迭代速度慢,因为标注的质量差。使用ImageNet预训练的两个模型在早期阶段(对不用粗标注数据的模型是前400个epoch,对使用粗标注数据的模型是前100个epoch)表现的更好。带有粗数据序列的快速SCNN迭代速度慢是标签质量差的原因。ImageNet的两个预训练版本只在早期阶段都表现得更好(单独训练集最多400个阶段,使用附加的粗略标记数据训练时为100个阶段)。这意味着,当我们从头训练模型(也就是不使用预训练)时,多训练一些epoch就能达到和使用预训练类似的精度。

4.4 更低的输入分辨率

我们评估下在1/2和1/4分辨率下模型的性能(表7)。

1/4分辨率下,模型精度51.9%,速度485.4fps,这比MiniNet(佚名)的40.7%mIoU、250fps好得多。在1/2分辨率下,可达到具有竞争力的62.8%mIoU、285.8fps。我们强调,无需修改,快速SCNN直接适用于较低的输入分辨率,使其非常适合嵌入式设备。

5 结论

我们提出了FastSCNN用于实时语义分割。多分支结构的共享计算可以节省计算量提高速度。实验表明跳连有利于恢复空间细节。如果训练的epoch数足够多,对低容量网络而言,大规模辅助任务预训练没必要。

❺ 关于双网卡双网络问题

两种网络连接可以同时使用,但连接Internet的只有一个——后启动的那个网络在工作,所以不能加快网速。

如果你的机器是网络服务器,多网卡可同时工作,可以提高总访问流量。

❻ 网络分支器怎么设置

随着信息时代的到来,越来越多的网络变成了无线网络,可以清楚的看到的是,现在的网络覆盖面积变得越来越大,对于很多人来说网络的使用是日常生活中必须要做的一件事,在网络端口只有一个的时候,网络分配问题也产生了,对于怎样去寻找网络的分配方法,今天小编就带大家来看看网络分配器的设置。

网络分配器多个路由器设置方法:

网络分配器的设置方法有两个,分别从不同的角度去解决网络分配问题。

方法一、设置2级路由

一、两台路由器连接方法

1、有电信猫:电信猫----路由器1wan口;路由器1lan口----路由器2wan口;路由器2lan口----电脑。

2、没有电信猫: 网线 ----路由器1wan口;路由器1lan口----路由器2wan口;路由器2lan口----电脑。

二、设置方法

设置前,请断开这台路由器2wan口网线,等设置完成后在插上。

1、设置第2台路由器ip段。

①、lan口设置,如果你有多个路由器,而且是第二台路由器,为了避免冲突(路由器1lan口IP:192.168.1.1),可以将此IP改为其它。比如修改为:192.168.2.1

在重启路由器,进入路由器的地址是:192.168.2.1了。

2、设置第二台路由器上网方法。

①、查看第1台路由器下连接的电脑的ip详细信息。(win-输入,cmd--输入:ipconfig /all [记住:ip,掩码,网关,dns])

②、在第2台路由器上设置,在【设置向导】选择【静态ip】。输入第1台路由器不用的ip,其他的:掩码,网关,dns设置一样。

③、设置好后重启路由器。

方法二、路由器b做 交换机 使用。

1、路由器a正常设置。

2、路由器b设置方法:

①、首先要空出wan口,所有的接线都接在lan口上。

②、关闭路由b的dhcp服务。

③、修改路由b的lan口ip地址(不要与路由器a的网段相同即可),修改IP为192.168。

对于很多人来说,能够让网络接入到自己的电子设备中就意味着可以看到越来越多的自己想要的信息了,在信息时代到来的时候,我们能够在网络方面取得长足的进步当然也离不开人们对于技术的改革和开发,在不久的将来,更多的 高科 技产品会诞生,那时候现在分配器的一些弊端相信也能够克服,在网速问题上应该不会再有什么大的问题了。

❼ 如何使用tensorflow进行联合训练,即网络结构有分支,两个loss

具体描述一下可以么。。。比如,数据-〉网络1-〉网络2-〉输出,同时训练两个网络,还是说,两个网络都是训练好的,调用一下就好??

阅读全文

与双分支网络怎么训练相关的资料

热点内容
纽约无线网络服务 浏览:607
锋火网络怎么样 浏览:528
计算机网络拓扑结构功能 浏览:453
网络学习电脑哪个网站好 浏览:968
手机连接上网但电脑没有网络 浏览:56
驻马店电信网络电视没有信号 浏览:301
怎么用手机调自家网络 浏览:517
江苏无线网络布线多少钱 浏览:579
手机内存不够网络慢 浏览:968
网络营销哪些行业好 浏览:690
什么是pv网络 浏览:64
打开设置重置网络 浏览:345
移动网络电视无法使用 浏览:596
华为2s怎样设置网络 浏览:575
车怎么装无线网络 浏览:414
路由器接光猫后显示网络不可用 浏览:293
做网络直播的如何用软路由 浏览:341
如何增加民宿在网络上的转化率 浏览:313
如何让苹果5s的网络变成4g 浏览:94
西集镇网络安全产业园做什么的 浏览:947

友情链接