DPN从HORNN的角度来分析了Resnet和Densenet,分析结果得出Resnet是权重共享的特殊情况下的Densenet,并且Resnet能够进行特征复用,而Densenet能够产生新的特征,最后结合这两个网络的特点提出了能够利用这两种特点的DPN双通道网络。
首先来看一下什么是HORNN(Higher order recurrent neural networks),论文给出了HORNN的一般形式:
hk=gk[k−1∑t=0fkt(ht)]
将上式分步计算:
h1=g1[f10(h0)]
h2=g2[f20(h0)+f21(h1)]
h3=g3[f30(h0)+f31(h1)+f32(h2)]

注:在HORNN中,ftk(·)代表权重Whk,gk(·)代表非线性变化,如Rule或Sigmoid,在此处假设ftk(·)恒等于ft(·),gk(·)相同,但在HORNN原文中只有:
f10(·)=f21(·)=f32(·)
f20(·)=f31(·)
f30(·)
Densenet的一般形式:
hk=gk[k−1∑t=0fkt(ht)]
将上式分步计算:
h1=g1[f10(h0)]
h2=g2[f20(h0)+f21(h1)]
h3=g3[f30(h0)+f31(h1)+f32(h2)]

注:在Densenet中ftk(·)表示连接的1x1的卷积核,且各不相同,gk(·)代表3x3的卷积核且各不相同。这里的等效与Resnext中的第一个等效一样,将多分支先分别进行1x1卷积再相加等效为对多分支先进行concat再进行1x1卷积。
Resnet的一般形式:
rk=k−1∑t=1ft(ht)=r(k−1)+fk−1(hk−1)
hk=gk(rk)
r0=0
rk=r(k−1)+fk−1(hk−1)=rk−1+fk−1(gk−1rk−1)=rk−1+Φk−1(rk−1)
其中前面三个式子构成了递推公式,且前提条件式ftk(·)恒等于ft(·),最后一个式子将Densenet的一般表达式化为了Resnet的一般形式。下面将前三个递推公式分步计算:
h1=g1(r1)
r1=r0+f0(h0)
h1=g1(r0+f0(h0))=g1(f0(h0))
h2=g2(r2)
r2=r1+f1(h1)=f0(h0)+f1(h1)
h2=g2(f0(h0)+f1(h1))
h3=g3(r3)
r3=r2+f2(h2)=f0(h0)+f1(h1)+f2(h2)
h3=g3(f0(h0)+f1(h1)+f2(h2))

最后提出的DPN形式为:
xk=k−1∑t=1fkt(ht)
yk=k−1∑t=1Vt(ht)=yk−1+Φk−1(yk−1)
rk=xk+yk
hk=gk(rk)

最后论文以Resnext为主干网络,将输入通过1x1,3x3,1x1的瓶颈结构,并将最后的输出分为两部分,一部分add,一部分concat,还有我认为论文Fig2中带下划线的1x1卷积应该放在3x3之后。
参考:
https://arxiv.org/abs/1707.01629
注:此博客内容为原创,转载请说明出处
v1.5.2