Professional Documents
Culture Documents
卷积神经网络研究综述 周飞燕
卷积神经网络研究综述 周飞燕
卷积神经网络研究综述 周飞燕
l.40 No.6
2017 年 6 月 CHINESEJOURNAL OF COMPUTERS June2017
卷积神经网络研究综述
周飞燕 金林鹏 董 军
1),
2) 1),
2) 1)
1)(中国科学院苏州纳米技术与纳米仿生研究所 江苏 苏州 215123)
2)(中国科学院大学 北京 100049)
摘 要 作为一个十余年来快速发展的崭新领域,深 度 学 习 受 到 了 越 来 越 多 研 究 者 的 关 注 ,它 在 特 征 提 取 和 建 模
上都有着相较于浅层模型显然的优势 .深度学习善于 从 原 始 输 入 数 据 中 挖 掘 越 来 越 抽 象 的 特 征 表 示 ,而 这 些 表 示
具有良好的泛化能力 .它克服了过去人工智能中被认 为 难 以 解 决 的 一 些 问 题 .且 随 着 训 练 数 据 集 数 量 的 显 著 增 长
以及芯片处理能力的剧增,它在目标检测和计算机 视 觉、自 然 语 言 处 理、语 音 识 别 和 语 义 分 析 等 领 域 成 效 卓 然 ,因
此也促进了人工智能的发展 .深度学习是包含多级非 线 性 变 换 的 层 级 机 器 学 习 方 法 ,深 层 神 经 网 络 是 目 前 的 主 要
形式,其神经元间的连接模式受启发于动物视觉皮层组织,而卷积神经网络则是 其 中 一 种 经 典 而 广 泛 应 用 的 结 构 .
卷积神经网络的局部连接、权值共享及池化操作等特性使之可以有效地降低网 络 的 复 杂 度,减 少 训 练 参 数 的 数 目,
使模型对平移、扭曲、缩放具有一定程度的不变性,并具有强鲁棒性和容错能力,且 也 易 于 训 练 和 优 化 .基 于 这 些 优
越的特性,它在各种信号和信息处理任务中的性能优 于 标 准 的 全 连 接 神 经 网 络 .该 文 首 先 概 述 了 卷 积 神 经 网 络 的
发展历史,然后分别描述了神经元模型、多层感知器 的 结 构 .接 着,详 细 分 析 了 卷 积 神 经 网 络 的 结 构,包 括 卷 积 层、
池化层、全连接层,它们发挥着不同的作用 .然后,讨论了网中网模型、空间变 换 网 络 等 改 进 的 卷 积 神 经 网 络 .同 时,
还分别介绍了卷积神经网络的监督学习、无监督学 习 训 练 方 法 以 及 一 些 常 用 的 开 源 工 具 .此 外,该 文 以 图 像 分 类、
人脸识别、音频检索、心电图分类及目标检测等为例,对 卷 积 神 经 网 络 的 应 用 作 了 归 纳 .卷 积 神 经 网 络 与 递 归 神 经
网络的集成是一个途径 .为了给读者以尽可能多的借 鉴,该 文 还 设 计 并 试 验 了 不 同 参 数 及 不 同 深 度 的 卷 积 神 经 网
络来分析各参数间的相互关系及不同参数设置对结 果 的 影 响 .最 后,给 出 了 卷 积 神 经 网 络 及 其 应 用 中 待 解 决 的 若
干问题 .
关键词 卷积神经网络;深度学习;网络结构;训练方法;领域数据
中图法分类号 TP18 DOI号 10.
11897/SP.
J.1016.
2017.
01229
Re
viewo
fConvo
lut
iona
lNe
ura
lNe
two
rk
),
2) ),
2) )
i-Yan1
ZHOU Fe J
IN L
in-Peng1 DONGJun1
1)(
SuzhouIn
sti
tut
eof Nano-Te
chand Nano-Bi
oni
cs,Ch
ine
seAcademyofSc
ienc
es,Suzhou,Ji u 215123)
angs
2)(
Un
ive
rsi
tyofCh
ine
seAcademyofSc
ienc
es,Be
ijng 100049)
i
Ab
str
act Asanewandr api
dlyg r
owingf
iel
df o
rmorethantenye
ars,deepl
e a
rninghasga
ined
mo
reand morea
tten
tionf
r om d
iff
eren
tres
earcher
s.Compar
edwithsha
llowarchit
ect
urs,i
e thas
r
getadvan
a tage
sinbo
thf
eat
ureex
tra
cti
ngand mode
lfi
tti
ng.Andi
tisve
rygooda
tdi
scove
ring
i
ncr
eas
ing
lyabs
tra
ctf
eat
urer
epr
esen
tat
ions whos
egene
ral
iza
tionab
ili
tyi
sst
rongf
rom t
her
aw
i
npu
tda ta.Ita
lsohassucc
essfu
llyso
lvedsomepr obemswh
l ichwereconside
reddif
ficulttoso
lve
i
nart
ifi
ciali
nte
lli
genc
e i
n thepast.Furt
h e
r mor
e ,withtheo u
tst
andi
n l
gy incr
eas
ed s
izeof da
ta
usedfort
rain
ingandthed
ras
tici
ncr
e as
esi
nchippr
ocess
ingcapab
ili
tis,
e itha
sresul
tedi
nsign
ifi-
cantpr
ogres
sandbe enus
edinabr oadareao
fappli
cat
ionssucha sobe
jctdet
ect
ion,computer
v
ison,na
i tur
all
anguagepr
oce
ssng,spe
i echr
ecogn
iti
onands
eman
ticpa
rsngandsoon,t
i husa
lso
pr
omo
tingt
headvanc
emen
tofa
rti
fic
iali
nte
lli
genc
e.De
epl
earn
ing wh
ich cons
ist
sof mu
lti
ple
l
eve
lso
fnon-l
ine
art
rans
forma
tionsi
sah
ier
arch
ica
lma
chi
nel
earn
ing me
thod.Andde
epneur
al
ne
two
rki
sthe ma
inf
orm o
fthepr
esen
tde
epl
earn
ing me
thodi
n wh
icht
heconne
cti
viypa
t tte
rn
be
twe
eni
tsneur
onsi
sinsp
ired byt
heo
rgan
iza
tion o
fthean
ima
lvi
sua
lco
rtex.Convo
lut
iona
l
neurlne
a tworktha
thasbeenwidel
yus edisacla
ssi
ck i
ndofdeepneura
lne
twork.Therea
res
e ver
al
char
acte
ris
tic
ssuchasloc
alconne
cti ,
ons shar
ed weight ,
s poo
linge
tc.Thes
ef e
atur
escanreduce
t
hecomplex
ityoft
henetwo
rkandthenumberoftra
iningpar
ametes,andt
r he
yalsoc
an makethe
mode
lcr
eati
ngsomedeg
reeo
finv
ari
anc
etoshi
ft,di
stor
tionandsc
aleandhav
ingst
rongrobust
ness
andf au
ltt o
ler
ance.Soi tisea
sytotr
ainand op
timi
zeitsnetwo
rkstruc
ture.Based onthe
se
predominan
tchara
cte
ris
tic
si,thasbe
enshowntooutpe
rfo
rm thest
anda
rdf ul
lyconnec
tedneural
networksinavari
etyofsignalandinforma
tionproc
ess
ingta
sks.Inthi
spaper,f
irsto
fa ll,the
hi
stor
icaldeve
lopmentofconvolu
tiona
lneuralne
tworkissummar
ized.Aft
ert
ha ,
tt hestruct
ures
fa neur
o on mode
land mu
lti
laye
rpe
rcep
tion a
reshown.La
teron,a de
tai
led ana
lys
iso
fthe
convo
lut
iona
lneur
alne
two
rka
rch
ite
ctur
ewh
ichi
scompr
isedo
fanumbe
rofconvo
lut
iona
llaye
rs
andpooli
nglaye
rsfo
llowedbyf u
llyconne
ctedlaye
rsisg
iven.Di
ffe
ren
tkindsofl
aye
rsinconvo-
lu
tiona
lneur
alnetworkarch
ite
ctureplaydi
ffe
rentrol
e ,
s.Then afewimproveda
lgo
rit
hmssuch
asNetworki
n Networkandspati
alt r
ansfo
rmernetworksofconvo
luti
onalneur
alnetwo
rk ar
e
des
cri
bed.Meanwhi
l ,
et hesupe
rvisedlea
rningandunsupe
rvi
sedl
earn
ing me
thodofc
onvol
uti
onal
neu
ralnetwo
rkands omewide
lyusedopensou
rcetoo
lsarein
tr ed,r
oduc e
spect
ive
ly.I
naddi
tion,the
app
lic
ati
onofconvo
luti
ona
lneura
lnetworkonimagecla
ssi
fi
caton,f
i ac
erecogn
iton,aud
i ioretr
ieve,
e
lec
tro
car
diog
ramc
las
sif
ica
tion,ob
jec
tde
tec
tion,ands
ooni
sana
lyz
ed.I
nte
gra
tingo
fconvo
lut
iona
l
neur
alnetwork and r
ecur
ren
t neural ne
two rk totrai
ninputt
ed da
ta could be an al
ternat
ive
machinel
ear
ningappro
ach.Fina
ll ,
y di
fferen
tc onvol
uti
onneur
alnetworkstr
uctures wi
thd i
ffe
rent
pa
rame
ter
sand d
iff
eren
t dep
ths a
ret
est
ed.Thr
ough a s
eri
eso
f expe
rimen
ts,t
he r
ela
tions
be ent
twe hes
epa
rame
tesi
r nt
hes
e mode
lsandt
hei
nfl
uenc
eofd
iff
eren
tpa
rame
ters
ett
ingsa
re
pr
elimi
nar
ygr
asped.Someadvan
tage
sandr
ema
inedi
ssue
sofconvo
lut
iona
lneur
alne
two
rkand
i
tsapp
lic
ati
onsa
reconc
luded.
Ke
ywo
rds convo
lut
iona
lneur
alne rk;de
two epl
earn
ing;ne
two
rks
truc
t e;t
ur rai
ning me
thod;
doma
inda
ta
等人 [4]提出了一种按误差逆传播算法训练的多层前
1 引 言 馈网络—反向传播网络( Ba
ckPr opaga
tion Ne
twork,
BP 网络),解决 了 原 来 一 些 单 层 感 知 器 所 不 能 解 决
人工 神 经 元 网 络 (Ar
tif
ici
al Neur
al Ne rk,
two 的问题 .由于在 20 世纪 90 年代,各种浅层机器学习
ANN)是对生 物 神 经 网 络 的 一 种 模 拟 和 近 似,是 由 模型相继被提出,较经典的如支持向量机 [5],而且当
大量神经元通过相互连接而构成的自适应非线性动 增加神经网络的层数时传统 的 BP 网 络 会 遇 到 局 部
态网络系统 .1943 年,心理学家 McCu lloch 和数理逻 最优、过拟合及梯度扩散等问题,这些使得深度模型
辑学家 P
its 提 出 了 神 经 元 的 第 1 个 数 学 模 型———
t 的研究被搁置 .
2006 年,Hi on 等 人 6 在 《 e》上 发 文,其
[]
MP 模 型 .MP 模 型 具 有 开 创 意 义,为 后 来 的 研 究
[
1]
nt Sci
enc
工作提供了依据 .到了 20 世纪 50 年代末至 60 年代 主要观点有:( 1)多 隐 层 的 人 工 神 经 网 络 具 有 优 异
初,
Ros
enb
lat在 MP 模 型 的 基 础 之 上 增 加 了 学 习
t 的特征学习能 力;(
2)可 通 过 “逐 层 预 训 练 ”(
laye
r-
功能,提出了单层感知器模型,第一次把神经网络的 wi
sepr
e-t
rai
ning)来有效克服深层神经网络在训 练
研究付诸 实 践 .但 是 单 层 感 知 器 网 络 模 型 不 能
[
2,3]
上的困难,从此引出了 深 度 学 习 (
Deep Le
arn
ing)的
够处 理 线 性 不 可 分 问 题 .直 至 1986 年,Rumelhar
t 研究,同时也掀起了人工神经网络的又一热潮 [7].在
6期 周飞燕等:卷积神经网络研究综述 1231
深度学习的逐层预训练算法中首先将无监督学习应 其中:
xi表示输入信号;
n 个输入信号同时输入神经
用于网络每一层的预训练,每次只无监督训练一层, wij 表示输入信号xi与神经元j 连接的权重值,
元j.
并将该层的训练结 果 作 为 其 下 一 层 的 输 入,然 后 再 bj表示神经 元 的 内 部 状 态 即 偏 置 值,
yj 为 神 经 元 的
用有监督学习(
BP 算法)微 调 预 训 练 好 的 网 络 8-10 .
[ ]
输出 .输入与输出之间的对应关系可用下式表示:
这种深度学习预训练方法在手写体数字识别或者行 n
bj + ∑ (
yj = f( xi × wij )) (
1)
人检测中,特别是当 标 注 样 本 数 量 有 限 时 能 使 识 别 i=1
效果或者检测效果得到显著提升 [11].
Beng
io12 系统
[ ]
·)为激 励 函 数,其 可 以 有 很 多 种 选 择,可 以 是 线
f(
地介绍了深度学习 所 包 含 的 网 络 结 构 和 学 习 方 法 . 性 纠 正 函 数 (Re
cti
fied L
ine
ar Un
i
[ ]
t,ReLU )25 ,
目 前,常 用 的 深 度 学 习 模 型 有 深 度 置 信 网 络 (
Deep si
gmod 函数、
i t x)函数、径向基函数等 26 .
anh(
[ ]
DBN)13-16 、层 叠 自 动 去 噪 编 码 机 2 多层感知器
[ ]
Be
lie
fNe rk,
two 2.
SDA)17 18 、卷积神
[ , ]
(S
tackedDeo
isi
ng Aut
oenc oders, 多 层 感 知 器 (Mu
lti
laye
r Pe
rcep
tron,MLP)是
经网 络(
Convo
lut
iona
lNeu
ralNe
two
rk,CNN)
[
19,
20]
由输入层、隐含层(一 层 或 者 多 层)及 输 出 层 构 成 的
等.
2016 年 1 月 28 日,英国《
Nat
ure》杂志以封面文章 神经网络模型,它可 以 解 决 单 层 感 知 器 不 能 解 决 的
形式报道:谷歌旗下 人 工 智 能 公 司 深 灵 (
De nd)
epMi 线性不可分问题 .图 2 是 含 有 2 个 隐 含 层 的 多 层 感
开发的 Al
phaGo 以 5∶0 战胜了卫冕欧 洲 冠 军——— 知器网络拓扑结构图 .
本以为大概 10 年后人工智能才能做到[21].
AlphaGo
主要 采 用 价 值 网 络 (
val
uene rks)来 评 估 棋 盘 的
two
位置,用策 略 网 络 (
pol
icyne rks)来 选 择 下 棋 步
two
法,这两 种 网 络 都 是 深 层 神 经 网 络 模 型,Al
phaGo
所取得的成果是深度学习带来的人工智能的又一次
突破,这也说明了深度学习具有强大的潜力 .
事实上,早在 2006 年以前就已有人提出一种学
习效率很 高 的 深 度 学 习 模 型———CNN.在 20 世 纪
80 年代和 90 年代,一些研究者发表了 CNN 的相关
研究工作,且在几个模式识别领域尤其是手写数字识
别中取得了良好的识别效果[22,23].然 而 此 时 的 CNN
只适合做小 图 片 的 识 别,对 于 大 规 模 数 据,识 别 效
果不佳 [7].直至 2012 年,
Krzhevsky 等人 24 使用 扩
i
[ ]
im 为该 神 经 元 与 第l-1 层 第i 个 神 经 元 的 连 接
wl-1
权值,则有:
图 1 神经元模型
1232 计 算 机 学 报 2017 年
k
l-1
敏感性 .尽管 在 神 经 认 知 机 中 没 有 像 BP 算 法 那 样
xlm =blm + ∑wl-1
im ×yi
(
2)
i=1 的全局监督学习过程可利用,但它仍可认为是 CNN
l
y = f(
mx ) l
m (
3) 的第一个 工 程 实 现 网 络,卷 积 和 池 化 (也 称 作 下 采
当多层感知器 用 于 分 类 时,其 输 入 神 经 元 个 数 样)分别受启发于 Hube
l-Wi
esl概念的简单细胞和
e
为输入信号的维数,输出神经元个数为类别数,隐含 复杂细胞,它能够准 确 识 别 具 有 位 移 和 轻 微 形 变 的
层个数及隐层神经 元 个 数 视 具 体 情 况 而 定 .但 在 实 输入 模 式 [29,30].随 后,
LeCun 等 人 基 于 Fukush
ima
际应用中,由于受到参数学习效率影响,一般使用不 的研究工作使用 BP 算 法 设 计 并 训 练 了 CNN(该 模
超过 3 层的浅层 模 型 .
BP 算 法 可 分 为 两 个 阶 段:前 型称为 LeNe
t-5), t-5 是 经 典 的 CNN 结 构,后
LeNe
向传播和后 向 传 播,其 后 向 传 播 始 于 MLP 的 输 出 续有许多工作基于 此 进 行 改 进,它 在 一 些 模 式 识 别
层 .以图 2 为例,则损失函数为 [
27] 领域中取得了良好的分类效果 [19].
l l
h
l
CNN 的基 本 结 构 由 输 入 层、卷 积 层 (
convolu-
E = E(
y1 ,…,
yh )= ∑ (yj -tj)
2
(
4) )、池 化 层 ( ,也 称 为 取 样
j
t
iona
llaye
r poo
lingl
aye
r
其中第l 层为输出层,
tj为输出层第j 个神经元的期 层)、全连接层及输出层构成 .卷积层和池化层一般会
望输出,对损失函数求一阶偏导,则网络权值更新公 取若干个,采用卷积层和池化层交替设置,即一个卷
式为 积层连接一个池化层,池化层后再连接一个卷积层,
l-1 l-1 E 依此类推 .由于卷积层中输出特征面的每个神经元与
wim = wim -η× l 1
(
5)
wim- 其输入进行局部连接,并通过对应的连接权值与局部
其中,η 为学习率 . 输入进行加权求和再加上偏置值,得到该神经元输入
2.
3 CNN 值,该过程等同于卷积过程,
CNN 也由此而得名 19 .
[ ]
部空间相关性 .文献 [
28]将 这 些 被 称 为 感 受 野 的 细 输 入 的 不 同 特 征,第 1 层 卷 积 层 提 取 低 级 特 征 如 边
胞分为简单细胞和复杂细 胞 两 种 类 型 .根 据 Hube
l- 缘、线条、角落,更高层的卷积层提取更高级的特征 ① .
Wi
esl的层级模型,在 视 觉 皮 层 中 的 神 经 网 络 有 一
e 为了能够 更 好 地 理 解 CNN,下 面 以 一 维 CNN(
1D
个层级结构:外侧膝状 体 → 简 单 细 胞 → 复 杂 细 胞 → CNN)为 例,二 维 和 三 维 CNN 可 依 此 进 行 拓 展 .
低阶超复杂细胞 → 高阶超复杂 细 胞 [
.低 阶 超 复 杂
29]
图 3 所示为一维 CNN 的 卷 积 层 和 池 化 层 结 构 示 意
细胞与高阶超复杂细胞之间的神经网络结构类似于 图,最顶层为池化 层,中 间 层 为 卷 积 层,最 底 层 为 卷
简单细胞和复杂细 胞 间 的 神 经 网 络 结 构 .在 该 层 级 积层的输入层 .
结构中,处于较高阶 段 的 细 胞 通 常 会 有 这 样 一 个 倾 由图 3 可看出卷积层的神经元被组织到各个特
向:选择性地响应刺激模式更复杂的特征;同时还具 征面中,每个神经元 通 过 一 组 权 值 被 连 接 到 上 一 层
有一个更大的感受 野,对 刺 激 模 式 位 置 的 变 化 更 加 特征面的局部区域,即 卷 积 层 中 的 神 经 元 与 其 输 入
不敏感 [29].
1980 年,
Fuku
shima 根 据 Hub
le和 Wi
ese
l 层中的特征面进行局部连接 [11].然 后 将 该 局 部 加 权
的层 级 模 型 提 出 了 结 构 与 之 类 似 的 神 经 认 知 机 和传递给 一 个 非 线 性 函 数 如 ReLU 函 数 即 可 获 得
on)29 .神 经 认 知 机 采 用 简 单 细 胞 层
[ ]
(
Neocogn
itr 卷积层中每个神经 元 的 输 出 值 .在 同 一 个 输 入 特 征
(
S-l r,
aye S 层)和复杂细胞层(
C-l r,
aye C 层)交 替 组 面和同 一 个 输 出 特 征 面 中,CNN 的 权 值 共 享,如
成,其中 S 层与 Hub
le-Wi
esl层级模型中的简单细
e 图3所示,
权值共享发生在同一种颜色当中,不同颜色
胞层或者 低 阶 超 复 杂 细 胞 层 相 对 应,
C层对应于复 权值不共享 .通过权值共享可以减小模型复杂度,使
杂细胞层或者高阶超复杂细胞层 .
S 层能够最大程度
地响应感受野内 的 特 定 边 缘 刺 激,提 取 其 输 入 层 的 ① Hija
ziS,Kuma rR,Rowen C,e tal.Usi
ngconvo
lut
ional
neura
lnetworksf
orimager e
c ogn
iti
on.htp:
t //
ip.c
adence.
局部特征,
C层对来自确切位置的刺激具有局部不 com/upl /901/cnn_
oads wp-pdf,2016,9,22
6期 周飞燕等:卷积神经网络研究综述 1233
图 3 卷积层与池化层结构示意图
得网络更 易 于 训 练 .以 图 3 中 卷 积 层 的 输 出 特 征 s
igmo
id 函数、 tanh 函数等 .相比较于饱和非线 性 函
面 1 和其 输 入 层 的 输 入 特 征 面 1 为 例,
w1(1)1(1) = 数,不 饱 和 非 线 性 函 数 (
non-s
atu
rat
ingnon
line
ari
ty)
w1(2)1(2)=w1(3)1(3)=w1(4)1(4),而 w1(1)1(1)≠w1(2)1(1)≠ 能够解决梯度爆炸/梯度消失问题,同时也能够加快
w1(3)1(1),其中 wm(i)n(j)表示输入特征面 m 第i 个神经 收敛速 度 [33].
Jar
ret 等 人 34 探 讨 了 卷 积 网 络 中 不
t
[ ]
元与输出特征面 n 第j 个 神 经 元 的 连 接 权 值 .此 外 同的 纠 正 非 线 性 函 数 (
rec
tif
ied non
line
ari
ty,包 括
卷积核的滑动步长即卷积核每一次平移的距离也是 max(
0,x)非 线 性 函 数),通 过 实 验 发 现 它 们 能 够 显
卷积层中一个重要的参数 .在图 3 中,设置卷积核在 著提升卷积网络的性能,
Nar等人 25 也验证了这一
i
[ ]
特征 面 m 第 h 个 神 经 元 的 输 出 值,以 图 3 为 例, 个优点:
(1)可以促进特征的重复利用;(
2)能够获取
则 [
32]
高层表达中更 抽 象 的 特 征,由 于 更 抽 象 的 概 念 可 根
out in i
n
x nk =fcov(
x × w1(h)n(k) +x
1h 1(h+1) × w1(h+1)n(k) + 据抽象性更弱的概 念 来 构 造,因 此 深 度 结 构 能 够 获
x
i
n
× w1(h+2)n(k) + … +bn )
1(h+2)
(
8) 取更抽象的 表 达,例 如 在 CNN 中 通 过 池 化 操 作 来
式(
8)中,
bn 为输 出 特 征 面n 的 偏 置 值 . ·)为 非
fcov(
线性 激 励 函 数 .在 传 统 的 CNN 中,激 励 函 数 一 般 ① XuChen.Convo l
uti
onneur alnetworksfo
rCh i
nesehand-
wri
tingreco
gnit
ion.ht
tp://c
s231n.s
tanfo
rd.
e /r
du epo
rt2016/
s
使用 饱 和 非 线 性 函 数 (sa
tur
ati
ng non
line
ari
ty)如 428_Repo
rt. f,2016,
pd 9,22
1234 计 算 机 学 报 2017 年
采用重叠池化 框 架 使 t
op-1 和 t
op-5 的 错 误 率 分 别
4% 和 0.
降低了 0. 3% ,与 无 重 叠 池 化 框 架 相 比,其
泛化能力更强,更不易产生过拟合 .设池 化 层 中 第 n
个输出特征面第l 个神经元的输出值为tn
out
l ,同样以
图 4 ReLU 与 t
anh 函数曲线图
图 3 为例,则有 [32]:
在 CNN 结构 中,深 度 越 深、特 征 面 数 目 越 多, out
tnl = fsub(nq ,
tin i
n
tn(q+1)) (
10)
则网络能够表示的 特 征 空 间 也 就 越 大、网 络 学 习 能 其中:
t 表示池化层 的 第n 个 输 入 特 征 面 第q 个 神
in
nq
2.
3.2 池化层 来模拟 Hube
l-Wi
esl理论的简单细胞,池化层模 拟
e
池化 层 紧 跟 在 卷 积 层 之 后,同 样 由 多 个 特 征 面 该理论的复杂细胞 .
CNN 中每个池化层的每一个输
组成,它的每一个特 征 面 唯 一 对 应 于 其 上 一 层 的 一 出特征面的大小(神经元个数)
DoMapN 为 32
[ ]
的计算量 . 少,可能会使一些有利于网络学习的特征被忽略掉,
2.
3.3 全连接层 从而不利于网络的学习;但是如果特征面个数过多,
在 CNN 结构中,经多个卷积层和池化层 后,连 可训练参数个数及 网 络 训 练 时 间 也 会 增 加,这 同 样
接着 1 个或 1 个以上 的 全 连 接 层 .与 MLP 类 似,全 Chuo 等 人 46 提 出 了 一 种 理
不利于学习 网 络 模 型 . [ ]
时,由 于 它 的 高 容 量,它 在 留 存 测 试 数 据 (
hel
d-ou
t 图 5 为其模 型 结 构 .图 5 共 有 3 个 卷 积 层 (
C1,
C3,
a,也可称 为 校 验 集)上 通 常 表 现 不 佳 .为 2 个 池 化 层 (M2,M4)、
1个全连接层( F6)和
[
30]
t
estda
t C5)、
了避免训练过拟合,常 在 全 连 接 层 中 采 用 正 则 化 方 1 个输出层( O7).输入的大小为160×160,
C1 中 96×
法———丢失数据(
dr t)技术,即使隐层神经元 的
opou 4)表示 C1 层 有 96 个 大 小 为 11×11 的
11×11×1(
输出值以 0.
5 的 概 率 变 为 0,通 过 该 技 术 部 分 隐 层 卷积核,
1 为它的输 入 特 征 面 个 数,
4是卷积核在其
节点失效,这些节点 不 参 加 CNN 的 前 向 传 播 过 程, 38×38 为 每 个 输 出 特 征
输入特征面上的滑动步长,
也不会参加后向 传 播 过 程 [
24,
.对 于 每 次 输 入 到 网
30]
面的大小 .卷积层通 过 卷 积 操 作 提 取 其 前 一 层 的 各
络中的样本,由于 d
r t技术的随机性,它对应的
opou 种不同的局部特 征,由 图 5 可 看 出,
C1 层 提 取 输 入
网 络 结 构 不 相 同,但 是 所 有 的 这 些 结 构 共 享 权 图像的边缘、轮廓 特 征,可 看 成 是 边 缘 检 测 器 .池 化
值 [
.由于一个神经元不能依赖于 其 它 特 定 神 经 元
24]
层的作用是在语义 上 把 相 似 的 特 征 合 并 起 来,池 化
而存在,所以这种技 术 降 低 了 神 经 元 间 相 互 适 应 的 层通过池 化 操 作 使 得 特 征 对 噪 声 和 变 形 具 有 鲁 棒
复杂性,使神 经 元 学 习 能 够 得 到 更 鲁 棒 的 特 征 [
24]
. 性 [11].从图上可 看 出,各 层 所 提 取 的 特 征 以 增 强 的
目前,关于 CNN 的 研 究 大 都 采 用 ReLU+d
ropou
t 方式从不同角度表 现 原 始 图 像,并 且 随 着 层 数 的 增
技术,并取得了很好的分类性能 [
24,
44,
45]
. 加,其表现形式越来越抽象 [48].全连接层 F6 中的每
2.
3.4 特征面 个神经元与其前一 层 进 行 全 连 接,该 层 将 前 期 所 提
特征面数 目 作 为 CNN 的 一 个 重 要 参 数,它 通 取的各种局部特征 综 合 起 来,最 后 通 过 输 出 层 得 到
常是根据实际应用 进 行 设 置 的,如 果 特 征 面 个 数 过 每个类别的 后 验 概 率 .从 模 式 分 类 角 度 来 说,满 足
F
i r判别准则的 特 征 最 有 利 于 分 类,通 过 正 则 化
she 来替换传统 CNN 的 全 连 接 层,它 可 以 增 强 神 经 网
方法( dr t方法),网 络 参 数 得 到 有 效 调 整,从 而
opou 络的表示能力 .微神 经 网 络 主 要 是 采 用 MLP 模 型,
使全连接层提取的特 征 尽 量 满 足 F
i r 判 别 准 则,
she 如图 7 所示 .
最终有利于分类 [
.图 6 给 出 了 CNN 提 取 心 电 图
48]
(
ele
ctr
oca
rdi
ogam,
r ECG)特征 的 过 程,首 先 通 过 卷
积单元 A1、 B1、C1(其 中 每 个 卷 积 单 元 包 括 一 个 卷
积层和一个池化层)提取特征,最后由全连接层汇总
所有局部特征 .由 图 中 也 可 以 看 出,层 数 越 高,特 征
的表现形式也越抽象 .显然,这些特征并没有临床诊
断的物理意义,仅仅是数理值 [48]. 图 7 线性卷积层与 MLP 卷积层对比 [50]
图 7 中,图 7(
a)是 传 统 CNN 的 线 性 卷 积 层,
图 7(
b)是 NIN 模型的非 线 性 卷 积 层,用 MLP 来 取
代原 来 的 GLM.NIN 通 过 在 输 入 中 滑 动 微 型 神 经
网络得到卷积层的特征面 .与卷积的权值共享类似,
MLP 对同一个特征面的所有局部感受野也共享,即
对于同一个 特 征 面 MLP 相 同 .文 献 [
50]之 所 以 选
择 MLP,考虑到 MLP 采用 BP 算法进行训练,能与
CNN 结 构 融 合,同 时 MLP 也 是 一 种 深 度 模 型,具
图 6 ECG 经过 CNN 的中间层 [48] 有特征重用的思想 .MLP 卷积层能够处理更复杂的
2.
3.6 与传统的模式识别算法相比 非线性问题,提 取 更 加 抽 象 的 特 征 .在 传 统 的 CNN
位置信 息 记 为 whe
re 变 量,
whe
re变 量 要 横 向 传 递 的无监督学 习,同 时 使 用 该 CNN 模 型 识 别 交 通 工
到反卷积结构中 .
SWWAE 的 损 失 函 数 包 含 3 个 部 具类型 .在文献[
59]中,采 用 稀 疏 滤 波 作 为 预 训 练,
分(判别损失、重构损失及中间重构损失).
SWWAE 并将 CNN 学习到的高级 全 局 特 征 和 低 级 局 部 特 征
在各 种 半 监 督 和 有 监 督 任 务 中 取 得 了 很 高 的 准 输入到 so
ftmax 层中 进 行 分 类 .随 后,
Dong 等 人 60
[ ]
度网络结构的训练和部署, To
rch 表现最优,其次是 最易于评价标准深 度 结 构 的 性 能;与 The
ano 类 似,
The Neon 的 性 能 最 差;在 GPU 上 训 练 卷 积 和
ano, Tenso ow 也是 非 常 灵 活 的 架 构,但 是 它 在 单 个
rFl
全连 接 网 络,对 于 小 网 络 模 型 The
ano 的 训 练 速 度 GPU 上的性能不如其它几个架构. 表1 总结了 Ca fe、
f
最快,对于 较 大 的 网 络 模 型 则 是 To
rch 最 快,而 对 To
rch 及 The
ano 所 具 有 的 一 些 特 点 ① .The
ano 没
于大的卷积网络 Neon 也非常有竞争力;在 GPU 上 有预训练的 CNN 模型,所以在 The
ano 上不能直接
训 练 和 部 署 RNN 模 型 , ano的 性 能 最 好 ;
The Caf
fe 进行 CNN 无监督预训练 .
表 1 不同软件包的一些特点
架构 编写语言 开源 接口 硬件 平台 适合模型 预训练 CNN 模型
命令行,Python, L
inux,OSX,Wi
ndows,
Ca
ffe C++ ,
Pyt
hon 是 CPU,
GPU CNN 有
Ma
tlab Ubunu,
t AWS,Andr
oid
L
inux,And
riod,MacOSX,
To
rch Lua,
C 是 Lua,
C CPU,
GPU,
FPGA CNN,
RNN,
DBN 有
iOS,Windows
The
ano Py
thon 是 Py
thon CPU,
GPU 可跨平台 CNN,
RNN,
DBN 无
换方式减少了参数 的 数 量,而 且 也 能 够 使 决 策 函 数
5 实际应用 更具有判别性 .VGG 模 型 在 LSVRC-14 竞 赛 中,得
到了图像分类“指定数据”组的第 2 名,证明了深度在
1 图像分类
5. 视觉表示中的重要性 .但是由于 VGG 与 GoogLeNe
t
近年来,
CNN 已被广泛应用于图像处理领域中 . 的深度都比较深,所以网络结构比较复杂,训练时间
zhevsky 等人 第 1 次将 CNN 用于 LSVRC-12
[
24]
Kr
i 长,而且 VGG 还需要多次微调网络的参数 .
竞赛中,通过加深 CNN 模型的深度并采用 ReLU+ Al t模 型、GoogLeNe
exNe t 模 型 与 VGG 模 型
d
r t技术,取得了当 时 最 好 的 分 类 结 果 (该 网 络
opou 都在ImageNe
t竞 赛 中 取 得 了 很 好 的 结 果,然 而 它
结构也被称为 Al t).
exNe AlexNet模 型 包 含 5 个 卷 们只能接受固 定 大 小 的 输 入 .事 实 上,
CNN 的 卷 积
积层和 2 个 全 连 接 层 .与 传 统 CNN 相 比:在 Al
ex- 层不需要固定大小 的 输 入,它 可 以 产 生 任 意 大 小 的
t中采用 ReLU 代替饱和非线性 函 数 t
Ne anh 函 数, 特征面,但是它的全连接层需要固定长度的输入,因
降低了模型的计算 复 杂 度,模 型 的 训 练 速 度 也 提 升 此 CNN 的输入大小需保 持 一 致 的 限 制 源 于 它 的 全
了几倍;通过 d
r t技术在训练过程中将中间层的
opou 连接层 [67].为了 获 得 固 定 大 小 的 输 入,需 要 对 输 入
一些神经元 随 机 置 为 0,使 模 型 更 具 有 鲁 棒 性,也 减 图像进行裁剪或者 缩 放,但 是 这 样 的 变 换 会 破 坏 输
少了全连接层的过拟合;而且还通过图像平移、图像 入图像的纵横比及 完 整 的 信 息 等,从 而 影 响 识 别 的
水 平 镜 像 变 换、改 变 图 像 灰 度 等 方 式 来 增 加 训 练 样 准确率 .
He等人 67 提出 一 种 SPP-ne
[ ]
t模 型,该 模 型
本,从 而 减 少 过 拟 合 .相 比 于 Al t,
exNe egedy 等
Sz 是在 CNN 的 最 后 一 个 卷 积 层 与 第 1 个 全 连 接 层
人 大大增加了 CNN 的深度,提出了一个超过 2
[
65]
0层 中间 加 入 一 个 空 间 金 字 塔 池 化 (
Spa
tia
lPy
rami
d
的 CNN 结 构 (称 为 GoogLeNe t).在 GoogLeNe
t Poo
li SPP)层 .
ng, SPP 层 能 够 使 CNN 不 同 大 小 的
结构中 采 用 了 3 种 类 型 的 卷 积 操 作 (
1×1 3×3,
, 输入却产生 大 小 相 同 的 输 出,打 破 了 以 往 CNN 模
5×5),该结构的主要特点是提升了计算资源的利用 型的输入 均 为 固 定 大 小 的 局 限,且 该 改 进 的 CNN
率,它的参数比文献[24]少了12 倍,而且 GoogLeNe
t 模型训练速度较 快,在 LSVRC-14 的 图 像 分 类 比 赛
的准确 率 更 高,在 LSVRC-14 中 获 得 了 图 像 分 类 中获得第 3 名 .
“指定数 据 ”组 的 第 1 名 .
Simonyan 等 人 66 在 其 发
[ ]
在层 级 很 深 的 深 度 网 络 模 型 中,除 了 存 在 梯 度
表的文 章 中 探 讨 了 “深 度 ”对 于 CNN 网 络 的 重 要 扩散问题 外,还 存 在 着 退 化 问 题 .批 规 范 化 (
Bat
ch
性 .该文 通 过 在 现 有 的 网 络 结 构 中 不 断 增 加 具 有
No
rma
liz
ati BN)是 解 决 梯 度 扩 散 问 题 的 一 种 有
on,
3×3卷积核的卷积层来增加网络的深度,实验表明, 效方法 [68].所谓退化问题就是:随 着 深 度 的 增 加,网
当权值层数达到 16~19 时,模型的性能能够得到有 络精度达到饱和,然后迅速下降 .且该性能的下降不
效提升(文中的模型也 称 为 VGG 模 型).
VGG 模 型 是 由过拟合引起的 ,而是增加网络的深度使 得 它 的
用具有小卷积核的多个卷积层替换一个具有较大卷
积核的卷积层(如用大小均为 3×3 卷积核的 3 层卷 ① Compasi
onofdeeplea
rni
ngsoftwa
re[Onl
ine].ht
tps:
//en.
wik
ipedi
a.og/wi
r k/Compa
i r
ison_of_de
ep_ le
arn
ing_sof
t-
积层代替一层具有 7×7 卷 积 核 的 卷 积 层),这 种 替 ware,2016,9,
22
1240 计 算 机 学 报 2017 年
训 练 误 差 也 随 之 增 加 [69].文 献 [
69]采 用 残 差 网 络 不 能 增 加 输 入 图 像 的 大 小 ,那 么 可 以 减 小 其 后
(
Res
idua
l Ne rks,Re
two t)来 解 决 退 化 问 题 .
sNe 卷 积 层 中 的 滑 动 步 长 ,这 样 也 能 够 得 到 大 致 相 同
Re t的主要特点是跨层连接,它通过引入捷径连
sNe 的结果.
接技术(
sho
rtcu
tconne
ctons)将输入跨层传递并 与
i 2 人脸识别
5.
卷积的结果相加 .在 Re t中 只 有 一 个 池 化 层,它
sNe 在人脸识别中,传统的识别路线包括 4 个步骤:
连接在最后一个卷积层后面 .
Re t使得底层的网
sNe 检测 -对齐 -人脸表示 -分类 .
DeepFa
ce72 也 遵 循 这 一
[ ]
择性;(
3)高 层 神 经 元 对 局 部 遮 挡 具 有 良 好 的 鲁 棒 高,但是 CNN 在 人 脸 识 别 中 仍 然 有 许 多 具 有 挑 战
性 .以往的许多研究 工 作 为 了 获 得 这 些 引 人 注 目 的 性的问题,如面部 特 征 点 定 位、人 脸、姿 态 等 对 人 脸
属性,通常 需 要 对 模 型 加 入 一 些 显 性 的 约 束,但 是 识别效果的影响,都是需要深入研究的问题 [79].
De
epID2+ 通过 数据训练深度模型就能够自动地得 3 音频检索
5.
到这些属性 [
75]
.
De ID2+ 的 提 出 不 仅 能 够 显 著 提
ep Abde d 等人 80 81 结合隐马尔科夫建立了
l-Hami
[ , ]
t-5 网 络 结 构 在 图 像 中 的 卷 积 核 大 小 为 5×5
LeNe CNN 模型 的 分 类 性 能 优 于 对 照 文 献 的 分 类 性 能 .
不一样,图像中的卷积核一般不会包含全部的行 .通 cova等人 91 2012 年统计了市场上一些心电图
Haka
[ ]
97%.此外文 献 [
94. 87]还 采 用 该 算 法 对 CCDD 数 董军 [48]在 ECG-CNN 模型上做了改进,提出了导联
据库的 Se
tIV 数 据 集 共 11760 条 记 录 进 行 按 记 录 卷积神经网络( LeadConvolu
tiona
lNeuralNetwok,
r
的病 人 间 正 异 常 分 类,最 终 准 确 率 为 83.
49% ,文 LCNN)模型 .图 8 所 示 为 基 于 记 录 分 类 的 LCNN
献[89]和[90]在 该 数 据 集 中 得 到 的 准 确 率 分 别 为 结构 .
15% 和72.
70. 14% .从 上 述 对 比 结 果 可 知 ,ECG-
等人 [
将 LCNN 作为基分类器提出了一种基于集成
94]
多尺度 CNN 的时间序列分类模 型(称 为 MCNN 模
学习的室性早博识别方法,采用该方法对 MIT-BIH 型).MCNN 模 型 包 含 3 个 阶 段:变 换 阶 段、局 部 卷
中的 48 条记录进行 室 性 早 搏 心 拍 分 类 得 到 的 准 确 积阶段、全卷积阶 段 .变 换 阶 段:首 先 对 输 入 数 据 分
率为 99.
91% ;同 时 该 文 还 注 重 模 拟 医 生 诊 断 ECG 别采用不同的变换(包含时域中的恒等映射、下采样
的思维过程,采用 LCNN 与室性早搏诊断规则相结 变换以及频域中的光谱变换),假设原始输入数据分
合的方法对 CCDD 进行 按 记 录 的 室 性 早 搏 分 类,得 别经过上述 3 种变换,则得到 3 种变换数据 .局部卷
87%.在 与 文 献 [
到的测试准 确 率 为 97. 48]相 同 的 积阶段:将 3 种变换 数 据 作 为 3 个 并 联 卷 积 层 的 输
数据集上,
Jin 等人 ① 还分别采用显性训练方法及 隐 入(一种 变 换 数 据 输 入 到 一 个 卷 积 层 中,这 与 文 献
性训练 方 法 独 立 训 练 两 个 LCNN 模 型 并 进 行 正 异 48]的 LCNN 模 型 类 似 ),每 个 卷 积 层 后 紧 随 着 一
[
常分类,然后采用集成学习中的融合规则方法融合这 个池化层 .全卷积阶段:局部卷积阶段的 3 个池化层
两个分类器的判别结果,最后再采用规则推理分别对 连接到同一个卷积层中进行信息汇总,在该阶段中可
LCNN 融合后判断出来 的 正 异 常 类 作 再 次 判 断,最 以采用多个卷积层和多个池化层进行交替设置,最后
终得到的准 确 率 为 86.
22% ,所 得 分 类 结 果 优 于 文 跟随着 一 个 全 连 接 层 及 so
ftmax 层 .与 文 献 [
48]相
献[
48].实验结果表明,利 用 CNN 与 其 它 方 法 相 结 比:MCNN 在 卷 积 层 中 将 多 通 道 的 数 据 进 行 整 合,
合是提升整体分类性能的一种有效途径 . 文献[48]则在全连接层中进行信息汇总,MCNN 对
然而在文 献 [
48, 94]的 CNN 结 构 中,它 们
87, 卷积核大小及池化 核 大 小 的 设 置 也 不 一 样 .MCNN
的全连接层只能接 受 固 定 长 度 的 输 入,因 此 在 网 络 可以处理 多 元 时 间 序 列,它通过将 原 始 数 据 下 采 样
训练之前需要将 ECG 记录截取到固定长度 .但是在 到不同的时间尺度使其不仅能够提取不同尺度的低
实际应 用 中,ECG 记 录 的 长 度 通 常 不 一 致,如 在 级特征还能够提取更高级的特征 .
CNN 除了用于时
CCDD 中 ECG 记录 的 长 度 为 10s~30s,而 且 有 的 间序列分类外,
还可以用于时间序列度量学习[98].
疾 病(如 早 搏)可 以 发 生 在 一 条 记 录 的 前 几 秒 ,它
5 其它应用
5.
也 可 发 生 在 记 录 中 的 中 间 几 秒 或 者 最 后 几 秒 ,这
Redmon 等人 99 将目标检测看成是一个回归问
[ ]
种截取到固定长度的方式可能会使信 息 丢 失 比 较
题,采用一个 具 有 24 个 卷 积 层 和 2 个 全 连 接 层 的
严重.
CNN 结 构 (也 称 为 YOLO,
You On
lyLook On
ce)进
ng等人 95 96 将一种多通道的深层 CNN 模型
[ , ]
Zhe
行目标检 测 .在 YOLO 中,输 入 整 幅 图 像,并 将 图 像
(Mu
lti-Chann
elsDe ep Convo
lut
ion Ne
ura
lNe
two
rks,
划分为 7×7 个网格,通过 CNN 预测每 个 网 格 的 多
MC-DCNN)应用于时 间 序 列 分 类 中,每 一 通 道 的 数
个包围盒(
bound
i s,用 来 包 裹 场 景 中 目 标 的
ngboxe
据都首先经 过 一 个 独 立 的 CNN 结 构,其 中 每 一 通
几何体)及 这 些 包 围 盒 的 类 别 概 率 .YOLO 将 整 幅
道的输入是 一 个 时 间 序 列,然 后 将 每 一 个 CNN 结
构的最后一 层 卷 积 层 全 连 接 到 MLP 中 进 行 分 类,
① Ji
nL i
n-Peng,DongJun.C lass
if
ica
tionofnormalandabnormal
在 BIDMC 充血性心力衰竭数 据 集 上 的 检 测 准 确 率 ECGr ecordsusi
ngl e
adc onvol
utionalneura
lne tworkand
ruleinf
erence[J].Sc iences China Inf
ormati
on Science,
为94.
65% ,优于其他一些算法 .
Kir z等人 27 提
anya
[ ]
2017.doi:10.1007/s11432-016-9047-6)
1244 计 算 机 学 报 2017 年
位,这也使得它的检测精度小于 Fa
ste
[ ]
rR-CNN 100 , 积来衡量每 个 CNN 结 构 的 室 性 早 搏 分 类 性 能 .一
但是 YOLO 的 速 度 更 快 .
Fast
erR-CNN 是 候 选 框 般来说,
AUC 值越大,算法分类性能越好 .
网络 Reg
( i
on Pr
oposalNe two RPN)100 与 Fa
rk,
[ ]
s
t 本文 所 采 用 的 网 络 结 构 深 度 共 有 4 种:深 度 为
R-CNN 101 结合并 共 享 卷 积 层 特 征 的 网 络,它 也 是
[ ]
5(含 输 入 层、输 出 层、全 连 接 层、
1个卷积层及1个
基于分类 器 的 方 法 [79].由 于 YOLO 检 测 精 度 不 是
池化层)、
7(含 输 入 层、输 出 层、全 连 接 层、
2个卷积
很 高,因 此 Lu 等 人 102 基 于 YOLO 提 出 了 SSD
i
[ ]
层及 2 个池化层)、
9(含 输 入 层、输 出 层、全 连 接 层、
(
Sing
leSho
tDe t
ect
or)模 型 .SSD 利 用 了 YOLO 的
3 个卷积层及 3 个池化层)及 11(含输入层、输出层、
回归思 想,同 时 还 借 鉴 了 Fa
str R-CNN 的 锚 点 机
e
全连 接 层、
4 个 卷 积 层 及 4 个 池 化 层).首 先 讨 论 卷
制( r机制).它与 YOLO 一样通过回归获取目
ancho
积核大小对分类性能的影响 .实验过程:分别对每一
标位置和类 别,不 同 的 是:
SSD 预 测 某 个 位 置 采 用
种深度设置 5 个 不 同 的 CNN 模 型,这 5 个 不 同 的
的是该位置 周 围 的 特 征 .最 终,
SSD 获 得 的 检 测 精
CNN 模型除 卷 积 核 大 小 外,其 它 参 数 如 特 征 面 数
度与 Fa
str R-CNN 的 差 不 多,但 是 SSD 保 持 了
e
目、池 化 核 大 小、全 连 接 层 神 经 元 个 数 均 相 同 .如
YOLO 快 速 检 测 的 特 性 .此 外,
CNN 还 可 用 于 短 文
表 2 所示 .
本聚类 [103]
、视觉追踪 [
104]
、图像融合 [105]等领域中 .
表 2 列出了每个卷积层和池化层对应卷积核的
6 CNN 的优势
5.
大小及池 化 核 的 大 小 .每 一 行 参 数 构 成 一 个 CNN
CNN 具有 4 个特点:局部连接、权值共享、池化
模型,表中特征面数 目 为 每 个 卷 积 层 所 采 用 的 特 征
操作及多 层 结 构 [11].
CNN 能 够 通 过 多 层 非 线 性 变
面个数,由于卷积层与池化层特征面唯一对应,所以
换,从数据中自动学习特征,从而代替手工设计的特
卷积层特征面个数 确 定 后,紧 跟 其 后 的 池 化 层 特 征
征,且深层的结构使它具有很强的表达能力和学习能
面个数也唯 一 确 定 .表 2 的 这 5 个 CNN 模 型 只 有
力[70].许多研究实验已经表明了 CNN 结构中深度的
重要性 .例如从结构来看, 卷积核大小不同 .从表 2 的分类结果可看出,对于网
Al t、
exNe VGG、
Goo
leNe
t
及 Re 络深度为 11 的模型,随着卷积核变大,
AUC 先增加
t的一个典型 的 发 展 趋 势 是 它 们 的 深 度 越
sNe
来越深 [37].在 CNN 中,通过增加深度从而增加网络 后减小 .对于另外 3 组实验:在深度为 5 和 7 的模型
来看,随着 模 型 深 度 的 增 加,其 分 类 结 果 也 越 来 越
好 .在本实验中,模型通常在池化核 大 小 为 2 或 者 3
时取 得 相 对 较 好 的 分 类 结 果 .表 3 列 出 了 深 度 为 9
的 3 个不同网络结构的 CNN 室性早搏分类结果 .
为了 探 讨 特 征 面 数 目 对 分 类 性 能 的 影 响,这 里
我们也对每一种深度分 别 设 置 5 个 不 同 的 CNN 模
型 .其 中,这 5 个 CNN 模 型 除 特 征 面 数 目 外,其 它
参数设置一 样 .通 过 实 验 发 现,如 果 特 征 面 数 目 过
小,其分类性能较 差 .这 是 由 于 特 征 面 数 目 过 少,使
图 9 卷积核大小与分类性能的影响 得一些有利于网络 学 习 的 特 征 被 忽 略 掉,因 而 不 利
为了讨论池化 核 大 小 对 分 类 性 能 的 影 响,我 们 于模型的学习 .然而,当特征面数目大于 40 时,模型
同样对每 一 种 深 度 分 别 设 置 3 个 不 同 的 CNN 模 的训练时间大大增加,这同样不利于模型的学习 .通
型 .类似地,这 3 个 CNN 模型,除了池化核大小外, 过实验可知,本实验中,比较好的特征面数目选取范
其他参数设置均相 同 .由 于 池 化 核 大 小 要 使 式 (
11) 围为[
10,35].表 4 列 出 了 深 度 为 11 的 5 个 不 同 网
能够整除,因此对于某一深度的网络,池化核大小不 络结构 的 CNN 分 类 结 果,在 这 5 个 CNN 结 构 中,
能够随意取值 .从几组实验的结果来看,一般来说随 只有特征 面 数 目 不 同,且 随 着 特 征 面 数 目 的 增 加,
着池化核大小的增加,
AUC 先 增 加 后 减 小 .从 总 体 AUC 先增加再减小后增加 .
表 3 深度为 9 的 3 个不同网络结构的 CNN 分类结果
S
tage
1 S
tage
2 S
tage
3
特征面数目 深度 AUC
卷积层 池化层 卷积层 池化层 卷积层 池化层
1×5 1×1 1×5 1×1 1×5 1×1 (
16,
16,
16) 9 0.
9970
Dep_
9 1×5 1×2 1×5 1×2 1×5 1×2 (
16,
16,
16) 9 0.
9980
1×5 1×4 1×5 1×5 1×5 1×5 (
16,
16,
16) 9 0.
9978
表 6 中 CNN(
7L)表示该 CNN 的 深 度 为 7 层, 2)对 于 一 个 具 体 的 任 务,仍 很 难 确 定 使 用 哪
(
而 CNN(
9L)模型的深度为 9 层 .从上述结果也可看 种网络结构,使用多少层,每一层使用多少个神经元
出,在两个 数 据 集 上 CNN(
9L)模 型 所 得 各 指 标 均 等才是合适的 .仍然 需 要 详 细 的 知 识 来 选 择 合 理 的
高于 CNN(
7L)模 型,同 时 也 说 明 了 增 加 网 络 的 层 值如学习率、正则化的强度等 [107].
数可以挖掘脉搏波更深层的特征,深度越深,模型的 3)如果训练数 据 集 与 测 试 数 据 集 的 分 布 不 一
(
性能越好 . 样,则 CNN 也很难获得 一 个 好 的 识 别 结 果,特 别 是
对于复杂的数据例 如 临 床 ECG 数 据 .因 此,需 要 引
7 总 结 入 CNN 模型的 自 适 应 技 术,可 考 虑 将 自 适 应 抽 样
等应用于 CNN 模型中 [16].
近年来,
CNN 的局部连接、权值共享、池化操作 4)尽管 依 赖 于 计 算 机 的 CNN 模 型 是 否 与 灵
(
及多层结构等优良特性使其受到了许多研究者的关 长类视觉系统相似 仍 待 确 定,但 是 通 过 模 仿 和 纳 入
注.
CNN 通 过 权 值 共 享 减 少 了 需 要 训 练 的 权 值 个 灵长类视觉系统也能 使 CNN 模 型 具 有 进 一 步 提 高
数、降低了网络的计算复杂度,同时通过池化操作使 性能的潜力 [107].
得网络对输入的局部变换具有一定的不变性如平移 5)目 前,
( CNN 在 计 算 机 辅 助 ECG 分 析 领 域
不 变 性、缩 放 不 变 性 等,提 升 了 网 络 的 泛 化 能 力 . 中,其输入维数需保持一致 .为了使输入维数保持一
CNN 将原始数据直接输入到网络中,然后隐性地从 致,需要将原始数据截取 到 固 定 长 度,然 而 RNN 可
训练数据中进行网络学习,避免了手工提取特征、从 以处理长 度 不 等 的 数 据,因 此 需 考 虑 如 何 将 CNN
而导致误差累积的缺点,其整个分类过程是自动的 . 与 RNN 相结合,并应用于 ECG 记录分类中 .
虽然 CNN 所具有的这些 特 点 使 其 已 被 广 泛 应 用 于 6)在 隐 性 训 练 中,如 何 将 整 个 训 练 过 程 中 的
(
各种领域中,但其优 势 并 不 意 味 着 可 以 解 决 或 改 善 最佳分类模型保存 下 来 也 是 一 个 值 得 探 讨 的 问 题 .
以往各种问题 .比如,由对金融数据的初步分析结果 在文献[
48]的隐性 训 练 中,当 所 有 的 训 练 样 本 在 一
可知,
CNN 并未获 得 预 期 性 能,可 能 原 因 是 金 融 数 个训练周期 内 都 参 与 BP 反 向 传 播 过 程 后,才 输 出
据本身缺乏规律、易 受 干 扰 以 及 预 测 结 果 反 过 来 会 整个训练中的测试结果,如 果 此 时 其 准 确 率 是 目 前
影响走势等特点所致 .
CNN 仍有许多工作需要进一 为 止 最 高 的 ,则 保 存 当 前 分 类 模 型 .事 实 上 ,我 们
步去做: 还 可 以 对 它 做 进 一 步 的 改 进 ,例 如 当 部 分 样 本 进
(1)目 前 所 使 用 的 CNN 模 型 是 Hube
l-Wi
ese
l 行 BP 训 练 后 ,就 可 采 用 校 验 样 本 测 试 当 前 的 模
模型 简化的版本,有待进一步借鉴 Hube
[
28]
l-Wi
ese
l 型 ,然后判断该模型 是 否 为 迄 今 为 止 性 能 最 佳 的 分
模型,对它进行深入 研 究 并 发 现 结 构 特 点 及 一 些 规 类模型 .
律,同时还需 引 入 其 它 理 论 使 CNN 能 够 充 分 发 挥 总之,
CNN 虽然 还 有 许 多 有 待 解 决 的 问 题,但
其潜在的优势 . 是这并不影响今后它在模式识别与人工智能等领域
6期 周飞燕等:卷积神经网络研究综述 1247
中的发展与应用,它 在 未 来 很 长 的 一 段 时 间 内 仍 然 [
15] Sa
lakhu
tdnovR,Hi
i nton G.Ane
ffi
cien
tle
arn
ingp
roc
edur
e
f
orde
ep Bo
ltzmann ma
chi
nes.Neur
al Compu
tat
ion,2012,
会是人们研究的一个热点 .
24(
8):1967-2006
[
16] L
iuJ
i i, L
an-We iu Yuan, Luo Xi
ong-L
in. Re
sea
rch and
致 谢 感谢朱洪海博士关于金融数据的尝试!
deve
lopmen
ton Bo
ltzmann ma
chi
ne.J
our
nalo
f Compu
ter
Re
sea
rchandDeve
l t,2014,51(
opmen 1):1-16(
inCh
ine
se)
参 考 文 献 (刘建伟,刘媛,罗雄麟 .波尔兹曼机研究进展 .计算机 研 究
与发展,2014,51(
1):1-16)
[
17] Vi
nc tP,La
en roche
lle H,Beng
io Y,e
tal.Ex
tra
cti
ngand
[
1] McCu
llch W S,P
o itt
s W.A l
ogi
calc
alcu
lus o
fthei
dea
s
c
ompo
sing r
obus
tfe
atur
es wi
th deno
isi
ng au
toenc
ode
rs//
ti
immanen n ne
rvous a
cti
vit
y. Bu
lle
tino
f Ma
thema
tic
al
Pr
oce
edi
ngso
fthe25
thi
nte
rna
tiona
lCon
fer
enc
eon Ma
chi
ne
B
iophys
ics,1943,5(
4):115-133
[ Le
arn
ing.He
lsi
nki,F
inand,2008:
l 1096-1103
2] Ro
senb
lat
t F.The pe
rcep
tron: A p
robab
ili
sti
c mode
lfo
r
[
18] Vi
nc tP,La
en roche
lleH,Beng
ioY,e
tal.S
tackeddeno
isi
ng
i
nfo
rma
tions
tor
ageando
rgan
iza
tioni
ntheb
rai
n.Ps
ycho
log
ica
l
au
toenc
ode
rs: Le
arn
ing us
efu
lrep
res
ent
ati
ons i
n a de
ep
Rev
iew,1958,65(
6):386-408
ne
two
rk wi
thal
oca
ldeno
isi
ngc
rit
eri
on.J
our
nalo
f Ma
chi
ne
[
3] Ro
senb
lat
tF.Pr
inc
ipl
eso
f Neur
odi
nami
cs:Pr
ecep
tronand
Le
arn
ingRe
sea
rch,2010,11(
12):3371-3408
Theo
ryo
f Br
ain Me
chan
isms.Wa
shi
ngon,USA:Spa
t rtan
[
19] LeCun Y,Bo
ttouL,Beng
ioY,e
tal.Gr
adi
ent-ba
sedl
ear
ning
Books,1962
[ app
liedt
odo
cumen
tre
cogn
iti
on.Pr
oce
edi
ngso
ftheIEEE,
4] Rume
lha
rtDE,Hi
ntonG,Wi
ll
iamsRJ.Le
arn
ingr
epr
esen-
1998,86(
11):2278-2324
t
ati
ons by ba
ck-p
ropaga
ting e
rro
rs. Na
t e, 1986, 323
ur
( [
20] LeCun Y,Bo
ser B,Denke
r J S,e
tal.Ba
ckp
ropaga
tion
6088):533-536
[ a
ppl
iedt
oha
ndwr
it
tenz
ipc
oder
eco
gni
tion.Ne
ura
lCompu
tat
ion,
5] Co
rts C, Vapn
e ik V.Suppo
rt ve
cto
r ne
two
rks. Ma
chi
ne
1989,11(
4):541-551
Le
arn
ing,1995,20(
3):
273-297
[
21] Dav
idS,Huang A,Madd
idon C J.Ma
ste
ringt
hegameo
f
[
6] Hi
nton G,Sa
lakhu
tdi
nov R R.Reduc
ingt
hed
imens
iona
lit
y
Go wi
th de
ep neur
al ne
two
rks and t
rees
ear
ch. Na
t e,
ur
o
fda
ta wi
th neur
alne
two
rks.Sc
i e,2006,313(
enc 5786):
2016,529(
7587):484-489
504-507
[ [
22] Lawr eS,Gi
enc lesCL,Ts
oiA C,e
tal.Fa
cer
ecogn
iton:A
i
7] Yu Ka
i,J
i i,Chen Yu-Qi
a Le ang,e
tal.De
ep l
ear
ning:
Ye
ste
rdy,t
a ody,a
a ndt
omo
rrow.J
our
nalo
fCompu
terRe
sea
rch c
onvo
lut
iona
lneur
al-ne
two
rk app
roa
ch.IEEE Tr
ans
act
ions
ndDeve
a l t,2013,50(
opmen 9):1799-1804(
inCh
ine
se) on Neur
alNe rks,1997,8(
two 1):98-113
(于凯,贾磊,陈宇强 等 .深 度 学 习 的 昨 天、今 天 和 明 天 .计 [
23] Neubaue
rC.Eva
lua
tiono
fconvo
lut
iona
lneur
alne
two
rksf
or
算机研究与发展,2013,50(
9):1799-1804) v
isua
lre
cogn
iti
on.IEEE Tr
ans
act
ionson Neur
alNe rks,
two
[
8] Beng
ioY,Lamb
linP,Popov
iciD,e
tal.Gr
eedyl
aye
r-wi
se 1998,9(
4):
685-696
t
rai
ningo
fde
epne
two //Pr
rks oce
edi
ngso
fthe2007Advanc
es [
24] Kr
izhe
vsky A,Su
tske
ve I,Hi
rI ntonG.Imagene
tcl
ass
if
ica
tion
i
nNe
ura
lIn
forma
tionPr
oce
ssi
ngSy
stems.Va
ncouv
er,Ca
naa,
d wi
thde
epc
onvo
lut
iona
lneur
alne
two //Pr
rks oce
edi
ngso
fthe
2007:153-160 Advanc
esi
n Neur
alI
nfo
rma
tion Pr
oce
ssi
ng Sys
tems.Lake
[
9] Ran
zao M A,Pou
t lt yC,Chop
ne raS,e
tal.Ef
fi
cien
tle
arn
ing Tahoe,USA,2012:1097-1105
o
f spa
rser
epr
esen
tat
ions wi
th an ene
rgy-ba
sed mode
l// [
25] Na
ir V, Hi
nton G E, Fa
rabe
t C.Re
cti
fied l
ine
ar un
its
Pr
oce
edi
ngs o
fthe 2007 Advanc
esi
n Neur
alI
nfo
rma
tion imp
rover
est
ric
ted Bo
ltzmann ma
chi
ne//Pr
s oce
edi
ngso
fthe
Pr
oce
ssi
ngSys
tems.Vanc r,Canada,2007:1137-1144
ouve 27
thI
nte
rna
tiona
lCon
fer
enc
eon Ma
chi
ne Le
arn
ing.Ha
ifa,
[
10] ErhanD,Beng
ioY,Cour
vil
leA,e
tal.Whydoe
sunsupe
r- I
sra
el,2010:807-814
v
ised p
re-t
rai
ning he
lp de
epl
ear
ning?J
our
nalo
f Ma
chi
ne [
26] Hagan M T,Demu
th H B,Be
ale M H.Neur
al Ne
two
rk
Le
arn
ingRe
sea
rch,2010,11(
3):625-660 De
sign.Tr
ans
laed by Da
t i, Be
i Ku ii
jng: Ch
ina Ma
chi
ne
[
11] Le
cun Y,Beng
io Y, Hi
nton G.De
ep l
ear
ning.Na
t e,
ur Pr
ess,2002(
inCh
ine
se)
2015,521(
7553):436-444 (Hagan M T,Demu
th H B,Be
ale M H.神 经 网 络 设 计 .戴
[
12] Beng
ioY.Le
arn
ingde
epa
rch
ite
ctur
esf
or AI.Founda
tions 葵,译 .北京:机械工业出版社,2002)
andTr
endsi
n Ma
chi
neLe
arn
ing,2009,2(
1):1-127 [
27] Ki
r zS,I
anya nce T,Gabbou
j M.Re
al-t
imepa
tien
t-s
pec
ifi
c
[
13] Hi
nton G,Os
inde
roS,Teh Y-W.Af
astl
ear
ninga
lgo
rit
hm ECG c
las
sif
ica
tion by 1D c
onvo
lut
iona
l neur
al ne
two
rks.
f
orde
ep be
lie
f ne
ts.Neur
al Compu
tat
ion,2006,18(
7): IEEE Tr
ans
act
ionsonB
iomed
ica
lEng
ine
erng,2016,63(
i 3):
1527-1554 664-675
[
14] Sa
lakhu
tdnov R, Hi
i nton G. De
ep Bo
ltzmann ma
chi
nes. [
28] Hub
elD H,Wi
ese
lT N.Re
cep
tiv
efi
eld
sbi
noc
ula
rin
ter
act
ion,
J
our
nalo
f Ma
chi
ne Le
arn
ing Re
sea
rch-Pr
oce
edi
ngs Tr
ack, andf
unc
tiona
lar
chi
tec
tur
eint
hec
at’
svi
sua
lco
rtex.J
our
nal
2009,9(
1):448-455 o
fPhys
ioogy,1962,160(
l 1):106-154
1248 计 算 机 学 报 2017 年
[
29] Fuku
shimaK.Ne
oco
gni
tron:A s
elf-o
rga
niz
ingn
eur
aln
etwo
rk [
44] Sr
iva
stavaN,Hi
nton G,Kr
i sky A,e
zhev tal.Dr t:A
opou
mode
lfo
ra me
chan
ism o
fpa
tte
rnr
ecogn
iti
on una
ffe
ctedby s
imp
le way t
opr
even
t neur
al ne
two
rks f
rom ove
rfi
tti
ng.
sh
ifti
npo
sit
ion.B
iol
ogi
calCybe
rne
tis,1980,36(
c 4):193- J
our
nalo
f Ma
chi
neLe
arn
ing Re
sea
rch,2014,15(
6):1929-
202 1958
[
30] Yo
oH-J.De
epc
onv
olu
tionn
eur
aln
etwo
rksi
ncompu
terv
ison:
i [
45] Sa
ina
thaT N,Ki yaB,SaonaG,e
ngsbur tal.De
epc
onvo
lu-
Ar
evi
ew.IEIE Tr
ans
act
ions on Sma
rt Pr
oce
ssi
ng and t
iona
lneur
alne
two
rksf
orl
arge-s
cal
espe
echt
asks.Neur
al
Compu
ting,2015,4(
1):35-43 Ne rks,2015,64(
two Spe
cia
lIsue):39-48
s
[
31] GaoL
i-Gang,ChenPa
i-Yu,YuSh
i-Meng.Demons
tra
tiono
f [
46] ChuJL,Kr
zyz
ak A.Ana
lys
iso
ffe
atur
e mapss
ele
cti
oni
n
c
onvo
lut
ion ke
rne
lope
rat
ion onr
esi
sti
vec
ros
s-po
inta
rray. //
supe
rvi
sedl
ear
ning us
ing c
onvo
lut
iona
l neur
al ne
two
rks
IEEE El
ect
ronDev
iceLe
tte
rs,2016,37(
7):870-873
Pr
oce
edi
ngso
fthe 27
th Canad
ian Con
fer
enc
e on Ar
tif
ici
al
[
32] J
inL
in-Peng. S
tudy on App
roa
ch o
f El
ect
roc
ard
iog
ram
I
nte
ll
igenc
e.Mon
tre
al,Canada,2014:59-70
C
las
sif
ica
tionf
orC
lin
ica
l App
lic
aton[
i Ph.D.d
iss
ert
aton].
i
[
47] Cao K,J
ain A K.La
ten
tor
ien
tat
ion f
iel
des
tima
tion v
ia
Suzhou I
nst
itu
teo
f Nano-t
ech and Nano-b
ion
ics,Ch
ine
se
c
onvo
lut
iona
lneur
alne rk//Pr
two oce
edi
ngso
fthe2015I
nte
r-
Ac
ademyo
fSc
ienc
es,Suzhou,2016(
inCh
ine
se)
na
tiona
lCon
fer
enc
eonB
iome
tri
c t,Tha
s.Phuke iland,2015:
(金林鹏 .面向 临 床 应 用 的 心 电 图 分 类 方 法 研 究 [博 士 学 位 论
349-356
文].中国科学院苏州纳米技术与纳米仿生研究所,苏州,2016)
[
48] J
inL
in-Peng,DongJun.De
epl
ear
ningr
ese
arch onc
lin
ica
l
[
33] Xu B
ing, Wang Na
i-Yan,Chen Ti
an-Qi,e
tal.Emp
iri
cal
e
lec
tro
car
diog
ram ana
lys
is. Sc
ienc
e Ch
ina: I
nfo
rma
tion
eva
lua
tion o
fre
cti
fied a
cti
vat
ionsi
nconvo
lut
ion ne
two
rk.
Sc
ienc
es,2015,45(
3):398-416(
inCh
ine
se)
a v:
rXi 00853v2,2015
1505.
(金林鹏,董军 .面向临床心电图分析的 深 层 学 习 算 法 研 究 .
[
34] J
arr
ett K,Kavukcuog
lu K, Ma
rc’Aur
eli
o Ranz
ato,e
tal.
中国科学:信息科学,2015,45(
3):398-416)
Wha
tist
hebe
stmu
lti
-st
agea
rch
ite
ctu
ref
orob
jec
tre
cogn
iton?
i
//Pr [
49] HuangJu ng,L
i-Ti iJn-Yu,Gong Yi-Fan.An ana
i lys
iso
f
oce
edi
ngs o
f t
he 2009 IEEE 12
th I
nte
rna
tiona
l
Con
fer eonCompu
enc terVi
sion.Kyo
to,J
apan,2009:2146- c
onvo
lut
iona
l neur
al ne
two
rks f
or spe
ech r
ecogn
iton//
i
2153 Pr
oce
edi
ngso
ftheIEEEI
nte
rna
tion
alCon
fer
enc
eon Ac
ous
tis,
c
[
35] Beng
ioY,Cour
vil
leA,Vi
ncen
tP.Rep
res
ent
ati
onl
ear
ning: Spe
echand S
igna
lPr
oce
ssng (
i ICASSP).Sou
th Br
isbane,
Ar
evi
ewandnewpe
rspe
cti
ves.IEEE Tr
ans
act
ionsonPa
tte
rn Aus
tra
lia,2015:4989-4993
Ana
lys
isand Ma
chi
neI
nte
ll
i e,2013,35(
genc 8):1798-1828 [
50] L
i n,ChenQi
n Mi ang,YanShu
i-Cheng.Ne
two
rki
nne
two
rk.
[
36] He Ka ng,Sun J
i-Mi ian.Convo
lut
iona
lneur
alne
two
rksa
t a v:
rXi 4400v3,2013
1312.
c
ons
tra
inedt
imec
os//Pr
t oce
edi
ngso
ftheIEEE Con
fer
enc
e [
51] XuChun-Yan,LuCan-Yi,L
i ao-Dan,e
angXi tal.Mu
lti
-lo
ss
on Compu
ter Vi
sion and Pa
tte
rn Re
cogn
iton (CVPR ).
i r
egu
lar
izdd
e e
epn
eur
aln
etwo
rk.IEEE T
ran
sac
tion
s on C
irc
uit
s
Bo
ston,USA,2015:5353-5360 andSys
tems Fo
r Vi
deo Te
chno
logy,2015,26(
12):2273-
[
37] GuJ
i ang,WangZhen-Hua,J
u-Xi ason Kuen,e
tal.Re
cen
t 2283
advanc
esi
nconvo
lut
iona
l neur
al ne
two
rks.a v:1512.
rXi [
52] J
ade
rbe
rg M,S
imonyan K,Z
iss
erman A,e
tal.Spa
tia
l
07108v5,2017 t
rans
forme
rne
two
rks.a v:
rXi 02025v3,2016
1506.
[
38] Bour
eau Y-L,Roux N L,Ba
ch F,e
tal.Askt
hel
oca
ls: [
53] Ze
ilrM D,Kr
e ishnanD,Tay
lorG W,e
tal.De
convo
lut
iona
l
Mu
lti-wayl
oclpoo
a lingf
orimager
ecogn
iton//Pr
i oce
edi
ngs //Pr
ne
two
rks oce
edi
ngso
ftheIEEECon
fer
enc
eonCompu
ter
o
fthe2011I
nte
rna
tiona
l Con
fer
enc
e on Compu
ter Vi
sion.
Vi
sionandPa
tte
rnRe
cogn
iti
on.SanFr
anc
iso,USA,2010:
c
Ba
rce
lona,Spa
in,2011:2651-2658
2528-2535
[
39] Ze
ilr M D,Fe
e rgus R.S
tocha
sti
cpoo
lingf
orr
egu
lar
iza
tion
[
54] Ze
ile
r M D. Vi
sua
liz
ing and unde
rst
and
ing c
onvo
lut
iona
l
fde
o epc
onvo
lut
iona
lneur
alne
two
rks.a v:
rXi 3557v1,
1301.
ne
two //Pr
rks oce
edi
ngso
fthe13
th Eur
ope
an Con
fer
enc
eon
2013
Compu
terVi
sion (
ECCV).Zur
ich,Swi
tze
rland,2014:818-
[
40] Bour
eau Y-L,Ponc
eJ,LeCun Y.A t
heo
ret
ica
lana
lys
iso
f
833
f
eat
urepoo
lingi
nvi
sua
lre
cogn
iti
on.I
nte
rna
tiona
lCon
fer
enc
e
[
55] ZhaoJun-Bo,Ma
theu M,Go
i rosh
inR,e
tal.S
tackedwha
t-
on Ma
chi
neLe
arn
ing,2010,32(
4):111-118
whe
reau
to-enc
ode
rs.a v:
rXi 02351v8,2016
1506.
[
41] Bour
eau Y-L,Ba
ch F,LeCun Y,e
tal.Le
arn
ing mi
d-l
eve
l
[
56] J
iangZong-L
i.I
ntr
oduc
tiont
o Ar
iti
fic
ial Neur
al Ne
two
rks.
f
eat
ursf
e o
rre
cogn
iton//Pr
i oce
edi
ngso
ftheIEEECon
fer
enc
e
Be
ii
jng:Hi
ghe
rEduc
ati
onPr
ess,2001(
inCh
ine
se)
onCompu
terVi
sionandPa
tte
rnRe
cogn
iti
on.SanFr
anc
iso,
c
(蒋宗 礼 . 人 工 神 经 网 络 导 论 . 北 京:高 等 教 育 出 版 社,
USA,2010:2559-2566
[
42] Sa hT N,MohamedA,Ki 2001)
ina
t yB,e
ngsbur tal.De
epc
onvo-
l
uti
ona
l neur
al ne
two
rks f
or LVCSR//Pr
oce
edi
ngs o
fthe [
57] Faus
ettL.Fundamen
tal
sofNeu
ralNe
two
rks:Ar
chi
tec
tur
es,
IEEE I
nte
rna
tiona
l Con
fer
enc
e on Ac
ous
tis,Spe
c ech and Al
gor
ithms,andApp
lic
atons.London:Pr
i ent
ice-Ha
ll,1994
S
igna
lPr
oce
ssi
ng.Vanc r,Canada,2013:8614-8618
ouve [
58] Ng
iam J, Koh P W, Chen Z,e
tal.Spa
rsef
il
ter
ing//
[
43] O’ aK,Na
She shR.Ani
ntr
oduc
tiont
oconvo
lut
iona
lneur
al Pr
oce
edi
ngso
fthe Adv
anc
esi
n Neu
ralI
nfo
rma
tionPr
oce
ssi
ng
ne
two
rks.a v:
rXi 08458v2,2015
1511. Sys
tems24 (
NIPS2011).Gr
anada,Spa
in,2011:1125-1133
6期 周飞燕等:卷积神经网络研究综述 1249
[
59] DongZhen,Pe ng-Tao,He Yang,e
i Mi tal.Veh
icl
etype [
74] Sun Yi, Chen Yu-Heng, Wang Xi
ao-Gang,e
tal.De
ep
c
las
sif
ica
tionu
singun
sup
erv
ise
dconv
olu
tion
aln
eur
aln
etwo
rk// l
ear
ningf
acer
epr
esen
tat
ionbyj
oin
tiden
tif
ica
tion-ve
rif
ica
tion
Pr
oce
edi
ngso
fthe22ndI
nte
rna
tiona
lCon
fer
enc
eon Pa
tte
rn //Pr
oce
edi
ngs o
fthe Advanc
esi
n Neur
alI
nfo
rma
tion
Re
cogn
iti
on.S
to lm,Sweden,2014:172-177
ckho Pr
oce
ssi
ngSys
tems.Mon
tre
al,Canada,2014:1988-1996
[
60] DongZhen,Wu Yu-We
i,Pe ng-Tao,e
iMi tal.Veh
icl
etype [
75] Sun Yi, Wang Xi
ao-Gang,Tang Xi
ao-Ou.De
epl
yle
arned
c
las
sif
ica
tion us
ing a s
emi
supe
rvi
sed c
onvo
lut
iona
l neur
al f
acer
epr
esen
tat
ions a
re spa
rse,s
ele
ctve,and Robus
i t//
ne
two
rk.IEEE Tr
ans
act
ions on I
nte
ll
igen
t Tr
anspo
rta
tion Pr
oce
edi
ngso
ftheIEEE Con
fer
enc
eonCompu
terVi
sionand
Sys
tems,2015,16(
4):2247-2256 Pa
tte
rn Re
cogn
iton (
i CVPR).Bo
ston,USA,2015:2892-
[
61] J
inL
i ng,DongJ
n-Pe un.En
semb
led
eepl
ear
ningf
orb
iome
dic
al 2900
t
ime s
eri
esc
las
sif
ica
tion. Compu
tat
iona
lIn
tel
ligenc
e and [
76] Sun Yi,L
i ng,WangXi
angDi ao-Gang,e
tal.De
epID3:Fa
ce
Neur
osc
i e,2016,2016(
enc 3):1-13 r
ecogn
iton wi
i th ve
ry de
ep neur
alne
two
rks.a v:1502.
rXi
[
62] J
iaYa ng,Sh
ng-Qi elh rE,Don
ame eJ,e
ahu tal.Ca
ffe:Conv
olu- 00873v1,2015
t
ion
ala
rch
ite
ctur
efo
rfa
stf
eat
ureembedd
ing//Pr
oce
edi
ngso
f [
77] Schr
offF,Ka
len
ichenko D,Ph
ilb
inJ.Fa
c t:A un
eNe ifi
ed
t
heACM I
nte
rna
tiona
lCon
fer
enc
eon Mu
ltimed
ia.Or
lando, embedd
ingf
orf
acer
ecogn
iti
on andc
lus
ter
ing//Pr
oce
edi
ngs
USA,2014:675-678 o
fthe IEEE Con
fer
enc
e on Compu
ter Vi
sion and Pa
tte
rn
[
63] Al-Rf
ouR,Al
ainG,Almaha
iriA,e
ta ano:Apy
l.The thon Re
cogn
iton (
i CVPR).Bo
ston,USA,2015:815-823
[
78] Pa iO M,Veda
rkh ldiA,Z
iss
ermanA.De
epf
acer
ecogn
iti
on
f
r rkf
amewo orf
astc
ompu
tat
iono
fma
thema
tic
alexp
res
sions.
//Pr
oce
edi
ngs o
fthe Br
iti
sh Ma
chi
ne Vi
sion Con
fer
enc
e
a v:
rXi 02688v1,2016
1605.
(
BMVC2015).Swans
ea,Eng
land,2015:1-12
[
64] Bahr
ampourS,Ramakr
ishnan N,Scho
ttL,e
tal.Compa
ra-
[
79] Chang L
iang,Deng Xi ng,Zhou Mi
ao-Mi ng-Quan,e
tal.
t
ives
tudy o
f de
ep l
ear
ning s
oftwa
ref
ramewo
rks.a v:
rXi
Convo
lut
iona
lneur
alne
two
rksi
nimageunde
rst
and
ing.Ac
ta
06435v3,2016
1511.
Au
toma
tic
aSi
nia,2016,42(
c 9):1300-1312(
inCh
ine
se)
[
65] Sz
egedy C,L
i i,J
u We i ng,e
a Yang-Qi tal.Go
ing de
epe
r
(常亮,邓小明,周明全等 .图像理解中的卷积神经网 络 .自
wi
thc
onvo
lut
i //Pr
ons oce
edi
ngso
ftheIEEE Con
fer
enc
eon
动化学报,2016,42(
9):1300-1312)
Compu
terVi
sionandPa
tte
rnRe
cogn
iton (
i CVPR).Bo
ston,
[
80] Abde
l-Hami
dOs
sama,Mohamed Abde ahman,J
l-r i i,
ang Hu
USA,2015:1-9
e
tal.App
lyi
ng c
onvo
lut
iona
lneur
alne
two
rksc
onc
ept
sto
[
66] S
imonyan K,Z
iss
erman A.Ve
ryde
epc
onvo
lut
iona
lne
two
rks
hybr
id NN-HMM mode
lfo
rspe
echr
ecogn
iton//Pr
i oce
edi
ngs
f
orl
arge-s
cal
eimager
ecogn
iti
on.a v:
rXi 1556v6,2014
1409.
o
ftheIEEEI
nte
rna
tiona
lCon
fer
enc
eon Ac
ous
tis,Spe
c ech
[
67] He Ka ng, Zhang Xi
i-Mi ang-Yu, Ren Shao-Qi
ng,e
tal.
and S
igna
l Pr
oce
ssng (
i ICASSP). Kyo
to,J
apan,2012:
Spa
tia r
lpyami
d poo
lingi
n de
epc
onvo
lut
iona
lne
two
rksf
or
4277-4280
v
isua
lre
cogn
iti
on.IEEE Tr
ans
act
ions on Pa
tte
rn Ana
lys
is
[
81] Abde
l-Hami
dOs
sama,Mohamed Abde ahman,J
l-r i i,
ang Hu
and Ma
chi
neI
nte
ll
i e,2015,37(
genc 9):1904-1915
e
tal.Convo
lut
iona
lneur
alne
two
rksf
orspe
echr
ecogn
iti
on.
[
68] I
ofeS,Sz
f egedy C.Ba
tchno
rma
liz
aton:Ac
i cel
era
tingde
ep
IEEE/ACM Tr
ans
act
ionson Aud
io,Spe
ech,and Language
ne
two
rkt
rai
ningbyr
educ
ingi
nte
rna
lcova
ria
tesh
ift.a v:
rXi
Pr
oce
ssng,2014,22(
i 10):1533-1545
03167,2015
1502.
[
82] Thoma
sS,Ganapa
thyS,SaonG,e
tal.Ana
lyz
ingc
onvo
lu-
[
69] HeKa ng,ZhangXi
i-Mi ang-Yu,RenShao-Qi
ng,e
tal.De
ep
t
iona
l neur
al ne
two
rks f
or spe
ech a
cti
vit
y de
tec
tion i
n
r
esi
dua
lle
arn
ingf
orimager
ecogn
iton//Pr
i oce
edi
ngso
fthe //Pr
mi
sma
tched a
cous
ticc
ond
iti
ons oce
edi
ngs o
fthe IEEE
IEEE Con
fer
enc
eonCompu
terVi
sionandPa
tte
rnRe
cogn
iti
on.
I
nte
rna
tiona
l Con
fer
enc
e on Ac
ous
tis,Spe
c ech and S
igna
l
s,USA,2016:770-778
sVega
La
Pr
oce
ssng (
i ICASSP).F
lor e,I
enc tay,2014:2519-2523
l
[
70] Wang Xi
ao-Gang. De
ep l
ear
ning i
n image r
ecogn
iti
on. [
83] Hi
nton G,DengL
i,Yu Dong,e
tal.De
epneur
alne
two
rks
Commun
ica
tionso
ftheCCF,2015,11(
8):15-23(
inCh
ine
se)
f
ora
cous
ticmode
lingi
nspe
echr
ecogn
iton:Thesha
i redv
iews
(王晓刚 .图 像 识 别 中 的 深 度 学 习 .中 国 计 算 机 学 会 通 讯,
ff
o ourr
ese
archg
roups.IEEE S
igna
lPr
oce
ssi
ng Maga
zine,
2015,11(
8):15-23) 2012,29(
6):82-97
71] Mi
[ shk
inD,Se
rgi
evsk
iyN,Ma
tasJ.Sys
tema
ticeva
lua
tiono
f [
84] HuangJu ng,L
i-Ti iJn-Yu,Gong Yi-Fan.An ana
i lys
iso
f
CNNadvanc
esont
heimageNe
t.a v:
rXi 02228v2,2016
1606. c
onvo
lut
iona
l neur
al ne
two
rks f
or spe
ech r
ecogn
iton//
i
[
72] T
ai n Y,Ya
gma ng M,Ra
nza
to M A,e
tal.De
epFa
ce:C
los
ing Pr
oce
edi
ngso
ftheIEEEI
nte
rna
tion
alCon
fer
enc
eon Ac
ous
tis,
c
t
he gap t
o human-l
eve
l pe
rfo
rmanc
einf
ace ve
rif
ica
tion// Spe
echandS
igna
lPr
oce
ssng (
i ICASSP).Br
isbane,Aus
tra
lia,
Pr
oce
edi
ngso
ftheIEEE Con
fer
enc
eonCompu
terVi
sionand 2015:4989-4993
Pa
tte
rn Re
cogn
iton (CVPR ). Co
i lumbus, USA, 2014: [
85] DongJun,ZhangJ
i i,Zhu Hong-Ha
a-We i,e
tal.We
arab
le
1701-1708 ECG mon
ito
rs and i
tsr
emo
ted
iagno
siss
erv
icep
lat
form.
[
73] Sun Yi,WangXi
ao-Gang,TangXi
ao-Ou.De
epl
ear
ningf
ace IEEEI
nte
ll
igen
tSys
tems,2012,27(
6):36-43
r
epr
esen
tat
ionf
rom p
red
ict
ing10000c
las
se//Pr
s oce
edi
ngso
f [
86] Kad
iI,I
driA,Fe
rnande
z-Al
emanJL.Knowl
edged
isc
ove
ry
t
heIEEECon
fer
enc
eonCompu
terVi
sionandPa
tte
rnRe
cog- i
nca
rdi
ology:A s
yst
ema
ticl
ite
rat
urer
evi
ew.I
nte
rna
tiona
l
n
iti
on.Co
lumbus,USA,2014:1891-1898 J
our
nalo
f Med
ica
lIn
forma
tis,2017,97:12-32
c
1250 计 算 机 学 报 2017 年
[
87] Zhu Hong-Ha
i.Ke
yAl
gor
ithmsonCompu
ter-Ai
dedEl
ect
ro- [
97] Cu i-Cheng,Chen Wen-L
iZh in, Chen Yi-Xi
n. Mu
lti-s
cal
e
c
ard
iog
ram Ana
lys
isandDeve
lopmen
tofRemo
te Mu
lti-S
igns c
onvo
lut
iona
lneur
alne
two
rksf
ort
imes
eri
esc
las
sif
ica
tion.
Mon
ito
ringSys
tem [
Ph.
D.d
iss
ert
aton].SuzhouI
i nst
itu
teo
f a v:
rXi 06995,2016
1603.
Nano-t
echand Nano-b
ion
ics,Ch
ine
se Ac
ademyo
fSc
ienc
es, [
98] Zheng Yi,L
iu Qi,Chen En-Hong,e
tal.Convo
lut
iona
l
Suzhou,2013(
inCh
ine
se) non
line
arne
ighbourhoodc
omponen
tsana
lys
isf
ort
imes
eri
es
(朱洪海 .心电图自动识 别 的 关 键 算 法 及 多 体 征 监 护 系 统 研 c
las
sif
ica
tion//Pr
oce
edi
ngso
fthe19t
hPa
cif
ic-As
iaCon
fer
enc
e
制[博士学位论文].中国科学院苏州纳米技术与纳米仿生 研 on Knowl
edge Di
scove
ry and Da
ta Mi
ning.Ho Ch nh,
i Mi
究所,苏州,2013) Vi
etnam,2015:534-546
[
88] ZhangJ
i i,L
a-We i a,Dong Jun.CCDD:An enhanc
u Xi ed [
99] RedmonJ,Di
vva
laS,Gi
rsh
ickR,e
tal.Youon
lyl e:
ookonc
s
tanda
rd ECG da
taba
se wi
thi
ts managemen
tandanno
tat
ion Un
ifi
ed,r
eal
-time ob
jec
t de
tec
tion.a v:1506.02640v5,
rXi
t
ool
s.I
nte
rna
tiona
lJour
nal on Ar
tic
leI
nte
ll
igenc
e Too
ls, 2015
2012,21(
5):1-26 [
100] Ren Shao-Qi
ng, He Ka ng,Gi
i-Mi rsh
ick R,e
tal.Fa
ste
r
[
89] Fayya
z-u
l-Af
sar Ami
r Mi s, Muhammad Ar
nha if. Robus
t R-CNN:Towa
rdsr
eal
-timeob
jec
tde
tec
tionw
ithr
egi
onp
ropo
sal
e
lec
tro
car
diog
ram be
atc
las
sif
ica
tion us
ing d
isc
ret
e wave
let ne
two
rks.IEEE Tr
ans
act
ions on Pa
tte
rn Ana
lys
is and
t
rans
form.Phys
iol
ogi
cal Me
asur t,2008,29(
emen 5):555- Ma
chi
neI
nte
ll
i e,2016,do
genc i:10.
1109/TPAMI.2016.
570 2577031
[
90] Ma
rtsRJ,Chakr
i abo
rtyC,Ray A K.Atwo-s
tage me
cha- [
101] Gi
rsh
ick R.Fa
st R-CNN//Pr
oce
edi
ngs o
fthe 2015IEEE
n
ismf
orr
egi
str
ati
onandc
las
sif
ica
tiono
fECGus
ingGaus
sian I
nte
rna
tiona
l Con
fer
enc
e on Compu
ter Vi
sion. San
tiago,
mi
xtur
emode
l.Pa
tte
rn Re
cogn
iton,2009,42(
i 11):2979- Ch
ile,2015:1440-1448
2988 [
102] L
i i,Angue
u We lov D,Erhan D,e
tal.SSD:S
ing
lesho
t
[
91] Haka
cova N,Tr
aga
rdh-J
ohans
son E, Wagne
r G S,e
tal. mu
ltbox de
i tec
to//Pr
r oce
edi
ngs o
f t
he 14
th Eur
ope
an
Compu
ter-ba
sedrhy
thm d
iagno
sisandi
tspo
ssi
blei
nfl
uenc
e Con
fer
enc
eon Compu
ter Vi
sion.Ams
tedam,Ne
r the
rlands,
onnonexpe
rte
lec
tro
car
diog
ram r
eade
rs.J
our
nalo
fEl
ect
ro- 2016:21-37
c
ard
ioogy,2012,45(
l 1):18-22 [
103] XuJ
i ng,WangPeng,Ti
a-Mi anGuan-Hua,e
tal.Sho
rtt
ext
[
92] Vog
lT P,Mang
isJK,Ri
glrA K,e
e tal.Ac
cel
era
tingt
he c
lus
ter
ingv
iac
onvo
lut
iona
lneur
alne
two //Pr
rks oce
edi
ngso
f
c
onve
rgenc
eoft
he ba
ck-p
ropaga
tion me
thod. B
iol
ogi
cal t r,USA,2015:62-69
heNAACL-HLT2015.Denve
Cybe
rne
tis,1988,59(
c 4):257-263 [
104] Gao Jun-Yu, Yang Xi
ao-Shan, Zhang Ti
an-Zhu,e
tal.
[
93] Wang L
i-P
ing.S
tudy on App
roa
ch o
f ECG C
las
sif
ica
tion tv
Robus i
sua
ltr
ack
ing me
thod v
ia de
epl
ear
ning.Ch
ine
se
wi
th Doma
i edge[
n Knowl Ph.D.d
iss
ert
aton].Ea
i st Ch
ina J
our
nalo
fCompu
tes,2016,39(
r 7):1419-1434(
inCh
ine
se)
No
rma
lUn
ive
rsi
ty,Shangha
i,2012(
inCh
ine
se) (高君宇,杨小汕,张天柱等 .基于深度学习的鲁棒性视觉跟
(王丽苹 .融合领域知识的心电图分类方法研究[博士学位 论 踪方法 .计算机学报,2016,39(
7):1419-1432)
文].华东师范大学,上海,2012) [
105] L
iHong,L
iuFang,YangShu-Yuan,e
tal.Remo
tes
ens
ing
94] Zhou Fe
[ i-Yan,J
inL
in-Peng,Dong Jun.PVC r
ecogn
iti
on imagef
usi
onba
sedonde
epsuppo
rtva
luel
ear
ningne
two
rks.
a
lgo
rihm ba
t sed on ens
emb
lel
ear
ning. Ac
ta El
ect
ron
ica Ch
ine
seJ
our
nalo
fCompu
tes,2016,39(
r 8):1583-1596(
in
S
ini
ca,2017,45(
2):501-507(
inCh
ine
se) Ch
ine
se)
(周飞燕,金林 鹏,董 军 .基 于 集 成 学 习 的 室 性 早 博 识 别 方 (李 红 ,刘 芳 ,杨 淑 媛 等 .基 于 深 度 支 撑 值 学 习 网 络 的 遥 感
法 .电子学报,2017,45(
2):501-507) 图 像 融 合 .计 算 机 学 报 ,2016,39(
8):1583-1596)
[
95] Zheng Yi, L
iu Qi, Chen En-Hong,e
tal. Time s
eri
es [
106] Hu Xi
ao-J
uan. The Re
sea
rch on S
igna
l Pe
rcep
tion and
c
las
sif
ica
tionus
ing mu
lti-channe
lsde
epc
onvo
lut
iona
lneur
al Compu
terAi
ded Re
cogn
iti
on o
f Tr
adi
tiona
lCh
ine
se Me
dic
ine
ne
two //Pr
rks oce
edi
ngso
fthe15
thI
nte
rna
tiona
lCon
fer
enc
e Pu
lseD
iagno
sis [Ph.D.d
iss
ert
aton].Ea
i st Ch
ina No
rma
l
on Web-Age I
nfo
rma
ti t (WAIM). Ma
on Managemen cau, Un
ive
rsi
ty,Shangha
i,2013(
inCh
ine
se)
Ch
ina,2014:298-310 (胡 晓 娟 .中 医 脉 诊 中 医 脉 诊 信 号 感 知 与 计 算 机 辅 助 识 别
[
96] Zheng Yi,L
iu Qi,Chen En-Hong,e
tal.Exp
loi
ting mu
lti- 研 究[博 士 学 位 论 文].华 东 师 范 大 学 ,上 海 ,2013)
channe
lsde
epc
onvo
lut
iona
lneur
alne
two
rksf
or mu
lti
var
iat
e [
107] GuoYan-Mi
ng,L
iuYu,Ar
dOe
rlemans,e
tal.De
epl
ear
ning
t
ime s
eri
esc
las
sif
ica
tion.Fr
ont
ier
sof Compu
ter Sc
i e,
enc f
orv
isua
lunde
rst
and
ing:Ar
evi
ew.Neur
ocompu
ting,2016,
2015,10(
1):96-112 187(
Spe
cia
lIsue):27-48
s
i-Yan, bo
ZHOU Fe r n 1986,
ni J
IN L
in-Peng,bo
r n1984,Ph.
ni D.Hi
s ma
inr
ese
arch
Ph.
D.c
and
ida
te. He
r ma
inr
ese
arch i
nte
resti
sma chi
nel
ear
ning.
i
nte
res
tisc
ompu
ter-a
ided d
iagno
siso
f ,
DONG Jun bo
rni n 1964,Ph.
D.,p
rof
ess
or,Ph.
D.
c
ard
iova
scu
lard
ise
ase
s. supe
rvi
sor.Hi
s ma
inr
ese
archi
nte
res
tsa
rea
rti
fic
iali
nte
ll
i-
genc
eandi
tsapp
lic
ati
onsi
n he
alt
h mon
ito
randt
rad
iti
ona
l
cu
ltu
re.
6期 周飞燕等:卷积神经网络研究综述 1251
Ba
ckg
round
Shal
lowarchi
tectu
ressuchasGaussi
an mi
xture mode
ls, tha
to f
standardful
lyconnec
ted neu
ralne
tworks.Inrecent
suppor
tve c
tor ma
chine ,
sl og
ist
icreg
ress
ionands oonhave year
sc, onvo
lut
iona
lneura
lnetworkhasmademajo
radvance
s
beenshowne f
fect
iveins o
lvi
ng manysimpl
ep rob
lems,bu t i
npr
a c
tic
a lapp
lic
ati
ons.
t
hei
rlimi
ted mode
li hepowe
ngandt roff
eat
urer
epr
esen
ta- Current
l ,
y card
iova
scu
lard
ise
asei
soneo
fthede
adl
ies
t
t
ions may c
aus
edi
ffi
cul
tie
s when de
ali
ng wi
thc
omp
lic
ated d
ise
assf
e o
rhumanbe
ings.ECGi
sve
ryimpo
rtan
tfo
rca
rdi
o-
s
igna
landi
nfo
rma
tion t
asks.De
ep l
ear
ning wi
th mu
lti
ple va
scu
lard
ise
ase
smon
ito
randd
iagno
sis.Ou
rgr
oupha
sbe
en
l
eve
lso
frep
res
ent
ati
onsi
sar
api
dl r
ygowi
ngf
iel
dofma
chi
ne wo
rkngonc
i ompu
ter-a
ided ECG ana
lys
is me
thodsf
or mo
re
le
ar n
ing.Deepl
earni
ng al
lev
iat
estheopt
imiza
tion d
iff
icu
lty t
hant enyea
rs.Wha tis more wehavetri
ed manyd i
ffer
ent
using thre
e techn
ique :
s be t
ter pa
ramet
er i n
iti
ali
zat
ion mach
inelea
rning me
thodsinc
ludingsuppo
rtvector mach
ine,
t
echni
ques,be
tte
rle
ar n
ingal
gor
ithmssuchasstocha
sti
cBP h
idden Ma
r l,r
kovmode ule
sin
fer
enc
eeta
l.i
nca
rdi
ova
scu
lar
a
lgor
ithms,andalargernumbe
ro fhi
dden un
its wh
ichcan d
ise
asss
e t
udi
essucha
sno
rma
l/abno
rma
lECGc
las
sif
ica
tion,
imp
rovet
he mode
ling powe
r.I
tha
sso
lveds r
ome pob
lems a
tri
alf
ibr
il
lat
i r
onandpema
tur
even
tri
cul
arc
ont
rac
tionc
las
si-
t
hathaver
esi
stedt
hebe
sta
ttemp
tso
fthesha
llow a
rch
ite
c- f
ica
tionands
oon.Thr
oughas
eri
eso
fexpe
rimen
ts,wehave
t
uresfrmanyye
o a
rs.Asoneo ft
hemostrep
resen
tat
ivedeep f
oundt
hatt
heme
thodc
omb
ingc
onvo
lut
iona
lneu
ralne
two
rk
l
ear
ning mode
ls,convo
lut
iona
lneur
alnetworkisatt
rac
ting andr
ule
sin
fer
enc
eisbe
tte
rfo
rre
cogn
iti
ono
fthe
sec
ard
io-
theat
tenti
ono f manyacademicres
ear
chers.Becauseoft
he va
scu
lard
ise
ass,andi
e tcanga
inh
ighe
rac
cur
acyr
ate
sthan
l
o c
alconnect
i ,
ons shar
ed weight ,
s pooli
ng ope
rationi
nthe omeo
s the
rtr
adi
tiona
l ma
chi
nel
ear
ning me
thods.Now we
convol
uti
ona
lneuralnetwo
rk,ithasfewerparamete
rstobe haveus
edt
hec
onvo
lut
iona
lneu
ralne
two
rk mode
lfo
rsome
t
r a
ined.There
fo ,
e i
r tis mo
re app
lic
abl
et o opt
imizet
han c
ard
iova
scu
lard
ise
ase
scl
ass
ifi
cat
iononou
rcl
oudp
lat
form.