Download as pdf or txt
Download as pdf or txt
You are on page 1of 10

哈尔滨工程大学学报

Journal of Harbin Engineering University


ISSN 1006-7043,CN 23-1390/U

《哈尔滨工程大学学报》网络首发论文

题目: 特征降维与融合的水声目标识别方法
作者: 李昊鑫,肖长诗,元海文,郭玉滨,刘加轩
收稿日期: 2023-04-20
网络首发日期: 2024-07-15
引用格式: 李昊鑫,肖长诗,元海文,郭玉滨,刘加轩.特征降维与融合的水声目标识
别方法[J/OL].哈尔滨工程大学学报.
https://link.cnki.net/urlid/23.1390.u.20240712.0914.010

网络首发:在编辑部工作流程中,稿件从录用到出版要经历录用定稿、排版定稿、整期汇编定稿等阶
段。录用定稿指内容已经确定,且通过同行评议、主编终审同意刊用的稿件。排版定稿指录用定稿按照期
刊特定版式(包括网络呈现版式)排版后的稿件,可暂不确定出版年、卷、期和页码。整期汇编定稿指出
版年、卷、期、页码均已确定的印刷或数字出版的整期汇编稿件。录用定稿网络首发稿件内容必须符合《出
版管理条例》和《期刊出版管理规定》的有关规定;学术研究成果具有创新性、科学性和先进性,符合编
辑部对刊文的录用要求,不存在学术不端行为及其他侵权行为;稿件内容应基本符合国家有关书刊编辑、
出版的技术标准,正确使用和统一规范语言文字、符号、数字、外文字母、法定计量单位及地图标注等。
为确保录用定稿网络首发的严肃性,录用定稿一经发布,不得修改论文题目、作者、机构名称和学术内容,
只可基于编辑规范进行少量文字的修改。
出版确认:纸质期刊编辑部通过与《中国学术期刊(光盘版)》电子杂志社有限公司签约,在《中国
学术期刊(网络版)
》出版传播平台上创办与纸质期刊内容一致的网络版,以单篇或整期出版形式,在印刷
出版之前刊发论文的录用定稿、排版定稿、整期汇编定稿。因为《中国学术期刊(网络版)
》是国家新闻出
版广电总局批准的网络连续型出版物(ISSN 2096-4188,CN 11-6037/Z),所以签约期刊的网络版上网络首
发论文视为正式出版。
网络首发时间:2024-07-15 16:33:09
网络首发地址:https://link.cnki.net/urlid/23.1390.u.20240712.0914.010

哈 尔 滨 工 程 大 学 学 报
Journal of Harbin Engineering University

特征降维与融合的水声目标识别方法
李昊鑫 1, 肖长诗 1,2,元海文 3,郭玉滨 1,刘加轩 1
(1.武汉理工大学 航运学院,湖北 武汉 430063;2.山东交通学院 威海海洋信息科学与技术研究院,山东 威海 264299;
3. 武汉工程大学 电气信息学院,湖北 武汉 430205)

摘 要:为解决水声目标再强噪声环境下识别困难以及特征高维问题,提出一种将水声信号进行离散小波变换并
提 取其 低频 系数与 重组 一维 MFCC(梅 尔倒谱 系数 )融合 的方 法, 以减少 特征 维度并 弥补 信息 损失。 利用
1D-CNN-LSTM 神经网络在 DeepShip 和 ShipsEar 两个数据集上进行试验,识别准确率均在 99%以上,结果表明,
该算法能够有效抑制噪声,具备较强的鲁棒性。将所提算法应用到单船识别,实验结果表明该算法能够有效区分
同类型的不同船舶。
关键词:水声目标识别;离散小波变换;梅尔倒谱系数;特征融合;联合神经网络;单船识别;深度学习;
船舶辐射噪声
Doi:10. 11990/jheu.202303063
中图分类号:U675.79, TP181 文献标识码:A

Underwater acoustic target recognition method based on feature dimension


reduction and fusion
LI Haoxin1,XIAO Changshi1,2,YUAN Haiwen3,GUO Yubin1,LIU Jiaxuan1
(1. School of Navigation, Wuhan University of Technology, Wuhan 430063, China; 2. Weihai Institute of Marine Information Science
and Technology, Shandong Jiaotong University, Weihai 264299, China; 3. School of Electrical and Information Engineering, Wuhan
Institute of Technology, Wuhan 430205, China)

Abstract:Aiming at the difficulty of underwater acoustic target recognition in noisy environment and the high-dimensional
problem of features in recognition task, a method of fusing hydroacoustic signals with the low frequency (approximate) coefficients
of Discrete Wavelet Transform and Mel Frequency Cepstral Coefficients(MFCC) is proposed. This approach aims to reduce the
dimensionality of the features and compensate for the loss of information. Two datasets, DeepShip and ShipsEar, were used to
conduct experiments with a 1D-CNN-LSTM neural network, which achieved recognition accuracies of above 99%. The results
demonstrated that the algorithm is capable of effectively suppressing noise and possesses robust performance. Furthermore, the
algorithm was applied to single ship recognition, and the experimental results indicated that it can effectively distinguish different
ships of the same type.
Keywords:underwater acoustic target recognition; Discrete Wavelet Transform; Mel-frequency cepstral coefficient; feature fusion;
joint neural network; single ship identification; deep learning; ship radiated noise

水声目标识别在海上船舶监控、水下目标搜索
效应干扰[2],使得频谱产生时间和空间上的波动[3],
以及海上执法等方面具有重要意义[1]。如何有效提 导致水声信号特征提取困难,严重影响水声识别的
取目标特征以及设计相应分类器一直是水声目标识 精度和稳定性[4-6]。因此,迫切需要选取鲁棒性较好
别领域的研究热点。然而,水下环境复杂多变,声 的特征提取方式,并设计相应分类器,实现水声目
音在传播过程中受到环境干扰、传输损耗以及多径 标的分类识别。
目前比较常用的特征提取方式有时域波形结构
收稿日期:2023-04-20.
特征、时域分析特征以及频谱特征。Mel 频率倒谱
基金项目:国家自然科学基金(52001235); 湖北省自然科学基金
系数是目前应用最广泛的水声特征提取方法,但其
(2022CBF313); 山东省自然科学基金(ZR2020KE029). 与线性预测的方法所提取特征在强噪声环境下的被
作者简介:李昊鑫(1998-), 女, 博士研究生; 动识别性能不尽如人意[7]。离散小波分析特别适用
肖长诗(1974-), 男, 教授, 博士生导师.
通信作者:肖长诗, E-mail: cs_xiao@hotmail.com. 于处理随机信号和非平稳信号[8],越来越多的研究利
李昊鑫,等:特征降维与融合的水声目标识别方法 -2-

用小波变换处理信号[9]。许多情况下,尤其在强噪 平分原始信号带宽,只对低频部分做进一步分解,
声环境中,水声信号之类的非平稳信号信噪比较低, 高频及细节部分不再继续分解。在小波分解的基础
特征提取困难,信息适用性下降,很难用单一的特 上,将小波系数划分为 4 种不同的带宽,小波变换
征描述水声信号。将两种或者多种特征进行融合, 分解过程以及带宽划分方式如图 1 所示。
用于水声目标识别,可以更好的描述水声目标特征
[10, 11]
。然而,在水声信号处理过程中会产生大量的 Original
signal
数据,使用这些海量数据进行分类非常困难,运算
cA1 cD1
时间较长,甚至会导致“维度灾难”[12, 13]。因此,需 cA2 cD2
cA3 cD3 cD2 cD1
要进行特征提取,去除冗余和不相关的特征。与传 cA3 cD3 cA3 cD3 cD2
统水声信号的识别技术不同 [14, 15],基于人工智能的 cA3 cD3
cA3
方法在处理复杂环境信息和模糊背景知识的识别问
图 1 离散小波分解及频带组合
题方面表现出明显的优势[16, 17]。研究表明,一维卷
Fig.1 Discrete wavelet decomposition and band combination
积神经网络比二维卷积神经网络更适合处理语音信
号,收敛速度更快[18]。利用 1DCNN 与 LSTM 网络 设接收到的信号为 x(n) ,其 DWT 为:
N
模型来识别水声目标,可以获得具有更高训练速度
W (a, b)  1/ a *  x(n) ((n  b) / a) (1)
和识别率的网络[19]。由于单个神经网络的识别框架
n 1
很难提取水下信号的所有特征,研究通常集中在开 式中: ( n ) 为小波函数(haar、db2、sym3、
发更深、更复杂的网络上,但更难训练[20, 21]。
coif1、db4); a 是离散比例因子,实现在频域内的
本文在已有研究的基础上,基于小波变换和
MFCC,提出了一种基于小波变换低频系数与重组 伸缩;b 是平移步长,实现时域内的移动; N 是信
MFCC 相融合的联合神经网络水声目标识别算法。 号的长度,与采样点的个数有关。为了将时域信号
该算法考虑小波变换提取局部细节信息以及梅尔倒 分解为不同的频率带宽,将高通、低通滤波器应用
谱系数[22]描述信号不同频段平均能量的特性,在细 于信号。
节和全局两方面描述水声信号,改善了强噪声环境 对第 1 级分解,高频(细节)和低频(近似)
识别率低以及特征冗余问题。最后采用联合神经网 系数用数学公式表示:
N
络 1D-CNN-LSTM 实现水声目标识别。该算法在两 D1 (k )   x(n)h(2k  n) (2)
个公开数据集 DeepShip[23]和 ShipsEar[24]上表现良 n 1
好。同时,将算法用于单船识别,可以很好地区分 N
出同种类型的不同船舶,对于船舶定位与追踪具有 A1 (k )   x(n) g (2k  n) (3)
重要意义。 n 1
其中 h(n) 是高通滤波器;g (n) 是低通滤波器。
1 特征提取与分类器设计 对于第 j 层分解,细节系数和近似系数用数学
公式表达为:
本文提出了一种基于小波变换低频系数与梅尔 N
倒谱系数相融合的联合神经网络水声目标识别算 D j (k )   Aj 1 (k )h(2k  h) (4)
法。选用适合处理非平稳信号的小波变换和音频信 n 1
N
号处理中应用广泛的梅尔倒谱系数作为特征提取方
式,与 1D-CNN-LSTM 神经网络模型结合用于水声
Aj (k )   Aj 1 (k ) g (2k  h) (5)
n 1
目标识别。
其中 A0 (k )  x(k ) 。
1.1 特征提取与融合
船舶辐射噪声集中在低频。MFCC 表示各频段 本文进行 3 层分解,离散小波变换后的系数表
信号能量的分布占比,描述信号的全局特征且保留 示为 W3  [ A3 , D3 , D2 , D1 ] 。
部分时序信息。小波变换将信号进行多尺度分解,
高频部分具有较强的时间分辨率,低频部分具有较
好的频率分辨率,通过舍弃较高频段信息,在实现
特征压缩的同时保留水声信号特征的大部分信息。
小波特征与 MFCC 相融合,即考虑到全局信息又考
虑到局部细节,可以更好的描述水声信号特征。
1.1.1 离散小波变换与多频带分析
水声信号是非平稳信号,小波变换在非平稳信
号处理中具有一定的优势,能够对信号进行多尺度
分解。使用不同的小波基函数分析处理信号,在低 图 2 离散小波分解近似和细节系数
Fig.2 Discrete wavelet transform approximation and detail
频处获取较高分辨率。采用离散小波变换(DWT) coefficients
哈 尔 滨 工 程 大 学 学 报
Journal of Harbin Engineering University

以 Coif1 小波为例,对 4 类船舶的水声信号进 水声信号的连续性导致分类的特征高维问题,


行离散小波变换,得到第 3 层分解的低频信息和逐 对模型复杂度以及训练时间提出了更高要求。船舶
层分解的高频信息,小波系数如图 2 所示。其中, 信息主要集中在 1 000 Hz 以下的船舶辐射噪声[26],
四种颜色分别表示 Cargo、Passenger、Tug、Tanker 对低频辐射噪声进行分解可以得到更多的船舶信
四类船舶水声信号的小波系数,左侧为近似系数 息,便于船舶特征提取。在 DeepShip 数据集上进行
A3 ,右侧为细节系数 [ D3 , D2 , D1 ] ,低频近似系数 验证,低频信号包含原始信号的大部分特征。
音频分析任务中,MFCC 是常用的声学特征提
的整体幅度最大。
取方法,在提取声音音色的同时保留了时序信息,
1.1.2 重组梅尔倒频谱系数
但背景环境中存在强噪声或水声信号不明显时,
MFCC 是根据人耳对于不同频率的声音具有不
MFCC 的抗噪能力有待加强。MFCC 与 DWT 是两
同敏感度提出的听觉感知特性。其通过梅尔滤波器
种不同的特征提取方式, MFCC 基于人的感知系统,
将一定频段内的频谱幅值进行加权求和,可以理解
DWT 可以处理非平稳信号,将两者进行融合可以在
为信号能量在不同频段中的分布占比。人耳对于频
保留人耳听觉感知能力的同时具备处理非平稳信号
率在 200-5 000 Hz 的声音信号非常敏感,而船舶辐
的能力,提高抗噪能力。将 1.1.1 中提到的水声信号
射噪声通常集中在低频部分,因此,广泛使用梅尔
离散小波变换的近似系数 A3 与 1.1.2 提到的 MFCC
倒谱系数提取船舶噪声[4, 6, 18, 25]。
梅尔倒频谱系数是在 Mel 频率域上提取出来的 特征融合后作为最后的水声信号特征。
参数,Mel 标度描述了人耳频率的非线性特性,它 NewFeatures  [ A3 , MFCC ] (7)
与频率的关系可以近似表示为:
Haar
Mel  f   2595  lg 1  f / 700 (6)
Db2 A3
随着频率 f 的增加,滤波器的带宽不断增加, DWT Sym3
D3
A3
D2
更有助于提取水声信号的低频特征。使用水声信号 Coif1 D1
的静态特性作为 MFCC 特征,并将其重组,转化为 水声信号 Db4 New
Features
一维特征。
使用工具包 librosa 提取 MFCC 特征,设置采样 MFCC 重组
一维MFCC
特征
率为 16kHz,使用默认离散余弦变换类型 2,设置
图 3 特征降维融合过程
20 个 scale 滤波器组,
并将提取出的 MFCC 序列(20, Fig.3 Fusion process of feature dimension reduction
10)按行拼接,形成(200,1)的新序列,作为被动水 1.2 分类器设计
声目标识别的特征,即 MFCC 特征。
1.1.3 特征融合方法

Haar

Db2 A3
D3
DWT Sym3 A3
D2
Coif1 D1

Deepship数据库 水声信号预处理 New


Db4
Features

一维MFCC
MFCC 重组
特征

LS LS LS
Conv Conv Conv BN Dropout Conv Conv BN Conv Conv BN TM TM TM Dropout Dense
(64) (64) (32)

图 4 水声目标识别过程
Fig.4 Underwater acoustic target recognition process
1DCNN 网络处理一维序列的模型在声学信号 的声音信号为基于时间序列的一维数据。离散小波
识别以及信号故障诊断中应用广泛[27]。船舶的水声 变换系数包含水声信号的时域和频域信息,MFCC
信号一般是依存于航行时间的连续变化过程,原始 特征具有空间连续性和时间连续性,两者融合后的
李昊鑫,等:特征降维与融合的水声目标识别方法 -4-

新特征既具有大量的低频细节又具有不同频段的平 分,清除掉空白及无用片段,得到有效片段后以
均能量分布。本文提出基于特征降维与融合的水声 300ms 为窗口进行二次切割。不同类别的有效片段
目标识别算法,构造 1D-CNN-LSTM 模型,利用 数量不同,为保证样本数量相对均衡以及满足实际
1DCNN 的空间特性提取水声信号的空间特征后, 计算要求,在每类信号中随机抽取 4000 个样本,共
使用 LSTM 网络提取其时序特征用于分类。整个算 得到 16000 条音频数据作为显著水声目标数据集
法的具体流程如图 4 所示。 (SDS) ,数据集详情如表 1 所示。另外,在每类水
声信号样本中随机选取 1000 个强噪声或者水声信
2 实验数据及预处理 号较弱的样本加入到 SDS 中扩充为强噪声水声目
标数据集(NDS) 。
深度学习模型通常存在鲁棒性问题,一个模型
ShipsEar:此数据集一共包含 11 类船舶的水声
在特定的数据集上表现良好,不一定在其他数据集
记录,由于各类船舶数量差异悬殊,按照船舶的大
上也适用。为了防止这个现象发生,在两个公开可
小将其分为 4 类,详情如表 2 所示,包括 4 种类型
用的数据集 DeepShip 与 ShipsEar 上进行实验,验
船舶声音和背景环境声音共 5 类信号。由于数据库
证所提算法的鲁棒性。
本身数据量不大,使用所有的音频数据进行实验。
2.1 实验所用数据集 将 ShipsEar 数据集划分为训练集和测试集,其中训
DeepShip 数据集包括 4 类 256 艘不同船舶的 47 练集的比例为 0.7。
小时 4 分钟的真实水下记录,包括全年不同海况和
噪声水平的记录。船舶从远到近再到远在水面航行, 3 实验结果与分析
部 分 水 声 目 标 信 号 并 不明 显 且 噪 声 较 大 , 因此
DeepShip 数据集适合 用于模 型的抗噪性检 验。 实验分为 3 个任务,任务 1:使用显著水声目
ShipsEar 数据集包含由 240 艘不同船只产生的水下 标数据集(SDS)和强噪声水声目标数据集(NDS),
声音,该数据集记录在浅水环境中,包含真实条件 研究背景环境中存在强噪声以及水声目标信号较弱
下的自然和认为环境噪声,记录的声音比较明显, 的情况下,不同小波基函数下不同频带的小波系数
用于验证所提算法的鲁棒性。 对于水声识别结果的影响。任务 2:研究提出的特
2.2 水声信号预处理 征降维融合算法相较于单一特征提取算法的优越
两个数据集皆记录水下真实的声音,其记录长 性,并分别与 1D-CNN 和 LSTM 模型对比。任务 3:
度各不相同,且每段记录的响度和噪声水平随时间 将所提算法用于单船识别。最后在 ShipsEar 数据集
不断变化,需要对原始记录进行预处理。将原始数 上进行进一步验证。
据切割为 3s 的片段,以 16kHz 的采样率对原始水 3.1 小波基选择与多频段分析
声记录进行重采样,手动筛选后选取部分片段进行 表 3 SDS 数据集上的 DWT 实验结果
再次切割作为实验样本。
Table 3 Experimental result of DWT in SDS
表 1 DeepShip 目标显著水声目标数据集
准确率(%)
特征提取方法 维数
Table 1 Strong underwater acoustic target dataset of DeepShip 1D-CNN 1D-CNN-LSTM
4813 97.10 98.06
船舶类型 Cargo Passenger Tanker Tug
2411 96.46 98.71
coif1
总数量 4000 4000 4000 4000 1208 96.33 96.10
604 95.13 97.44
训练数据 2800 2800 2800 2800 4807 96.04 98.08
测试数据 1200 1200 1200 1200 2406 96.67 99.00
db2
1204 96.10 98.73
表 2 ShipsEar 数据集实验分类 602 95.08 96.92
4800 96.06 98.21
Table 2 Experimental classes of ShipsEar dataset D 2400 95.33 98.67
W haar
分类 船舶类型 数量 T 1200 95.08 98.31
600 95.38 97.96
Class A fishing boats, trawlers, mussel 6180 4820 96.31 96.04
boats, tugboats and dredgers
2417 97.29 98.17
Class B Motorboats, pilot boats and 5130 db4
sailboats 1212 96.08 98.92
Class C passenger ferries 14110 606 95.42 95.08
4813 97.00 96.67
Class D ocean liners and ro-ro vessels 8140 2411 96.79 99.06
sym3
1208 96.79 98.69
Class E background noise recordings 3780
604 95.81 98.08
Raw 4800 81.67 98.10
DeepShip:首先将每条记录以 3s 为窗口进行切
Raw_filter 4800 78.06 97.69
李昊鑫,等:特征降维与融合的水声目标识别方法 -5-

使用 5 种常用的小波 haar、db2、sym3、coif1、 根据实验结果可以看出,小波变换可以有效提


db4 分别对样本声音信号进行小波变换,得到四种 取水声目标特征,且低频段小波特征在降低特征维
组合频带的小波系数,分别加入到 1DCNN 网络模 度的同时能够保留水声信号的大部分特征。虽然
型与 1D-CNN-LSTM 网络模型中进行特征提取与分 1D-CNN-LSTM 网络模型具有很好的抗噪能力,但
类。实验在显著水声目标数据集(SDS) 、强噪声水 使用单一特征在噪声环境下,识别准确率仍有明显
声目标数据集(NDS)2 个数据集上进行,实验结 下降,如图 5 所示。
果如表 3、表 4 所示。表中 Method 表示特征提取方
式,其中,Raw 表示使用原始波形,Raw_filter 表
示使用巴特沃斯滤波器(阶数为 10,截止频率为
2000Hz)滤波后水声信号的原始波形;Dimension
表示不同特征提取方式提取特征的维数。
表 4 NDS 数据集上的 DWT 实验结果

Table 4 Experimental result of DWT in NDS

特征提取 准确率(%)
特征维数
方式 1D-CNN 1D-CNN-LSTM 图 5 Coif1 识别结果对比
Fig.5 Comparison of Coif1 recognition results
4813 88.10(+8.87) 96.97
2411 90.88(+5.87) 96.75 3.2 特征融合与单特征识别
Coif1
1208 89.30(+7.33) 96.63 提取小波变换后的低频带系数与 MFCC 相结
604 88.63(+6.64) 95.27(-1.7) 合作为融合特征,特征融合过程如图 3 所示。将
4807 89.25(+8.38) 97.63 MFCC 特征和融合特征分别与 1D-CNN、LSTM、
Db2
2406 90.83(+5.27) 96.10 1D-CNN-LSTM 网络模型相结合,进行特征提取与
1204 90.38(+4.72) 95.10 分类。实验在 SDS、NDS 两个数据集上进行,实验
602 89.33(+5.42) 94.75(-2.88) 结果如表 5、表 6 所示。Method 表示特征提取方式,
4800 89.87(+6.75) 96.62 MFCC_20 表示使用 20 个 Mel 滤波器的 MFCC,
D 2400 88.33(+8.3) 96.63 MFCC_40 表示使用 40 个 Mel 滤波器的 MFCC。
W Haar
T 1200 88.78(+3.99) 92.77 M_coif1 代表 MFCC 与使用 coif1 小波基进行离散小
600 90.00(+5.38) 95.38(-1.24) 波变换相结合,依此类推。使用不同组合频带的小
4820 90.67(+4.55) 95.22 波系数时的组合特征在联合神经网络上进行训练,
2417 91.12(+4.48) 95.60 实验结果及训练时间见表 7、表 8。Train time 表示
Db4
1212 90.42(+4.48) 94.90 训练一个 epoch 以及一个 step 时花费的时间,Test
606 89.83(+4.89) 94.72(-0.50) time 表示识别时间。
4813 89.50(+7.6) 97.10 表 5 SDS 上的新特征和 MFCC 实验结果
2411 91.15(+4.63) 95.78
Sym3 Table 5 Experimental result of New Features and MFCC in
1208 90.02(+6.31) 96.33 SDS
604 89.82(+4.73) 94.55(-2.55)
准确率(%)
Raw 4800 69.40 93.93 特征提取 特征
方式 维数 1D-CNN-LS
Raw_filter 4800 69.35 86.88 1D-CNN LSTM
TM
MFCC_20 200 97.98 99.17 98.06
从表 3 中可以看出,当水声信号比较显著时,
五种小波变换下的不同频带特征提取方法均取得了 MFCC_40 400 99.17 99.44 98.46
较高的识别率,且接近原始波形识别准确率。使用 M_coif1 804 99.73 99.91 97.85
低通滤波器对原始信号进行滤波,实验结果表明船 M_db2 802 99.67 99.83 97.79
舶辐射噪声主要集中于低频部分。随着强背景噪声
以及目标不显著信号的加入,5 种小波变换方法的 M_haar 800 99.46 99.67 97.06

识别率均有明显的下降,使用原始波形准确率下降 M_db4 806 99.42 99.79 98.50


更为明显。1D-CNN-LSTM 网络模型的识别效率要 M_sym3 804 99.42 99.79 97.48
好于 1D-CNN 网络模型,尤其是包含强噪声以及目
从表 5、表 6 可以看出,两个数据集中,使用
标不显著样本时(表 4) ,识别准别率提高 3.99%到
1D-CNN-LSTM 网络模型的识别率高于单网络模
8.87%。仅保留低频细节系数与全频带系数相比,
型,LSTM 网络模型的表现最差。MFCC_40 时的
在 1D-CNN-LSTM 模型中的识别准确率下降不足
1D-CNN-LSTM 识别准别率低于 1D-CNN 的识别准
3%,其中 db4 小波仅下降了 0.5%。
李昊鑫,等:特征降维与融合的水声目标识别方法 -6-

别率,使用过多的 Mel 滤波器可能会引入噪声,而 表 8 NDS 上使用不同组合频带的小波系数时的组合特


征实验结果
1D-CNN-LSTM 比 1D-CNN 有着更强的特征提取能
力,可能引入了不必要的复杂性,从而导致过拟合。 Table 8 Experimental Results of Combined Features using
Wavelet Coefficients from Different Combined Frequency
MFCC 特征与融合特征(MDWT)在强噪声数据集中 Bands in NDS
的 识 别 率 相 比 于 小 波 特征 均 有 较 大 的 提 升 。以
特征提取方式 特征维数 准确率(%)
coif1+MFCC 为例,相比于 MFCC 特征,融合特征 (cA3, MFCC) 804 99.63%
(MDWT) 在 NDS 中的识别率高出 0.9%, 且 MDWT (cA3, cD3, MFCC) 1408 99.58%
特征的识别率均在 99.4%以上。 (cA3, cD3, cD2, MFCC) 2611 99.50%
(cA3, cD3, cD2, cD1, 5013 99.35%
表 6 NDS 上新特征和 MFCC 实验结果 MFCC)
Table 6 Experimental result of New Features and MFCCs 在 Deepship 数据集中,使用 NDS 数据集训练
in NDS 的权重,验证 NDS 外其他船舶辐射噪声,每种船舶
特 准确率(%) 取 1000 条数据,共 4000 条数据。识别准确率只有
特征提取方 征 37.60%。该算法无法识别特定场景外的信号,因此
式 维 1D-CN 1D-CNN
LSTM 在实际使用时,需要对时间和准确率进行综合考虑。
数 N -LSTM
当船舶辐射噪声中含有大量环境噪声或船舶辐射信
MFCC_20 200 96.45 98.73 94.67 号不明显时,使用融合特征(MDWT)可以在获得
MFCC_40 400 98.20 97.52 93.03 较高识别准确率的同时大大缩短训练时间。
3.3 单船识别
M_coif1 804 98.98 99.63 94.32
单船识别有助于船舶定位与追踪以及多目标识
M_db2 802 98.90 99.42 96.22 别。目前对于单条船舶识别的研究较少,将提出的
M_haar 800 99.07 99.43 95.02 基于特征降维与融合的联合神经网络水声识别算法
用于单船识别。由于实验数据集中的音频长度差异
M_db4 806 98.60 99.43 94.62
较大,在每类船舶的水声信号中选取 20 个长度为
M_sym3 804 98.95 99.52 94.83 6min 左右的记录,与 2.2 中所提数据预处理方法类
似,初次分割每隔两段取一段数据进行二次分割,
表 7 SDS 上使用不同组合频带的小波系数时的组合特 最终得到每类船舶共 20 种 8000 段音频数据,每段
征实验结果
音频数据长为 300ms。将处理好的音频作为样本进
Table 7 Experimental Results of Combined Features using 行训练,随机取 70%的样本作为训练集,30%的样
Wavelet Coefficients from Different Combined Frequency
Bands in SDS 本作为测试集,实验结果如图 6 所示。
特征提取方 特征维 准确 训练时 测试时
式 数 率 间 间
(%)
(cA3, 804 99.91 9s/150m 2.647s
MFCC) s

(cA3, cD3, 1408 99.71 16s/274 3.659s


MFCC) ms

(cA3, cD3, 2611 99.31 31s/560 5.907s


cD2, MFCC) ms 图 6 不同类型单船识别结果
Fig.6 Single ship results for different types of ships
(cA3, cD3, 5013 99.83 77s/100 9.838s
cD2, cD1, 0ms 从图 6 中可以看出,在单船实验中,使用
MFCC) MDWT 特征相较于 Coif1 提取的小波特征以及
MFCC 200 99.17 2s 1.141s MFCC 特征识别率有所提高。其中,MDWT 特征较
/41ms
MFCC 特征识别率提高 0.12%-0.58%,但这会显著
表 7、表 8 表明,使用不同组合频带的小波系
增加训练的时间。因此,当目标显著时,没有必要
数时的组合特征能够增强模型的抗噪能力,并且进
引入 MDWT 特征。每类船舶的识别率略有差异,
行特征降维之后的 MDWT 特征能够显著降低模型
客船的识别率高达 99.75%,货船的识别率只有
的训练时间以及识别时间。
96.21%。从图 7 的混淆矩阵中可以看出货船类型的
根据实验结果可以看出,采用 MDWT 特征进
某些船舶之间存在极高的相似性,这种相似性可能
行特征提取能够提升识别率。MFCC 特征与 DWT
是强噪声或者干扰的存在减弱了船舶辐射信号的特
特征能够相互补充,提升数据的整体表征能力,且
征,也可能是船舶与水声器的距离过远导致船舶辐
1D-CNN-LSTM 网络模型能够很好的挖掘出船舶特
射信号特征淹没在环境噪声之中。
性,提升识别算法的抗噪性。
李昊鑫,等:特征降维与融合的水声目标识别方法 -7-

(a)Cargo (b)Passenger

(c)Tanker (d)Tug
图 7 1D-LSTM-CNN 下的单船实验结果
Fig.7 Confusion matrix of single ship recognition using 1D-LSTM-CNN
3.4 ShipsEar 数据集验证
为验证所提算法的鲁棒性,在包含更多类型船
舶水声信号的数据集 ShipsEar 上进行测试。使用所
提的基于特征降维与融合的联合神经网络水声识别
算法,根据 2.1 中 ShipsEar 的数据预处理方法,将
所有水声记录分成 5 类,进行特征融合后加入到
1D-CNN-LSTM 神经网络中进行训练。ShipsEar 数
据集上的识别准确率为 99.04%,实验可视化结果如
图 8 所示。
(b)训练集准确率

(a)混淆矩阵
(c)训练集损失
图 8 ShipsEar 识别结果可视化
Fig.8 ShipsEar recognition results visualization
李昊鑫,等:特征降维与融合的水声目标识别方法 -8-

4 结论 2050092.
[9] 黄擎, 曾向阳. 小波分解和改进卷积神经网络相融合的
面临复杂多变的水下环境以及船舶降噪技术的 水声目 标识 别方 法 [J]. 哈尔滨工程 大学 学报 , 2022,
发展,本文提出基于小波变换和 MFCC 融合的水声 43(2): 159-165.
信号特征提取方法,有效应对强噪声背景下水声信 HUANG Qing, ZENG Xiangyang. An underwater acoustic
号弱的问题,在实现特征降维的同时,考虑到局部 target recognition method combining wavelet
细节与全局描述相结合,弥补降维过程中带来的信 decomposition and an improved convolutional neural
息丢失问题。提出的联合神经网络水声识别算法在 network[J]. Journal of Harbin engineering university, 2022,
分类性能上优于单类型神经网络,在 DeepShip 和 43(2): 159-165.
ShipsEar 数据集上的验证结果表明该模型具有较强 [10] ZHANG Qi, DA Lianglong, ZHANG Yanhou, et al.
的鲁棒性和在单船识别中的适用性。然而,水声信 Integrated neural networks based on feature fusion for
号获取困难限制了数据集扩充,且强背景噪声下的 underwater target recognition[J]. Applied acoustics, 2021,
识别效果有待提升。与先前研究相比,本方法在特 182: 108261.
征提取降维与融合方面进行了创新,显示出更优的 [11] HU Gang, WANG Kejun, PENG Yuan, et al. Deep learning
分类性能和鲁棒性,丰富了水声信号特征提取和识 methods for underwater target feature extraction and
别的研究方法,并提高了水下目标识别的准确性。 recognition[J]. Computational intelligence and
未来研究中将加入物理约束下的水声模拟信号以扩 neuroscience, 2018, 2018: 1214301.
充数据集,并加强单船识别算法的研究。 [12] 孙启涛, 罗智孙, 梁好, 等. 基于多尺度特征提取的风
机音频信号故障诊断方法研究 [J]. 机电工程: 1-9.
参考文献: 孙启涛,罗智孙,梁好,等.基于多尺度特征提取的风机音
频信号故障诊断方法研究[J].机电工程, 2023, 40(1):1-9.
[1] LUO Xinwei, FENG Yulin, ZHANG Minghong. An SUN Qitao, LUO Zhisun, Liang Hao, et al. Fault diagnosis
underwater acoustic target recognition method based on method of fan audio signal based on multi-scale feature
combined feature with automatic coding and extraction. [J]. Journal of Mechanical & Electrical
reconstruction[J]. IEEE access, 2021, 9: 63841-63854. Engineering,2023, 40(1): 1-9.
[2] FENG Sheng, ZHU Xiaoqian. A transformer-based deep [13] TAYADE A, PATIL S, PHALLE V, et al. Remaining useful
learning network for underwater acoustic target life (RUL) prediction of bearing by using regression model
recognition[J]. IEEE geoscience and remote sensing letters, and principal component analysis (PCA) technique[J].
2022, 19: 1-5. Vibroengineering procedia, 2019, 23: 30-36.
[3] JIA Hailong, KHISHE M, MOHAMMADI M, et al. Deep [14] JIANG Junjun, SHI Tuo, HUANG Min, et al. Multi-scale
cepstrum-wavelet autoencoder: a novel intelligent sonar spectral feature extraction for underwater acoustic target
classifier[J]. Expert systems with applications, 2022, 202: recognition[J]. Measurement, 2020, 166: 108227.
117295. [15] DOAN V S, HUYNH-THE T, KIM D S. Underwater
[4] LIU Feng, SHEN Tongsheng, LUO Zailei, et al. Underwater acoustic target classification based on dense convolutional
target recognition using convolutional recurrent neural neural network[J]. IEEE geoscience and remote sensing
networks with 3-D Mel-spectrogram and data letters, 2022, 19: 3029584.
augmentation[J]. Applied acoustics, 2021, 178: 107989. [16] JIANG Junjun, WU Zhenning, LU Junan, et al.
[5] WANG Nianbin, HE Ming, SUN Jianguo, et al. Ia-PNCC: Interpretable features for underwater acoustic target
noise processing method for underwater target recognition recognition[J]. Measurement, 2021, 173: 108586.
convolutional neural network[J]. Computers, materials & [17] 薛灵芝,曾向阳.动态水声环境中的 SE_ResNet 模型目标
continua, 2019, 58(1): 169-181. 识别方法[J]. 哈尔滨工程大学学报,2023,44(6):939-946.
[6] LIAN Zixu, XU Ke, WAN Jianwei, et al. Underwater XUE Lingzhi, ZENG Xiangyang. Target recognition method of
acoustic target recognition based on Gammatone filterbank SE_ResNet model in dynamic underwater acoustic
and instantaneous frequency[C]//2017 IEEE 9th environment[J]. Journal of Harbin Engineering
International Conference on Communication Software and University,2023,44(6):939-946.
Networks (ICCSN). Piscataway, NJ: IEEE, 2017: [18] 杨路飞, 章新华, 吴秉坤, 等. 基于 MFCC 特征的被动
1207-1211. 水声目标深度学习分类方法[J]. 舰船科学技术, 2020,
[7] 石超雄, 李钢虎, 何会会, 等. 基于提升小波变换的 42(19): 129-133.
MFCC 在目标识别中的应用[J]. 声学技术, 2014, 33(4): YANG Lufei, ZHANG Xinhua, WU Bingkun, et al. Research
372-375. on the classification method of passive acoustic target
SHI Chaoxiong, LI Ganghu, HE Huihui, et al. Application depth learning based on MFCC[J]. Ship science and
of the lifting wavelet transform based MFCC in target technology, 2020, 42(19): 129-133.
identification[J]. Technical acoustics, 2014, 33(4): [19] ZHANG Shaokang, TIAN Deyan, WANG Chao, et al.
372-375. Intelligent recognition of underwater acoustic target noise
[8] KIM K I, PAK M I, CHON B P, et al. A method for on underwater glider platform[C]//2018 Chinese
underwater acoustic signal classification using Automation Congress (CAC). Piscataway, NJ: IEEE, 2018:
convolutional neural network combined with discrete 4189-4193.
wavelet transform[J]. International journal of wavelets, [20] HAN Xing cheng, REN Chenxi, WANG Liming, et al.
multiresolution and information processing, 2021, 19(4): Underwater acoustic target recognition method based on a
joint neural network[J]. PLoS One, 2022, 17(4): e0266425.
李昊鑫,等:特征降维与融合的水声目标识别方法 -9-

[21] 任晨曦, 王黎明, 韩星程, 等. 基于联合神经网络的水


声 目 标 识 别 方 法 [J]. 舰 船 科 学 技 术 , 2022, 44(1):
136-141.
REN Chenxi, WANG Liming, HAN Xingcheng, etal.
Underwater acoustic target recognition method based on
joint neural network[J]. Ship science and technology, 2022,
44(1): 136-141.
[22]王红滨,王永乐,何鸣,薛垚.试验环境水下声信号的特征提
取方法[J]. 哈尔滨工程大学学报,2024,45(3):489-495.
WANG Hongbin,WANG Yongle,HE Ming, etal.Feature
extraction method for underwater acoustic signals in an
experimental environment[J]. Journal of Harbin
Engineering University,2024,45(3):489-495.
[23] IRFAN M, ZHENG Jiangbin, ALI S, et al. DeepShip: an
underwater acoustic benchmark dataset and a separable
convolution based autoencoder for classification[J]. Expert
systems with applications, 2021, 183: 115270.
[24] SANTOS-DOMÍNGUEZ D, TORRES-GUIJARRO S,
CARDENAL-LÓPEZ A, et al. ShipsEar: an underwater
vessel noise database[J]. Applied acoustics, 2016, 113:
64-69.
[25] ZHANG Lanyue, WU Di, HAN Xue, et al. Feature
extraction of underwater target signal using mel frequency
cepstrum coefficients based on acoustic vector sensor[J].
Journal of sensors, 2016, 2016: 7864213.
[26] 王梦璇. 基于小波包分解的舰船辐射噪声特征提取方
法研究[J]. 电子设计工程, 2014, 22(4): 81-83.
WANG Mengxuan. Research of ship-radiated noise feature
extraction method based on wavelet packet
decomposition[J]. Electronic design engineering, 2014,
22(4): 81-83.
[27] CHEN Yan, GUO Qian, LIANG Xinyan, et al.
Environmental sound classification with dilated
convolutions[J]. Applied acoustics, 2019, 148: 123-132.

You might also like