西安交通大学学报
V〇l. 52 N〇. 6 Jun. 2018
JOURNAL OF XP AN JIAOTONG UNIVERSITY
DOI: 10.7652/xjtuxb201806002
一种高分辨率遥感图像视感知目标检测算法
李策%2,张亚超%,蓝天%,杜少毅2
(1.兰州理工大学电气工程与信息工程学院,730050,兰州'2.西安交通大学电子与信息工程学院,710049,西安)摘要:针对大幅面高分辨率光学遥感图像目标检测尚存在着检测精度和效率低的问题,提出了一
种高分辨率遥感图像视感知目标检测算法。该算法首先通过显著区域有选择性的引导获取场景中 的子区域,将计算资源转移到可能包含目标的区域中,以降低计算复杂度;然后,利用基于单次检测 器(YOLO)卷积神经网络目标检测模型获取预选目标;最后,提出目标语义关联抑制对获取的预选 目标进行筛选得到有效目标,能够减少虚假目标的干扰,降低虚警率。所提算法在公开NWPU+
VHR-10数据集上的平均检测精度为0. 865,高于对比算法,在包含更多高分辨率的LUT+VHR- VOC-2数据集上,比YOLO的检测效果更好。实验结果表明,所提算法提高了大幅面高分辨率遥
的 度。
文献标志码:A
文章编号:0253-987X(2018)06-0009-08
关键词:高分辨率遥感图像;目标检测;目标语义关联抑制;卷积神经网络中图分类号:TP751. 1
An Object Detection Algorithm with Visual Perception for
High-Resolution Remote Sensing Images
LI Ce1'2,ZHANG Yachao1,LAN Tian1,DU Shaoyi2
(1. College of Electrical and Information Engineering,Lanzhou University of Technology,Lanzhou 730050,China;
2. School of Electronic and Information Engineering,Xi?an Jiaotong University,Xi?an 710049,China)
Abstract : An effective object detection approach with visual perception for high-resolution remote sensing images is proposed to address the problem that the accuracy and speed of existing objectdetection algorithms of remote sensing images are low, especially in large-scale and high- resolution remote sensing images. Firstly, some sub-regions are selected in the scene using asaliency map, and then transfer computing resources to the area that may contain objects toreduce the computational complexity. Then, pre-select ed object s are obtained by a fast learning model YOLO (you only look once). An object semantic association suppress is proposed to screen the pre-selected objects for effective objects.
It reduces the interference of false objects for
reducing the false alarm probability. Experimental results on NWPU_VHR-10 dataset show that the proposed algorithm is the best, and the mean average precision (mAP) is 86. 53%. Theresults of the proposed algorithm are much better than those of YOLO on LUT_VHRVOC-2 dataset which contains more large-scale and high-resolution remote sensing images. concluded that the
performance of the
high-resolution remote sensing image
is
It is
improved
收稿日期:2017-09-20。 作者简介:李策(974—),男,教授;杜少毅(通信作者),男,副教授。基金项目:国家自然科学
基金资助项目(61365003,61573274);甘肃省基础研究创新群体计划资助项目(1506RJIA031);西安交通大学基本科研业务费 综合交叉类资助项目(x2017005)。网络出版时间:2018-03-15
网络出版地址:http: \"kns. cnki. net/kcms/detail/61. 1069. T. 20180315. 2049. 006. html
西安交通大学学报
第52卷
proposed algorithm.
Keywords:
high-resolution remote sensing image; object detection; object semantic correlation suppression; convolutional neural network
大幅面高分辨率的遥感图像具有目标清晰、视 野范围广的特点,在为用户提供更多感兴趣目标信 息的同时也带来了更复杂的背景信息。因此,如何 高效准确的从大幅面高分辨率的遥感图像中检测出 所需要的目标,已成为遥感图像应用于实际工程中 的关键问题之一。遥感图像目标检测不仅要对图像 中目标的类别进行判断,还要给出目标的位置信息。 因图像会受不同光照和观察点变化的影响,目标检 测任务是一种具有挑战性的视觉任务。大幅面高分 辨率遥感图像更加具有挑战性的3个原因:①同一 幅图像中目标的尺寸差异较大,且目标的位置和姿 态都无法确定;②白天和夜晚的遥感图像颜色空间 差异较大;③高分辨率的遥感图像目标背景信息通 常较为复杂。
遥感图像目标检测是传统目标检测问题中一个 极具应用背景的分支。常见的遥感图像目标检测方 法主要有利用模板匹配的方法[1’2]、背景建模的方 法3以及基于浅层学习的方法[4#]等。近年来深度 学习的蓬勃发展,亦使得引人深度学习方法后的目 标检测精度不断提升,主要方法有区域建议卷积神 经网络(region convolutional neural network,
场等机器学习算法。
基于深度学习的遥感图像目标检测有较好的检 测结果,根本原因是深度卷积神经网络(convolu
tional neural networks , CNN) 通过 大量的有监督训
练,能直接从图像像素级获取更具有表达力的特征。 尽管CNN的深度结构能够提取更加鲁棒的特征, 但是这些在自然图像中提取的特征并不能直接应用 到垂直于地面拍摄的遥感图像的目标检测任务中。 基于感兴趣区域的CNN目标检测算法存在效率低 的问题,例如RICNN算法[11]是将检测任务分为生 成感兴趣区域、CNN训练优化、区域分类3个模块。 为保证检测精度,RICNN算法需要多个感兴趣区 域,这些感兴趣区域之间存在较大的区域重叠,会被 重复性的CNN计算,会造成计算资源的浪费。另 外,若所获取的感兴趣区域不好,将直接影响目标检 测 度, 但高
感兴趣
的
也需
大的
计算资源,因此RICNN算法的检测效率较低,Y0-
L0算法[]是将图像只进行一次CNN计算,相对减
少了大量重复计算。由于Y0L0算法的第一步是 将图像归一化到一个固定的尺度,对于大幅面高分 辨率的遥感图像,目标范围占图像大小的比例较小, 归一化后会导致目标特征丢失,若直接使用原图像, 消耗的计算资源亦巨大。为解决大幅面高分辨率遥 感图像的目标检测问题,考虑到遥感图像目标检测 应用对检测效率的要求,本文提出了 一种高分辨率 遥感图像视感知目标检测算法。1
本文所提算法
一般定义满足目标面积与图像面积之比小于0. 5%,且图像分辨率大于800 X800像素即为大幅 面高分辨率遥感图像。本文提出了一种高分辨率遥 感图像视感知目标检测算法,主要包括3个部分:基 于视觉注意机制的子区域提取、子区域目标检测、目 标语义关联抑制,算法框架如图1所示。本文所提 算法首先利用基于视觉注意机制的子区域提取方 法,获取可能包含目标的子区域。对待检测的大幅 面高分辨率的图像,进行切片,利用模拟人类的视觉 注意机制的显著图,去除部分背景信息,将计算资源 转移到包含目标的子区域中,降低了计算复杂度。 然后,对子区域进行目标检测,利用基于Y0L0学
R-CNN)[7]、面向实时的区域建议卷积神经网络 (faster region convolutional neural network,Faster R-CNN)[8]、单次检测器(youonly lookonce,Y〇- L0)[]、单网多尺度检测器(single shot multibox detector,SSD) [1$]等。同时,诸多学者从深度学习框
架出发,亦设计了多种算法拟提升遥感图像中目标 检测精度和速度,如旋转不变卷积神经网络(rota
tion-invariant convolutional neural networks ,RIC- NN)[11]、转化的神经网络(transferred convolutional neural networks,T-CNN)[12]、分层模型[13] 等。
模板匹配方法是通过手动设计特征或者从训练 集中学习得到模板,计算待检测的图像和模板之间 的相似性来找到最佳匹配。基于浅层学习的检测方 法主要依据特征提取、特征融合和分类器训练3个 步骤来实现遥感图像目标检测。其中,特征提取通 常使用方向梯度直方图特征(histogram of oriented
gridients,H0G)、词袋特征(bagofwords,BoW)、 Gabor特征、基于稀疏表达的特征等。分类器主要
使用支持向量机、Adaboost、K近临算法、条件随机
http: // zkxb. xjtu. edu. cn
第#期
李策,等:一种高分辨率遥感图像视感知目标检测算法
11
图1本文所提算法框架
习网络的目标检测模型得到预选目标。最后,将子
的关 像中
? 1
Itti等人提出的基于视觉注意机制的显著性检测算
法[14]。 范围。
子区域提取。首先,对遥感图像进行5切片
操作,判断每个
, 的
的
,以将计算资源转移
的图像
效
视觉注意机制的
,舍弃〕
的^,△如,
过 ^
择该
的原因是本文并不关心目标的
,给出大
确边界,只需要找到视觉注意的
目目
, ,
提目 间的关
关 , ,本
I制
^图提算
检测结果。目
通过学习目 。
能出现的目标,可降低
基于视觉注意机制的子区域提取
大幅面高分辨率的遥感图像中小目标是非常普 遍的,且大多图像中目 在目标检测任务中 度学习的目标检测 络
提取特征
寸,图像中的小目标特征会
幅图像作为网络的 计
在视觉
。研
的。小目标的检测的任务。像大多基于,在
,将图像大
卷积神经网化
尺
。另外,对于目 [7]中 期望感兴趣 图3所示。本文的
, 该 分
子
能会 的选择。择
背景信息,以提高检测效率。
围于目 找
R-CNN模
体,两者
[15]提的感兴趣
,如图2所示。若使,则高分辨率图像会显
注
引通过
择性地处理机制应的信息得到
重的
能包含目标的子
个 者 个 目
视觉注
导到空间中的一个位置。视空间注
的一个区域的
视觉信息的机制。因此,本 择性的 题,具体
子
,使得该 。
大 幅 高 分辨 的 遥 感 图 像 目 检 测 务 中 ,
,来解决因图像
化目标特征
(a)R-CNN模型[7]中感兴趣区域提取
(b)本文方法子区域提取
图2
大幅面图像归一化目标特征丢失示例
图3
本文方法与文献[7]方法感兴趣区域提取对比
(1)计算视觉注意机制的显著图。视觉注意机 制的显著图计
,
,本
的是
1.2子区域目标检测
遥感图像目标检测在军事安防、地面监测等应
http: \"zkxb. xjtu. edu. cn
12
西安交通大学学报
第52卷
用中要求较高的检测效率。YOLO算法[9]是一种
速性特点的深度学习目标检测
检测效果并不好。本文使用网络 4所示, 的 中1# 目 检测。
22个卷
。
遥^
感图像中目标尺度差别较大,直接使用YOLO
,用来提取目
式中:6i、37、=7、>和文i、5i、=i、>i分别是预测框和 真实标注的
与尺度'cod'〇. 5 i为网格数'
大、
为目标框数'jS表示目标在第i个网格上的第j个 测框上存在目标;利用=> 的 小目标的=> 对[1影响的差异。
,其结构如图
体的。图4
特征,5个最大池化层。网络低层特征包含更清晰
信息,高层信息更能表达目标的
24
间的
能够更好的对小
目
I〇U误差中,IoU
集与并集的
择区域与标注区域交
。;j°°S表示目标在第i个网络上第
丨!可
j个预测框不存在目标,Anoobj'0. 5,CZ是
与第i个网格的I〇U的值,是落在第i个网 真实标注图与第i个格的I〇U的值,则IoU 表示为
确定位。将1#层的输出信息与24层输
的输入,兼顾大目
出信息结合作
_________^_________Conv(3X3/l, 416X416X32)Max(2X2/2, 208X208X32)Conv(3X3/l, 208X208X64)
nUMax(2X2/2, 104X104X64)nUConv(3X3/l, 104X104X128)ConvdXl/1, 104X104X64)Conv(3X3/l, 104X104X128)Max(2X2/2, 52X52X128)Conv(3X3/l, 52X52X256)ConvdXl/l, 52X52X128)
小
Conv(3X3/l, 26X26X512)ConvdXl/1, 26X26X256)Conv(3X3/l, 26X26X512)Max(2X2/2, 13X13X512)Conv(3X3/l, 13X13X1024)
vU
ConvdXl/l, 26X26X256)ConvdXl/1, 13X13X512)Conv(3X3/l, 13X13X1024)Conv(lXl/l, 13X13X512)
nU
Conv(3X3/l, 13X13X1024)Conv(3X3/l, 13X13X1024)Reorg
—多
(/2, 13X13X2048)______________nU______________Conv(3X3/l, 13X13X1024)
nU
Conv(3X3/l, 13X13X75)
s2 $L2 \" %%;jb(G—〇4
i\"0 j\"0s2 $An_ %%;rb(G—G)2 (3)
i\" 0 j \"0分类误差L? 目标在网格上的概率的差异,九()表示的某个类别在第i个网 。分
的概率
表示为
s2
L? \" %;ob % (pt(c) — Pl(c))2 (4)
i\"0 c/C
式中c是'的元素,表示具体类别,'是所有类别 的集合。使
、缩放、旋转的基础 高斯白
两种数
广
。
大小的
位置判别。预测框是通过对
,
聚
测框的维度。
会
较好的检测结果,在权
5类,如图5所示,测,每个网.取,
目
的
因
化,另外,在随机裁强对比度和加入
解过拟合,针对遥感图像特
Conv(3X3/l, 52X52X256)Max(2X2/2, 26X26X256}Conv(3X3/l, 26X26X256)Conv(lXl/l, 26X26X256)
1
在检测阶段,图像经过网络模型得到特征图,在 特征图上的每个位置 测框
目
训练集中真实标注目 类中心的维度
别的
图4本文网络结构模型图
在训练过程中本文使用的损失函数可以分为3 个部分:坐标误差、IoU(IntersectionoverUnion)误
分
,其损失函数可以表示为L = Li 492
衡计算复杂度和检测精度后 在13X13像素的特征图 5 个 测 框, 测
。
49? #)
式中9为本文使用的损失函数;Li、L2、L?分别是 坐标误差、7U误差和分类误差。因此,在检测阶段
位置信息
坐标误差L%表示为
S2
$
别信息的特征图。
L% = Ac〇〇rd % % [(6, — 6,)2 4 (m — 5〇2] 4
i\" $ - \" 0
s2 $A coord % % [(槡=7—槡=i)2] 4 (V>7 —槡i)2
i\" 0 j \"0
#2)
图5飞机类目标预测过程示意图(不同网格上选取5个 候选框,然后再对每个候选框进行属性和位置回归)
1.3目标语义关联抑制
子 的合并会 检测窗口的冗余,子区域
http: //zkxb. xj tu. edu. cn
第#期
李策,等:一种高分辨率遥感图像视感知目标检测算法
检测的窗口本身是存在冗余的,导致主目标可能会属性概率来抑制不具有关联关系的目标。抑制后的 重复框选,影响检测结果。
能
个较
目
表示
好的目标区域,非极大值抑制算法(non-maximum
suppression,NMS)是解决该问题的常用方法。本
文在实验中发现,目标检测出来的目标框是存在虚 的,例如在飞机场中给出了舰船目标,利用目 关
舰船的
‘
c,= {C,
式中C'z分别
(3)非极大 的
& 择
\\。/,6 b
⑷。通过设定固定测框的目标
;
、后的 。NMS
,该过程如图#所示。
I〇U阈值,选取满足IoU阈值的
的检测结果,
子 大
大 测 框 &作 该 目
满足7U阈值的预测框就
&作 检 测 结 果 。
检测结果合并后,经过步骤1和步骤
关联目
框,
3
的 检 测
重 复 的 目 框 &
2,抑制与主目
#)存在舰船虚警
图#
(b)语义关联抑制后
结果。2
实验结果与分析
为了验证本文算法的有效性,在公开数据集
目标语义关联抑制检测过程
遥感图像是对真实场景的拍摄,而在机场中舰 船的出现并不符合客观事实,原因在
目标高 目 与篮球
关
的
目
忽
间的关联关系。在自然场景中
乎目
NWPU—VHR-10 上与 BoW[5]、FDDL[6]、局部融合
检测器(collection of part detectors,COPD)[16]、
关联存在的,例如,船舶与港口、棒球场,而船舶与棒球场,船舶与田径
景中。 ,该 择性地 的检测结果,,
本文提出 通过 ,结
T-CNN[12]、RICNN[11];
验证了所提算法对于遥感图像目标检测 夕卜,为了验证本 感图像
的有效性,本
的实验,效的。
大幅面高分辨率的遥
大幅面高分辨
实验,实验结果表明本文
效
不可能出现在
本的统计学
大
I制E
习得到目标语义的关联关系,然后心对图像中
低目标检测 间的关联关系
率的遥感图像目标检测数据集LUT—VHRVOC-2 与原YOLO
大幅面高分辨率的遥感图像目标检测
的目的。本 集
:
两个目
i^,即统计数据集中包含两个目标图像的交集与并
提升。本文测试平台CPU为Intel Core i7 6700,
GPU为英伟达GTX 1070 8 2B显存,使用Ubuntu x64操作系统,实验中设定/值为0. 6,I〇U阈值为
0.65。网络初始学
设
0.003,在训练迭代
低10倍,使用
总体的性
次数
100和25 000时
度来评价。
式中!,是包含目标z的图像的集合;num( •)是统 计个数的函数;M 数据集。显然,当关
(1) 网络 图像中总 框
较 高的 大者作
上,查询主目 义关联关系,本
^的认
的目标,通过设
时
的具体 目标。子 目标检测, 目
容
, 的主目标。
幅图像中可能其他目 ^个
0.1
/,
关联的目标,反
间语关联
乘以目标的
目
别的集合;S为训练
1。目
&义
。
在基于YOLO的学习个目标预测框,一幅检测到的,表
测 框 中
测
,心的
的激活函数为Leaky。目标检测单目 能用检测精度
2.1
NWPU_VHR-10数据集检测结果对比分析
NWPU—VHR-10[16]数据集是一个公开的卫星
图像 目 检测 数 集 &数 集 径场、港口、桥梁和车辆。
2. 1. 1 主观结果分析采用本文算法在NWPU—
1$个 别 目
:飞机、舰船、储油罐、棒球场、网球场、篮球场、田
(2) 抑制非关联目标。基于的计算的基础之
关联阈值,大
VHR10数据集
-12幅图像 观检测,检测
都能够检
体,
结果如图7所示。从图7 测到目标,并且给出的框能 检测结果与预检测目
符。
看出,对目标较大的
围于目
田径场,或者目标较小的储油罐,本
http: \"zkxb. xjtu. edu. cn
14
西安交通大学学报
第52卷
#%飞机和储油罐 (b)飞机 #)棒球场和桥梁 (d)桥梁和棒球场
#)舰船 (f)储油罐 (g)篮球场和网球场 (h)田径场和网球场
M网球场和棒球场
图 <
F码头 (k)环境1中车辆 8环境2中车辆
本文算法对NWPU_VHR-10数据集中12幅图像的主观检测结果示例
2.1.2 客观结果对比表1是6种检测方法在 COPD模型检测算法[16]。另外,对比了两种基于 CNN的算法T-CNN[12]和RICNN[11]。从客观数据
度值的对比可以看出,本
明显好
统的检测模型。
的检测效果
NWPU_VHR-10数据集上的检测精度对比结果,
对比了 3种传统目标检测 [5]、基
:BoW特征检测算
[6]、
编码特征(FDDL )的检测
表1 采用6种算法在NWPU_VHR-10数据集上的检测精度对比
图像 飞机舰船储油罐球网球篮球田径码头桥梁车辆平均精度
检测*度
COPY 算法[6]T-CNN 算法[2]
0. 6230. 6890. 6370. 8330. 3210. 3630. 8530. 5530. 1480. 440. 54
0. 6610. 5690. 8430. 8160. 3500. 459.80. 6200. 4230. 4290. 597
BoW算法[]
0. 2500. 5850. 6320. 0900. 047. 320. 0780. 5300. 1220. 0910. 246
FDDL算法[]
0. 2920. 3760. 7700. 2580. 0280. 037.2 10. 2540. 215. 450. 248
RICNN 算法[1]
0. 8830. 7730. 8530. 881.4 80. 5840. 8670. 6860. 6150. 7110. 726
OURS算法0. 9740. 8640. 8940. 9750. 7600. 7260. 9810. 8860. 9480. 6450. 865
由表1可见,在兼顾检测速度与精度前提下,本
车辆目标的检测精度
目标的检测精度均高 篮球场、桥梁目标的检测精度
低于RICNN算
法的0.06,但是要高于T-CNN算法的0.22,对其
,尤
网球场、
约0.3的提升,
说明本文算法具有良好的检测能力。
幅图像
,从计算复杂度上来看,由于择 ,
择
的
约[15]本身的这2 000个
RICNN [11]
2 000个感兴趣
较多的计算资源的,并
http: //zkxb. xjtu. edu. cn
第#期
李策,等:一种高分辨率遥感图像视感知目标检测算法
感兴趣区域都要经过归一化送入深度神经网络中计 算。
原图像经过了约2 000
图像
5
,每一幅图使
过度神经网络计算。 量是巨大的,本 络计 的 数, 能
2.2
算法对于目标的检测效果要好于YOLO[9]算法;无
飞机
舰船,YOLO
给出的 中未检测 框更能
框存在 检测围于
多个不准确标记框,同时还存在目标的漏检,本文所
度神经网络作,并
图像经度神经网
计算,而本
5个子 低 计
。
提能够检测到YOLO
的目标,给出的目 目
体。 。
结果表明,本
度神经网络的计算
在大幅面高分
辨率的遥感图像目标检测任务上,效果好于YOLO 2.2.2 客观结果对比在LUT—VHRVOC-2数据
在LUT—VHRVOC-2数据集上的检测结果
NWPU_VHR-10数据集中大幅面高分辨率的
图像约占28%,为证明本 专业人员通过大
注,创
在大幅面高分辨率大幅面高分辨率图
200X200像
遥感图像上有较好的检测效果,本文研究团队多名 像约占46%的LUT_VHRVOC-2数据集,包含飞 机和舰船两个类别目标、图像分辨 遥感图像数据一部分
素到8 000X8 000像素不等的3 039幅遥感图像。
北京航天宏图信息技术股
集验 结果。
本 ,表2是本 与
YOLO
度值的
在LUT—VHRVOC-2数据集上检测精
表2 2种算法在LUT—VHRVOC-2数据集上
的检测精度对比
检测精度
检测目标飞机舰船
YOLO
0. 9030. 566
[9]
本0.9280.704
份公司提供(该公司是中国计算机视觉大会 2017遥感图像目标检测竞赛承办方),另一部分是 通过百度地图采集。
2. 2. 1 主观结果对比从图8和图9中的对比可 以看出:对于高分辨率大幅面的遥感图像,本
提
从表2可见,本文算法在LUT—VHRVOC-2数 据集 提 ,本 在
较高的检测精度。相比YOLO算法,本文在大幅面高分辨率的遥感图像舰船目标检提
效改善 曲线的
目标的检测精度。图图,可以看出本
提
测任务上提高较大,因为舰船目标在图像中尺寸更 10给出了查
较高检测精度的同时,有较高的召回率。
(a) YOLO算法
图8
(b)本文算法
LUT_VHRVOC-2数据集中舰船检测主观结果对比 (图像虚线框的目标是未检测到目标)
一
0.0 0_2 0_4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8
召回率 飞机
图10
召回率(b)舰船
LUT_VHRVOC-2数据集上2种算法的查全率曲线
3结论
本文在分析现有算法对于大幅面高分辨率遥感 图像目标检测
的基础上,结合大幅面高分辨
高分辨率遥感
视觉注意
速
。所提
遥感图像的特点,本文提出 图像视感知目标检测 机
(a) YOLO算法
图9
(b)本文算法
LUT_VHRVOC-2数据集中飞机检测主观结果对比 (图像虚线框的目标是未检测到目标)
目 关联关系,结合6OLO 实验
的特点,能够实现大幅面高分辨率的遥感图像目 标检测。 的工作中
http: //zkxb. xjtu. edu. cn
较好的检测结果。在未来学习思想
目标检测模
16
西安交通大学学报
第52卷
型,另外,可将视觉注意机制的子区域提取加人到并 行运算中,以提高检测效率。
致谢感谢西北工业大学韩军伟教授提供的NW-
,]
IEEE, 2014!580-587.
REN Shaoqing,HE Kaiming,GIRSHICK R,et al. Faster R-CNN: towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis a Machine Intelligence, 2017,39 6)!1137-1149.
,]
REDMON J,DIVVALAS,GIRSHICK R,et al. Youonly look once: unified,real-time object detection [C] /Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway,NJ,USA: IEEE,2016: 779-788.
[10] LIU W,ANGUELOV D,ERHAN D,et al. SSD:
Single shot multibox detector [C]/Proceedings of the 14th European Conference on Computer Vision. Berlin, Germany: Springer Verlag,2016 : 21-37.
[11] CHENG Gong, ZHOU Peicheng, HAN Junwei.
Learning rotation-invariant convolutional neural networks for object detection in VHR optical remote sensing images [J]. IEEE Geoscience and Remote Sensing, 2016, 54(12): 7405-7415.
[12] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.
ImageNet classification with deep convolutional neural networks [J]. Communications of the ACM,2012,60(6) : 84-90.
,3]高常鑫,桑农.基于深度学习的高分辨率遥感影像目
标检测,].测绘通报,2014(1): 108-111.
GAO Changxin, SANG Nong. Object detection of high resolution remote sensing image based on the deep study [J]. Bulletin of Surveying and Mapping, 2014 (1): 108-111.
[14] ITTI L,KOCH C,NIEBUR E. A model of saliency-
based visual attention for rapid scene analysis [J]. IEEE Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.
,5] UIJLINGS J R R,SANDE K E A,GEVERST,et l
Selective search for object recognition [J]. International Journal of Computer Vision, 2013,104(2): 154171.
,6] CHENG Gong,HAN Junwi ZHOU Peicheng,etl
Multi-class geospatial object detection and geographic image classification based on collection of part detectors [J]. ISPRS Journal of Photogrammetry and Remote Sensing,2014,98: 119-132.
PU+VHR-10数据集,以及北京航天宏图信息技术
股份有限公司提供的遥感数据。参考文献:
[1]
FELZENSZWALB
P, MCALLESTER D, RA-
MANAN D. A discriminative] trained,multiscale, deformable part model [C] \" Proceedings of the IEEE Computer Vision and Pattern Recognition. Piscat- away,NJ,USA: IEEE,2008: 1-8.,]
AHMADI S,ZOEJ M J V,EBADI H,et al. Automatic urban building boundary extraction from high resolution aerial images using an innovative model of active contours ,]. International Journal of Applied Earth Observation and Geoinformation,2010,12(3):150-157.,]
李亚超,周瑞雨,全英汇,等.采用自适应背景窗的 舰船目标检测算法[J].西安交通大学学报,2013, 47 (6) : 25-30.
LI Yachao, ZHOU Ruiyu, CHUAN Yinghui,et al. A ship detection algorithm of adaptive background window [J]. Journal of Xi’an Jiaotong University,2013,47(6): 25-30.,]
杜春,孙即祥,李智勇,等.光学遥感舰船目标识别 方法[J].中国图象图形学报,2012, 17#): 589-595. DU Chun,SUN Jixiang,LI Zhiyong,et al. Ship target recognition method for optical remote sensing [J]. Journal of Image and Graphics, 2012,17(4): 589595.[5]
XU Sheng,FANG Tao,LI Deren,et al. Object classification of aerial images with bag-〇f-visual words [J]. IEEE Geoscience and Remote Sensing Letters,2010, 7(2): 366-370.,]
CHEN Yi,NASRABADIN M,TRAN T D. Sparserepresentation for target detection in hyperspectral imagery [J]. IEEE Selected Topics in Signal Processing, 2011, 5(3): 629-640.,]
GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation [C] // Proceedings of theIEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway,NJ,USA:
(编辑刘杨荆树蓉)
http: /zkxb. xjtu. edu. cn
因篇幅问题不能全部显示,请点此查看更多更全内容