Extraction of seismic damage information of buildings from three-dimensional images of oblique photography based on multi-scale segmentation and deep learning
-
摘要: 采用多尺度分割和深度学习相结合的方法对震后倾斜摄影三维影像建筑物震害信息进行提取,获取建筑物的屋顶和墙体多种破坏信息。以2017年九寨沟MS7.0地震后倾斜摄影三维影像为例,依据三维影像建筑物顶面和墙体等进行样本的多尺度分割,样本分为完好建筑物面、破坏建筑物面、其它地物和背景等三类,选取211个100×100像素的样本集对卷积神经网络模型进行训练,采用训练后的模型提取灾区千古情风景区和漳扎镇小学的建筑物震害信息,并将提取结果与目视解译结果进行精度对比,结果显示:破坏建筑物面提取精度分别为65.5%和71.1%,总体分类精度分别为82.1%和84.1%,卡帕(Kappa)系数分别为68.7%和64.9%,表明该方法在倾斜摄影三维影像建筑物震害提取方面具有一定的优势。Abstract: The method of combining multi-scale segmentation and deep learning is used to extract the seismic damage information of buildings from three-dimensional images of oblique photography after an earthquake. In this way, the comprehensive damage information of the roof and wall of the building is obtained. Taking the 2017 MS7.0 Jiuzhaigou earthquake as an example, firstly, based on the three-dimensional image of the roof and wall of the building, the multi-scale segmentation of samples are divided into three categories: intact building surface, damaged building surface, other ground objects and background. Secondly, 211 sample set with 100×100 pixel are selected to train the neural convolutional network model. The trained model is used to extract the seismic damage information of buildings in Qianguqing scenic spot and Zhangzha primary school. Finally, the accuracy of the extracted results is compared with the visual interpretation results. The results show that the extraction accuracy of damaged building surface is 65.5% and 71.1% respectively, the overall classification accuracy is 82.1% and 84.1% respectively, and the Kappa coefficient is 68.7% and 64.9% respectively. The result indicates that this method has certain advantages in seismic damage extraction of buildings from three-dimensional images of oblique photography.
-
引言
建筑物震害信息是评估建筑物破坏等级的重要指标,如何准确识别、定量提取建筑物震害信息是目前研究的热点。随着深度卷积神经网络模型的发展及其在图像处理领域的应用深化,该技术在地物识别分类方面也展现出巨大的特征学习表达能力,即通过自动对样本集中的研究对象不断深层次学习,获取地物高层次的抽象特征,掌握不同地物的纹理、形状属性信息,取得了很好的提取效果,弥补了地物特征信息分类提取的不足。国内外学者利用深度学习技术对建筑物震害信息提取开展了较多研究。Vetrivel 等(2018)综合运用卷积神经网络和三维点云数据特征进行建筑物震害损伤区域的检测,精度达到85%;李强(2018)基于2010年海地MS7.0地震光学遥感影像GeoEye-1数据,使用卷积神经网络模型CAFFE (Convolutional Architecture for Fast Feature Embedding)框架提取研究区域中的基本完好建筑物、中等破坏建筑和损毁建筑物,总体分类精度达到90%以上;陈梦和王晓青(2019)利用全卷积神经网络模型提取玉树地震后空间分辨率为0.2 m的玉树县城区航空正射影像的建筑物震害信息,总体分类精度达到82%;周阳等(2019)利用深度卷积神经网络(deep convolutional neural networks,缩写为DCNN)全连接层特征支持的向量机检测2010年海地震后倾斜摄影影像中的建筑物震害损毁区域,正确率高达89%。相较于传统的识别方法,深度卷积神经网络在建筑物震害识别方面具有很大的优势。
受传统遥感影像的限制,许多学者利用正射影像定量地提取建筑物震害信息,如吴剑等(2013)基于像元和面向对象方法提取建筑物震害信息,总体精度分别为76.84%和90.38%;赵妍等(2016)采用多尺度分割和k邻近方法提取遥感影像中建筑物的形状、面积等变化信息,提取精度为79.68%;倾斜摄影技术从多个角度拍摄建筑物的顶面和侧面,能够获取建筑物丰富的纹理信息和细节信息,弥补正射影像的不足(荆帅军等,2019)。目前学者基于倾斜影像多采用目视解译或监督分类方法定量地提取建筑物侧面震害信息,例如:Gerke和Kerle (2011) 采用监督分类方法提取航空倾斜影像中单体建筑物外墙、完整屋顶、破坏屋顶等的震害信息,建筑物震害信息提取精度达到63%,总体分类精度达到70%;李胜军(2013)采用面向对象中的模糊分类方法,对倾斜航空影像震后建筑物进行多角度损毁评估,损毁区域分类精度达到70%以上,总体卡帕(Kappa)系数达到80%以上。这些方法虽然成功地提取到了建筑物侧面的震害信息,但是在识别提取时需要结合影像手动进行大量的试验来选取最优特征组合,利用一系列阈值条件提取目标地物,导致目标地物识别分类不准确,影响分类精度和效率。而面向对象多尺度分割算法根据多个分割尺度将不同地物分割到不同的对象中,很好地解决了地物分割不开的问题(冯丽英,2017)。结合面向对象多尺度分割和深度卷积神经网络的方法可以有效提高地物分类识别精度。
本文将已获取的倾斜三维影像作为震害识别的数据,采用面向对象多尺度分割与深度卷积神经网络相结合的方法,拟对建筑物屋顶和墙体影像进行震害信息提取,克服分割难、样本少的困难,以解决震害信息提取不完整,识别不准确的问题。
1. 倾斜摄影三维影像建筑物震害提取方法
1.1 总体技术流程
倾斜摄影三维影像建筑物震害提取方法将倾斜摄影影像数据作为震害提取的数据基础,提取的主要步骤为:① 从倾斜影像数据获取建筑物顶面和侧面影像;② 目视解译建筑物顶面和侧面的震害信息;③ 采用卷积神经网络模型训练样本;④ 对建筑物顶面和侧面的影像进行多尺度分割;⑤ 利用训练成功的卷积神经网络模型对分割后的影像进行识别和提取;⑥ 进行精度对比分析。
1.2 面向对象多尺度分割方法
面向对象多尺度分割方法将像元按照类内同质性最大、类间异质性最大的原则合并到对应的地物对象中,对不同地物进行分割。基本原理是:从单个像素开始,以选取的形状因子、光谱因子和分割尺度为准则,分别与其邻近像元进行合并计算,从而降低对象的异质性;当一轮合并结束后,对上一轮生成的对象,在给定分割尺度下继续分别与其相邻的对象进行合并计算;以如此方式持续进行,直到在用户指定的尺度上不能再进行任何对象的合并为止,最终得到不同尺度下的分割结果。这种异质性是由两个对象的光谱和形状差异所决定,异质性度量准则的计算公式为
$$ F ( x, y ) = x w_1 + y ( 1 - w_1 ) , $$ (1) 式中:w1为权重值,0≤w1≤1;x为光谱异质性;y为形状异质性。
本文使用面向对象多尺度的分割方法,其实质是选择多个尺度阈值对遥感影像上各个目标地物分别进行分割,从而获得目标地物的最佳分割效果,确保所提取的地物分割效果,尤其是对大小、颜色相同的建筑物和道路分类分割有很好的效果。
1.3 卷积神经网络模型
手动选取建筑物震害特征依赖于解译员的专业经验和知识,而震害特征又相对复杂,深度学习强有力的学习能力和深层次的网络结构在地物特征识别方面展现出了巨大的优势。深度学习网络中,卷积神经网络模型凭借其自动识别特征和学习特征的能力,在低层次特征到高层次抽象特征的学习过程中展现出了非常好的性能,仅使用原始影像利用波段、空间和形状等信息即可提取建筑物震害特征,因此在图像特征提取方面具有很大的优势(高扬,2018)。本文应用深度卷积神经网络模型进行建筑物震害的识别与分类。卷积神经网络模型一般由卷积层、池化层、全连接层和分类器组成(Lecun et al,1998)。
1) 卷积层。作为原始图像与卷积核之间的线性运算,卷积层一般是将多个卷积层放在一起进行重复卷积操作,得到线性结果,然后通过非线性运算得到特征图像,再将其作为下一层的输入特征图像,计算公式如下(史路路,2018):
$$ m_L^n = f\left(\sum\limits_{i \in {x_L}} {m_L^{n - 1}*k_{iL}^n} + g_L^n\right) \text{,} $$ (2) 式中,*为卷积运算,f是非线性函数,k为一定大小的滤波器,g为附加偏差。式(2)表示当前第L个卷积层中第n个特征图层,即L-1层的卷积特征输出后,经非线性函数运算获得。
2) 池化层。该层的目的是压缩输入图的特征数,以去除不重要的参量、噪声和数据波动,提升特征提取精度,也就是下采样(范荣双等,2019)。计算公式为
$$ m_L^n = f [\beta _L^n{\text{down}} ( m_L^{n - 1} + g_L^n ) ] \text{,} $$ (3) 式中,down表示下采样,β为乘子偏差,g为附加偏差,L为卷积层,n为特征层。
3) 全连接层。综合前面层次训练学习到的不同特征并投影到标记样本中去,即将特征分类到不同的样本中。
4) 分类器。应用分类器进行目标地物分类提取。
随着深度学习的兴起以及相关模型结构的完善,深度卷积神经网络在目标特征自动识别、学习和分类等方面的巨大的优势,被应用于诸如遥感地物分类、人脸识别等多个领域。VGGNet (visual geometry group networks)是卷积网络模型中分类精度较好的模型,按网络结构层数被分为16和19两种结构(Sun et al,2019)。本文使用VGGNet-16结构模型进行样本集的特征识别学习(图1)。该网络结构输入默认大小为224×224×3的二维图像;16层网络结构中有13层是卷积层,卷积层的卷积核大小为3×3,两个或三个卷积层作为一组;多次重复卷积后将结果输入到池化层进行处理,该层采用最大池化方法处理以减少图像大小,并对特征进行精简;最后用三个全连接层进行特征分类(Hu et al,2016;Yuan,2016)。
2. 震例分析
2.1 研究区域基本概况
据中国地震台网测定,2017年8月8日21时19分,四川省阿坝藏族羌族自治州九寨沟县(33.20°N,103.82°E)发生MS7.0地震,震源深度为20 km,造成29人死亡,1人失踪,543人受伤。笔者在震后采集了重点区域的倾斜摄影数据。选取位于四川省九寨沟县漳扎镇的千古情风景区和漳扎镇小学及其周边作为研究区域。这两个区域位于地震烈度Ⅷ度区,倾斜摄影影像面积约为0.3 km2。
2.2 建筑物震害信息
千古情风景区和漳扎镇小学及其周边倾斜摄影三维建筑物顶面、正面、后面、左面和右面的影像如图2和图3所示,本文将分别对千古情和漳扎镇小学建筑物的顶面和侧面影像进行目视解译。
以漳扎镇小学的建筑物为例,倾斜摄影影像(图4)清晰地展现了建筑物的侧面震害信息。从图4可以看出该建筑物为三层,承重墙体的墙面、窗户口处、窗户间有多处大面积的墙皮脱落和水平裂缝,建筑物屋顶基本完好。
2.3 训练样本的选取与构建
根据目视解译结果,选取包含各种震害信息的影像作为样本区,样片大小为100×100 像素,将样本区分为三类:完好建筑物面、破坏建筑物面和其它地物及背景。完好建筑物面的选取以样片中建筑物面完好为原则,破坏建筑物面的选取以样片内建筑物面有破坏信息为原则。同时由于使用的数据是无人机航拍的倾斜影像,针对样本量少的问题,从影像中建筑物的五个面选取样本,通过多次试验确定最佳的样片像素尺寸以增加样本量,通过多次迭代运算确定最优训练结果。最终确定的样本大小为100×100 像素,迭代次数为10 000。训练样本集如表1所示。
表 1 分类样本集的选取Table 1. Selection of classification sample sets标签 样本名称 样本图片 样本个数 1 完好建筑物面 107 2 破坏建筑物面 68 3 其它地物及背景 36 训练样本选好后,使用VGGNet-16网络模型进行样本特征训练。VGGNet-16模型主要研究卷积神经网络层次与提取精度之间的关系,多次连续重复使用小尺度卷积层和池化层进行操作处理,并使用三个不同大小的全连接层进行特征分类,从而形成了16层的网络模型,获取了更加抽象的高层次样本特征,减少了参数量,大大提高了提取精度。
2.4 影像多尺度分割
为确保分割质量精确,采用人机交互方式,设置不同的最大分割尺度、尺度个数和尺度间隔进行多次分割试验,目视观察分割对象效果,以获取最佳的分割效果。选择最大分割尺度为80的三个尺度,尺度间隔为0.6,分割尺度分别为80,48,29。以千古情风景区正面影像为例,当分割尺度为80时,建筑物面与地物较好地分割,建筑物面分割得较为完整,不同建筑物面之间被较好地分割开;当分割尺度为48时,建筑物面与地物能够分割,但是建筑物面分割破碎;当分割尺度为29时,建筑物面被分割得很破碎,建筑物面与地物不能被分割开。对于以80为主体分割尺度的影像,在该分割尺度下不能较好分割的区域,将其转换成中尺度或者小尺度分割,分割结果如图5所示。
2.5 震害提取结果
影像分割完成后,使用2.3节训练的网络模型,分别对灾区建筑物顶面和侧面的震害信息进行识别、分类完成后,得到三个大致分类结果;为提高建筑物震害的提取精度,分类后通过调节差异度参数来获取最佳提取结果。差异度是将每个像素属于该类别的概率归一化至 [ 0,255 ]区间上,它以模型中该类别的像元概率为基础,将其与每个像元属于该类别概率进行差异程度比较,以此来度量两种像元的相似程度。差异度越小,两种像元的相似度越高,属于该类别的像元概率就越高,则地物的提取精度较高;差异度越大,两种像元的相似度越低,属于该类别的像元概率就越低,则地物的提取精度较低。公式如下:
$$ C = \frac{{{P_{i, j}} - {P_{\min }}}}{{{P_{\max }} - {P_{\min }}}} {\text{×}} 255 \text{,} $$ (4) 式中:C为差异度,Pi, j为第i个像素属于j类别的概率,Pmax为概率的最大值,Pmin表示概率的最小值。
选取差异度时,以5为间隔,设置51个差异度值进行试验,分别对三个类别进行精细提取。试验结果表明,当完好建筑物面的差异度设置为165,破坏建筑物面的差异度设置为90,其它地物及背景的差异度设置为200时,得到最优提取结果。千古情风景区和漳扎镇小学的建筑物顶面和侧面的震害提取结果如图6所示。
图 6 千古情风景区(a)和漳扎镇小学(b)的建筑物提取结果红色代表完好建筑物面,蓝色代表破坏建筑物面,黑色代表其它地物及背景Figure 6. Extraction results of seismic damage of buildings in Qianguqing scenic spot (a) and Zhangzha primary school (b)Red represents the intact building surface,blue represents the damaged building surface and black represents other ground objects and backgrounds2.6 提取结果精度评估
本文采用混淆矩阵来评估提取结果的精度,混淆矩阵是分类方法中真实值和预测值以矩阵形式记录的数据。将深度学习提取结果作为预测值,目视解译提取的震害结果作为真实值,建立二者的混淆矩阵。
1) 千古情风景区的提取精度分析。深度学习和目视解译提取结果的混淆矩阵如表2所示。可见,破坏建筑物面、完好建筑物面和其它地物及背景的分类精度分别为65.5%,70.3%和92.8%,总体分类精度(正确分类的像元数与总体像元数之比)为82.1%,卡帕系数为68.7%。
表 2 千古情风景区的建筑物深度学习和目视解译提取结果的混淆矩阵Table 2. Confusion matrix of deep learning and artificial visual extraction results of the buildings in Qianguqing scenic spot预测真实 破坏建筑物面数 完好建筑物面数 其它地物及背景面数 合计 正确率 破坏建筑物面数 53 436 20 084 8 007 81 527 65.5% 完好建筑物面数 23 447 131 605 32 258 187 310 70.3% 其它地物及背景数 5 007 19 001 309 974 333 982 92.8% 合计 81 890 170 690 350 239 602 819 2) 漳扎镇小学及其周边的提取精度分析。深度学习和目视解译提取结果的混淆矩阵如表3所示,可见,破坏建筑物面、完好建筑物面和其它地物及背景的分类精度分别为71.1%,77.6%和87.2%,总体分类精度为84.1%,卡帕系数为64.9%。
表 3 漳扎镇小学及其周边的深度学习和人工目视解译提取结果混淆矩阵Table 3. Confusion matrix of deep learning and manual visual extraction results of the buildings in Zhangzha primary school and it’s vicinity预测真实 破坏建筑物面数 完好建筑物面数 其它地物及背景面数 合计 正确率 破坏建筑物面数 61 445 20 007 5 003 86 445 71.1% 完好建筑物面数 3 668 165 570 44 093 213 331 77.6% 其它地物及背景数 4 008 96 971 688 942 789 921 87.2% 合计 69 121 282 548 738 038 1 089 697 3. 讨论与结论
通过研究多尺度分割方法和卷积神经网络模型各自的优势,采用两者相结合的方法对倾斜影像中建筑物顶面和侧面的震害信息进行提取。利用多尺度分割方法获取最佳的分割影像,然后运用卷积神经网络模型VGGNet-16对分割后影像进行识别和分类,并通过建立混淆矩阵对分类结果进行评估。结果显示,总体分类精度达到80%以上,卡帕系数达到60%以上,表明结果具有较强的一致性。试验表明,倾斜摄影技术在提取具有大面积墙皮脱落、明显裂缝等建筑物侧面震害信息方面具有很大优势,弥补了传统遥感只能提取建筑物顶面震害信息的局限。同时通过对分类结果进行定量提取和精度评估,有利于改进深度学习分类模型,进一步提高分类精度和效率。
需要说明的是,本文使用的倾斜影像是高维度、多层级的三维模型,这使得利用本文的方法基于倾斜影像提取建筑物侧面震害信息增加了难度:第一,当建筑物面的类型和颜色相同时,易将完好建筑物面误分为有破坏信息的建筑物面,因此仍然需要对深度学习模型进行改进来提高分类模型精度;第二,当建筑物间距较小、屋檐遮挡等造成倾斜摄影拍摄不完整时,无法完整清晰地获取某些建筑物的侧面数据,所以利用倾斜影像获取建筑物完整的侧面信息需要尝试新的方法如三维点云数据分割等。
-
图 6 千古情风景区(a)和漳扎镇小学(b)的建筑物提取结果
红色代表完好建筑物面,蓝色代表破坏建筑物面,黑色代表其它地物及背景
Figure 6. Extraction results of seismic damage of buildings in Qianguqing scenic spot (a) and Zhangzha primary school (b)
Red represents the intact building surface,blue represents the damaged building surface and black represents other ground objects and backgrounds
表 1 分类样本集的选取
Table 1 Selection of classification sample sets
标签 样本名称 样本图片 样本个数 1 完好建筑物面 107 2 破坏建筑物面 68 3 其它地物及背景 36 表 2 千古情风景区的建筑物深度学习和目视解译提取结果的混淆矩阵
Table 2 Confusion matrix of deep learning and artificial visual extraction results of the buildings in Qianguqing scenic spot
预测真实 破坏建筑物面数 完好建筑物面数 其它地物及背景面数 合计 正确率 破坏建筑物面数 53 436 20 084 8 007 81 527 65.5% 完好建筑物面数 23 447 131 605 32 258 187 310 70.3% 其它地物及背景数 5 007 19 001 309 974 333 982 92.8% 合计 81 890 170 690 350 239 602 819 表 3 漳扎镇小学及其周边的深度学习和人工目视解译提取结果混淆矩阵
Table 3 Confusion matrix of deep learning and manual visual extraction results of the buildings in Zhangzha primary school and it’s vicinity
预测真实 破坏建筑物面数 完好建筑物面数 其它地物及背景面数 合计 正确率 破坏建筑物面数 61 445 20 007 5 003 86 445 71.1% 完好建筑物面数 3 668 165 570 44 093 213 331 77.6% 其它地物及背景数 4 008 96 971 688 942 789 921 87.2% 合计 69 121 282 548 738 038 1 089 697 -
陈梦,王晓青. 2019. 全卷积神经网络在建筑物震害遥感提取中的应用研究[J]. 震灾防御技术,14(4):810–820. doi: 10.11899/zzfy20190412 Chen M,Wang X Q. 2019. The study on extraction of seismic damage of buildings from remote sensing image based on fully convolutional neural network[J]. Technology for Earthquake Disaster Prevention,14(4):810–820 (in Chinese).
范荣双,陈洋,徐启恒,王竞雪. 2019. 基于深度学习的高分辨率遥感影像建筑物提取方法[J]. 测绘学报,48(1):34–41. doi: 10.11947/j.AGCS.2019.20170638 Fan R S,Chen Y,Xu Q H,Wang J X. 2019. A high-resolution remote sensing image building extraction method based on deep learning[J]. Acta Geodaetica et Cartographica Sinica,48(1):34–41 (in Chinese).
冯丽英. 2017. 基于深度学习技术的高分辨率遥感影像建设用地信息提取研究[D]. 杭州: 浙江大学: 22–39. Feng L Y. 2017. Research on Construction Land Information Extraction From High Resolution Images With Deep Learning Technology[D]. Hangzhou: Zhejiang University: 22–39 (in Chinese).
高扬. 2018. 基于卷积神经网络的高分辨率遥感影像建筑物提取[D]. 南京: 南京大学: 37–51. Gao Y. 2018. Building Extraction From High Resolution Remote Sensing Images Based on Convolutional Neural Network[D]. Nanjing: Nanjing University: 37–51 (in Chinese).
荆帅军,帅向华,甄盟. 2019. 基于无人机倾斜影像的三维建筑物震害精细信息提取[J]. 地震学报,41(3):366–376. Jing S J,Shuai X H,Zhen M. 2019. Fine information extraction of 3D building seismic damage based on unmanned aerial vehicle oblique images[J]. Acta Seismologica Sinica,41(3):366–376 (in Chinese).
李强. 2018. 多模式遥感数据地震应急关键技术研究[D]. 哈尔滨: 中国地震局工程力学研究所: 33–49. Li Q. 2018. Study on Key Technology of Earthquake Emergency Using Multi-Mode Remote Sensing Data[D]. Harbin: Institute of Engineering Mechanics, China Earthquake Administration: 33–49 (in Chinese).
李胜军. 2013. 基于倾斜航空影像的建筑物结构性损毁评估方法研究[D]. 成都: 西南交通大学: 12–20. Li S J. 2013. The Research of Building Structural Damage Assessment Based on Airborne Oblique Images[D]. Chengdu: Southwest Jiaotong University: 12–20 (in Chinese).
史路路. 2018. 基于卷积神经网络的遥感影像土地覆盖分类研究[D]. 北京: 中国科学院遥感与数字地球研究所: 14–18. Shi L L. 2018. Remote Sensing Images Land Cover Classification Based on Convolutional Neural Network[D]. Beijing: Institute of Remote Sensing and Digital Earth, Chinese Academy of Sciences: 14–18 (in Chinese).
吴剑,陈鹏,刘耀林,王静. 2013. 震害损毁建筑物高分辨率遥感信息提取方法[J]. 地理与地理信息科学,29(3):35–38. Wu J,Chen P,Liu Y L,Wang J. 2013. Method of earthquake collapsed building information extraction based on high-resolution remote sensing[J]. Geography and Geo-Information Science,29(3):35–38 (in Chinese).
赵妍,张景发,姚磊华. 2016. 基于面向对象的高分辨率遥感建筑物震害信息提取与评估[J]. 地震学报,38(6):942–951. doi: 10.11939/jass.2016.06.014 Zhao Y,Zhang J F,Yao L H. 2016. Seismic damage information extraction and evaluation of buildings with high resolution remote sensing based on object-oriented method[J]. Acta Seismologica Sinica,38(6):942–951 (in Chinese).
周阳,张云生,陈斯飏,邹峥嵘,朱耀晨,赵芮雪. 2019. 基于DCNN特征的建筑物震害损毁区域检测[J]. 国土资源遥感,31(2):44–50. Zhou Y,Zhang Y S,Chen S Y,Zou Z R,Zhu Y C,Zhao R X. 2019. Disaster damage detection in building areas based on DCNN features[J]. Remote Sensing for Land and Resources,31(2):44–50 (in Chinese).
Gerke M,Kerle N. 2011. Automatic structural seismic damage assessment with airborne oblique pictometry© imagery[J]. Photogramm Eng Remote Sens,77(9):885–898. doi: 10.14358/PERS.77.9.885
Hu Z W,Li Q Q,Zou Q,Zhang Q,Wu G F. 2016. A bilevel scale-sets model for hierarchical representation of large remote sensing images[J]. IEEE Trans Geosci Remote Sens,54(12):7366–7377. doi: 10.1109/TGRS.2016.2600636
Lecun Y,Bottou L,Bengio Y,Haffner P. 1998. Gradient-based learning applied to document recognition[J]. Proc IEEE,86(11):2278–2324. doi: 10.1109/5.726791
Sun G Y,Huang H,Zhang A Z,Li F,Zhao H M,Fu H. 2019. Fusion of multiscale convolutional neural networks for building extraction in very high-resolution images[J]. Remote Sens,11(3):227. doi: 10.3390/rs11030227
Vetrivel A,Gerke M,Kerle N,Nex F,Vosselman G. 2018. Disaster damage detection through synergistic use of deep learning and 3D point cloud features derived from very high resolution oblique aerial images,and multiple-kernel-learning[J]. ISPRS J Photogramm Remote Sens,140:45–59.
Yuan J Y. 2016. Automatic building extraction in aerial scenes using convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,40(11):2793–2798.
-
期刊类型引用(2)
1. 谢跃辉,李百寿,高豫川. 基于LBP纹理与SegNet网络的灾损建筑物提取. 北京测绘. 2023(03): 397-401 . 百度学术
2. 曲金泽. 基于儿童心理和行为的小学建筑设计研究——以龙南思源中和分校为例. 住宅与房地产. 2023(17): 53-55 . 百度学术
其他类型引用(6)