基于样本增强的卷积神经网络震相拾取方法

李安, 杨建思, 彭朝勇, 郑钰, 刘莎

李安,杨建思,彭朝勇,郑钰,刘莎. 2020. 基于样本增强的卷积神经网络震相拾取方法. 地震学报,42(2):163−176. doi:10.11939/jass.20190070. DOI: 10.11939/jass.20190070
引用本文: 李安,杨建思,彭朝勇,郑钰,刘莎. 2020. 基于样本增强的卷积神经网络震相拾取方法. 地震学报,42(2):163−176. doi:10.11939/jass.20190070. DOI: 10.11939/jass.20190070
Li A,Yang J S,Peng C Y,Zheng Y,Liu S. 2020. Seismic phase identification using the convolutional neural networks based on sample enhancement. Acta Seismologica Sinica42(2):163−176. doi:10.11939/jass.20190070. DOI: 10.11939/jass.20190070
Citation: Li A,Yang J S,Peng C Y,Zheng Y,Liu S. 2020. Seismic phase identification using the convolutional neural networks based on sample enhancement. Acta Seismologica Sinica42(2):163−176. doi:10.11939/jass.20190070. DOI: 10.11939/jass.20190070

基于样本增强的卷积神经网络震相拾取方法

基金项目: 国家自然科学基金(41874075)和国家重点研发计划(2018YFC1504002)联合资助
详细信息
    通讯作者:

    杨建思: e-mail:yangjiansi@vip.sina.com

  • 中图分类号: P315.63

Seismic phase identification using the convolutional neural networks based on sample enhancement

  • 摘要:

    为了快速、高效地从地震数据中识别地震事件和拾取震相,本文利用基于样本增强的卷积神经网络自动震相拾取方法,将西藏林芝地区L0230台站3个月数据作为训练集,该区内另外6个台站连续1个月的波形数据作为测试集,采用高斯噪声、随机噪声拼接、随机挑选噪声、随机截取地震事件等4种样本增强的方法扩增训练集,以提高自动震相拾取技术的准确率。结果显示:样本增强前模型在测试集上的地震事件识别准确率为80%,样本增强后提升至97%,表明样本增强有效地提高了模型的泛化性能和抗干扰能力;在0.5 s误差范围内,震相自动拾取准确率高于81%,在1.0 s误差范围内,准确率高于95%;利用基于样本增强的卷积神经网络震相拾取方法能够检测出人工拾取震相中误标和漏检的震相。

    Abstract:

    In order to quickly and efficiently identify earthquake events and pick up seismic phases from seismic data, this paper a small sample enhancement-based automatic phase picking method based on a convolutional neural network. A total of three months of data from the L0230 station in Linzhi, Tibet were used as a training set, and one-month continuous waveform data from the other six stations in this area were used as the test sets. Gaussian noise, random noise splicing, random selection of noise and random interception of seismic events were used to enhance the training set so as to improve the accuracy. The results show that the accuracy of the model on the test set was 80% before the samples were enhanced, and up to 97% after that, suggesting that the sample enhancement effectively improves the generalization perfor-mance and anti-interference ability of the model. Within the 0.5 s error range, the accuracy of the seismic phase automatic picking is higher than 81%, and within the 1.0 s error range, the accuracy is higher than 95%. Moreover, it is able to detect mislabeled and missing seismic phases in manually picking seismic phases by this method.

  • 近年来,随着地震观测台站逐年增加,地震数据量日益增多,人工拾取震相已经不能满足实际需求,如何快速、高效地从地震数据中识别地震事件和拾取震相成为亟待解决的问题。而震相自动拾取与人工拾取相比,具有效率高、成本低等优势,是解决大量地震数据处理的有效手段。常用的自动震相识别方法有:长短时窗平均比(short time average over long time average,缩写为STA/LTA)方法,该方法根据长短时窗平均比值来判定地震事件,当比值大于给定阈值时,判定为地震事件,其优势在于计算简单、对于信噪比高的地震记录拾取准确率高,但是对于信噪比低的地震记录拾取效果差,并且依赖于阈值的设定(Allen,19781982Earle,Shearer,1994刘晗,张建中,2014何先龙等,2016);赤池信息准则(Akaike infor-mation criterion,缩写为AIC),是赤池弘治1974年根据信息论中熵的定义提出(Akaike,1974),常用于地震事件判别与震相拾取,但该方法对信噪比低的地震记录应用效果依旧较差(Sleeman,van Eck,1999Takanami,Kitagawa,1993Küperkoch et al,2012赵大鹏等,2013);分形分维法,主要是根据地震记录曲线,计算得到 “V” 字形分形分维值曲线,将 “V” 字形第一个突变点判断为震相,该方法精度高、抗干扰能力强,但是分形分维值计算较为复杂(Falconner,1990Boschetti,Dentith,1996常旭,刘伊克,2002);相关法则是根据信号的相关性,相关性强时效果较好,相关性弱时则效果较差(Molyneux,Schmitt,1999王继等,2006);模板匹配法,依据余震序列、同一断层处的微小地震波形的相似性,使用事先选好的模板进行震相拾取,该方法适用于余震序列识别,但需要大量的模板(Poupinet et al ,1984Rubin,2002Schaff,Richards,2004);人工神经网络法,通常应用于地震事件的判别与分类,该方法精度高、效果好,但该模型训练困难,且模型的输入特征需要人工提取(Dai,MacBeth,1997王娟等,2004王继,陈九辉,2008)。

    与上述几种方法相比,卷积神经网络方法应用于地震事件分类与震相拾取时,可以自动提取特征学习,无需人为设定阈值,模型学习能力、非线性表达能力和抗干扰能力强,能够高效地、对地震事件进行高精度的分类与震相拾取,所以该方法也逐渐得以广泛应用(Perol et al,2018Ross et al,2018Zhu,Beroza,2018于子叶等,2018)。但是该方法对训练样本需求量大,若样本量太小,模型容易过拟合,故需要进一步降低模型误判率和漏检率(于子叶等,2018赵明等,2019)。地震数据量非常庞大,而卷积神经网络训练样本又需要震相标注数据,该工作需要大量人工,且此工作枯燥无味,成本高,耗时长,容易带有人为主观因素,所以依旧缺乏实际训练样本。此外,地震记录是地震信号与地震噪声的叠加,单纯靠人工标注震相数据构建的训练集难以与实际地震数据的分布一致,易造成模型过拟合、降低模型的泛化性能和抗干扰性能,增大模型的误判率和漏检率等。

    针对上述问题,本文从样本增强的角度出发,使用少量的震相标注数据,通过加入高斯噪声、随机噪声拼接、随机挑选噪声、随机截取地震事件等4种样本增强方法,扩增数据集并降低人工标注成本,利用增强后的数据集训练卷积神经网络分类地震事件与拾取震相,以期有效地降低模型的误判率和漏检率。

    近年来,随着地震观测台站逐年增加,地震数据量日益增多,人工拾取震相已经不能满足实际需求,如何快速、高效地从地震数据中识别地震事件和拾取震相成为亟待解决的问题。而震相自动拾取与人工拾取相比,具有效率高、成本低等优势,是解决大量地震数据处理的有效手段。常用的自动震相识别方法有:长短时窗平均比(short time average over long time average,缩写为STA/LTA)方法,该方法根据长短时窗平均比值来判定地震事件,当比值大于给定阈值时,判定为地震事件,其优势在于计算简单、对于信噪比高的地震记录拾取准确率高,但是对于信噪比低的地震记录拾取效果差,并且依赖于阈值的设定(Allen,19781982Earle,Shearer,1994刘晗,张建中,2014何先龙等,2016);赤池信息准则(Akaike infor-mation criterion,缩写为AIC),是赤池弘治1974年根据信息论中熵的定义提出(Akaike,1974),常用于地震事件判别与震相拾取,但该方法对信噪比低的地震记录应用效果依旧较差(Sleeman,van Eck,1999Takanami,Kitagawa,1993Küperkoch et al,2012赵大鹏等,2013);分形分维法,主要是根据地震记录曲线,计算得到 “V” 字形分形分维值曲线,将 “V” 字形第一个突变点判断为震相,该方法精度高、抗干扰能力强,但是分形分维值计算较为复杂(Falconner,1990Boschetti,Dentith,1996常旭,刘伊克,2002);相关法则是根据信号的相关性,相关性强时效果较好,相关性弱时则效果较差(Molyneux,Schmitt,1999王继等,2006);模板匹配法,依据余震序列、同一断层处的微小地震波形的相似性,使用事先选好的模板进行震相拾取,该方法适用于余震序列识别,但需要大量的模板(Poupinet et al ,1984Rubin,2002Schaff,Richards,2004);人工神经网络法,通常应用于地震事件的判别与分类,该方法精度高、效果好,但该模型训练困难,且模型的输入特征需要人工提取(Dai,MacBeth,1997王娟等,2004王继,陈九辉,2008)。

    与上述几种方法相比,卷积神经网络方法应用于地震事件分类与震相拾取时,可以自动提取特征学习,无需人为设定阈值,模型学习能力、非线性表达能力和抗干扰能力强,能够高效地、对地震事件进行高精度的分类与震相拾取,所以该方法也逐渐得以广泛应用(Perol et al,2018Ross et al,2018Zhu,Beroza,2018于子叶等,2018)。但是该方法对训练样本需求量大,若样本量太小,模型容易过拟合,故需要进一步降低模型误判率和漏检率(于子叶等,2018赵明等,2019)。地震数据量非常庞大,而卷积神经网络训练样本又需要震相标注数据,该工作需要大量人工,且此工作枯燥无味,成本高,耗时长,容易带有人为主观因素,所以依旧缺乏实际训练样本。此外,地震记录是地震信号与地震噪声的叠加,单纯靠人工标注震相数据构建的训练集难以与实际地震数据的分布一致,易造成模型过拟合、降低模型的泛化性能和抗干扰性能,增大模型的误判率和漏检率等。

    针对上述问题,本文从样本增强的角度出发,使用少量的震相标注数据,通过加入高斯噪声、随机噪声拼接、随机挑选噪声、随机截取地震事件等4种样本增强方法,扩增数据集并降低人工标注成本,利用增强后的数据集训练卷积神经网络分类地震事件与拾取震相,以期有效地降低模型的误判率和漏检率。

    本文采用卷积神经网络模型,其主要由卷积层(convolutional layer)、批量归一化层(batch normalization,缩写为BN)、池化层(max pooling)、激活层(activation layer)、Dropout层和全连接层(fully connected layers,缩写为FC)构成。

    为卷积神经网络模型输入地震记录三分量数据。批量归一化层加速了模型收敛速度;池化层对特征图进行采样,减少参数量;激活层采用修正线性单元(rectified linear units,缩写为RELU),其计算公式为:

    $$ y {\text{=}} \left\{ \begin{array}{l}\!\!\!\!0{\text{,}}\quad x{\text{≤}} 0{\text{,}}\\ \!\!\!\!x{\text{,}}\quad x {\text{>}} 0{\text{.}} \\ \end{array} \right. $$ (1)

    式中,xy表示激活函数RELU的输入和输出值。激活函数能够增加网络的非线性表达能力,修正线性单元能够有效地防止反向传播过程中梯度消失的问题。Dropout层可以控制模型过拟合。最后模型的输出采用归一化指数函数

    $$ {S_i} {\text{=}} \frac{{{{\rm{e}}^{{z_i}}}}}{{\displaystyle\sum\limits_k {{{\rm{e}}^{{z_k}}}} }} {\text{,}} $$ (2)

    式中,Si表示第i个神经元输出,输出对应不同震相的类型;zizk为第ik个神经元输出值。

    模型的损失函数(loss function)采用交叉熵损失,并且为了防止模型过拟合,加上L2正则化,损失函数如下:

    $$ {\rm{loss}} {\text{=}} {\text{-}} \sum {{y_i}\ln {a_i}} {\text{+}} \lambda {\sum w ^2}{\text{,}} $$ (3)

    式中,ai为模型输出值,w为模型的权重,λ为正则化系数,yi为样本标签,loss为损失值。模型参数列于表1

    表  1  本文所用模型参数
    Table  1.  Model parameters used in this study
    层名输出通道数参数总数层名输出通道数参数总数
    Conv1_132224Conv3_26414 336
    Conv1_2327 168Conv3_36414 336
    Conv2_1327 168Fc625612 288
    Conv2_2327 168Fc7512131 072
    Conv3_16414 336Output31 536
    下载: 导出CSV 
    | 显示表格

    本文采用卷积神经网络模型,其主要由卷积层(convolutional layer)、批量归一化层(batch normalization,缩写为BN)、池化层(max pooling)、激活层(activation layer)、Dropout层和全连接层(fully connected layers,缩写为FC)构成。

    为卷积神经网络模型输入地震记录三分量数据。批量归一化层加速了模型收敛速度;池化层对特征图进行采样,减少参数量;激活层采用修正线性单元(rectified linear units,缩写为RELU),其计算公式为:

    $ y {\text{=}} \left\{ \begin{array}{l}\!\!\!\!0{\text{,}}\quad x{\text{≤}} 0{\text{,}}\\ \!\!\!\!x{\text{,}}\quad x {\text{>}} 0{\text{.}} \\ \end{array} \right. $

    (1)

    式中,xy表示激活函数RELU的输入和输出值。激活函数能够增加网络的非线性表达能力,修正线性单元能够有效地防止反向传播过程中梯度消失的问题。Dropout层可以控制模型过拟合。最后模型的输出采用归一化指数函数

    $ {S_i} {\text{=}} \frac{{{{\rm{e}}^{{z_i}}}}}{{\displaystyle\sum\limits_k {{{\rm{e}}^{{z_k}}}} }} {\text{,}} $

    (2)

    式中,Si表示第i个神经元输出,输出对应不同震相的类型;zizk为第ik个神经元输出值。

    模型的损失函数(loss function)采用交叉熵损失,并且为了防止模型过拟合,加上L2正则化,损失函数如下:

    $ {\rm{loss}} {\text{=}} {\text{-}} \sum {{y_i}\ln {a_i}} {\text{+}} \lambda {\sum w ^2}{\text{,}} $

    (3)

    式中,ai为模型输出值,w为模型的权重,λ为正则化系数,yi为样本标签,loss为损失值。模型参数列于表1

    表  1  本文所用模型参数
    Table  1.  Model parameters used in this study
    层名输出通道数参数总数层名输出通道数参数总数
    Conv1_132224Conv3_26414 336
    Conv1_2327 168Conv3_36414 336
    Conv2_1327 168Fc625612 288
    Conv2_2327 168Fc7512131 072
    Conv3_16414 336Output31 536
    下载: 导出CSV 
    | 显示表格

    数据对于深度学习方法至关重要,如果训练集的分布与数据真实分布不一致,则模型泛化性能低,易过拟合。而地震记录信噪比的分布对震相拾取有很大影响,为了使模型能够有效地区分不同类型噪声,提高对不同信噪比数据识别的准确率,本文采用样本增强的方法提高模型的抗干扰能力,降低误判率与漏检率。

    对于图像数据而言,样本增强常使用旋转变换、随机裁剪和加入噪声等方法。对于地震数据,样本增强主要通过加入高斯噪声、随机拼接噪声、随机挑选噪声和随机截取地震事件等4种方法来实现。加入高斯噪声和随机拼接噪声能够使地震记录的信噪比分布与真实分布更为一致。其中加入高斯噪声是在原始地震记录的基础上加入不同比例的噪声,构建不同信噪比的地震数据。方法如下:

    $$ F\!\!\!\!{\text{(}}i{\text{)}}\!\!{\text{=}} f\!\!\!\!{\text{(}}i{\text{)}}\!\!\!\!{\text{+}}\gamma \cdot {\rm Gauss}\!\!{\text{(}} \mu{\text{,}}\sigma {\text{)}}\!\! {\text{,}}$$ (4)

    式中,fi)表示第i个时刻的原始地震记录,Gauss表示高斯分布,uσ分别为高斯分布的均值与标准差,γ为加入高斯噪声的比例,Fi)为第i时刻增加高斯噪声后的地震记录。随机拼接噪声是在地震震相前后的噪声被随机替换成不同噪声,构建出不同噪声与地震信号叠加的记录,方法为:

    $$ F\!\!\!\!{\text{(}}i {\text{)}}\!\!{\text{=}} \left\{ \begin{aligned} & {\rm{Random}}\!\!{\text{(}}{\rm{noise}}{\text{,}}\!\!i{\text{)}}\!\!{\text{,}}\quad i {\text{<}} {l_1}{\text{,}}\!i {\text{>}} {l_2}{\text{,}}\\ & f \!\!\!{\text{(}}i{\text{)}}\!\!\!\!{\text{,}}\qquad \qquad\qquad\quad{l_1} {\text{<}} i {\text{<}} {l_2}{\text{,}} \end{aligned} \right. $$ (5)

    式中,l1l2分别为震相前后的位置,Random为随机函数,noise表示噪声,Fi)为第i时刻随机拼接噪声后的地震记录。

    随机挑选噪声和随机截取地震事件这两种方法可以保持模型对连续波形依旧适用。实际上,整条地震记录的全部噪声均应输入模型学习,得出噪声的实际分布,但这将导致正负样本极不均衡。所以本文采取随机截取连续波形中的噪声,即随机挑选噪声法,类似降采样来模拟真实的噪声分布。相反,如果采取相对固定的噪声,比如只选择地震事件前后的噪声,那么模型则无法学习到其它时段的噪声,在预测连续波形时容易将地震事件与噪声误判。如果将震相保持在地震事件相对位置中的某一个固定位置,在预测连续波形时,不断滑动窗口,那么震相在地震事件中相对位置的分布是类似均匀的。如果固定相对位置,那么模型所拟合的分布将与实际不符,连续波形预测时准确率将大大降低,模型泛化性能降低。随机截取地震事件方法示意见图1

    图  1  随机截取地震事件方法示意图
    Figure  1.  Schematic diagram of random interception of earthquake events

    样本增强仅针对训练数据,测试集是真实分布,无需对其进行增强。

    数据对于深度学习方法至关重要,如果训练集的分布与数据真实分布不一致,则模型泛化性能低,易过拟合。而地震记录信噪比的分布对震相拾取有很大影响,为了使模型能够有效地区分不同类型噪声,提高对不同信噪比数据识别的准确率,本文采用样本增强的方法提高模型的抗干扰能力,降低误判率与漏检率。

    对于图像数据而言,样本增强常使用旋转变换、随机裁剪和加入噪声等方法。对于地震数据,样本增强主要通过加入高斯噪声、随机拼接噪声、随机挑选噪声和随机截取地震事件等4种方法来实现。加入高斯噪声和随机拼接噪声能够使地震记录的信噪比分布与真实分布更为一致。其中加入高斯噪声是在原始地震记录的基础上加入不同比例的噪声,构建不同信噪比的地震数据。方法如下:

    $ F\!\!\!\!{\text{(}}i{\text{)}}\!\!{\text{=}} f\!\!\!\!{\text{(}}i{\text{)}}\!\!\!\!{\text{+}}\gamma \cdot {\rm Gauss}\!\!{\text{(}} \mu{\text{,}}\sigma {\text{)}}\!\! {\text{,}}$

    (4)

    式中,fi)表示第i个时刻的原始地震记录,Gauss表示高斯分布,uσ分别为高斯分布的均值与标准差,γ为加入高斯噪声的比例,Fi)为第i时刻增加高斯噪声后的地震记录。随机拼接噪声是在地震震相前后的噪声被随机替换成不同噪声,构建出不同噪声与地震信号叠加的记录,方法为:

    $ F\!\!\!\!{\text{(}}i {\text{)}}\!\!{\text{=}} \left\{ \begin{aligned} & {\rm{Random}}\!\!{\text{(}}{\rm{noise}}{\text{,}}\!\!i{\text{)}}\!\!{\text{,}}\quad i {\text{<}} {l_1}{\text{,}}\!i {\text{>}} {l_2}{\text{,}}\\ & f \!\!\!{\text{(}}i{\text{)}}\!\!\!\!{\text{,}}\qquad \qquad\qquad\quad{l_1} {\text{<}} i {\text{<}} {l_2}{\text{,}} \end{aligned} \right. $

    (5)

    式中,l1l2分别为震相前后的位置,Random为随机函数,noise表示噪声,Fi)为第i时刻随机拼接噪声后的地震记录。

    随机挑选噪声和随机截取地震事件这两种方法可以保持模型对连续波形依旧适用。实际上,整条地震记录的全部噪声均应输入模型学习,得出噪声的实际分布,但这将导致正负样本极不均衡。所以本文采取随机截取连续波形中的噪声,即随机挑选噪声法,类似降采样来模拟真实的噪声分布。相反,如果采取相对固定的噪声,比如只选择地震事件前后的噪声,那么模型则无法学习到其它时段的噪声,在预测连续波形时容易将地震事件与噪声误判。如果将震相保持在地震事件相对位置中的某一个固定位置,在预测连续波形时,不断滑动窗口,那么震相在地震事件中相对位置的分布是类似均匀的。如果固定相对位置,那么模型所拟合的分布将与实际不符,连续波形预测时准确率将大大降低,模型泛化性能降低。随机截取地震事件方法示意见图1

    图  1  随机截取地震事件方法示意图
    Figure  1.  Schematic diagram of random interception of earthquake events

    样本增强仅针对训练数据,测试集是真实分布,无需对其进行增强。

    连续波形处理完成后,需要构建训练集,由于地震数据是极不平衡的,正样本(震相)在连续波形中所占比例太低。如果直接使用连续波形训练数据,那么模型会偏向于负样本。所以本文采用截取时间滑动窗口为30 s的数据用于模型训练,以控制训练数据中正负样本所占比例。在测试数据时,需使用连续波形数据,从连续波形数据中不断地截取长度为30 s的时间滑动窗口用于模型判断。如果模型判断为地震事件,再使用模型结构相同,但滑窗长度为1 s的模型继续判断该地震事件,从而拾取震相。

    连续波形处理完成后,需要构建训练集,由于地震数据是极不平衡的,正样本(震相)在连续波形中所占比例太低。如果直接使用连续波形训练数据,那么模型会偏向于负样本。所以本文采用截取时间滑动窗口为30 s的数据用于模型训练,以控制训练数据中正负样本所占比例。在测试数据时,需使用连续波形数据,从连续波形数据中不断地截取长度为30 s的时间滑动窗口用于模型判断。如果模型判断为地震事件,再使用模型结构相同,但滑窗长度为1 s的模型继续判断该地震事件,从而拾取震相。

    本研究使用南迦巴瓦流动测震台网记录的连续波形数据。南迦巴瓦流动测震台网围绕喜马拉雅东构造结顶端的南迦巴瓦地区布设,能够实时监测该区域的地震活动。该台网自2016年12月运行以来,积累了丰富的连续波形资料。其中,位于林芝市鲁朗镇的L0230台,距离2017年米林ML6.9地震的发震断层最近,连续运行状况最好,所以训练数据采用的是该台站2018年11月至2019年1月连续3个月数据。使用2019年2月1日到2019年3月2日共30天分布于该地区的L0230,L0233,L0293,L0296,L0297和L0298等6个台站数据作为测试集,台站分布如图2所示。所有数据的采样率为0.01 s,震相标注工具使用msdp软件,标注震相类型为Pg与Sg。共标注814次地震事件数据。经过样本增强处理,共得到40 700条地震事件数据,将20%切分成验证集。对全部数据进行带通滤波预处理,随后进行归一化处理以加速模型的收敛,方法如下:

    图  2  台站分布图
    Figure  2.  The distribution of stations

    $ x {\text{=}} \frac{{x {\text{-}} {x_{\min }}}}{{{x_{\max }} {\text{-}} {x_{\min }}}}{\text{,}} $

    (6)

    式中,x表示某一归一化振幅,xmaxxmin分别为该地震数据的最大和最小振幅。

    构建训练集使用事先截取好的地震事件作为输入,测试数据使用的是连续波形数据,通过截取滑动窗口的形式不断让模型判别、拾取震相。

    本研究使用南迦巴瓦流动测震台网记录的连续波形数据。南迦巴瓦流动测震台网围绕喜马拉雅东构造结顶端的南迦巴瓦地区布设,能够实时监测该区域的地震活动。该台网自2016年12月运行以来,积累了丰富的连续波形资料。其中,位于林芝市鲁朗镇的L0230台,距离2017年米林ML6.9地震的发震断层最近,连续运行状况最好,所以训练数据采用的是该台站2018年11月至2019年1月连续3个月数据。使用2019年2月1日到2019年3月2日共30天分布于该地区的L0230,L0233,L0293,L0296,L0297和L0298等6个台站数据作为测试集,台站分布如图2所示。所有数据的采样率为0.01 s,震相标注工具使用msdp软件,标注震相类型为Pg与Sg。共标注814次地震事件数据。经过样本增强处理,共得到40 700条地震事件数据,将20%切分成验证集。对全部数据进行带通滤波预处理,随后进行归一化处理以加速模型的收敛,方法如下:

    图  2  台站分布图
    Figure  2.  The distribution of stations
    $$ x {\text{=}} \frac{{x {\text{-}} {x_{\min }}}}{{{x_{\max }} {\text{-}} {x_{\min }}}}{\text{,}} $$ (6)

    式中,x表示某一归一化振幅,xmaxxmin分别为该地震数据的最大和最小振幅。

    构建训练集使用事先截取好的地震事件作为输入,测试数据使用的是连续波形数据,通过截取滑动窗口的形式不断让模型判别、拾取震相。

    卷积神经网络的训练使用TensorFlow1.3.0深度学习框架和TensorBoard可视化训练结果,训练模型使用Tesla P100 GPU显卡,在Centos7.2系统下使用Pycharm开发工具,具体参数列于表2

    表  2  模型训练环境
    Table  2.  Model training environment
    设备参数
     系统    Centos7.2
     开发工具(IDE)    Pycharm
     GPU显卡    Tesla P100
     CPU型号    Intel(R) Xeon(R) CPU E5-2603 v4 @ 1.70 GHz
     深度学习框架    TensorFlow1.3.0
     可视化工具    TensorFlow-TensorBoard (0.1.5)
     算法    卷积神经网络(CNN)
     编程语言    Python3.6.3
    下载: 导出CSV 
    | 显示表格

    模型的权重使用均值为0,标准差为0.02的高斯随机初始化方法,权重的初始化对模型训练收敛速度影响较大,而高斯随机初始化是一种常用的权重初始化方法。选择自适应矩估计(adaptive moments algorithms,缩写为Adam)优化方法(Kingma,Ba,2014),该方法收敛速度较快,能够快速收敛到较好的结果,然后使用小学习率,用SGD (stochastic gradient descent)优化方法微调几个Epoch。另外,训练过程中使用early-stopping正则化策略,当验证集损失连续不下降,模型则会终止训练,防止模型过拟合。

    卷积神经网络的训练使用TensorFlow1.3.0深度学习框架和TensorBoard可视化训练结果,训练模型使用Tesla P100 GPU显卡,在Centos7.2系统下使用Pycharm开发工具,具体参数列于表2

    表  2  模型训练环境
    Table  2.  Model training environment
    设备参数
     系统    Centos7.2
     开发工具(IDE)    Pycharm
     GPU显卡    Tesla P100
     CPU型号    Intel(R) Xeon(R) CPU E5-2603 v4 @ 1.70 GHz
     深度学习框架    TensorFlow1.3.0
     可视化工具    TensorFlow-TensorBoard (0.1.5)
     算法    卷积神经网络(CNN)
     编程语言    Python3.6.3
    下载: 导出CSV 
    | 显示表格

    模型的权重使用均值为0,标准差为0.02的高斯随机初始化方法,权重的初始化对模型训练收敛速度影响较大,而高斯随机初始化是一种常用的权重初始化方法。选择自适应矩估计(adaptive moments algorithms,缩写为Adam)优化方法(Kingma,Ba,2014),该方法收敛速度较快,能够快速收敛到较好的结果,然后使用小学习率,用SGD (stochastic gradient descent)优化方法微调几个Epoch。另外,训练过程中使用early-stopping正则化策略,当验证集损失连续不下降,模型则会终止训练,防止模型过拟合。

    在保证诸如网络结构、训练方法、迭代次数、超参数设置等均相同的条件下,对比样本增强前后模型训练的结果,以观察样本增强的效果。

    本文采用4种样本增强方式:① 加入高斯噪声,比例分别为0.01%,0.02%,0.05%和0.07%;② 随机拼接任意两种噪声,随机选择连续波形中的噪声与震相部分前后相互拼接;③ 随机挑选噪声,即构建负样本时,任意选择连续波形中的噪声段数据;④ 随机截取地震事件,以地震事件中间前后各15 s噪声为基准、前后各随机偏移0—1 s和0—2 s共五种截取形式。样本增强方法总计12种,相互结合,共50种组合方法。

    样本增强前使用原始数据训练,利用TensorBoard工具可视化训练过程,结果如图3所示。可以看出,训练集上损失不断下降,准确率不断上升,但是在验证集上准确率先增加后下降,损失先下降后上升。最终训练集上准确率接近1,但是验证集上只有80%。训练集与验证集结果相差太大,由此分析得出,模型处于过拟合状态。说明不做样本增强,只使用原始数据训练模型,数据量极少,模型极易过拟合。

    图  3  输入原始数据的卷积神经网络模型在训练集和验证集上准确率(a)和损失(b)变化
    Figure  3.  The curves of the accuracy rate (a) and loss (b) of convolutional neural network model with inputting raw data on the training dataset and test dataset

    经过样本增强后,使用样本增强的数据集训练结果如图4所示。可见:在训练集上,准确率不断上升,最终达到99%以上,验证集上准确率也不断上升,最终达到98%以上;损失在训练集和验证集上都不断下降,并且最终相差不大;模型处于良好的状态,未发生过拟合现象,准确率较高,损失较低。与图3对比可以看出,样本增强后模型训练结果更好,模型泛化能力更强,准确率更高。说明样本增强后,模型泛化性能提高,抗干扰能力加强,有效控制了模型过拟合。

    图  4  样本增强后训练神经网络模型在训练集和验证集上准确率(a)与损失(b)变化
    Figure  4.  The curves of the accuracy rate (a) and loss (b) of the sample enhancement-based convolutional neural network model on the training dataset and test dataset

    在保证诸如网络结构、训练方法、迭代次数、超参数设置等均相同的条件下,对比样本增强前后模型训练的结果,以观察样本增强的效果。

    本文采用4种样本增强方式:① 加入高斯噪声,比例分别为0.01%,0.02%,0.05%和0.07%;② 随机拼接任意两种噪声,随机选择连续波形中的噪声与震相部分前后相互拼接;③ 随机挑选噪声,即构建负样本时,任意选择连续波形中的噪声段数据;④ 随机截取地震事件,以地震事件中间前后各15 s噪声为基准、前后各随机偏移0—1 s和0—2 s共五种截取形式。样本增强方法总计12种,相互结合,共50种组合方法。

    样本增强前使用原始数据训练,利用TensorBoard工具可视化训练过程,结果如图3所示。可以看出,训练集上损失不断下降,准确率不断上升,但是在验证集上准确率先增加后下降,损失先下降后上升。最终训练集上准确率接近1,但是验证集上只有80%。训练集与验证集结果相差太大,由此分析得出,模型处于过拟合状态。说明不做样本增强,只使用原始数据训练模型,数据量极少,模型极易过拟合。

    图  3  输入原始数据的卷积神经网络模型在训练集和验证集上准确率(a)和损失(b)变化
    Figure  3.  The curves of the accuracy rate (a) and loss (b) of convolutional neural network model with inputting raw data on the training dataset and test dataset

    经过样本增强后,使用样本增强的数据集训练结果如图4所示。可见:在训练集上,准确率不断上升,最终达到99%以上,验证集上准确率也不断上升,最终达到98%以上;损失在训练集和验证集上都不断下降,并且最终相差不大;模型处于良好的状态,未发生过拟合现象,准确率较高,损失较低。与图3对比可以看出,样本增强后模型训练结果更好,模型泛化能力更强,准确率更高。说明样本增强后,模型泛化性能提高,抗干扰能力加强,有效控制了模型过拟合。

    图  4  样本增强后训练神经网络模型在训练集和验证集上准确率(a)与损失(b)变化
    Figure  4.  The curves of the accuracy rate (a) and loss (b) of the sample enhancement-based convolutional neural network model on the training dataset and test dataset

    模型训练过程中超参数选择的影响较大,本文选择调优学习率和batch size两个超参数对模型进行进一步优化。这两个参数对模型收敛具有较大的影响,经常需要调优。

    1) 学习率的影响。在保证其它条件相同的情况下,对比不同的学习率对模型训练结果的影响。学习率分别取0.01,0.001,0.000 1,0.000 01和0.000 001,训练结果如图5所示,可见:当学习率取为0.000 001时,模型收敛最差,且收敛速度慢;当学习率取为0.01时,模型训练结果也较差;学习率为0.000 1时,收敛效果最佳,损失最低,模型收敛也较快。

    图  5  不同学习率训练结果
    Figure  5.  Training result for difference learning rate

    2) Batch size的影响。同等条件,不同batch size对模型的影响如图6所示,可见:当batch size为256时,模型收敛结果最差;batch size为16时,在模型收敛过程中,损失波动较大;当batch size为64时,模型收敛最佳。这是由于batch size太小,模型每次反向传播时,梯度方向变化较大,导致模型收敛慢,而batch size太大,梯度方向几乎保持不变,容易陷入局部最小值,不利于模型跳出局部最优。所以需要选择适中的batch size。本文根据试验分析选择batch size为64时的收敛结果最佳。

    图  6  不同batch size训练结果
    Figure  6.  Training result for difference batch size

    模型训练过程中超参数选择的影响较大,本文选择调优学习率和batch size两个超参数对模型进行进一步优化。这两个参数对模型收敛具有较大的影响,经常需要调优。

    1) 学习率的影响。在保证其它条件相同的情况下,对比不同的学习率对模型训练结果的影响。学习率分别取0.01,0.001,0.000 1,0.000 01和0.000 001,训练结果如图5所示,可见:当学习率取为0.000 001时,模型收敛最差,且收敛速度慢;当学习率取为0.01时,模型训练结果也较差;学习率为0.000 1时,收敛效果最佳,损失最低,模型收敛也较快。

    图  5  不同学习率训练结果
    Figure  5.  Training result for difference learning rate

    2) Batch size的影响。同等条件,不同batch size对模型的影响如图6所示,可见:当batch size为256时,模型收敛结果最差;batch size为16时,在模型收敛过程中,损失波动较大;当batch size为64时,模型收敛最佳。这是由于batch size太小,模型每次反向传播时,梯度方向变化较大,导致模型收敛慢,而batch size太大,梯度方向几乎保持不变,容易陷入局部最小值,不利于模型跳出局部最优。所以需要选择适中的batch size。本文根据试验分析选择batch size为64时的收敛结果最佳。

    图  6  不同batch size训练结果
    Figure  6.  Training result for difference batch size

    为了验证模型的有效性,选用2019年2月6个不同台站的连续波形数据作为测试集,对比样本增强前后训练好的模型在测试集上的表现,所得地震事件的拾取正确率如图7所示。

    图  7  地震事件拾取准确率
    Figure  7.  The accuracy of earthquake event picking

    图7可以看出:样本增强后模型的准确率比样本增强前准确率高18%,由此说明样本增强后模型的精度较大提高,模型表现更优;样本增强后的模型在各个台站的准确率均大于97%,并且在测试集上准确率与训练集的结果相差较少,相较于样本增强前的模型在各个台站上准确率只有80.1%,与模型训练时的准确率99%相差约19%,说明样本增强能够有效地控制模型过拟合情况。另外,对比分析不同台站结果,准确率相差不大,且均在97%以上,说明样本增强能够提高模型泛化性能、抗干扰能力。

    为了验证模型的有效性,选用2019年2月6个不同台站的连续波形数据作为测试集,对比样本增强前后训练好的模型在测试集上的表现,所得地震事件的拾取正确率如图7所示。

    图  7  地震事件拾取准确率
    Figure  7.  The accuracy of earthquake event picking

    图7可以看出:样本增强后模型的准确率比样本增强前准确率高18%,由此说明样本增强后模型的精度较大提高,模型表现更优;样本增强后的模型在各个台站的准确率均大于97%,并且在测试集上准确率与训练集的结果相差较少,相较于样本增强前的模型在各个台站上准确率只有80.1%,与模型训练时的准确率99%相差约19%,说明样本增强能够有效地控制模型过拟合情况。另外,对比分析不同台站结果,准确率相差不大,且均在97%以上,说明样本增强能够提高模型泛化性能、抗干扰能力。

    将模型拾取到的地震事件所对应的波形段继续使用模型进行判断,进一步拾取震相,拾取震相的模型依旧是采用卷积神经网络,并且模型的结构与地震事件拾取的模型类似。模型训练采用样本增强后的数据,不同的是震相拾取模型截取波形段时间长度为1 s用于模型判断,结果选择波形段中间的时刻作为震相到时。由图8所示的震相拾取结果可见,样本增强后,使用卷积神经网络拾取震相,在0.5 s误差范围内,准确率可以达到82%左右,在1.0 s误差范围内,准确率可以达到96%。这表明使用样本增强技术不仅能够减低数据标注的成本,还能够使得卷积神经网络表现得更好,模型的泛化能力更强,模型训练的表现与在实际连续波形中的表现相同,能够有效地控制模型训练过程中容易过拟合等现象。

    图  8  各台站不同误差范围内的震相拾取正确率
    Figure  8.  The accuracy of seismic phase picking within different error ranges of each station

    将模型拾取到的地震事件所对应的波形段继续使用模型进行判断,进一步拾取震相,拾取震相的模型依旧是采用卷积神经网络,并且模型的结构与地震事件拾取的模型类似。模型训练采用样本增强后的数据,不同的是震相拾取模型截取波形段时间长度为1 s用于模型判断,结果选择波形段中间的时刻作为震相到时。由图8所示的震相拾取结果可见,样本增强后,使用卷积神经网络拾取震相,在0.5 s误差范围内,准确率可以达到82%左右,在1.0 s误差范围内,准确率可以达到96%。这表明使用样本增强技术不仅能够减低数据标注的成本,还能够使得卷积神经网络表现得更好,模型的泛化能力更强,模型训练的表现与在实际连续波形中的表现相同,能够有效地控制模型训练过程中容易过拟合等现象。

    图  8  各台站不同误差范围内的震相拾取正确率
    Figure  8.  The accuracy of seismic phase picking within different error ranges of each station

    对于模型预测的结果,使用西藏林芝地区2019年2月的6个台站数据作为测试分析,从模型的震相拾取正确、误判、漏检以及人工漏检等情况进行对比分析,以期获得模型的优势以及存在问题。

    1) 正确拾取。分析卷积神经网络方法对于不同复杂度震相的拾取效果,对比该方法在不同地震事件正确拾取的震相(图9)和同一地震事件分别在6个台站上的拾取结果(图10)。结果显示:卷积神经网络方法对于很简单的震相几乎不存在漏检、误判的情况,但对于部分复杂震相,包括有地震叠加、信噪比低等情况仍可很好地拾取,且其拾取的震相误差低。通过卷积神经网络在实际测试数据中的表现评判模型的泛化性能,从拾取结果可以看出,样本增强后,卷积神经网络方法效果好,泛化性能强。

    图  9  不同台站利用卷积神经网络方法的震相拾取结果
    Figure  9.  Phase picking results by the convolutional neural network method in different stations
    图  10  同一次地震事件在6个台站上的震相拾取结果
    Figure  10.  Phase picking results of an earthquake event at six stations

    2) 误判震相。使用卷积神经网络方法拾取震相,仍存在误判的情况,将噪声误判为地震事件(图11)。分析所有误判的震相可知,对于当地一些人为活动引起的大振动事件,这部分振动的波形记录与地震事件非常相似,卷积神经网络方法很容易误判此种类似的噪声。但这部分噪声的频率是几乎不变的,天然地震P波的频率高于S波,经过分析,对于这部分,可以根据频率的信息来辅助模型判断,从而降低模型的误判率。本文进行进一步结果修正时,使用频率的信息能够有效地降低模型的误判率。另外,将误判的噪声加入模型的训练,也可以降低模型的误判率。

    图  11  卷积神经网络方法误判震相示例
    Figure  11.  The examples of convolutional neural network method for misjudging seismic phases

    3) 漏检震相。图12为卷积神经网络方法漏检的震相,模型将其判断为噪声,但实际是地震事件。这些地震事件即使是人工也极难判断,需要使用多台地震记录判断。但目前基于单台地震记录学习训练,所以对于这部分地震,须根据多台地震记录共同判断,目前本文是根据台站附近其它台站的记录同样进行拾取震相判断,如果大多数台站同样拾取到该震相,则判断为地震事件。这样,将这部分地震事件检测出来,降低漏检率。

    图  12  卷积神经网络方法漏检震相示例
    Figure  12.  Examples of convolutional neural network method for missing phases picking

    4) 人工漏标与误检。人工标注震相存在很多人为因素,而且也容易标错部分震相。在分析预测结果时,发现部分未拾取到的地震事件,有些是人工标注错误,有些是噪声(图13)。另外分析对比多模型拾取的震相,发现这部分大多数是微震,人工容易漏检,而卷积神经网络方法能够很好地拾取出来。

    图  13  人工漏检与误检
    (a) 人工误标震相;(b) 人工漏检微震
    Figure  13.  Manual missing and misjudging seismic phases
    (a) Manual misjudging seismic phase;(b) Manual missing microseisms

    对于模型预测的结果,使用西藏林芝地区2019年2月的6个台站数据作为测试分析,从模型的震相拾取正确、误判、漏检以及人工漏检等情况进行对比分析,以期获得模型的优势以及存在问题。

    1) 正确拾取。分析卷积神经网络方法对于不同复杂度震相的拾取效果,对比该方法在不同地震事件正确拾取的震相(图9)和同一地震事件分别在6个台站上的拾取结果(图10)。结果显示:卷积神经网络方法对于很简单的震相几乎不存在漏检、误判的情况,但对于部分复杂震相,包括有地震叠加、信噪比低等情况仍可很好地拾取,且其拾取的震相误差低。通过卷积神经网络在实际测试数据中的表现评判模型的泛化性能,从拾取结果可以看出,样本增强后,卷积神经网络方法效果好,泛化性能强。

    图  9  不同台站利用卷积神经网络方法的震相拾取结果
    Figure  9.  Phase picking results by the convolutional neural network method in different stations
    图  10  同一次地震事件在6个台站上的震相拾取结果
    Figure  10.  Phase picking results of an earthquake event at six stations

    2) 误判震相。使用卷积神经网络方法拾取震相,仍存在误判的情况,将噪声误判为地震事件(图11)。分析所有误判的震相可知,对于当地一些人为活动引起的大振动事件,这部分振动的波形记录与地震事件非常相似,卷积神经网络方法很容易误判此种类似的噪声。但这部分噪声的频率是几乎不变的,天然地震P波的频率高于S波,经过分析,对于这部分,可以根据频率的信息来辅助模型判断,从而降低模型的误判率。本文进行进一步结果修正时,使用频率的信息能够有效地降低模型的误判率。另外,将误判的噪声加入模型的训练,也可以降低模型的误判率。

    图  11  卷积神经网络方法误判震相示例
    Figure  11.  The examples of convolutional neural network method for misjudging seismic phases

    3) 漏检震相。图12为卷积神经网络方法漏检的震相,模型将其判断为噪声,但实际是地震事件。这些地震事件即使是人工也极难判断,需要使用多台地震记录判断。但目前基于单台地震记录学习训练,所以对于这部分地震,须根据多台地震记录共同判断,目前本文是根据台站附近其它台站的记录同样进行拾取震相判断,如果大多数台站同样拾取到该震相,则判断为地震事件。这样,将这部分地震事件检测出来,降低漏检率。

    图  12  卷积神经网络方法漏检震相示例
    Figure  12.  Examples of convolutional neural network method for missing phases picking

    4) 人工漏标与误检。人工标注震相存在很多人为因素,而且也容易标错部分震相。在分析预测结果时,发现部分未拾取到的地震事件,有些是人工标注错误,有些是噪声(图13)。另外分析对比多模型拾取的震相,发现这部分大多数是微震,人工容易漏检,而卷积神经网络方法能够很好地拾取出来。

    图  13  人工漏检与误检
    (a) 人工误标震相;(b) 人工漏检微震
    Figure  13.  Manual missing and misjudging seismic phases
    (a) Manual misjudging seismic phase;(b) Manual missing microseisms

    本文使用少量带有人工标注震相的地震数据作为训练集,通过多种样本增强方式,扩充训练样本,搭建卷积神经网络,使用卷积神经网络进行地震事件的识别与震相拾取。对比样本增强前后模型的表现,得到以下结论:

    1) 具有标注的数据集较少的情况下,直接训练卷积神经网络,模型极易过拟合,训练集结果与测试集准确率结果相差18%。

    2) 通过引入高斯噪声、随机噪声拼接、随机挑选噪声、随机截取地震事件等方法,能够大量增加训练数据,解决数据样本较少的问题。

    3) 使用样本增强后的数据训练模型,能够使得模型泛化能力增强,模型抗干扰能力增强,测试集与训练集准确率都大于97%,并且训练结果与测试结果相差很小,对比样本增强前,准确率增加19%,说明样本增强较好地控制了模型过拟合。

    4) 对于超参数的选择,学习率和batch size不宜太大也不宜太小,学习率太大模型收敛不佳,反之模型收敛太慢。Batch size模型太大不易跳出局部最优值,太小的则模型收敛波动大。本文经过调优,最终选择学习率为0.0001,batch size为64。

    另外,通过分析、对比模型在不同台站数据的测试集的结果,从正确拾取、误判、漏检、人工标注错误以及人工漏检震相方面对比,得到以下结论:

    通过样本增强后,模型拾取震相的正确率高,震相误差小。无论简单还是复杂的地震事件,拾取的正确率均较高。0.5 s误差范围内,震相拾取正确率大于80%;0.8 s误差范围内,正确率大于90%。

    模型会将一些可能是人为活动引起的振动的记录误判为地震事件,对于这部分误判的噪声,可以根据天然地震记录频率的信息进行辅助判断,从而降低误判率。

    模型存在部分漏检的震相,对漏检震相进行深入分析,该部分地震事件需要根据附近多台地震记录共同判断,从而降低这种漏检率。

    模型拾取的结果中,有部分实际是地震事件,为人工漏检事件,此部分震相大多数为微震,但模型能够找到人工拾取中错误的震相。

    对于误检与漏检的震相,本文只是从其它方面控制,并未从模型角度出发解决。需要进一步研究是由于数据、特征还是模型结构导致了模型漏检、误判。此外,当前工作是基于单台记录开展,下一步需进行基于多台记录的深度学习震相拾取研究。

    中国地震局地球物理研究所王伟平博士为分析、判断拾取震相工作提供了帮助,审稿人为本文提出了宝贵意见,作者在此一并表示感谢。

    本文使用少量带有人工标注震相的地震数据作为训练集,通过多种样本增强方式,扩充训练样本,搭建卷积神经网络,使用卷积神经网络进行地震事件的识别与震相拾取。对比样本增强前后模型的表现,得到以下结论:

    1) 具有标注的数据集较少的情况下,直接训练卷积神经网络,模型极易过拟合,训练集结果与测试集准确率结果相差18%。

    2) 通过引入高斯噪声、随机噪声拼接、随机挑选噪声、随机截取地震事件等方法,能够大量增加训练数据,解决数据样本较少的问题。

    3) 使用样本增强后的数据训练模型,能够使得模型泛化能力增强,模型抗干扰能力增强,测试集与训练集准确率都大于97%,并且训练结果与测试结果相差很小,对比样本增强前,准确率增加19%,说明样本增强较好地控制了模型过拟合。

    4) 对于超参数的选择,学习率和batch size不宜太大也不宜太小,学习率太大模型收敛不佳,反之模型收敛太慢。Batch size模型太大不易跳出局部最优值,太小的则模型收敛波动大。本文经过调优,最终选择学习率为0.0001,batch size为64。

    另外,通过分析、对比模型在不同台站数据的测试集的结果,从正确拾取、误判、漏检、人工标注错误以及人工漏检震相方面对比,得到以下结论:

    通过样本增强后,模型拾取震相的正确率高,震相误差小。无论简单还是复杂的地震事件,拾取的正确率均较高。0.5 s误差范围内,震相拾取正确率大于80%;0.8 s误差范围内,正确率大于90%。

    模型会将一些可能是人为活动引起的振动的记录误判为地震事件,对于这部分误判的噪声,可以根据天然地震记录频率的信息进行辅助判断,从而降低误判率。

    模型存在部分漏检的震相,对漏检震相进行深入分析,该部分地震事件需要根据附近多台地震记录共同判断,从而降低这种漏检率。

    模型拾取的结果中,有部分实际是地震事件,为人工漏检事件,此部分震相大多数为微震,但模型能够找到人工拾取中错误的震相。

    对于误检与漏检的震相,本文只是从其它方面控制,并未从模型角度出发解决。需要进一步研究是由于数据、特征还是模型结构导致了模型漏检、误判。此外,当前工作是基于单台记录开展,下一步需进行基于多台记录的深度学习震相拾取研究。

    中国地震局地球物理研究所王伟平博士为分析、判断拾取震相工作提供了帮助,审稿人为本文提出了宝贵意见,作者在此一并表示感谢。

  • 图  1   随机截取地震事件方法示意图

    Figure  1.   Schematic diagram of random interception of earthquake events

    图  2   台站分布图

    Figure  2.   The distribution of stations

    图  3   输入原始数据的卷积神经网络模型在训练集和验证集上准确率(a)和损失(b)变化

    Figure  3.   The curves of the accuracy rate (a) and loss (b) of convolutional neural network model with inputting raw data on the training dataset and test dataset

    图  4   样本增强后训练神经网络模型在训练集和验证集上准确率(a)与损失(b)变化

    Figure  4.   The curves of the accuracy rate (a) and loss (b) of the sample enhancement-based convolutional neural network model on the training dataset and test dataset

    图  5   不同学习率训练结果

    Figure  5.   Training result for difference learning rate

    图  6   不同batch size训练结果

    Figure  6.   Training result for difference batch size

    图  7   地震事件拾取准确率

    Figure  7.   The accuracy of earthquake event picking

    图  8   各台站不同误差范围内的震相拾取正确率

    Figure  8.   The accuracy of seismic phase picking within different error ranges of each station

    图  9   不同台站利用卷积神经网络方法的震相拾取结果

    Figure  9.   Phase picking results by the convolutional neural network method in different stations

    图  10   同一次地震事件在6个台站上的震相拾取结果

    Figure  10.   Phase picking results of an earthquake event at six stations

    图  11   卷积神经网络方法误判震相示例

    Figure  11.   The examples of convolutional neural network method for misjudging seismic phases

    图  12   卷积神经网络方法漏检震相示例

    Figure  12.   Examples of convolutional neural network method for missing phases picking

    图  13   人工漏检与误检

    (a) 人工误标震相;(b) 人工漏检微震

    Figure  13.   Manual missing and misjudging seismic phases

    (a) Manual misjudging seismic phase;(b) Manual missing microseisms

    表  1   本文所用模型参数

    Table  1   Model parameters used in this study

    层名输出通道数参数总数层名输出通道数参数总数
    Conv1_132224Conv3_26414 336
    Conv1_2327 168Conv3_36414 336
    Conv2_1327 168Fc625612 288
    Conv2_2327 168Fc7512131 072
    Conv3_16414 336Output31 536
    下载: 导出CSV

    表  2   模型训练环境

    Table  2   Model training environment

    设备参数
     系统    Centos7.2
     开发工具(IDE)    Pycharm
     GPU显卡    Tesla P100
     CPU型号    Intel(R) Xeon(R) CPU E5-2603 v4 @ 1.70 GHz
     深度学习框架    TensorFlow1.3.0
     可视化工具    TensorFlow-TensorBoard (0.1.5)
     算法    卷积神经网络(CNN)
     编程语言    Python3.6.3
    下载: 导出CSV
  • 常旭,刘伊克. 2002. 地震记录的广义分维及其应用[J]. 地球物理学报,45(6):839–846. doi: 10.3321/j.issn:0001-5733.2002.06.011

    Chang X,Liu Y K. 2002. The generalized fractal dimension of seismic records and its applications[J]. Chinese Journal of Geophysics,45(6):839–846 (in Chinese).

    何先龙,佘天莉,高峰. 2016. 一种地震P波和S波初至时间自动拾取的新方法[J]. 地球物理学报,59(7):2519–2527. doi: 10.6038/cjg20160717

    He X L,She T L,Gao F. 2016. A new method for picking up arrival times of seismic P and S waves automatically[J]. Chinese Journal of Geophysics,59(7):2519–2527 (in Chinese).

    刘晗,张建中. 2014. 微震信号自动检测的STA/LTA算法及其改进分析[J]. 地球物理学进展,29(4):1708–1714. doi: 10.6038/pg20140429

    Liu H,Zhang J Z. 2014. STA/LTA algorithm analysis and improvement of microseismic signal automatic detection[J]. Progress in Geophysics,29(4):1708–1714 (in Chinese). doi: 10.6038/pg20140429

    王娟,刘俊民,范万春. 2004. 神经网络在震相识别中的应用[J]. 现代电子技术,27(8):35–37. doi: 10.3969/j.issn.1004-373X.2004.08.014

    Wang J,Liu J M,Fan W C. 2004. Application of neural network in the discrimination of seismical signal[J]. Modern Electro-nics Technique,27(8):35–37 (in Chinese).

    王继,陈九辉,刘启元,李顺成,郭飚. 2006. 流动地震台阵观测初至震相的自动检测[J]. 地震学报,28(1):42–51. doi: 10.3321/j.issn:0253-3782.2006.01.006

    Wang J,Chen J H,Liu Q Y,Li S C,Guo B. 2006. Automatic onset phase picking for portable seismic array observation[J]. Acta Seismologica Sinica,28(1):42–51 (in Chinese).

    王继,陈九辉. 2008. 应用人工神经元网络方法自动检测地震事件[J]. 地震地磁观测与研究,29(3):41–45. doi: 10.3969/j.issn.1003-3246.2008.03.007

    Wang J,Chen J H. 2008. An automatic seismic event detection method based on artificial neural network[J]. Seismological and Geomagnetic Observation and Research,29(3):41–45 (in Chinese).

    于子叶,储日升,盛敏汉. 2018. 深度神经网络拾取地震P和S波到时[J]. 地球物理学报,61(12):4873–4886. doi: 10.6038/cjg2018L0725

    Yu Z Y,Chu R S,Sheng M H. 2018. Pick onset time of P and S phase by deep netural network[J]. Chinese Journal of Geophy-sics,61(12):4873–4886 (in Chinese).

    赵大鹏,刘希强,刘尧兴,王志铄,赵晖,张亚琳. 2013. 高阶统计量及AIC方法在区域地震事件和直达P波初动识别中的应用[J]. 地震地磁观测与研究,34(5):61–69. doi: 10.3969/j.issn.1003-3246.2013.05/06.010

    Zhao D P,Liu X Q,Liu Y X,Wang Z S,Zhao H,Zhang Y L. 2013. Detection of regional seismic events by high order statistics method and automatic identification of direct P-wave first motion by AIC method[J]. Seismological and Geomagnetic Observation and Research,34(5):61–69 (in Chinese).

    赵明,陈石,Yuen D. 2019. 基于深度学习卷积神经网络的地震波形自动分类与识别[J]. 地球物理学报,62(1):374–382. doi: 10.6038/cjg2019M0151

    Zhao M,Chen S,Yuen D. 2019. Waveform classification and seismic recognition by convolution neural network[J]. Chinese Journal of Geophysics,62(1):374–382 (in Chinese).

    Akaike H. 1974. A new look at the statistical model identification[J]. IEEE Trans Automat Control,19(6):716–723. doi: 10.1109/TAC.1974.1100705

    Allen R V. 1978. Automatic earthquake recognition and timing from single traces[J]. Bull Seismol Soc Am,68(5):1521–1532.

    Allen R V. 1982. Automatic phase pickers:Their present use and future prospects[J]. Bull Seismol Soc Am,72(6B):S225–S242.

    Boschetti F,Dentith M D,List R D. 1996. A fractal-based algorithm for detecting first arrivals on seismic trances[J]. Geophysics,61(4):1095–1102. doi: 10.1190/1.1444030

    Dai H C,MacBeth C. 1997. The application of back-propagation neural network to automatic picking seismic arrivals from single-component recordings[J]. J Geophys Res:Solid Earth,102(B7):15105–15113. doi: 10.1029/97JB00625

    Earle R S,Shearer P M. 1994. Characterization of global seismograms using an automatic-picking algorithm[J]. Bull Seismol Soc Am,84(2):366–376.

    Falconner K. 1990. Fractal Geometry: Mathematical Foundations and Application[M]. New York: John Wiley & Sons: 155.

    Kingma D P, Ba J. 2014. Adam: A method for stochastic optimization[J/OL]. arXiv: 1412.6980

    Küperkoch L,Meier T,Brüstle A,Lee J,Friederich W. 2012. Automated determination of S-phase arrival times using auto-regressive prediction:Application to local and regional distances[J]. Geophys J Int,188(2):687–702. doi: 10.1111/j.1365-246X.2011.05292.x

    Molyneux J B,Schmitt D R. 1999. First-break timing:Arrival onset times by direct correlation[J]. Geophysics,64(5):1492–1501.

    Perol T,Gharbi M,Denolle M. 2018. Convolutional neural network for earthquake detection and location[J]. Sci Adv,4(2):e1700578. doi: 10.1126/sciadv.1700578

    Poupinet G,Ellsworth W L,Frechet J. 1984. Monitoring velocity variations in the crust using earthquake doublets:An application to the Calaveras fault,California[J]. J GeophysRes,89(B7):5719–5731. doi: 10.1029/JB089iB07p05719

    Ross Z E, Meier M A, Hauksson E, Heaton T H. 2018. Generalized seismic phase detection with deep learning[J/OL]. arXiv: 1805.01075.

    Rubin A M. 2002. Using repeating earthquakes to correct high-precision earthquake catalogs for time-dependent station delays[J]. Bull Seismol Soc Am,92(5):1647–1659. doi: 10.1785/0120010180

    Schaff D P,Richards P G. 2004. Repeating seismic events in China[J]. Science,303(5661):1176–1178. doi: 10.1126/science.1093422

    Sleeman R,van Eck T. 1999. Robust automatic P-phase picking:An on-line implementation in the analysis of broadband seismogram recordings[J]. Phys Earth Planet Int,113(1/2/3/4):265–275.

    Takanami T,Kitagawa G. 1993. Multivariate time-series model to estimate the arrival times of S-waves[J]. Comput Geosci,19(2):295–301. doi: 10.1016/0098-3004(93)90127-Q

    Tong C,Kennett B L N. 1996. Automatic seismic event recognition and later phase identification for broadband seismograms[J]. Bull Seismol Soc Am,86(6):1896–1909.

    Zhu W Q, Beroza G C. 2018. PhaseNet: A deep-neural-network-based seismic arrival time picking method[J/OL]. arXiv: 1803.03211.

图(13)  /  表(2)
计量
  • 文章访问数:  1260
  • HTML全文浏览量:  597
  • PDF下载量:  82
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-04-10
  • 修回日期:  2019-06-02
  • 网络出版日期:  2020-05-21
  • 刊出日期:  2020-05-20

目录

/

返回文章
返回