Please wait a minute...
图/表 详细信息
基于深度学习识别RiPPs前体肽及裂解位点
吕靖伟, 邓子新, 张琪, 丁伟
合成生物学    2022, 3 (6): 1262-1276.   DOI:10.12211/2096-8280.2022-016
摘要   (951 HTML91 PDF(pc) (3013KB)(828)  

得益于基因测序技术的快速发展,基因组测序数据呈现爆炸式增长,核糖体合成和翻译后修饰肽(RiPPs)是近十年逐渐进入人们视野的一大类肽类天然产物。这类化合物在自然界中分布极其广泛,具有丰富的结构多样性和生物活性多样性,是天然药物的重要来源。RiPPs的发现主要依赖低通量生物实验,传统方法精确但成本高昂,随着新型计算机技术的更新迭代,包括antiSMASH、RiPP-PRISM等在内的生物信息学工具能够极大加速RiPPs挖掘进程,但依然无法突破基于同源性方法(例如搜索保守的生物合成酶)的限制——无法有效识别具有不同生物合成机制的新型RiPPs。在这里,本文首次基于自然语言处理预训练模型BERT,提出四种可以完全依赖序列数据识别RiPPs而非基于同源性及基因组上下文信息的深度学习模型,通过对各模型进行验证分析和对比,最终确定在RiPPs识别赛道上表现卓越的最佳模型BERiPPs(bidirectional language model for enhancing the performance of identification of RiPPs precursor peptides)。BERiPPs能够在不考虑基因组背景的情况下以无偏见的方式识别RiPPs前体肽,并可通过条件随机场生成对前导肽裂解位点的预测,为高通量挖掘全新RiPPs提供了思路,并在一定程度下揭示了前体肽和修饰酶间的生物学底层关系。



View image in article
图5 BERT预训练层的初始化
正文中引用本图/表的段落
为了进一步探究在较大的领域偏移下基于大规模通用域文本数据集的预训练参数对分类性能的影响,且考虑到在小规模样本上靠近输出层的BERT高层参数会带来负面作用的可能性,本文分别将BERT顶部1层、2层以及整个BERT的预训练参数按照BERT默认的标准差为0.02的截断正态分布进行随机初始化(图5)。参考post-norm[26]的设计,偏小的标准差在一定程度上有利于缓解梯度消失的问题。同时,为了使模型更“贴近”下游任务,本文也尝试基于未标注的RiPPs数据集通过MLM任务对在通用域文本语料上预训练的BERT再次训练。
本文的其它图/表