Skip to content

基于 BERT 语言预训练模型的关系抽取模型

yuwl798180 edited this page Aug 19, 2019 · 2 revisions

BERT 的问世证明了语言预训练模型对下游的nlp任务有很大的提升,可以帮助提升关系抽取的效果。简单的使用BERT 语言预训练模型方式,将句子输入到BERT后,得到的结果输入到全连接层即可做关系抽取任务。实验结果表明可以取得相当不错的效果。

BERT

使用方法:

python main.py --model_name Bert

更多配置见 config.py 文件

参考文献:

  • Shi P, Lin J. Simple BERT Models for Relation Extraction and Semantic Role Labeling[J]. arXiv preprint arXiv:1904.05255, 2019.