-
Notifications
You must be signed in to change notification settings - Fork 677
基于 BERT 语言预训练模型的关系抽取模型
leo edited this page Jun 23, 2022
·
2 revisions
BERT 的问世证明了语言预训练模型对下游的nlp任务有很大的提升,可以帮助提升关系抽取的效果。简单的使用BERT 语言预训练模型方式,将句子输入到BERT后,得到的结果输入到全连接层即可做关系抽取任务。实验结果表明可以取得相当不错的效果。
使用方法:
python main.py --model_name Bert
更多配置见
config.py
文件
参考文献:
- Shi P, Lin J. Simple BERT Models for Relation Extraction and Semantic Role Labeling[J]. arXiv preprint arXiv:1904.05255, 2019.