We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
BERT 的问世证明了语言预训练模型对下游的nlp任务有很大的提升,可以帮助提升关系抽取的效果。简单的使用BERT 语言预训练模型方式,将句子输入到BERT后,得到的结果输入到全连接层即可做关系抽取任务。实验结果表明可以取得相当不错的效果。
使用方法:
python main.py --model_name Bert
更多配置见 config.py 文件
config.py
参考文献: