Skip to content

LelandYan/ResearchRelationshipNetwork_KnowledgeGraph

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

25 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

基于知识图谱的科研关系网络分析

Project Python version Python version Python version Python version Python version Python version Issues github license Documentation

本项目完成了构建科研关系网络知识图谱以及相关应用。构建知识图谱所用到数据均来自网络爬虫爬行的数据;并且可提取结构化、半结构化、非结构化数据的实体与实体之间的关系;数据的存储采用的开源图数据库 Neo4j 存储科研网络关系知识;本文同时使用 Django 、 Echart.js 、D3.js和Boostrap 实现一个具有信息检索、大数据分析、专家技术画像可视化和合作专家信息以及推荐功能网站,可以快速的了解相关领域和专家的相关信息 。

基于知识图谱的科研关系网络分析项目完整代码以及相关数据百度云下载地址(文件有点大,下载可能有点慢,哈哈哈哈哈)👏

提取码:on52

总体技术路线:

Image text

项目功能模块以及相关效果图

  • 主页面:

    Image text

    Image text

    主页面主要分为两个部分:

    第一部分为提供的搜索接口(可以支持作者名字搜索(拼音、汉字、英文)、研究领域搜(英文)、关键技术搜索(英文))

    第二部分为数据可视化分析,主要是分析数据库现存的数据,从左到右依次为,作者按照文章发表的数据和文章被引用的数据降序可视化,文章所属机构和投递的期刊会议所占比例问题,右侧是针对科研领域所发的文章数量降序排列展示,最后是一个词语,用于展示那些科研领域是比较热门(根据的是文章发表的数量)

  • 副页面

    Image text

    Image text

    副页面主要分为两个部分:

    第一部分为可视化学科领域本体关系,就是展示不同领域的归属问题

    第二部分为通过上传的pdf文章来进行关系提取,并展示各个三元组之间的关系

  • 搜索后跳转页面:

    Image text

    这里会列出搜索字段相关的作者列表,然后显示各个作者相关的基本信息

  • 点击选择某作者后生成的专家技术画像

    Image text

    Image text

    Image text

    Image text

    本页面共分为8个部分:

    第一个部分是关于作者的相关信息和数据库收录的文章数量

    第二个部分是关于该作者发表过论文的领域

    第三个部分是该作者合作过的作者名称和合作的多少

    第四个部分是关于该作者用图数据库查询后得到与之相关的感兴趣领域、合作者、作者所属结构和发表的文章

    第五个部分是关于该作者推荐合作功能,推荐以后可能合作的作者对象以及可信度和作者相关信息

    第六个部分是关于作者信息补充,通过网络爬虫获得作者信息,并使用文本分类模型进行分类并展示

    第七个部分是作者的在不同年份的发布的文章,显示文章的名字

    第八个部分是作者发表文章的详细展示,展示数据库中文章的详细信息。

项目介绍

本项目希望提出一种分析科研关系网络的新方法,能够充分利用现在的 数据挖掘、文本主题提取 、文本聚类分析等计算机技术 。这种方法应该 建立 起“领域 —专家 ”模型 ,通过技术关键词能够直接找到擅长该项技术的 专家 ,并能够完整地了解每个 专家 的擅长技术、工作单位、国籍等详细信息 。并采用系统分析方法 可以建立起不同专家之间的合作网络, 尤其是一些跨学科,跨领域的合作关系,从而更好地了解目前的交叉学科现状 。最后能够 建立一个具有检索和数据分析功能的 科研关系网站,实现相关的数据展示 。

课题要求 是否完成
确定所分析的具体学科---计算机 👌
在文献数据库中通过网络爬虫获得数据 👌
通过文本主题提取、文本聚类分析挖掘关键技术 👌
通过技术作者等关键词查找擅长该技术的专家 👌
对搜索的专家进行挖掘,给出专家技术画像 👌
构建知识图谱,将领域-专家模型可视化,并提供可视化图表 👌
建立不同专家的合作网络,可以推荐合作专家,更好了解交叉学科现状 👌
建立一个具有检索和数据分析的科研关系网站 👌
实现相关数据的处理和数据展示 👌
相关解释文档 详细解释跳转链接
网络爬虫技术分析介绍 👍
BigGraph实体嵌入向量表示模型以及计算实体、实体关系相似度进行推荐功能 👍
Fasttext文本分类模型以及动态爬取专家文本信息分类功能 👍
实体关系抽取模型以及针对结构化、半结构化和非结构化数据实体关系抽取功能 👍
搜索框容错性和分词以及关键词搜索原理 👍
不同类型关键词搜索原理 👍
搜索框检索关键词功能 👍
图数据库介绍(Neo4j) 👍
文献数据库爬虫以及在线作者个人信息爬虫数据获取功能 👍
在线爬取专家个人信息文本数据分类功能 👍
知识获取和实体关系抽取详细介绍 👍
知识入库详细介绍 👍
学科领域本体关系数据与可视化功能 👍
TD-IDF模型分析关键词介绍 👍
技术关键词提取以及可视化功能 👍
专家技术画像以及专家模型可视化合作专家推荐功能 👍

项目目录结构

├─AcaFinder
├─Model
├─toolkit
│  ├─embedding
│  ├─fasttextModel
│  ├─paper2kg
│  │  ├─output
│  │  └─toolkit
│  │      ├─Ollie
│  │      └─pdf_parser
│  │          ├─backends
│  │          └─jar
│  └─profileSpider
│      ├─ff_classifier
│      └─output
└─web
    ├─migrations
    ├─static
    │  ├─css
    │  │  └─sass
    │  │      ├─core
    │  │      │  └─mixins
    │  │      └─ui
    │  │          ├─components
    │  │          └─sections
    │  ├─data
    │  ├─images
    │  ├─js
    │  └─templates
    └─templates

可复用资源

1.爬行并整合后科研关系网络RDF三元组数据

文件名称 图数据结构类型 名称 数量(个)
e_author.csv 实体 作者 1712432
e_affiliation.csv 实体 作者隶属机构 624750
e_concept.csv 实体 研究领域 4055686
e_paper.csv 实体 论文 2092355
e_venue.csv 实体 期刊会议名 264389
r_author2affiliation.csv 关系 作者-机构 1287287
r_author2concept.csv 关系 作者-研究领域 14589981
r_author2paper.csv 关系 作者-论文 5192998
r_citation.csv 关系 引用 8024873
r_coauthor.csv 关系 合作者 4258946
r_paper2venue 关系 论文-期刊会议名 2092355

2.整理后的科研关系网络RDF三元组数据训练的图嵌入向量数据

文件名称 数据含义
entity_embeddings.tsv 实体和实体之间关系训练得到的图嵌入向量

3.爬行并整合的学科领域本体关系数据

文件名称 数据作用
sm_journal_classification_106_1.xlsm 学科领域种类( Domain_English、Field_English)和子领域(SubField_English)等数据
aca-node.csv 对不同的学科领域分配标签,存储节点权值与名称
aca-relation.csv 针对不同节点,表示其关系网络
academia.gexf 使用Gexf第三方转化库 来将我们提取的 csv文件进行转化为 Gexf文件以便我们后期使用 echart.js进行渲染

4.爬行并整合的ACM文献数据库数据

文献数据库的数据:数据集地址: https://dl.acm.org/action/doSearch?key+words 该数据的内容包括论文信息,包括了文章的标题、作者、发表时间、发表会议期刊名称、属于领域、文章所属DOI、文章摘要和引用的数量。

文件名称 数据数量(条)
acm_data.csv 11011

项目配置

0. 本项目运行所需要机器配置以及安装各种语言类库

该项目主要是基于python编写,其中应用到了java、cypher、javascrpt、Django和jQuery语言等,需要运行在内存为16GB以上的电脑上。本项目是在win10系统使用pycharm教育版进行编写

  • 安装一系列pip依赖,这里提供了anaconda环境下acafinder_environment.yaml文件和pip下的requirements.txt以供选择

    • 推荐--如果选择anaconda的python第三方集成环境,使用项目目录下的acafinder_environment.yaml文件,安装命令为:

      • conda env create -f environment.yml
    • 否则选择pip安装python环境需要的包,使用项目目录下的requirements.txt文件,安装命令为:

      • pip install -r requirements.txt
  • 安装java语言所需要的jdk,并配置环境变量,详细可参考其他Win10下的jdk配置教程,这里jdk使用jdk 8版本

  • 安装所需要的数据库(关系型数据库MySql以及图数据库Neo4j-desktop-1.2.1

    • 注意MySql数据库需要配置用户名和密码以及检验是否已经安装python连接MySql的pyhton类库(在pip或者anaconda步骤已经安装过,这里只是需要检验是否安装成功),MySql的数据库版本是5.7.27
    • 注意Neo4j-desktop-1.2.1是不需要自己配置jdk的,安装会自动安装,注意数据库配置用户名和密码(用户名默认为neo4j)并检验是否已经安装python连接Neo4j的pyhton类库(在pip或者anaconda步骤已经安装过,这里只是需要检验是否安装成功

1. 导入数据

本项目为基于知识图谱的科研关系网络分析,使用Neo4j存储知识图谱相关知识和MySql存储网络爬虫爬行的数据。

  • 将知识图谱导入图数据库Neo4j中,有两种方式。一种是通过Neo4j自带的浏览器中执行Cypher语句将整理完毕的RDF三元组csv文件导入图数据库Neo4j,另一种是通过执行命令将Neo4j导出的db文件重新导入Neo4j中

    • 推荐--将项目完整代码目录下.\OtherCodeAndData\ImportNeo4jData所有csv文件,拷贝到Neo4j新建图数据库目录下的import文件夹中,更加具体操作,可以参考其他将csv文件导入Neo4j教程,然后在Neo4j自带的浏览器中执行下列Cypher语句

      • USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///e_author.csv" AS line
        CREATE (author:AUTHOR{authorID:toInt(line.authorID), authorName:toString(line.name), pc:toInt(line.pc), cn:toInt(line.cn), hi:toInt(line.hi), pi:toFloat(line.pi), upi:toFloat(line.upi)})
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///e_affiliation.csv" AS line
        CREATE (affiliation:AFFILIATION{affiliationID:toInt(line.affiliationID), affiliationName:toString(line.name)})
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///e_concept.csv" AS line
        CREATE (concept:CONCEPT{conceptID:toInt(line.conceptID), conceptName:toString(line.name)})
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///e_paper.csv" AS line
        CREATE (paper:PAPER{paperID:toInt(line.paperID), paperTitle:toString(line.title), paperYear:toInt(line.year), paperAbstract:toString(line.abstract)})
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///e_venue.csv" AS line
        CREATE (venue:VENUE{venueID:toInt(line.venueID), venueName:toString(line.name)})
        
        CREATE INDEX ON: AUTHOR(authorID)
        
        CREATE INDEX ON: AFFILIATION(affiliationID)
        
        CREATE INDEX ON: CONCEPT(conceptID)
        
        CREATE INDEX ON: PAPER(paperID)
        
        CREATE INDEX ON: VENUE(venueID)
            
            
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///r_author2affiliation.csv" AS line
        MATCH (FROM:AUTHOR{authorID:toInt(line.START_ID)}), (TO:AFFILIATION{affiliationID:toInt(line.END_ID)})
        MERGE (FROM)-[AUTHOR2AFFILIATION: AUTHOR2AFFILIATION{type:line.TYPE}]->(TO)
        
        USING PERIODIC COMMIT 10000
        LOAD CSV WITH HEADERS FROM "file:///r_author2concept.csv" AS line
        MATCH (FROM:AUTHOR{authorID:toInt(line.START_ID)}), (TO:CONCEPT{conceptID:toInt(line.END_ID)})
        MERGE (FROM)-[AUTHOR2CONCEPT: AUTHOR2CONCEPT{type:line.TYPE}]->(TO)
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///r_author2paper.csv" AS line
        MATCH (FROM:AUTHOR{authorID:toInt(line.START_ID)}), (TO:PAPER{paperID:toInt(line.END_ID)})
        MERGE (FROM)-[AUTHOR2PAPER: AUTHOR2PAPER{type:line.TYPE, author_pos:toInt(line.author_position)}]->(TO)
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///r_citation.csv" AS line
        MATCH (FROM:PAPER{paperID:toInt(line.START_ID)}), (TO:PAPER{paperID:toInt(line.END_ID)})
        MERGE (FROM)-[CITATION: CITATION{type:line.TYPE}]->(TO)
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///r_coauthor.csv" AS line
        MATCH (FROM:AUTHOR{authorID:toInt(line.START_ID)}), (TO:AUTHOR{authorID:toInt(line.END_ID)})
        MERGE (FROM)<-[COAUTHOR: COAUTHOR{type:line.TYPE, n_cooperation:toInt(line.n_cooperation)}]->(TO)
        
        USING PERIODIC COMMIT 5000
        LOAD CSV WITH HEADERS FROM "file:///r_paper2venue.csv" AS line
        MATCH (FROM:PAPER{paperID:toInt(line.START_ID)}), (TO:VENUE{venueID:toInt(line.END_ID)})
        MERGE (FROM)-[PAPER2VENUE: PAPER2VENUE{type:line.TYPE}]->(TO)
        
        
        CREATE INDEX ON: AUTHOR(authorName)
        
        CREATE INDEX ON: AFFILIATION(affiliationName)
        
        CREATE INDEX ON: CONCEPT(conceptName)
        
        CREATE INDEX ON: PAPER(paperTitle)
        
        CREATE INDEX ON: VENUE(venueName)
    • 拷贝出项目完整代码目录下.\Neo4jDbFile下的db文件,打开Neo4j下的可执行命令行,输入下面命令(注意,这里要观察neo4j-admin命令所在路径,在决定是否添加bin路径):

      • neo4j-admin load --from=graph.db.dump --database=graph.db --force

2. 配置Neo4j、pyhton连接桌面版本以及修改用户密码

  • 配置Neo4j使用pyhton连接桌面版本Neo4j,详细教程可以见详细技术文档 图数据库介绍(Neo4j)
  • 修改项目完整代码目录.\Model\neo4j_models.py中第22行中的账户和密码,当然可以在步骤1导入数据过程中将账号和密码和我设置为相同的,这里就不用修改了

3. 启动服务

确保执行完上面步骤,并测试python可以成功连接neo4j、并安装好各种类库以及语言,在完整项目代码目录下执行下列命令

python manage.py runserver

或者

python manage.py runserver 0.0.0.0:8000

等待数据载入和图数据库连接完毕后,可以得到项目的完整功能

项目不足

  • 知识图谱构造的数据量不大,构造的知识图谱大小仅仅为23.45G,导致知识图谱进行可视化时关联效果不明显。
  • 爬虫爬行ACM数字文献数据不能完整获取全部的数据,获取的数据应用在知识图谱的时候,实体与实体之间关系与实体属性较少,影响知识图谱的展示效果
  • 知识提取和实体关系提取信息没有完全利用,这里只使用了结构化和半结构化数据的提取的相关知识,而对于非结构化数据,例如格式为pdf的文章,构建的知识图谱没有利用非结构化数据提取相关知识
  • 知识图谱应用较少,本文只实现了简单的信息检索功能,没有实现基于知识图谱的智能搜索,例如语义搜索功能。

参考

Agriculture_KnowledgeGraphKGQA-Based-On-medicineKGQA_HLMneo4j-predictioneconomic_audit_knowledge_graph stock-knowledge-graph DouBanRecommendFilm-Recommendation-System Taiwan-Stock-Knowledge-GraphAcaFinder