• Stars
    star
    292
  • Rank 142,152 (Top 3 %)
  • Language
    Java
  • License
    Apache License 2.0
  • Created over 7 years ago
  • Updated about 1 year ago

Reviews

There are no reviews yet. Be the first to send feedback to the community and the maintainers!

Repository Details

啊哈自然语言处理包,提供包括分词、依存句法分析、语义角色标注、自动摘要、语义相似度计算、LDA 主题预测、词云等服务。

AHANLP

啊哈自然语言处理包,集成了 HanLPWord2VecMate-Tools 等项目,提供高质量的中文自然语言处理服务。

AHANLP 目前提供的功能有:

下载与配置

最新版本 ahanlp.jar 和对应的基础数据包 AHANLP_base,点击这里下载。配置文件 ahanlp.propertieshanlp.properties 放入 classpath 即可,对于多数项目,只需放到 src 目录下,编译时 IDE 会自动将其复制到 classpath 中。

AHANLP 沿用 HanLP 的数据组织结构,代码和数据分离,用户可以根据自己的需要选择相应的数据包下载:

  • 基础数据包 AHANLP_base 包含分词、句法分析等基础分析需要的模型和字典文件,下载解压后,将 dictionary 目录和 model 目录存放到项目的 data/ 目录下。
  • 如果需要使用到句子摘要Word2Vec 的相关功能,请额外下载 word2vec 模型,将解压出的模型文件存放到项目的 data/model/ 目录下。
  • 如果需要使用 WordCloud 绘制词云服务,需要 Python 环境,并且安装 wordcloud 包(下载后使用 python -m pip install xxx.whl 安装)。然后下载 word_cloud (提取码 9jb6),将解压出的 word_cloud 文件夹放到项目根目录下。

AHANLP 项目中的各项参数均读取自配置文件(不建议用户修改),下面仅作简单说明。

主配置文件为 ahanlp.properties,需要配置 Word2Vec 模型路径等,默认为

word2vecModel = data/model/wiki_chinese_word2vec(Google).model
hanLDAModel = data/model/SogouCS_LDA.model
srlTaggerModel = data/model/srl/CoNLL2009-ST-Chinese-ALL.anna-3.3.postagger.model
srlParserModel = data/model/srl/CoNLL2009-ST-Chinese-ALL.anna-3.3.parser.model
srlModel = data/model/srl/CoNLL2009-ST-Chinese-ALL.anna-3.3.srl-4.1.srl.model
wordCloudPath = word_cloud/ 
pythonCMD = python

HanLP 配置文件为 hanlp.properties,只需要在第一行设置 data 目录所在路径,默认为

root=./

注:语义角色标注模块的内存占用较高,如果要使用该功能,请将 JVM 的最大内存占用设置为 4GB。

调用方法及文档

AHANLP 几乎所有的功能都可以通过工具类 AHANLP 快捷调用。并且推荐用户始终通过工具类 AHANLP 调用,这样将来 AHANLP 升级后,用户无需修改调用代码。

所有 Demo 位于 test.demo 下,比下方简介文档覆盖了更多细节,强烈建议运行一遍,也可以查阅:

AHANLP 接口文档

1. 分词

String content = "苏州大学的周国栋教授正在教授自然语言处理课程。";
// 标准分词
List<Term> stdSegResult = AHANLP.StandardSegment(content);
System.out.println(stdSegResult);
//[苏州大学/ntu, 的/ude1, 周/qt, 国栋/nz, 教授/nnt, 正在/d, 教授/nnt, 自然语言处理/nz, 课程/n, 。/w]

// NLP分词
List<Term> nlpSegResult = AHANLP.NLPSegment(content);
System.out.println(nlpSegResult);
//[苏州大学/ntu, 的/u, 周国栋/nr, 教授/n, 正在/d, 教授/v, 自然语言处理/nz, 课程/n, 。/w]

标准分词 (StandardSegment) 封装了 HMM-Bigram 模型,使用最短路方法分词(最短路求解采用 Viterbi 算法),兼顾了效率和效果。NLP分词 (NLPSegment) 封装了感知机模型,由结构化感知机序列标注框架支撑,会同时执行词性标注和命名实体识别,准确率更高,适合生产环境使用。

分词默认的返回结果包含词语和词性,可以分别通过 AHANLP.getWordList(stdSegResult)AHANLP.getNatureList(stdSegResult) 来获取词语或词性列表。词性标注请参见《HanLP 词性标注集》

如果需要自定义词性过滤,可以使用 me.xiaosheng.chnlp.seg.POSFilter 类,它还实现了过滤标点、保留实词等常用方法。

// 过滤标点
POSFilter.removePunc(stdSegResult);
// 保留名词
POSFilter.selectPOS(stdSegResult, Arrays.asList("n", "ns", "nr", "nt", "nz"));

上面的分词器都支持对停用词的过滤,只需再带上第二个参数,并且设为 true 就可以了

List<Term> stdSegResult = AHANLP.NLPSegment(content, true);
List<String> stdWordList = AHANLP.getWordList(stdSegResult);
System.out.println(stdWordList);
//[苏州大学, 周国栋, 教授, 正在, 教授, 自然语言处理, 课程]

分词支持用户自定义字典,HanLP 中使用 CustomDictionary 类表示,是一份全局的用户自定义词典,影响全部分词器。词典文本路径是 data/dictionary/custom/CustomDictionary.txt,用户可以在此增加自己的词语(不推荐)。也可以单独新建一个文本文件,通过配置文件 CustomDictionaryPath=data/dictionary/custom/CustomDictionary.txt; 我的词典.txt; 来追加词典(推荐)。

词典格式:

  • 每一行代表一个单词,格式遵从 [单词] [词性A] [A的频次] [词性B] [B的频次] ...  如果不填词性则表示采用词典的默认词性。
  • 词典的默认词性默认是名词 n,可以通过配置文件修改: 全国地名大全.txt ns; 如果词典路径后面空格紧接着词性,则该词典默认是该词性。

**注意:**程序默认从缓存文件(filename.txt.bin 或 filename.txt.trie.dat 和 filename.txt.trie.value)中读取字典,如果你修改了任何词典,只有删除缓存才能生效。

2. 分词断句

List<List<Term>> segResults = AHANLP.seg2sentence("Standard", content, true);
for (int i = 0; i < senList.size(); i++)
    System.out.println((i + 1) + " : " + AHANLP.getWordList(results.get(i)));

对长文本按句子进行分词也是常见用法,返回是由所有句子分词结果组成的列表。通过第一个 segType 参数控制分词器的类型:“Standard”对应标准分词,“NLP”对应NLP分词。

当然也可以先手工断句,再进行多句分词。

List<String> senList = AHANLP.splitSentence(content);
List<List<Term>> senWordList = AHANLP.splitWordInSentences("Standard", senList, true);
for (int i = 0; i < senWordList.size(); i++)
    System.out.println((i + 1) + " : " + senWordList.get(i));

3. 命名实体识别

String sentence = "2013年9月,习近平出席上合组织比什凯克峰会和二十国集团圣彼得堡峰会,"
                + "并对哈萨克斯坦等中亚4国进行国事访问。在“一带一路”建设中,这次重大外交行程注定要被历史铭记。";
List<NERTerm> NERResult = AHANLP.NER(sentence);
System.out.println(NERResult);
//[中亚/loc, 习近平/per, 上合组织/org, 二十国集团/org, 哈萨克斯坦/loc, 比什凯克/loc, 圣彼得堡/loc, 2013年9月/time]

封装了感知机和CRF模型,由结构化感知机序列标注框架支撑,识别出文本中的时间、地名、人名、机构名:人名 per、地名 loc、机构名 org、时间 time

4. 依存句法分析

String sentence = "北京是中国的首都";
CoNLLSentence deps = AHANLP.DependencyParse(sentence);
for (CoNLLWord dep : deps)
    System.out.printf("%s --(%s)--> %s\n", dep.LEMMA, dep.DEPREL, dep.HEAD.LEMMA);
/*
北京 --(主谓关系)--> 是
是 --(核心关系)--> ##核心##
中国 --(定中关系)--> 首都
的 --(右附加关系)--> 中国
首都 --(动宾关系)--> 是
*/

// 词语依存路径
List<List<Term>> wordPaths = AHANLP.getWordPathsInDST(sentence);
for (List<Term> wordPath : wordPaths) {
    System.out.println(wordPath.get(0).word + " : " + AHANLP.getWordList(wordPath));
}
/*
北京 : [北京, 是]
是 : [是]
中国 : [中国, 首都, 是]
的 : [的, 中国, 首都, 是]
首都 : [首都, 是]
*/

// 依存句法树前2层的词语
List<String> words = AHANLP.getTopWordsInDST(sentence, 1);
System.out.println(words);
// [北京, 是, 首都]

依存句法分析是对 HanLP 中 NeuralNetworkDependencyParser 的封装,使用的是基于神经网络的高性能依存句法分析器。分析结果为 CoNLL 格式,可以按 CoNLLWord 类型进行迭代,如上所示,CoNLLWord.LEMMA 为从属词,CoNLLWord.HEAD.LEMMA 为支配词,CoNLLWord.DEPREL 为依存标签,默认为中文标签。

如果需要使用英文标签,只需再带上第二个参数,并且设为 true 就可以了

CoNLLSentence enDeps = AHANLP.DependencyParse(sentence, true);

关于依存标签的详细说明,可以参见《依存标签》

5. TextRank 摘取关键词

String document = "我国第二艘航空母舰下水仪式26日上午在中国船舶重工集团公司大连造船厂举行。航空母舰在拖曳牵引下缓缓移出船坞,停靠码头。目前,航空母舰主船体完成建造,动力、电力等主要系统设备安装到位。";
List<String> wordList = AHANLP.extractKeyword(document, 5);
System.out.println(wordList);
//[航空母舰, 动力, 建造, 牵引, 完成]

extractKeyword 函数通过第二个参数设定返回的关键词个数。内部通过 TextRank 算法计算每个词语的 Rank 值,并按 Rank 值降序排列,提取出前面的几个作为关键词。具体原理可以参见《TextRank算法提取关键词和摘要》

6. TextRank 摘取关键句和自动摘要

String document = "我国第二艘航空母舰下水仪式26日上午在中国船舶重工集团公司大连造船厂举行。"
                + "按照国际惯例,剪彩后进行“掷瓶礼”。随着一瓶香槟酒摔碎舰艏,两舷喷射绚丽彩带,周边船舶一起鸣响汽笛,全场响起热烈掌声。"
                + "航空母舰在拖曳牵引下缓缓移出船坞,停靠码头。第二艘航空母舰由我国自行研制,2013年11月开工,2015年3月开始坞内建造。" + "目前,航空母舰主船体完成建造,动力、电力等主要系统设备安装到位。"
                + "出坞下水是航空母舰建设的重大节点之一,标志着我国自主设计建造航空母舰取得重大阶段性成果。" + "下一步,该航空母舰将按计划进行系统设备调试和舾装施工,并全面开展系泊试验。";
List<String> senList = AHANLP.extractKeySentence(document, 5);
System.out.println("Key Sentences: ");
for (int i = 0; i < senList.size(); i++)
    System.out.println((i + 1) + " : " + senList.get(i));
System.out.println("Summary: ");
System.out.println(AHANLP.extractSummary(document, 50));
/*
Key Sentences: 
1 : 航空母舰主船体完成建造
2 : 该航空母舰将按计划进行系统设备调试和舾装施工
3 : 我国第二艘航空母舰下水仪式26日上午在中国船舶重工集团公司大连造船厂举行
4 : 标志着我国自主设计建造航空母舰取得重大阶段性成果
5 : 出坞下水是航空母舰建设的重大节点之一
Summary: 
我国第二艘航空母舰下水仪式26日上午在中国船舶重工集团公司大连造船厂举行。航空母舰主船体完成建造。
*/

extractKeySentence 函数负责摘取关键句,第二个参数控制摘取的关键句数量。extractSummary 函数负责自动摘要,第二个参数设定摘要字数上限。内部通过 TextRank 算法计算每个句子的 Rank 值,并按 Rank 值降序排列,提取出前面的几个作为关键句。自动摘要类似,并且还考虑了句子在原文中的位置以及句子的长度。具体原理可以参见《TextRank算法提取关键词和摘要》

句子之间的相似程度(即 TextRank 算法中的权值)使用 Word2Vec 提供的函数计算,默认使用了维基百科中文语料训练出的模型,也可以使用自定义模型。

7. 语义距离

System.out.println("猫 | 狗 : " + AHANLP.wordSimilarity("猫", "狗"));
System.out.println("计算机 | 电脑 : " + AHANLP.wordSimilarity("计算机", "电脑"));
System.out.println("计算机 | 男人 : " + AHANLP.wordSimilarity("计算机", "男人"));

String s1 = "苏州有多条公路正在施工,造成局部地区汽车行驶非常缓慢。";
String s2 = "苏州最近有多条公路在施工,导致部分地区交通拥堵,汽车难以通行。";
String s3 = "苏州是一座美丽的城市,四季分明,雨量充沛。";
System.out.println("s1 | s1 : " + AHANLP.sentenceSimilarity(s1, s1));
System.out.println("s1 | s2 : " + AHANLP.sentenceSimilarity(s1, s2));
System.out.println("s1 | s3 : " + AHANLP.sentenceSimilarity(s1, s3));
/*
猫 | 狗 : 0.71021223
计算机 | 电脑 : 0.64130974
计算机 | 男人 : -0.013071457
s1 | s1 : 1.0
s1 | s2 : 0.6512632
s1 | s3 : 0.3648093
*/

wordSimilaritysentenceSimilarity 分别是计算词语和句子相似度的函数,计算过程都使用到了 Word2Vec 模型预训练好的词向量,使用前需要下载 word2vec 模型,然后将解压出的模型文件存放到项目的 data/model/ 目录下。词语相似度直接通过计算词向量余弦值得到,句子相似度求取方式可以参见 Word2Vec/issues1。如果想自己训练 Word2Vec 模型,可以参考训练 Google 版模型

注:sentenceSimilarity 默认使用标准分词对句子进行分词,并过滤停用词。

8. 语义角色标注

String sentence = "全球最大石油生产商沙特阿美(Saudi Aramco)周三(7月21日)证实,公司的一些文件遭泄露。";
List<SRLPredicate> predicateList = AHANLP.SRL(sentence);
for (SRLPredicate p : predicateList) {
    System.out.print("谓词: " + p.getPredicate());
    System.out.print("\t\t句内偏移量: " + p.getLocalOffset());
    System.out.print("\t句内索引: [" + p.getLocalIdxs()[0] + ", " + p.getLocalIdxs()[1] + "]\n");
    for (Arg arg : p.getArguments()) {
        System.out.print("\t" + arg.getLabel() + ": " + arg.getSpan());
        System.out.print("\t\t句内偏移量: " + arg.getLocalOffset());
        System.out.print("\t句内索引: [" + arg.getLocalIdxs()[0] + ", " + arg.getLocalIdxs()[1] + "]\n");
    }
    System.out.println();
}
/*
谓词: 证实		                               句内偏移量: 36     句内索引: [36, 37]
TMP: 周三(7月21日)                            句内偏移量: 27     句内索引: [27, 35]
A0: 全球最大石油生产商沙特阿美(Saudi Aramco)     句内偏移量: 0     句内索引: [0, 26]
A1: 公司的一些文件遭泄露                         句内偏移量: 39     句内索引: [39, 48]

谓词: 遭                                       句内偏移量: 46     句内索引: [46, 46]
A0: 公司的一些文件                              句内偏移量: 39     句内索引: [39, 45]
A1: 泄露                                      句内偏移量: 47     句内索引: [47, 48]
*/

封装了 Mate-Tools 中的 SRL 组件(包括词性识别器依存句法分析器),能够识别出文本中的谓词 predicate 和对应的论元:施事者 A0 、受事者 A1、时间 TMP 和地点 LOC。添加了对长文本的支持 SRLParseContent(content) 以及文本偏移量的匹配,可以通过谓词和论元在文本中的位置和偏移量进行定位。

注:每一个谓词对应的某一类别的论元都可能不止一个,例如谓词”攻击“可以对应多个施事者A0(攻击者)。

9. LDA 主题预测

int topicNum510 = AHANLP.topicInference("data/mini/军事_510.txt");
System.out.println("军事_510.txt 最可能的主题号为: " + topicNum510);
int topicNum610 = AHANLP.topicInference("data/mini/军事_610.txt");
System.out.println("军事_610.txt 最可能的主题号为: " + topicNum610);

LDA 主题预测默认使用新闻 LDA 模型进行主题的预测,输出最大概率的主题编号。默认模型从搜狗新闻语料库(SogouCS)中每个类别抽取 1000 篇(可能不满)新闻中训练得到,共包含 100 个主题。

用户也可以通过 ZHNLP.trainLDAModel() 自己训练 LDA 模型,训练好后,使用重载的 topicInference 方法来加载

AHANLP.trainLDAModel("data/mini/", 10, "data/model/testLDA.model");
int topicNum710 = AHANLP.topicInference("data/model/testLDA.model", "data/mini/军事_710.txt");
System.out.println("军事_710.txt 最可能的主题号为: " + topicNum710);
int topicNum810 = AHANLP.topicInference("data/model/testLDA.model", "data/mini/军事_810.txt");
System.out.println("军事_810.txt 最可能的主题号为: " + topicNum810);

如果你需要运行 LDADemo.java 进行测试,还需要下载 SogouCA_mini,将解压出的 mini 文件夹存放到项目的 data/ 目录下。

10. 简繁转换

String tc = AHANLP.convertSC2TC("用笔记本电脑写程序");
System.out.println(tc);
String sc = AHANLP.convertTC2SC("「以後等妳當上皇后,就能買士多啤梨慶祝了」");
System.out.println(sc);
/*
用筆記本電腦寫程序
“以后等你当上皇后,就能买草莓庆祝了”
*/

简繁转换是对 HanLP 中 convertToTraditionalChineseconvertToSimplifiedChinese 方法的包装。能够识别简繁分歧词,比如 打印机=印表機;以及许多简繁转换工具不能区分的字,例如“以后”、“皇后”中的两个“后”字。

11. WordCloud 绘制词云

String document = "我国第二艘航空母舰下水仪式26日上午在中国船舶重工集团公司大连造船厂举行。" + "中共中央政治局委员、中央军委副主席范长龙出席仪式并致辞。9时许,仪式在雄壮的国歌声中开始。"
                + "按照国际惯例,剪彩后进行“掷瓶礼”。随着一瓶香槟酒摔碎舰艏,两舷喷射绚丽彩带,周边船舶一起鸣响汽笛,全场响起热烈掌声。"
                + "航空母舰在拖曳牵引下缓缓移出船坞,停靠码头。第二艘航空母舰由我国自行研制,2013年11月开工,2015年3月开始坞内建造。" + "目前,航空母舰主船体完成建造,动力、电力等主要系统设备安装到位。"
                + "出坞下水是航空母舰建设的重大节点之一,标志着我国自主设计建造航空母舰取得重大阶段性成果。" + "下一步,该航空母舰将按计划进行系统设备调试和舾装施工,并全面开展系泊试验。"
                + "海军、中船重工集团领导沈金龙、苗华、胡问鸣以及军地有关部门领导和科研人员、干部职工、参建官兵代表等参加仪式。";
List<String> wordList = AHANLP.getWordList(AHANLP.StandardSegment(document, true));
WordCloud wc = new WordCloud(wordList);
try {
    wc.createImage("D:\\test.png");
} catch (IOException e) {
    e.printStackTrace();
}

WordCloud 使用一个词语列表创建 WordCloud 对象,然后调用 createImage 方法创建词云图片,并且将图片的保存地址作为参数传入。词云按照词频来绘制每个词语的大小,词频越高,词语越大;颜色及位置随机生成。

test

默认生成图片尺寸为 500x400,背景色为白色。也可以自定义图片的背景色和图片尺寸

WordCloud wc = new WordCloud(wordList);
wc.createImage("D:\\test_black.png", true); // 黑色背景
wc.createImage("D:\\test_1000x800.png", 1000, 800); // 尺寸 1000x800
wc.createImage("D:\\test_1000x800_black.png", 1000, 800, true); // 尺寸 1000x800, 黑色背景

鸣谢

再次向以下这些项目的作者致以敬意,正是这些开源软件推动了自然语言处理技术的普及和运用。