• Stars
    star
    330
  • Rank 127,657 (Top 3 %)
  • Language
    Python
  • Created almost 7 years ago
  • Updated over 1 year ago

Reviews

There are no reviews yet. Be the first to send feedback to the community and the maintainers!

Repository Details

Just another seq2seq repo

A lot of Chinese in codes and docs

Just another seq2seq repo

  • 主要是从个人角度梳理了一下seq2seq的代码
  • 加入了可选基本的CRF支持,loss和infer(还不确定对
  • 加入了一些中文注释
  • 相对于其他一些repo,bug可能会少一些
    • 有些repo的实现在不同参数下会有问题:例如有些支持gru不支持lstm,有些不支持bidirectional,有些选择depth > 1的时候会有各种bug之类的,这些问题我都尽量修正了,虽然不保证实现肯定是对的
  • 后续我可能会添加一些中文的例子,例如对联、古诗、闲聊、NER
  • 根据本repo,我会整理一份seq2seq中间的各种trick和实现细节的坑
  • pretrained embedding support
  • 后续这个repo会作为一个基础完成一个dialogue system(的一部分,例如NLU)
    • seq2seq模型至少可以作为通用NER实现
    • 截止2018年初,最好的NER应该还是bi-LSTM + CRF,也有不加CRF效果好的

作者的一系列小文章,欢迎吐槽

Update Log

2018-03-10

我把一些代码内的trick设置的更接近NMT了。

尝试训练更好的chatbot模型(嘬死)。

添加了一个支持加载训练好的embedding的模型,参考chatbot_cut/, 这个例子是“词级的”, 分词用的jieba, 默认的预训练模型是fasttext, 详情点击看文档、代码。

2018-03-06

增加了chatbot中anti-lm的训练方法样例,在chatbot/train_anti.py中。 这个模式参考了Li et al., 2015和代码 Marsan-Ma/tf_chatbot_seq2seq_antilm

加入anti-lm来看,diversity是有提高,不过整体来看,并不是说就很好好。 但是明显降低了机器回答“我不知道”和“我不知道你在说什么”这样的语言概率。

虽然我在不同的地方在还尝试实现了下面这两个(其实都是一个人写的啦) Li et al., 2016 Li et al., 2017 不过基本上不太成功的感觉,虽然我也没做太严格的做法。

Known issues

Example里的例子和整个项目,虽然未经验证,但是在内存较小的电脑上(<8GB),可能会有问题。 这涉及到数据处理、数据输入、模型参数等部分,所以严格来说并不算BUG。

chatbot模型根本没有一个什么是“好”的评价标准, 也根本没有“好”的数据。 所以不要对结果有过度期待,仅供娱乐。 如果你问我仅供娱乐还写它干嘛? 本repo只是为了实现各种seq2seq技术, 也有有用的翻译和NER啊, 当然很多部分都是学习与研究性质的,工业化需要很多改进。 chatbot部分虽然我花了不少时间, 但是那个还只是娱乐而已, 实际应用起来,对话质量、系统成本可能很高。 我能保证的只是,这个模型基本上没原则性问题而已, 至少给一个参考,看看我写的垃圾代码和别人写的代码的区别,是吧。

当然也不是说就是不能用,例如你能自己搞一些质量很高的数据啦。 比如说这位仁兄的repo 他就自己弄了一份质量很高的数据, 搭配一些合理的扩展, 例如给数据添加功能性词汇 _func_get_current_time 之类感觉的东西, 就能让chatbot实现一些简单功能。

简单的说就是把训练数据设置为, 上一句是现 在 几 点, 下一句是现 在 时 间 _func_get_current_time, 这样在输出部分如果解析到_func_get_current_time这个词 就自动替换为时间的话, 就可以得到类似“报时”的功能了。 (技术没有好坏,应用在哪最重要!~~这句话是不是很装逼)

Platform

作者在一台64GB内存 + GTX1070 6GB + Ubuntu 16.04电脑上运行。

内存肯定不需要这么大,不过显存如果在2GB,如果要在GPU上运行模型,可能需要调节batch_size等模型参数。

Example

Example里面用到的数据,都是比较小且粗糙的。 作者只基本验证了可行性,所以也不可能实用了,例如英汉翻译就别期待准确率很高了, 大概意思到了就代表模型的一定有效性了。

英汉句子翻译实例

测试结果样例

我不保证能重复实现能得到一模一样的结果

Input English Sentence:go to hell
[[30475 71929 33464]] [3]
[[41337 48900 41337 44789     3]]
['go', 'to', 'hell']
['去', '地狱', '去', '吧', '</s>']
Input English Sentence:nothing, but the best for you
[[50448   467 13008 71007 10118 27982 79204]] [7]
[[ 25904 132783  90185      4  28145  81577  80498  28798      3]]
['nothing', ',', 'but', 'the', 'best', 'for', 'you']
['什么', '都', '没有', ' ', '但', '最好', '是', '你', '</s>']
Input English Sentence:i'm a bad boy
[[35437   268  4018  8498 11775]] [5]
[[ 69313  80498  21899  49069 100342      3     -1]]
['i', "'m", 'a', 'bad', 'boy']
['我', '是', '个', '坏', '男孩', '</s>', '<unk>']
Input English Sentence:i'm really a bad boy
[[35437   268 58417  4018  8498 11775]] [6]
[[ 69313 103249  80498  17043  49069 100342      3      3      3      3
       3      3]]
['i', "'m", 'really', 'a', 'bad', 'boy']
['我', '真的', '是', '一个', '坏', '男孩', '</s>', '</s>', '</s>', '</s>', '</s>', '</s>']

NER实例

Chatbot实例

test_atten.py 脚本,测试并展示 attention 的热力图

TensorFlow alert

Test in

import tensorflow as tf
tf.__version__ >= '1.4.0' and tf.__version__ <= '1.5.0'

TensorFlow的API总是变,不能保证后续的更新兼容

本repo本质是一个学习性质的repo,作者只是希望尽量保持代码的整齐、理解、可读,并不对不同平台(尤其windows)的兼容,或者后续更新做保证,对不起

Related work

As mention in the head of sequence_to_sequence.py, At beginning, the code is heavily borrow from here

I have modified a lot of code, some Chinese comments in the code. And fix many bugs, restructure many things, add more features.

Code was borrow heavily from:

https://github.com/JayParks/tf-seq2seq/blob/master/seq2seq_model.py

Another wonderful example is:

https://github.com/Marsan-Ma/tf_chatbot_seq2seq_antilm

Official sequence2sequence tutorial

https://www.tensorflow.org/tutorials/seq2seq

Official sequence2sequence project:

https://github.com/tensorflow/nmt

Another official sequence2sequence model:

https://github.com/tensorflow/tensor2tensor

Another seq2seq repo:

https://github.com/ematvey/tensorflow-seq2seq-tutorials

A very nice chatbot example:

https://github.com/bshao001/ChatLearner

pylint

pylintrc from here

changed indent from 2 to 4

PS. 谷歌的lint一般建议indent是2,相反百度的lint很多建议indent是4, 个人怀疑这里面有“中文”的问题,也许是因为从小习惯作文空两格?(就是四个英文空格了)

我个人是习惯4个的