基于transformers的自然语言处理(NLP)入门
Natural Language Processing with transformers. 本项目面向的对象是:
- NLP初学者、transformer初学者
- 有一定的python、pytorch编程基础
- 对前沿的transformer模型感兴趣
- 了解和知道简单的深度学习模型
本项目的愿景是:
希望结合形象生动的原理讲解和多个动手实践项目,帮助初学者快速入门深度学习时代的NLP。
本项目的主要参考资料是:
- Huggingface/Transformers代码库
- 多个优秀的Transformer讲解和分享
项目成员:
- erenup(多多笔记),北京大学,负责人
- 张帆,Datawhale,天津大学,篇章4
- 张贤,哈尔滨工业大学,篇章2
- 李泺秋,浙江大学,篇章3
- 蔡杰,北京大学,篇章4
- hlzhang,麦吉尔大学,篇章4
- 台运鹏 篇章2
- 张红旭 篇章2
本项目总结和学习了多篇优秀文档和分享,在各个章节均有标注来源,如有侵权,请及时联系项目成员,谢谢。去Github点完Star再学习事半功倍哦😄,谢谢。
项目内容
篇章1-前言
篇章2-Transformer相关原理
- 2.1-图解attention
- 2.2-图解transformer
- 2.2.1-Pytorch编写Transformer.md
- 2.2.2-Pytorch编写Transformer-选读.md
- 2.3-图解BERT
- 2.4-图解GPT
- 2.5-篇章小测