https://link.springer.com/book/10.1007/978-1-4842-8844-3

使用hugs Face库获得关于Transformer体系结构的实际介绍。本书解释了transformer如何改变人工智能领域,特别是自然语言处理领域。

本书涵盖了Transformer体系结构及其在自然语言处理(NLP)中的相关性。它首先介绍NLP和从n-grams到基于transformer的体系结构的语言模型的进展。接下来,它提供了一些使用谷歌colab引擎的基本转换器示例。然后,介绍了hug Face生态系统及其提供的不同库和模型。接下来,本文通过一些示例解释了诸如谷歌BERT之类的语言模型,然后深入介绍了hug Face API,使用不同的语言模型来处理诸如句子分类、情感分析、摘要和文本生成等任务。

在完成《NLP Transformer入门》之后,您将理解Transformer的概念,并能够使用huggingface库解决问题。

你会:

理解语言模型及其在NLP和NLU(自然语言理解)中的重要性 * 通过实际示例掌握Transformer体系结构 * 在基于transformer的语言模型中使用hug Face库 * 基于Transformer架构在Python中创建一个简单的代码生成器

成为VIP会员查看完整内容
125

相关内容

书籍在狭义上的理解是带有文字和图像的纸张的集合。广义的书则是一切传播信息的媒体。
【Manning2022新书】深度学习自然语言处理,296页pdf
专知会员服务
145+阅读 · 2022年10月25日
【Manning新书】自然语言处理入门,458页pdf
专知会员服务
110+阅读 · 2022年9月22日
【Manning新书】自然语言处理实战:深度学习应用,337页pdf,
专知会员服务
122+阅读 · 2021年6月18日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
61+阅读 · 2021年6月7日
【新书】深度学习搜索,Deep Learning for Search,附327页pdf
专知会员服务
203+阅读 · 2020年1月13日
【Manning2022新书】TensorFlow实战,680页pdf
专知
6+阅读 · 2022年10月9日
【Manning新书】自然语言处理入门,458页pdf
专知
25+阅读 · 2022年9月22日
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
15+阅读 · 2022年1月24日
Arxiv
19+阅读 · 2020年12月23日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
22+阅读 · 2018年8月30日
VIP会员
相关基金
国家自然科学基金
10+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
Transformers in Medical Image Analysis: A Review
Arxiv
39+阅读 · 2022年2月24日
Arxiv
15+阅读 · 2022年1月24日
Arxiv
19+阅读 · 2020年12月23日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
22+阅读 · 2018年8月30日
微信扫码咨询专知VIP会员