成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
BERT
关注
100
BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
综合
百科
VIP
热门
动态
论文
精华
Enriched BERT Embeddings for Scholarly Publication Classification
Arxiv
0+阅读 · 5月7日
Revisiting character-level adversarial attacks
Arxiv
0+阅读 · 5月7日
Fisher Mask Nodes for Language Model Merging
Arxiv
0+阅读 · 5月3日
Analyzing Narrative Processing in Large Language Models (LLMs): Using GPT4 to test BERT
Arxiv
0+阅读 · 5月3日
A Named Entity Recognition and Topic Modeling-based Solution for Locating and Better Assessment of Natural Disasters in Social Media
Arxiv
0+阅读 · 5月1日
(Chat)GPT v BERT: Dawn of Justice for Semantic Change Detection
Arxiv
0+阅读 · 4月29日
L3Cube-MahaNews: News-based Short Text and Long Document Classification Datasets in Marathi
Arxiv
0+阅读 · 4月28日
Algorithms for automatic intents extraction and utterances classification for goal-oriented dialogue systems
Arxiv
0+阅读 · 4月29日
BERT-like Pre-training for Symbolic Piano Music Classification Tasks
Arxiv
0+阅读 · 4月14日
What do Transformers Know about Government?
Arxiv
0+阅读 · 4月22日
Llama-VITS: Enhancing TTS Synthesis with Semantic Awareness
Arxiv
0+阅读 · 4月18日
How Good Are LLMs at Out-of-Distribution Detection?
Arxiv
0+阅读 · 4月16日
A Sentiment Analysis of Medical Text Based on Deep Learning
Arxiv
0+阅读 · 4月16日
LegalPro-BERT: Classification of Legal Provisions by fine-tuning BERT Large Language Model
Arxiv
0+阅读 · 4月15日
Securing Social Spaces: Harnessing Deep Learning to Eradicate Cyberbullying
Arxiv
0+阅读 · 4月1日
参考链接
父主题
预训练语言模型
机器翻译
子主题
BERT多标签分类
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top