成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
Transformer
关注
239
Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构
综合
百科
荟萃
VIP
热门
动态
论文
精华
Exposing the Ghost in the Transformer: Abnormal Detection for Large Language Models via Hidden State Forensics
Arxiv
0+阅读 · 4月1日
MambaPEFT: Exploring Parameter-Efficient Fine-Tuning for Mamba
Arxiv
0+阅读 · 4月1日
Molecular Quantum Transformer
Arxiv
0+阅读 · 3月27日
LEDiT: Your Length-Extrapolatable Diffusion Transformer without Positional Encoding
Arxiv
0+阅读 · 3月6日
LEDiT: Your Length-Extrapolatable Diffusion Transformer without Positional Encoding
Arxiv
0+阅读 · 3月7日
Conformal Transformations for Symmetric Power Transformers
Arxiv
0+阅读 · 3月5日
Quantifying the influence of Vocational Education and Training with text embedding and similarity-based networks
Arxiv
0+阅读 · 3月23日
A Little Depth Goes a Long Way: The Expressive Power of Log-Depth Transformers
Arxiv
0+阅读 · 3月5日
State-offset Tuning: State-based Parameter-Efficient Fine-Tuning for State Space Models
Arxiv
0+阅读 · 3月5日
The Illusion of State in State-Space Models
Arxiv
0+阅读 · 3月5日
SpiLiFormer: Enhancing Spiking Transformers with Lateral Inhibition
Arxiv
0+阅读 · 3月20日
Lower Bounds for Chain-of-Thought Reasoning in Hard-Attention Transformers
Arxiv
0+阅读 · 3月20日
Human-Centric Video Anomaly Detection Through Spatio-Temporal Pose Tokenization and Transformer
Arxiv
0+阅读 · 3月17日
Memory Mosaics
Arxiv
0+阅读 · 2月27日
On Expressive Power of Looped Transformers: Theoretical Analysis and Enhancement via Timestep Encoding
Arxiv
0+阅读 · 3月11日
参考链接
父主题
机器学习
预训练语言模型
注意力机制
机器翻译
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top