成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
arXiv
关注
1122
arXiv(X依希腊文的χ发音,读音如英语的archive)是一个收集物理学、数学、计算机科学与生物学的论文预印本的网站,始于1991年8月14日。截至2008年10月,arXiv.org已收集超过50万篇预印本;至2014年底,藏量达到1百万篇。在2014年时,约以每月8000篇的速度增加。
综合
百科
VIP
热门
动态
论文
精华
Popularity Bias Alignment Estimates
Arxiv
0+阅读 · 11月25日
Protocols for Quantum Weak Coin Flipping
Arxiv
0+阅读 · 11月25日
Generative modeling using evolved quantum Boltzmann machines
Arxiv
0+阅读 · 12月2日
From Euler to Today: Universal Mathematical Fallibility A Large-Scale Computational Analysis of Errors in ArXiv Papers
Arxiv
0+阅读 · 11月4日
Future of AI Models: A Computational perspective on Model collapse
Arxiv
0+阅读 · 10月29日
Flashlight: PyTorch Compiler Extensions to Accelerate Attention Variants
Arxiv
0+阅读 · 11月3日
The operator layer cake theorem is equivalent to Frenkel's integral formula
Arxiv
0+阅读 · 12月4日
Solving a Research Problem in Mathematical Statistics with AI Assistance
Arxiv
0+阅读 · 12月10日
Solving a Research Problem in Mathematical Statistics with AI Assistance
Arxiv
0+阅读 · 12月17日
Studies with impossible languages falsify LMs as models of human language
Arxiv
0+阅读 · 11月14日
Shifting 'AI Policy' Preprints and Citation Trends in the U.S., U.K and E.U., and South Korea (2015-2024)
Arxiv
1+阅读 · 10月18日
You Have Been LaTeXpOsEd: A Systematic Analysis of Information Leakage in Preprint Archives Using Large Language Models
Arxiv
0+阅读 · 10月4日
Beyond Memorization: Reasoning-Driven Synthesis as a Mitigation Strategy Against Benchmark Contamination
Arxiv
0+阅读 · 10月6日
SurveyBench: Can LLM(-Agents) Write Academic Surveys that Align with Reader Needs?
Arxiv
0+阅读 · 10月6日
SurveyBench: How Well Can LLM(-Agents) Write Academic Surveys?
Arxiv
0+阅读 · 10月3日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top