LeCun:30年前知道DeepFake,我还该不该开源CNN?

2019 年 2 月 22 日 新智元



  新智元报道  

编辑:文强

【新智元导读】深度学习界“最敢说的人”Yann LeCun再次放话,不过今天是提问:要是他早先能够预料到如今CNN被滥用,比如制作DeepFake换脸假视频,他当初还该不该开源CNN?讲真,AI研究发表和模型开源,真的该制定一个规范了。


Yann LeCun今天在Twitter上提问:


讲真,要是当初知道卷积神经网络(CNN)会催生DeepFake,我们还要不要发表CNN?



LeCun说:“问个严肃的问题:卷积神经网络(CNN)被用于(或开发)各种各样的应用。很多这样的应用对世界起到了积极影响,例如,医疗影像、汽车安全、内容过滤、环境监控等等。


“但有的应用则可能起到负面的效果,或者说侵犯隐私,例如,公众场所的人脸识别系统、进攻性武器,以及有偏见的“过滤”系统……


“那么,假设在上世纪80年代那时我们能够预见CNN的这些负面影响,我们该不该把CNN模型保密不公开呢?


“几点想法:


  • 最终,CNN(或者类似的东西)还是会被其他人发明出来(实际上,有些人可以说差不多已经做到了)。其实,福岛邦彦就跟我说,他80年代末的时候正在研究一种用BP训练的新认知机(Neocogitron),但看到我们1989年发表的神经计算论文“大感震惊”(shocked),然后停止了他的项目。


  • 开源CNN或深度学习软件平台直到2002年才出现(CNN是20世纪90年代早期商业软件包SN和2002年开源的Lush软件包的一项功能。20世纪90年代中后期才开始有OSS分发)。因此,在某种程度上,CNN直到2002年才完全发表(released)。但那时基本没有什么人关注CNN,或者想到用Lush来训练CNN。”


LeCun的这番话,可以说是为他此前的“表态”做出了完美的解释。


是的,这里说的还是关于OpenAI模型开源的那件事。


LeCun:担心模型太强大而不开源,干脆别研究AI


2月中旬,OpenAI宣布他们开发了一个通用文本生成模型GPT-2,拥有15亿参数,使用了800万网页进行训练,能够同时完成文本生成、回答问题、总结摘要、机器翻译等多项任务,有的时候效果甚至比专门的文本生成/问答/摘要总结等模型还要好。


接着,OpenAI用一个又一个的示例,充分展示了GPT-2模型有多强大,等到众人迫不及待地要了解设计细节时,突然话锋一转,说他们担心模型“太过强大”,开源后可能遭人滥用,这次决定不公布具体参数和训练数据集,只是放出一个小很多的样本模型供人参考。


谁料,OpenAI这一举动引爆了整个AI圈,相比GPT-2模型本身,对于模型是否该开源的争论在短时间内得到了更多的关注,NLP领域以外的研究人员和开发者也凑过来,而且“群众的意见”几乎是一边倒的反对OpenAI,简而言之:


担心AI过于强大而不开源太矫情,这样还不如一开始就别研究AI。


当时,LeCun不仅转发了一条讽刺OpenAI的推文,还“火上浇油”地写了个段子,大意是:可不能开源在MNIST数据集上精度99.99%的模型,这可能被人用来篡改邮编,发动垃圾邮件恐怖袭击,那还得了。具体见下:



最终,LeCun对OpenAI不予开源的嘲讽发展到了极致:



“每个新生出来的人都可能造谣、传播流言并影响其他人,那我们是不是该别生孩子了?”


这番言论实在称不上严谨,甚至不能算“严肃”,但作为Facebook首席科学家、卷积神经网络发明人和深度学习三巨头之一,LeCun在如今的AI圈子里拥有巨大的影响力,他的这一表态迅速成为重磅砝码,压在了天平“反对不开源”的这边,不仅坚定了此前站出来表示反对的人的信念,还影响了不少后来人的观点。


关于模型开源,我们真正关注的应该是什么?


当然,现在业界的重点已经从最初的口水战聚焦到AI研究发表和开源政策的讨论上来。


LeCun或许也是希望用今天这个“serious question”来阐述自己当初过于简单而容易被人误会的表态。


大多数研究人员都同意,OpenAI决定不开源的出发点是好的,但给出的理由却不尽人意


首先,GPT-2模型是否真有那么强大?不公布细节无法证明这一点。这也是一开始口水战的一大焦点,如果不给出细节,谁都可以站出来说我实现了强AI,但由于“担心太过强大”,所以我不能发表。


插一句,从OpenAI公布的统计数据中可以看出,GPT-2不仅仅是“记住了”数据,而是确实具有更强的泛化性能。


其次,公开了模型设计和训练数据集,是否就会被人拿去在网上“假言惑众”?先抛开结果复现程度,但看训练成本——OpenAI并没有介绍训练GPT-2模型的时间,但根据知情的研究人员透露,OpenAI取得了特许,使用谷歌TPU来训练模型,1小时花费2048美元。这个费用不是一般人能承担得起的,而能承担起这种费用的,如果真要“作恶”,有大概率不需要借助开源模型。


最后,关于企业研究机构如何宣传AI研究,如何面对公众、媒体和研究人员等不同群体,OpenAI的做法也有一些争议。DeepMind在最初介绍WaveNet,一个能合成与真人语音几乎无二的强大语音生成模型的时候对于潜在危险只字不提,而OpenAI不但主动提出并且还想要牵头制定AI研究发表的相关政策。这里说不出谁对谁错,但OpenAI只给出一个邮箱地址,欢迎“感兴趣的研究人员”联系他们的做法是远远不够的。


现在能够肯定的是,关于AI研究发表和模型开源,相关的政策真的需要制定了。OpenAI在担心模型被滥用时举了DeepFake为例,DeepFake是基于CNN构建的图像生成模型,由于强大的图像生成能力,能够生成以假乱真的人脸,甚至骗过先进的人脸识别模型。


那么回到LeCun一开始问的那个严肃的问题:


要是当初知道卷积神经网络(CNN)会催生DeepFake,我们还要不要发表CNN呢?


欢迎留言给出你的意见。


更多阅读



【加入社群】


新智元AI技术+产业社群招募中,欢迎对AI技术+产业落地感兴趣的同学,加小助手微信号:aiera2015_2   入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。

登录查看更多
2

相关内容

在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
最新《Deepfakes:创造与检测》2020综述论文,36页pdf
专知会员服务
62+阅读 · 2020年5月15日
零样本图像识别综述论文
专知会员服务
56+阅读 · 2020年4月4日
Yann Lecun 纽约大学《深度学习(PyTorch)》课程(2020)PPT
专知会员服务
178+阅读 · 2020年3月16日
最新!Yann Lecun 纽约大学Spring2020深度学习课程,附PPT下载
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
21个必须知道的机器学习开源工具!
AI100
13+阅读 · 2019年9月13日
换脸算什么?现在AI都能一键“脱衣”了
腾讯科技
10+阅读 · 2019年6月30日
那些竞相将DeepFakes商业化的AI初创公司
AI前线
10+阅读 · 2019年5月4日
Hinton最新专访:别让AI解释自己,AI寒冬不会再来
GAN生成式对抗网络
3+阅读 · 2018年12月17日
Yann LeCun爆惊人言论:深度学习已死?
雷锋网
7+阅读 · 2018年1月7日
Yann LeCun:深度学习已死,可微分编程万岁!
【深度学习】神经网络和深度学习简史
产业智能官
8+阅读 · 2017年11月16日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Object detection on aerial imagery using CenterNet
Arxiv
6+阅读 · 2019年8月22日
Arxiv
5+阅读 · 2019年6月5日
Arxiv
7+阅读 · 2018年6月19日
Arxiv
10+阅读 · 2018年2月17日
Arxiv
10+阅读 · 2017年11月22日
VIP会员
相关资讯
21个必须知道的机器学习开源工具!
AI100
13+阅读 · 2019年9月13日
换脸算什么?现在AI都能一键“脱衣”了
腾讯科技
10+阅读 · 2019年6月30日
那些竞相将DeepFakes商业化的AI初创公司
AI前线
10+阅读 · 2019年5月4日
Hinton最新专访:别让AI解释自己,AI寒冬不会再来
GAN生成式对抗网络
3+阅读 · 2018年12月17日
Yann LeCun爆惊人言论:深度学习已死?
雷锋网
7+阅读 · 2018年1月7日
Yann LeCun:深度学习已死,可微分编程万岁!
【深度学习】神经网络和深度学习简史
产业智能官
8+阅读 · 2017年11月16日
相关论文
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Object detection on aerial imagery using CenterNet
Arxiv
6+阅读 · 2019年8月22日
Arxiv
5+阅读 · 2019年6月5日
Arxiv
7+阅读 · 2018年6月19日
Arxiv
10+阅读 · 2018年2月17日
Arxiv
10+阅读 · 2017年11月22日
Top
微信扫码咨询专知VIP会员