成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
李飞飞对话顶级神经科学家纽瑟姆:大脑也做「微积分」,最高效GPU依然很浪费
2020 年 11 月 18 日
新智元
新智元报道
来源:HAI
编辑:白峰
【新智元导读】
最近,李飞飞在斯坦福HAI座谈会上对话著名的神经生理学家、Wu Tsai神经科学研究所所长威廉 · 纽瑟姆,探讨了计算在神经科学中的作用,是AI促进了神经科学的发展还是神经科学为人工智能铺平了道路?人类大脑进化了5亿年,人工智能和自然智能仍然处在两个平行的世界?
最近,李飞飞在HAI座谈会上和斯坦福大学医学院神经生物学教授、Wu Tsai神经科学研究所所长威廉 · 纽瑟姆讨论了计算在神经科学中的作用。
在分子水平上理解大脑能否构建出更好的神经网络?意识在自然智能和人工智能中究竟应该如何定义?
带着这些问题,我们走进这次顶级AI学者与神经科学家的碰撞!
计算主导神经落后?纽瑟姆:计算的终极将是微观解剖!
首先让我们来认识下这次的与会嘉宾。
William Newsome 生于1952年6月5日,是斯坦福大学的一名神经科学家,他致力于「理解神经元过程对视知觉和视觉引导行为的调节」,同时也是美国国家科学院的院士。
根据美国国家科学院院刊的一篇文章,「纽瑟姆的研究与这一领域的许多其他研究不同,他使用的技术——主要是用微电极刺激灵长类动物的大脑区域——有助于证明因果关系,而不仅仅是显示行为和大脑活动之间的相关性」。
李飞飞也毫不吝惜对纽瑟姆的溢美之词,「我非常非常兴奋能和比尔进行这次谈话,我一直是比尔的超级粉丝。
纽瑟姆对于理解视知觉和简单决策形式背后的神经机制做出了重大贡献,作为Wu Tsai研究所的负责人,他致力于多学科的研究,帮助我们更深刻地了解大脑,为脑部疾病提供了新的治疗方法。」
纽瑟姆很高兴再次见到李飞飞,一番寒暄之后进入正题。
李飞飞:让我们从定义和讨论人工智能与神经科学的交叉点开始,你认为计算在你的领域中的作用是什么?
纽瑟姆: 嗯,这是个很好的问题。在今天的神经科学领域,计算是极其重要的。我有两三种不同的方法来回答这个问题,我们实际上有一个子领域叫做计算神经科学,目前斯坦福已经招募了这个领域的教员,我们希望可以有更多的专家参与进来。人们有时会问我,那是什么? 这么说吧,神经科学中的计算有三个不同的领域,非常非常重要!
第一个领域都是些理论学家:
这帮人试图理论化和提取关于大脑如何计算,大脑如何表现,大脑如何产生行动的一般原则。
第二个领域都是信奉神经网络的建模师
:那些真正懂得如何做深度卷积网络,懂得如何做循环神经网络,并且能够将简单问题进行建模的人。我们知道神经系统如何解决,如果我们能弄清楚这些网络是如何解决这些问题的,那么就可能对神经系统有新的认识。
第三种真正影响神经科学的计算方式是通过高端数据分析
,就像许多科学领域一样,我们周围的世界正在变得更大、更丰富、更复杂,大脑中的模糊数据集比人类历史上任何时候都要多。要真正理解如何处理这些数据,如何避免统计上的陷阱,是极其重要的。
我认为这三个计算领域对神经科学来说都非常重要。我认为不同的计算神经科学家可能擅长两个,少有三个的,但我们需要更多这样的人,我们面临很多挑战。
李飞飞:那计算神经学家的最大挑战是什么?
针对这个问题,纽瑟姆举了个
计算已经发挥主导作用而神经科学还落后
的例子。
纽瑟姆: 那么,让我给你们一些现实世界的例子; 也许给你们一个计算实际上已经发挥了主导作用,而其他神经科学的研究方法却落在后面,计算需要介入并创造一个角色来创造理解。
神经系统中的一个叫做『整合』的东西,对于学过微积分的人来说,这是很熟悉的,它逐字逐句地计算发生的事件,逐字逐句地整合一些时间序列,并积累出最后结果。
事实证明,搞懂这个整合的原理对神经系统的研究十分重要,包括决策。
就拿简单的眼睛移动来说,从这一点移动到那一点时,某些神经元会在大脑中的眼球运动空间图上产生一个小的突起,当它们产生突起时,眼睛就会移动到那里。令人惊奇的是,眼球到达后就会待在那,即使突起已经过去了。
从理论上来说,计算理论是关于整合的:
你怎样才能获得爆发的神经信号,整合一些值,使眼睛保持在合适的位置,直到准备好再次移动眼睛
?
我们知道一些生理学的知识,我们知道一些计算的知识,我们知道一些关于大脑结构连接的知识,这些知识产生眼球运动。在这种情况下,我们真正缺少的是解剖学。
事实证明,
几个不同的计算理论可以解释这一现象,但是要知道哪一个实际上发挥了作用,我们需要一次微观解剖
,来搞清楚细胞之间是如何真正连接在一起的。这是一个例子,计算理论实际上引领了方向,并激发了一些解剖学问题。
但是,许多人对这一观点产生共鸣,是因为深层卷积网络正在接近人类在视觉方面的表现。
大脑已经进化5亿年,人工智能和自然智能仍是平行宇宙?
李飞飞:在某些方面正在超越。
纽瑟姆: 在某些情况下绝对超越。因为这些网络变得如此善于视觉分类,很多人可能丢掉工作。现在就有一个非常有趣的问题,
我们训练了一个深层的卷积网络,它可以做些非常神奇的事情,但我们真的了解它吗
?
我们准确地知道神经网络各层之间的联系,我们知道传递了什么信号,我们可以看到神经元的动态,我们可以测量它们的表现。
但是在神经科学家中,仍然存在着这种深层的焦虑,一种智力上的焦虑,我认为人工智能领域的一些人,仍然不明白这是如何发生的。
将一组像素转换成面孔,然后区分不同的面孔,这些算法原理是什么?不知何故,深层的物理原理和计算原理还没有到位。
我们不明白这些东西是如何运作的。我们理解这种算法,也许在某种程度上,这已经是最深层次的了。但是我认为计算需要介入并教会我们这些,不管是对于人工网络,还是对于我们大脑中识别人脸的真实网络。
李飞飞:我想详细说明这一点,因为神经网络,尤其是视觉识别,是非常昂贵的,但也是非凡的,不是吗?这些数百层甚至数千层的卷积神经网络或循环网络算法,这些算法非常复杂,而且可以表现得非常好。
当涉及到物体识别时,一些网络确实超过了人类。但与此同时,如果你仔细看看这些算法的本质,虽然它们非常庞大,但与大脑相比,它们也是非常不自然的。
我只举一个神经元之间的交流的例子。在今天的神经网络算法中,它的实现方式是一个单一的标量值,而大脑中的突触交流,要复杂得多,那神经信号究竟是什么?
另外,从更系统的角度来看,我们的大脑是一个至少已经进化了5亿年的器官,哺乳动物的大脑大约有1亿年,它有不同的部分,不同的模块,今天的神经网络还远不能及。
因此,一方面,这些巨大的深度学习模型做得非常好。另一方面,与大脑相比,它们也非常不自然。我只是很好奇: 从你的角度来看,当我们在分子水平、突触水平和系统水平上,更多地了解大脑的计算实体时,你对如何构建这些神经网络有不同的见解吗?
纽瑟姆: 希望如此。我认为这是有计算意识的神经科学家争论的最深层次的智力问题之一,那就是人工智能在多大程度上,会与 NI (自然智能)汇聚并真正成为有用的智能?它们只是夜间通过的船只,还是两个平行的宇宙?
神经元完全非线性,GPU「疯狂燃烧」太浪费
一个单独的神经元(我们的大脑包含大约1000亿个神经元)是极其复杂的: 难以置信的复杂形状和难以置信的复杂生物物理学,而且我们大脑中不同类型的神经元具有不同的物理类型。
它们完全是非线性的,它们通过这些突触连接在一起,形成电路,理解和绘制这些电路,是神经科学的重大问题
。
但是有些东西应该让我们停下来,有些物质在大脑中局部释放,叫做神经肽,它们扩散到大脑周围的数千个突触,它们可以完全改变这个回路。你把一组以特定方式连接起来的神经元,喷射到这个神经肽上,它们瞬时就形成一个不同的回路。
李飞飞:是的,那很有趣。在我们的深度学习架构中,我们根本没有那种计算机制。
纽瑟姆: 大脑结构的另一个特征,几乎都是循环结构的。大脑 a 区向 b 区投影,你可以把它想象成深层卷积网络的一个层到另一个层。但是不可避免的,b 回到了 a。如果你不了解这两个区域的活动,以及非线性的行为,就不能理解这两个区域的活动,这些动态的相互作用产生了一个同时涉及多个层的状态。
许多人认为,
理解那些分布在网络中的动态状态将是理解大量脑计算的秘密
。
我知道现在这些深度卷积网络中的一些已经开始内置循环了,我不知道这个领域的确切位置,但肯定是个不错的想法。
动力学是大脑活动的另一个特征,它们反映了周围世界的动态,以及输入和输出的动态。为了让肌肉从一个地方移动到另一个地方,你必须有动态的输出,对吗?所以从动力学的角度来看,大脑要丰富得多。
而大脑最让人惊奇的是,它只需要极低的能量来做这些计算。
李飞飞:我本来想说20瓦的问题,这比我们所有的灯泡都要暗。我们听说过这些令人印象深刻的神经网络,比如 GPT-3或者神经结构搜索,都在疯狂地燃烧GPU,那你是怎么想的呢?
纽瑟姆: 嗯,我没怎么考虑这个问题,除了我们发明的设备是非常非常低效和浪费的。
我们在斯坦福大学有一个同事,Kwabena Boahen,他研究神经形态工程学,并试图建立模拟电路,
以一种更像大脑的方式运算
。他的模拟电路在电源使用上比数字计算机更有效率。但是他们还没有达到深度神经网络的认知效果,所以这里有一个鸿沟需要被跨越。
李飞飞:是的,我认为这是一个非常有趣的研究领域。你提到了「认知」这个词,我想详细说明一下,因为我知道我们开始谈论计算神经科学,但是认知神经科学是神经科学的一部分,也是视觉领域的一部分。
神经科学是计算视觉的「鼻祖」,AI也能反哺生物认知研究
首先,我的博士学位有一半是认知神经科学。
其次,在过去的30年里,我在视觉领域给予了认知神经科学很多信任,向人工智能世界展示了哪些问题需要解决,特别是像 Irv Biederman,Molly Potter 这样的人在70年代和80年代在心理物理学方面的杰出工作。
然后是神经生理学和认知神经生理学,像 Nancy Kanwisher,Simon识别方面的成果,最终导致了90年代末和21世纪前十年计算机视觉的繁荣。
所以我想听听你的意见---- 你是否仍然认为
认知神经科学在其中扮演着一个角色,或者说人工智能也能反过来帮忙
?
纽瑟姆: 我以一种非常简单的方式来看待认知神经科学,这可能会让我们的同事,可能会让你不寒而栗,飞飞。我主要作为一个感官神经科学家,在视觉系统、 Hubel 和 Wiesel 的基本原理,以及视网膜的感受野特性方面,接着是大脑的第一个处理过程,然后是大脑皮层。
在20世纪70年代,我开始研究大脑,思考来自外围的信号。我们都称自己为感官神经科学家,但是还有另外一群神经科学家,他们的观点正好相反,他们让动物做动作,然后观察为这些运动提供输入的神经元,再把输入信息回溯至大脑,这是运动科学的努力。
而我们通过研究简单的决策形式来做到这一点,给动物感官刺激、要求动物对看到的东西做出决定,然后做出动作,如果答对了,就会有奖励。
那么,作为决策结果的感官信号是如何与操纵运动联系在一起的呢?这里,你正好处于认知领域。有些人认为这是大脑感觉系统和运动系统之间的分水岭。你如何做出决定?
你不能同时向左和向右移动你的眼睛,你不得不做出决定。
这就是我进入认知神经科学的原因,我认为这是目前神经科学中最有趣的领域之一。人工智能和计算理论模型深刻地影响了我自己的决策工作。
我有时会想反过来: 视觉和神经科学对人工智能有什么启发?
李飞飞:对。斯坦福大学的神经科学专家正在将认知的灵感,运用到深度学习框架的计算模型中。他们正在构建一些智能体,
试图遵循早期人类认知发展的规则,在好奇心、探索等方面,学习建立一个世界模型,并且改进与世界的互动
。
我认为认知科学已经在影响人工智能,激发新的计算算法,超越更传统的模型。
纽瑟姆: 神经科学真正引领人工智能、卷积网络和人工视觉之路的一个例子是对哺乳动物大脑视觉的深入理解。
比如方向性 Gabor 过滤器等,都已经被人工视觉化了。
你只需要从前端开始,从大卫 · 菲尔德这样的人那里得到一些心理物理学和统计分析的原理。如果必须指出神经科学对人工智能的促进,那就是许多视觉的前端,都来自神经科学。
李飞飞:这绝对是一件大事。
纽瑟姆:我认为从事视觉研究的年轻一代都该认识到,人造视觉系统虽然在某些情况下可以超越人类的表现,但是人类的学习过程与人造系统是非常不同的。
李飞飞:人工智能有局限,「一次性学习」是关键
人造系统需要成千上万的例子才能做得非常好,而且它们必须被人为标记。
「我家里有一个5岁的小女儿,在她两三岁的时候,她已经观察了十几只大象,就能认出任何地方的大象。她可以辨认线条画,照片,不同的角度,不同的大小,不同的环境。」
所以我认为人类视觉、认知神经科学以及幼年动物视觉发育的研究,对人工智能,才是真正的挑战。
李飞飞:是的,实际上我想强调你刚才提出的一点,因为用你的话来说,真的很深奥,因为人类在生物学上学习的方式,自然智能系统学习的方式是如此不同。
我仍然记得20年前,我在人工智能领域的第一篇论文「一次性学习对象类别」,但是直到今天,
我们还没有一个真正有效的框架来像人类那样进行一次性学习,或者说几次性学习
。
除了基于实例的学习训练,还有非监督式学习、灵活性和概括能力,这真的是整个智能领域的前沿,无论是人类智能,还是人工智能。
纽瑟姆: 是的,我认为人工智能必须对此保持谦虚的态度,我们几乎不知道这是如何发生的。
李飞飞:在某种程度上,我认为我们这些科学家有责任,与公众分享人工智能的局限性,因为当今对人工智能、机器霸主等等的大肆宣传,是缺乏对人工智能系统的局限性认识。
最后,纽瑟姆认为,人工智能的确更像是一种工具。人工智能可以极大地帮助我们,收集细胞内的遗传、获得分子水平上的数据分析结果。
人的大脑要考虑的东西太多,信息处理、信息抽取、组织、决策、记忆和学习等等。
不同的神经元中实例化的计算规则和算法可能是不同的,小脑可能有一套理论和一套原则,而大脑皮层可能有另一套
。
「我不确定哺乳动物的大脑,是否会有一个普遍适用的统一理论,但很可能是一系列相关理论的集合。」
参考链接:
https://hai.stanford.edu/blog/what-computations-role-neuroscience?sf132574832=1
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
李飞飞
关注
6
李飞飞,女,1976年出生于北京,长在四川,16岁随父母移居美国新泽西州。 2015年12月1日,入选2015年“全球百大思想者”。2018年3月,获“影响世界华人大奖”。 现为美国斯坦福大学教授、斯坦福大学人工智能实验室与视觉实验室负责人、谷歌云人工智能和机器学习首席科学家,斯坦福以人为本人工智能研究院共同院长。
多伦多大学2021《机器学习》课程,讲述深度学习理论中的神经网络训练动力学
专知会员服务
56+阅读 · 2021年1月29日
经典《因果性导论》讲座课程,Jonas Peters教授讲解,附253页ppt
专知会员服务
64+阅读 · 2021年1月5日
【NeurIPS2020】DeepMind最新《神经科学人工智能》报告,126页ppt
专知会员服务
67+阅读 · 2020年12月10日
沈向洋博士:科研七个坑,我的“求之不得”职业生涯之感悟
专知会员服务
34+阅读 · 2020年11月17日
神经机器翻译前沿综述
专知会员服务
25+阅读 · 2020年9月9日
如何构建通用人工智能AGI?这份来自数学家视角见解可以参阅,64页PPT
专知会员服务
42+阅读 · 2020年6月15日
物理学突破深度学习理论瓶颈? Google-斯坦福发布《深度学习统计力学》综述论文,30页pdf阐述深度学习成功机制
专知会员服务
104+阅读 · 2020年3月26日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
Nature论文:用于自主血管通路的深度学习机器人导航,新泽西州立大学
专知会员服务
23+阅读 · 2020年2月17日
【斯坦福大学李飞飞高徒朱玉可博士毕业论文和PPT,158页pdf与96页slides】闭合感知-动作循环:实现通用机器人的自治,能够理解并与现实世界交互的通用机器人构建智能
专知会员服务
95+阅读 · 2019年10月22日
大脑通过统计推理表征“自我”
人工智能学家
6+阅读 · 2019年9月4日
脑机接口重大突破!华裔科学家首次用AI直接从大脑合成语音
AI前线
6+阅读 · 2019年4月25日
前沿 | 字节跳动李航:智能与计算
MOOC
6+阅读 · 2019年2月6日
专栏 | 字节跳动李航:智能与计算
机器之心
5+阅读 · 2019年1月21日
斯坦福学者:生物智能可能是解决AI发展瓶颈的关键
新智元
8+阅读 · 2018年12月10日
语言处理想突破,三座大山必须过
THU数据派
6+阅读 · 2018年9月12日
IBM长文解读人工智能、机器学习和认知计算
人工智能学家
5+阅读 · 2018年8月26日
科学家揭示沙利度胺的致畸原理
生物探索
5+阅读 · 2018年8月6日
【机器视觉】李飞飞最新演讲:视觉智慧是人类和计算机合作沟通的桥梁
产业智能官
13+阅读 · 2017年11月21日
【机器视觉】如何做好计算机视觉的研究?
产业智能官
7+阅读 · 2017年10月19日
Goal-oriented adaptive finite element methods with optimal computational complexity
Arxiv
0+阅读 · 2021年1月27日
An Overview of Enhancing Distance Learning Through Augmented and Virtual Reality Technologies
Arxiv
0+阅读 · 2021年1月26日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Fine-grained Sentiment Analysis with Faithful Attention
Arxiv
5+阅读 · 2019年8月19日
3D Hand Shape and Pose Estimation from a Single RGB Image
Arxiv
16+阅读 · 2019年3月3日
Projecting Embeddings for Domain Adaptation: Joint Modeling of Sentiment Analysis in Diverse Domains
Arxiv
8+阅读 · 2018年6月13日
QMIX: Monotonic Value Function Factorisation for Deep Multi-Agent Reinforcement Learning
Arxiv
6+阅读 · 2018年3月30日
End-to-End Multi-Task Learning with Attention
Arxiv
19+阅读 · 2018年3月28日
Depth-Gated LSTM
Arxiv
4+阅读 · 2015年8月25日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
李飞飞
卷积网络
神经元
神经网络
美国国家科学院
科学家
相关VIP内容
多伦多大学2021《机器学习》课程,讲述深度学习理论中的神经网络训练动力学
专知会员服务
56+阅读 · 2021年1月29日
经典《因果性导论》讲座课程,Jonas Peters教授讲解,附253页ppt
专知会员服务
64+阅读 · 2021年1月5日
【NeurIPS2020】DeepMind最新《神经科学人工智能》报告,126页ppt
专知会员服务
67+阅读 · 2020年12月10日
沈向洋博士:科研七个坑,我的“求之不得”职业生涯之感悟
专知会员服务
34+阅读 · 2020年11月17日
神经机器翻译前沿综述
专知会员服务
25+阅读 · 2020年9月9日
如何构建通用人工智能AGI?这份来自数学家视角见解可以参阅,64页PPT
专知会员服务
42+阅读 · 2020年6月15日
物理学突破深度学习理论瓶颈? Google-斯坦福发布《深度学习统计力学》综述论文,30页pdf阐述深度学习成功机制
专知会员服务
104+阅读 · 2020年3月26日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
Nature论文:用于自主血管通路的深度学习机器人导航,新泽西州立大学
专知会员服务
23+阅读 · 2020年2月17日
【斯坦福大学李飞飞高徒朱玉可博士毕业论文和PPT,158页pdf与96页slides】闭合感知-动作循环:实现通用机器人的自治,能够理解并与现实世界交互的通用机器人构建智能
专知会员服务
95+阅读 · 2019年10月22日
热门VIP内容
开通专知VIP会员 享更多权益服务
《一个超视距空战强化学习环境》
《基于随机有限集的多目标跟踪器在空间态势感知中的应用》199页
《确保陆地部队在现代战场上的战术持久性》最新报告41页
无人机:地缘政治领域的新前沿
相关资讯
大脑通过统计推理表征“自我”
人工智能学家
6+阅读 · 2019年9月4日
脑机接口重大突破!华裔科学家首次用AI直接从大脑合成语音
AI前线
6+阅读 · 2019年4月25日
前沿 | 字节跳动李航:智能与计算
MOOC
6+阅读 · 2019年2月6日
专栏 | 字节跳动李航:智能与计算
机器之心
5+阅读 · 2019年1月21日
斯坦福学者:生物智能可能是解决AI发展瓶颈的关键
新智元
8+阅读 · 2018年12月10日
语言处理想突破,三座大山必须过
THU数据派
6+阅读 · 2018年9月12日
IBM长文解读人工智能、机器学习和认知计算
人工智能学家
5+阅读 · 2018年8月26日
科学家揭示沙利度胺的致畸原理
生物探索
5+阅读 · 2018年8月6日
【机器视觉】李飞飞最新演讲:视觉智慧是人类和计算机合作沟通的桥梁
产业智能官
13+阅读 · 2017年11月21日
【机器视觉】如何做好计算机视觉的研究?
产业智能官
7+阅读 · 2017年10月19日
相关论文
Goal-oriented adaptive finite element methods with optimal computational complexity
Arxiv
0+阅读 · 2021年1月27日
An Overview of Enhancing Distance Learning Through Augmented and Virtual Reality Technologies
Arxiv
0+阅读 · 2021年1月26日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Fine-grained Sentiment Analysis with Faithful Attention
Arxiv
5+阅读 · 2019年8月19日
3D Hand Shape and Pose Estimation from a Single RGB Image
Arxiv
16+阅读 · 2019年3月3日
Projecting Embeddings for Domain Adaptation: Joint Modeling of Sentiment Analysis in Diverse Domains
Arxiv
8+阅读 · 2018年6月13日
QMIX: Monotonic Value Function Factorisation for Deep Multi-Agent Reinforcement Learning
Arxiv
6+阅读 · 2018年3月30日
End-to-End Multi-Task Learning with Attention
Arxiv
19+阅读 · 2018年3月28日
Depth-Gated LSTM
Arxiv
4+阅读 · 2015年8月25日
大家都在搜
TDGN
智能仓储
基于大型语言模型
兵棋推演
生成式人工智能
电力电子
MoE
李清照词作
ads-b
《Transformers 机器学习:深度探究》,284页pdf
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top