观点 | Yann LeCun 等大咖对 2019 AI 发展趋势预测

2 月 12 日 AI科技评论

雷锋网 AI 科技评论按:人工智能被认为是一种拯救世界、终结世界的技术。为了消除噪音和炒作,VentureBeat 与杰出人士交谈,他们通过多年与地球上一些最大的科技和工业公司合作,了解了正确的人工智能方式。

以下是 Google Brain 联合创始人 Andrew Ng,Cloudera ML 的总经理、Fast Forward Labs 的创始人 Hilary Mason,Facebook AI Research 的创始人 Yann LeCun 以及埃森哲负责任的 AI 全球负责人 Rumman Chowdhury 博士的见解。我们希望了解他们认为 2018 年的关键里程碑是什么,以及他们认为 2019 年将会发生什么。

在回顾这一年以及对未来的预测中,一些人说他们被鼓励少听一些终结者 AI 末日的场景,因为更多的人知道 AI 能做什么和不能做什么。但这些专家也强调,在推进人工智能的同时,该领域的计算机和数据科学家仍然需要采取负责任的道德规范。

从左到右:Cloudera ML 的总经理 Hilary Mason,埃森哲全球 AI 负责人 Rumman Chowdhury,Facebook AI 研究总监 Yann LeCun 和 Google Brain 联合创始人 Andrew Ng

Rumman Chowdhury

Rumman Chowdhury 博士是埃森哲应用智能部门的常务董事,也是其负责任人工智能计划的全球负责人,并于 2017 年入选 BBC 百大女性名单。去年,我有幸在波士顿和她一起分享 Affectiva 会议的舞台,一起讨论人工智能的信任问题。她经常就这个话题向世界各地的观众发表讲话。

为了节省时间,她通过电子邮件回答了有关 2019 年人工智能预测的问题。本文中其他人的所有回复都在电话采访中分享。

Chowdhury 表示,她很高兴看到 2018 年公众对 AI 的能力和局限性有了更多的了解,并且发现人们对 AI 带来的威胁的讨论也更均衡——不再局限于《终结者》中那样担心智能机器会统治全球的恐惧。「随之而来的是,人们对隐私和安全的意识和问题日益增强,以及 AI 在塑造我们和未来几代人可能发挥的作用。」

然而,Chowdhury 认为公众对 AI 的认识不是最重要的。在未来的一年里,她希望看到更多的人利用教育资源来理解 AI 系统,并能够用自己的智慧来质疑 AI 所做的决策。

AI 生态系统中的技术公司和人们开始考虑其工作的伦理影响的速度,这让她感到惊喜。但她希望 AI 社区更进一步,能够「从口号走向实际行动」。

她提出:「在 AI 与伦理领域——除了电车难题以外——我希望看到大家能深入挖掘 AI 将会产生的其他难题,那些没有明确答案的问题。AI 与物联网相关监控合适的平衡点在哪里?怎样才能保证安全并且不导致恶化现有种族歧视的惩罚性监控状态?我们应该如何重新分配从先进技术中获得的收益,以便不会进一步扩大已有和还没有的人之间的差距? 什么程度的接触才能让孩子成为「AI 原生」,而不是被操纵或同质化? 如何才能利用 AI 实现教育的规模化和自动化,同时又能让创造力和独立思考蓬勃发展?」

未来 1 年,Chowdhury 预计会看到政府对全球技术界有更多的审查和监管。

她说:「AI 以及全球科技巨头所掌握的权力,引发了诸如该如何监管该行业和技术的诸多问题。2019 年,我们将不得不开始寻找这些问题的答案——当一项技术是一种具有特定背景结果的多用途工具时,你将如何对他进行监管?如何建立监管体制才能 不妨碍创新或偏袒大公司(谁能承担合规性成本)而不是小初创企业?我们应该监管到什么层面?国际性,国家性还是本地性?」

她还预计 AI 在地缘政治事务中的角色还将继续演进。

她说:「这不仅仅是一项技术,更是经济和社会的塑造者。我们在这种技术中反思,放大并执行我们的价值观,我们的行业需要少一点天真。」为此,他认为大家需要超越那种对 AI 行业共同的看法,即如果我们不做的话,中国就会做,好像创造才是威力所在。

她说:「我希望监管者、技术专业和研究人员意识到,我们的 AI 之争不仅仅是计算机能力和技术智慧的较量,就像冷战不仅仅是核能力的较量一样。我们有责任以一种更公正、更公平的方式去重新创造世界,现在我们有难得的机会这样做。但是这种机会转瞬即逝,希望我们不要错失。」

在消费者层面上,她相信 2019 年会 AI 将在家庭中得到更多应用。许多人已经变得更加习惯于使用像 Googol Home 和 Amazon Echo 这样的智能音箱,以及很多智能设备。在这方面,她很好奇,在今年的 CES(Consumer Electronics Show) 大展会上会不会有什么特别有无的东西脱颖而出,这将进一步将人工智能融入人们的日常生活当中。

她说:「我想我们都在等待一个机器人管家」。

Andrew Ng 

当我听说 Andrew Ng 拿白板开会或者讲网课时,我总是忍不住发笑。也许这是因为一位既有激情又容易相处的人很容易让人开怀发笑。

Ng 是斯坦福大学的计算机科学副教授,他的名字在人工智能领域广为人知,原因有很多。

他是 Google Brain 的联合创始人,该公司旨在将 AI 推广到 Google 的许多产品中。他也是 Landing AI 的创始人,该公司帮助企业将 AI 融入到运营中。

他还在 YouTube 和 Coursera(这家公司也是他创立的)上教授了一些最受欢迎的机器学习课程,并且成立了了 deeplearning.ai。并写了《Deep Learning Yearning》一书。

在 2017 年,他辞去百度的首席 AI 科学家职务,在任职的三年多时间里帮助百度变革成一家 AI 公司。

最后,还是总额 1.75 亿美元的 AI Fund 的一员,并且是无人车公司 Drive.ai 的董事会成员。

Ng 本月早些时候与 VentureBeat 进行了交谈,当时他发布了《AITransformation Play book》,这是一本有关解锁 AI 对公司积极影响的短读物。

他期望看到 2019 年会取得进展或者预期会发生变化的一个主要领域是 AI 被用于科技或软件公司以外的地方。AI 最大的为开发机遇不在于软件行业,他引用麦肯锡的一份报告来说,到 2030 年,AI 将会产生 13 万亿美元的 GDP。

「我认为,明年(2019 年)在软件行业以外的 AI 应用领域将会有很多故事可讲。作为一个行业,我们在帮助 Google 和百度以及 Facebook 和微软等公司做得不错——当然这些和我已经没有关系——但就连 Square 和 Airbnb、Pinterest 等公司也开始利用一些 AI 能力。我认为下一波大规模的价值创造将会是制造厂或者农机设备公司、医疗保健公司开发数十种 AI 解决方案来帮助自身企业的时候。」

就像 Chowdhury 一样,Ng 对 2018 年公众对 AI 能做什么不能做什么的理解程度也感到吃惊,并且对大家的对话不再仅仅围绕着机器人杀人场景或者一般 AI 的恐惧展开而感到欣慰。

Ng 说,他刻意回答了我一些其他人未必会提出的问题。

他说:「我试图有意地举出一些我认为对实际应用非常重要的领域。我认为 AI 的实际应用时存在障碍的,并且我认为在在写问题方面若干领域有望取得进展。」

Ng 兴奋地指出,在未来一年里预计会看到 AI/ML 领域会取得有助于整个领域发展的进展。一种是 AI 可以使用更少的数据得到更精确的结论,也就是所谓的「小样本学习」。

Ng 说:「我认为深度学习的第一波进展主要是有一些用大量数据训练非常大型神经网络的大公司,对吧?所以如果你想开发一个语音识别系统的话,你需要用十万个小时的数据对它进行训练。想要训练机器翻译系统?得用到无数平行语料库语句来训练它,这会产生很多突破性的结果。我越来越多地在小数据上看到结果,当你只有 1000 张图片,也想尝试在这些数据上得到结果。」

计算机视觉的另一个进展被称为「泛化」。计算机视觉系统用斯坦福大学的高端 X 光机器扫描出来的原始图像来训练时可能会非常好用。该领域的许多先进公司和研究人员已经建立起比人类放射线医师更优秀的系统,但是它们灵活性略差。

他说:「不过如果你把训练好的模型应用于来自低端 X 光及其或者另一家医院的 X 射线时,一旦图像有点模糊或者 X 光技师让病人稍微偏右一点点,结果表明人类的放射科医生比今天的学习算法能更好的概括这种新背景。因此,我认为研究如何改进学习算法在新领域的泛化能力将会很有趣。」

Yann LeCun

Yann Lecun 是纽约大学的教授,Facebook 首席人工智能科学家,Facebook 人工智能研究院(Fair)的创始总监,该公司创建了 Pytorch1.0 和 Caffe2,以及许多人工智能系统,如文本翻译人工智能工具 Facebook 每天使用数十亿次或高级强化学习系统。

Lecun 认为,那些采样 FAIP 开源的研究和工具,帮助推动其他大型科技公司也这样做,他认为这推动了人工智能领域的整体发展。Lecun 上个月在 NeurIPS 大会和 Fair 五周年纪念日前与 VentureBeat 进行了交谈,他说 Fair 是一个对「机器学习的技术、数学底线」感兴趣,使它们一起高效运转。

他说:「当更多的人交流这项研究时,整个领域的发展速度会更快,这实际上是一个相当大的影响。」「你今天在人工智能中看到的进步速度很大程度上是因为有越来越多的人比过去更快、更高效地交流,并且做了更多开放的研究。」

在伦理方面,Lecun 很高兴看到在简单地考虑工作的伦理影响和有偏见的决策的危险方面取得了进展。

「这个被视为人们应该关注的一个问题的事实现在已经得到了很好的证实。这已经不是两三年前的情况,」他说。

Lecun 说,他不相信人工智能的伦理和偏见已经成为一个需要立即采取行动的重大问题,但他相信人们应该做好准备。

他说:「我认为还没有……巨大的生死问题需要紧急解决,但它们会到来,我们需要……理解这些问题,并在这些问题发生之前防止它们发生。」

和 NG 一样,Lecun 希望看到更多的人工智能系统具有灵活性,能够产生强大的人工智能系统,这些系统不需要原始的输入数据或精确的输出条件。

Lecun 说,研究人员已经可以通过深入学习很好地管理感知,但缺少的一点是对完整人工智能系统的整体架构的理解。

他说,教学机器要通过观察世界来学习,就需要自我监督学习,或基于模型的强化学习。

「不同的人给它起了不同的名字,但从本质上讲,人类的婴儿和动物是通过观察和找出大量有关它的背景信息来学习这个世界是如何运作的,我们还不知道如何用机器做到这一点,但这是一个巨大的挑战。」

「这一奖项实质上是在人工智能和机器方面取得了真正的进展,使其具有一些常识和虚拟助理,这些助理不会让人沮丧,可以与之交谈,并有更广泛的主题和讨论范围。」

对于 Facebook 内部有帮助的应用程序,Lecun 说,在自我监督学习方面取得重大进展将非常重要,而人工智能则需要较少的数据才能返回准确的结果。

「在解决这个问题的过程中,我们希望找到减少任何特定任务所需的数据量的方法,如机器翻译、图像识别或类似的事情,我们已经在这个方向上取得了进展;通过对翻译和图像识别进行弱监督或自我监督,已经对 Facebook 所使用的服务产生了一定的影响。所以,这些事情实际上不仅是长期的,而且也有非常短期的影响,」他说。

在未来,Lecun 希望看到在人工智能方面取得的进展,能够在事件之间建立因果关系。这不仅是通过观察来学习的能力,而且是通过实践来理解的能力,例如,如果人们在使用雨伞,那么很可能是在下雨。

他说:「这将非常重要,因为如果你想让一台机器通过观察来学习世界模型,它必须能够知道它能影响到什么,从而改变世界的状态,还有一些事情是你做不到的。」「你知道,如果你在一个房间里,前面有一张桌子,上面有一个像水瓶一样的物体,你知道你可以推动水瓶,让它移动,但是你不能移动桌子,因为它又大又重,--------像这样的事情与因果关系有关。」

Hilary Mason

在 Cloudera 于 2017 年收购 Fast Forward Labs 之后,Hilary Mason 成为了 Cloudera 的机器学习总经理。快速实验室虽然吸收了 Cloudera,但仍然在运作,生成应用机器学习报告,并帮助客户到未来六个月到两年的发展规划。

人工智能在 2018 年让梅森感到惊讶的一个进步与多任务学习有关,它可以训练单个神经网络在推断例如图像中看到的物体时应用多种标签。

Fast Forward Labs 也一直在为客户提供有关 AI 系统伦理影响的建议。梅森认为有必要建立某种道德框架。

「这是自从我们创建 Fast Forward 以来的事情,所以,五年前,我们一直在撰写关于道德规范的报告,但是今年 [ 2018 ] 人们已经真正开始接受并关注,我想明年我们「我会开始看到公司和那些不关注这个问题的人们在这个领域的后果或问责制。」梅森说。「我没有说清楚的是,我希望数据科学和人工智能的实践发展成为默认的期望,技术人员和商业领袖创建 AI 产品将考虑道德和偏见问题 以及这些产品的开发,而今天并不是每个人都默认的东西。

她说:「我认为很明显是那些了解整个产品的人,并且理解企业了解什么是有价值的,什么是没有价值的,谁最有能力做出这些决定应该投资什么地方。」

「所以,如果你想要我的预测,我想同样的方式,我们希望所有这些人都能使用电子表格这样的简单建模,我们很快就会期望他们能够最低限度地识别自己的 AI 产品的机会。

点击阅读原文,查看 人工智能正在如何改变世界:BBC 总结 AI 的 A 到 Z

登录查看更多
点赞 0
Top