微软亚洲研究院院长副院长周明:语言智能的进展 | 北大AI公开课笔记

2018 年 5 月 22 日 量子位
主讲人:周明 | 微软亚洲研究员副院长
整理:俞晶翔 张康
量子位 出品 | 公众号 QbitAI

5月9日周三晚,北京大学“人工智能前沿与产业趋势”第十一讲,本期微软亚洲研究员副院长周明,分享了自然语言的核心技术、语言智能目前发展水平等相关内容。

讲解内容深入浅出,量子位作为独家合作媒体,为大家带来详细课程笔记一份。

课程导师:雷鸣,天使投资人,百度创始七剑客之一,酷我音乐创始人,北京大学信科人工智能创新中心主任,2000年获得北京大学计算机硕士学位,2005年获得斯坦福商学院MBA学位,同时也是“千人计划”特聘专家。

主讲嘉宾:周明,微软亚洲研究院副院长、国际计算语言学协会(ACL)候任主席、 中国计算机学会理事、中文信息技术专委会主任、中国中文信息学会常务理事、哈尔滨工业大学、天津大学、南开大学、北航、中国科大等多所学校博士导师。

人工智能的进步

今天不完全是一个学术的讲座,基本上没有公式,更多地想跟大家分享一下:做自然语言研究,需要从哪些角度入手?怎么来选题?从哪个角度去收集数据、建模评测?怎样使一些系统做出来能服务于社会?

今天的主题是语言智能的进展。

人工智能的各个领域,深度学习在比如说围棋、图像识别、语音识别,还有最近的自然语言处理都体现了非常优越的性能,甚至在有些领域,超过了人类。

人工智能的进步,促进了很多的重要的应用落地。比如智能助手,手机上的翻译,跟图像有关的自动驾驶,安防,医疗诊断等等。

促进产生这次新一轮人工智能革命主要有三大因素:大数据、以深度学习为代表的算法,以及越来越强的计算能力。我还想补充一个:机器学习的框架,像CNTK,TensorFlow,Caffe等等,大家很容易上手,只要有数据,导入这样的工具里,学习过程就可以完成。

还有一个不可忽略的事情是落地场景,有了落地场景,用户就有反馈,这个反馈过程,会帮助你把系统做得越来越好。就像当年的搜索引擎,就有一个很好的落地场景,成千上万用户天天在用,用的过程用户进入了什么网站,看了什么内容,停留了多长时间,这些数据可以回过来帮助这个系统越来越完善。我们今天所谓人工智能的又一场革命到来,我也认为有很多落地场景,确实产生了某种需求,就会把原来的人工智能的系统进一步提高。

这是我自己认为的人工智能的金字塔结构:

最底层是所谓的运算智能,计算机在记忆存储和运算远远超过人类,以前我们还认为这是一种智能,但现在已经没有人在讨论人工智能的时候,把它也作为智能,但它是一切人工智能的基础。

再往上就是感知智能,就包括听觉、视觉、触觉等等,在过去几年取得了突飞猛进的结果。

再往上是认知智能,认知智能主要是语言知识和推理。今天讲座的主题就是在语言智能这个领域。这三者是密切相关的,语言的能力强了,对问题的理解就强,获取知识的能力强,那么推理的能力也强。所以语言智能是认知智能中最重要的一个。

再往上就是创造智能,就是说从无到有产生一个想法,甚至一套理论,把它勾画出来,再通过实践验证出来,产生一个新的事物、物体或者意识。这方面的智能目前计算机还是比较薄弱。

微软研究院,长期以来一直做人工智能的研究,甚至在1991年微软研究院总部成立的时候,比尔盖茨给大家提的要求就是让计算机能听能说能写,能理解自然语言。所以在过去几十年,一直在沿着这几个方向做。

最近几年有些突破,总结一下:第一个是做ImageNet做物体识别,大概三年以前微软亚洲研究院孙剑博士的团队用ResNet,取得了最好的结果,而且达到了在这个数据集下96%识别率。

第二个是一年半以前,微软黄学东博士领导下语音识别的进步,在语音识别的标准测试集中,达到或者超过了人类的水平,达到了94.9%的水平。

还有最近的两个工作:一个是阅读理解,斯坦福大学的阅读理解比赛,我们微软亚洲研究院的R-Net技术,达到了88.5%的水平,这个水平也比人类做阅读理解题的水平略高一点。

另一个翻译新闻领域,微软几个团队合作在这个领域做到了69%的水平,也比人类做这个数据集的水平略高一点。

感知智能的进展

感知智能目前进展到什么程度?给一个图片,我们可以识别出图片的主要内容,并且用文字来描述它。这个描述的结果出来,实际上就是给语言智能提供输入信号,这样可以做后续工作。

同样的道理,对视频也可以做同样的工作:给一段视频,用语言文字来描述这段视频的主要内容,同样从这个视频得到一些信号输入到我们自然语言,供后续的自然语言处理。

现在所谓的感知智能已经达到了相当高的水平。每一帧在讲什么内容,大概知道在说什么,然后可以用文字表述出来。

微软把这些技术和能力都想开放给第三方,使得第三方在开发人工智能的时候,能够用简单的API的调用,可以做一些视觉、语音、语言等方面的工作,除此之外,也可以做基于知识、搜索的一些创新。

语言智能讨论什么方面的问题

语言智能是讨论什么方面的问题?第一个是NLP的基础技术,它包括词、短语、句子、篇章的表达方法,还包括分词、断句、词性、句法分析、语义分析等等。

第二个是NLP的核心技术,包括像机器翻译、问答、信息检索、信息抽取、聊天和对话、知识工程、语言生成和推荐。

NLP+是指自然语言的应用,还要跟大规模的应用或者具体的场景结合。典型的应用,包括搜索引擎、智能客服等等。还有跟垂直领域的一些应用,比如说在金融、医疗、教育等方面的应用。

自然语言的这些研究也不是孤立的,实际上它的周围有一些支撑技术,比如说用户画像。基于用户画像,可以提供个性化的服务。

云计算使得训练速度加快,并且很容易的部署,然后机器学习和深度学习,在数据提供的条件下,自动学习其中的知识、建模,然后部署到真正的系统里面。

还有是知识图谱,包含具体领域的一些知识图谱,比如说金融领域的,或者是常识意义上的知识图谱。

所有这些技术综合起来,使自然语言的任务做得更好。

自然语言是微软核心技术之一,像大家在word里语法检查等就是自然语言的任务。像输入法,输入拼音转成汉字,无论是中文还是日文,这输入法都是必须的。自然语言处理还是我们做的翻译、问答、检索,还有在必应搜索,还有小冰聊天机器人里面的重要技术。

我们自己还做了其他很多有趣的东西,比如说写对联、猜字谜、写诗、生成音乐等等。

自然语言的核心技术

给大家介绍一下自然语言的一些核心技术。

句法分析

第一个是句法分析,我们这个例子把词法分析、词性判断、专有名词识别和依存分析都体现在一起了。

一个句子要判断出:这个句子有多少词?每个词的词性是什么?词与词之间的依存关系是什么?谁是主语,谁是谓语,谁是修饰者,谁是被修饰,哪个词是时间还是地点等等。这个分析是自然语言的基础数据。

语义分析

第二个是语义分析。语义分析包含两种意义上的分析:一个是单独的语义分析,不考虑上下文。图中第一个句子就是不考虑上下文;左边是原始的语句,右边得到一个语义表达。这是机器可以理解的。

上下文相关

第二个是上下文相关。在分析这个句子的时候,要考虑上一个句子或上面说过的话,然后得到当前句子的语义表达。

这个就更难一些,但在对话系统中常常要做这样的工作。

信息抽取

还有一个关键技术叫信息抽取。左边的框是一段文字,是无结构的;右边是一个数据库,它是有结构的。

信息收取是给一篇或者几篇无结构的文本,把其中的重要信息抽取出来,有结构地表示存到数据库里,供未来的推理或者预测模型所用。

以这个技术为基础,给你一大段文字,然后你判断每一段文字在讲什么。每一段文字又有什么具体的内容,比如说有没有人名,有没有机构,有没有时间等等。

以简历举例,简历的信息抽取是说来了一个简历,可以大致判断出这个人哪个学校毕业的,什么时候毕业的,专业是什么,成绩如何等等。招聘公司可能每天有上万个简历来投递,就用这种方法,抽取出来信息之后入库。用人单位有需求,那可以做匹配。

问答系统

问答系统,顾名思义就是给问题,然后理解这个问题,参照系统的知识库,把问题的答案导出来。有时候问题很简单,有时候问题有约束条件,是需要推理的。分别对应就是Simple Relation Question、Multi-Constraint Question和Muitl-Hop Question。需要处理的能力和难度都是不一样的。

自动文摘

有时候我们面对浩如烟海的文档,太多看不过来。那这个时候需要把最重要的信息抓出来,这里就涉及到自动文摘的技术。

从一个文档中获取的信息,这叫单文档摘要。第二个是从多个文档中抽取信息,这叫多文档摘要。还有的时候句子太长,让它缩小一点,这叫句子级的摘要。

这三个技术在搜索引擎、新闻、金融等领域有很广泛的应用。拿体育报道为例,一场比赛结束,比赛的信息存在一个数据库里。还有现场直播的解说词,通过时间轴可以找到对应关系。

那现在,一场足球比赛结束,马上就要一个体育报道,这个报道就能形成。报道的文字出来之后,还要自动找图片配上去,这就涉及到选哪个图片是最好的,配完图片就形成一个完整体育报道。

自然语言的标志性进展

接下来说的自然语言的标志性进展,这都是我理解的,可能别人总结的标志性的进展,跟我这不完全一样。

这里包含几个方面:

第一个是神经机器翻译;第二个是聊天机器人;第三是阅读理解;第四是创作。

神经机器翻译

首先就是神经机器翻译,就是用神经网络或者深度学习的方法来做机器翻译。

在此之前的机器翻译是基于统计的;而基于统计往前是基于规则的。

神经机器翻译的特点是有两个过程:编码和解码。

对原文的句子,首先要通过某种意义上进行编码。那编码的意义是什么?得到一个多维向量来表征输入句子的语义信息,就完成了一种编码。这个编码肯定是有损的编码,它不代表完全的句子的意义,但是能代表多少,体现于我们设计神经网络的编码能力。

语义表达,通过一个解码器,逐个词生成目标语言句子。这东西怎么来做?一般来讲,开始都是用RNN——循环神经网络来表示一个句子的意思。后来对此神经网络进行了很多改造,比如LSTM——长短时记忆,来克服由于梯度丢失或爆炸等原因而可能造成的对长距离信息的把握能力不足的问题。

下面说明编码过程。首先每个词有一个词向量模型,来表示这个词的意思,根据大规模的语料库,可以学厨这个词向量一般可以用200维或者300维的向量来表示。

假设每个词的意思都提前训练到了,那么在编码的时候,通过查字典查到每个词的向量表示,然后生成一个隐状态。而下一个隐状态就是当前词的词向量表示和上一个隐状态的信息两者通过神经网络加权计算求和,再经过非线性变换得到目前这个词所对应的一个隐状态。

这个过程就持续进行,每一个节点代表从句首到目前这个词为止步的信息的融汇。而句尾这个红点(代表的隐节点)代表了从句首到句尾所有信息的融汇。

那么在解码的时候,就把这个信息作为输入,输入到解码器里,然后解码器根据当前的输入以及前一节隐节点的输入,来预测词表中哪个词的概率是最大的。

在算某一个位置的时候,要先生成隐状态,这个隐状态来自它上一个位置的隐状态和原句编码的全部信息,加上上一个词的词向量,把这三个信息在神经网络中都作为输入,加权求和,然后通过一个非线性变换得到一个值,这个值是通过多维向量来代表。这就是当前的隐状态。再对词表的所有词来预测每一个词的概率,寻找最大概率输出。

在前面的讨论中,是把最后红点所代表的信息直接代表全句。但是在翻译的时候,实际上是每个词对某一个词的影响是不一样的。所以就有“注意力模型”,用来概括不同词对目标语言翻译的影响。

在具体实现的时候,增加了一个从右到左的一个编码过程,跟原来从左到右编码过程合在一起。这样,每一个隐状态代表从句首到目前词位置,以及从句尾都目前位置的编码信息的汇总。

注意力模型,就是在目标里面某一个隐状态要进行生成目标语词汇的时候,需要考虑前一个隐状态跟编码中的每一个隐状态的相似度有多大,也即是关联度有多大,然后根据关联度的强弱,以不同的程度来加权,形成一个新的表示,来代替前面所说的句尾的红点,然后再逐个生成解码器的隐状态。

通过这个注意力模型捕捉到了源语言对应的每个隐状态对目标语言生成的影响力的大小。

总结一下,神经机器翻译大概的意思就是:先编码,把当前输入的句子编码得到一个语义表达,然后解码,输出目标语言。在解码的时候,需要考虑语言与语言之间每个词的重要度不一样,所以要搞一个所谓的注意力模型。

微软过去两年一直做神经网络机器翻译。最近在新闻领域的翻译上取得了很好的进展。

新闻领域有个标准测试集叫WMT2017,大家去做不同的模型,最后来比较不同系统的翻译质量。我们最近做的系统水平超过了这个测试机人工翻译水平。

这其中有一些最新的的技术,我这里简单介绍一下。有这样几个关键技术:

第一个是transformer,也是神经网络机器翻译一个变种;第二个是反向翻译,来通过把单语料经过机器翻译得到的双语来增强双语料;第三个是左右一致性解码;第四个是对偶学习;第五个是联合训练;还有一个叫推敲网络。

每个系统由不同的技术来做,最后通过一个系统融合,最后能达到28.46的水平,这个水平比人的翻译水平要高一点,也是目前在这个数据集下最好的一个系统。

transformer

简单说明以下刚才所说的transformer。循环神经网络在做某一个状态计算的时候,依赖于前状态,所以它不能并行进行,transformer是为了提高速度,做了一些改进。

首先每个输入的句子,每个词,除了自己词向量,还把它的位置向量也编码进去。然后通过一个自注意力模型,把当前的每个词要跟其他值都算个相似度,然后所有相似度加权平均来代表当前这个词的词向量,再做输入。

接下来就可以用残差,把上层的信息重新加在下一层次的神经网络输入上。用残差之后再通过非线性变换,就得到第一层的编码。那么非线性变换的结果就代表了当前每个词的编码。

这样的工作可以连做N层,这里用两层简单解释,最后编码就代表当前编码。由于这个过程不依赖于上下文,所以每一个状态的时候,它都可以跟其他状态并行来做,所以编码速度非常快,最终就得到这样的一种状态。

把这里状态作为输入去解码,解码的时候,也可以搞多层,我这里为了简化容易解释,就只用一层来说明一下。解码的时候,也是先通过一个自注意力模型,把位置向量,和刚才的句子编码作为输入都考虑进去,再用残差,之后再用自注意力。

然后再做一个SoftMax,去预测这个词是什么。比如I把I的输出完之后,再把I作为一个输入,加上刚才那个句子编码(图中红色部分),也就是代表编码的隐状态也作为输入,然后再通过解码器,一层一层往上得到一个隐状态,再用SoftMax,再预测下一个词。这就是现在最标准的一个Transformer机器翻译,它的水平比传统的神经网络提高了很多。

对偶学习

再介绍一些我们用的技术,比如说对偶学习。它是我们研究院机器学习组提出的。

我们想把单语用起来增强翻译系统的训练,因为单语可以很多甚至无限制可以拿到。拿中英翻译为例,所谓单语就是只有中文没有译文,或者英文没有中文。

怎么把这个单语用起来?这个思路其实很直接:通过双语的数据,可以训练一个中翻英或者英翻中。另外我们还有单独的中文数据通过中翻英系统,可以翻译出英文。

然后再经过英翻中系统翻译到中文回来,跟原来输入的中文相比,两者越相像,说明这两个翻译做得越不错;如果两者越不相像,它系统就越差。

所以根据两者差异定义损失函数,去修改网络参数,约束网络,然后这个网络就可以一点点地改进,通过几个迭代就可以把这个系统做得越来越好。

半监督的联合学习模型

还有一个是半监督的联合学习模型。

比如说有双语料,那么就可以做一个中翻英,也可以做一个英翻中,现在用中翻英的系统去翻中文句子,就得到了伪的中英句子,然后把这个中英句子给到英中系统中去增强语料。通过这种方法免费得到了很多英中句,那同样用英中系统翻英文的句子得到英中双语句子,也可以用它去增强中-英系统的双语语料。注意每一次都是加入到另一个方向的翻译系统的双语语料库中来补充数据的。

然后一直迭代,迭代几次之后,把单语的能力就增强到双语方面,所以整个翻译水平又进一步的提高。

推敲网络

推敲网络是什么意思呢?就是说有一个编码,第一步先解码得到了一个译文,不把它直接输出,觉得还应该再推敲一下,有些字词我可以调一调。那么就进行二次解码,二次解码的时候,把原来那个输入句子的编码和第一遍解码输出的结果都作为神经网络输入,再进行解码。这样连续几次解码的效果,每一次都会再进一步的提高。

这个过程有点像推敲,中文写诗的时候,对某一个词再稍微润色一下,再推敲推敲,翻译也有点像这个意思。

双向一致性解码

这个道理也比较简单。

做翻译的时候,对计算机而言,它不知道哪个是句首,哪个是句尾,可以从左到右翻,也可以从右到左翻,然后这两种翻译的结果如果一致性特别强,说明这俩从左到右翻和从右往左翻都不错,如果都差的太远就说明哪块有问题了,所以它会产生一个损失函数,来调整网络结构和网络的加权信息。

我们最新的研究就是应用了以上的几个方法,然后通过系统融合,在新闻领域达到甚至略超过人工的翻译水平,请注意一定是这个数据集下,而且是单句的翻译水平。我们这个实验还没有考虑篇章级的翻译,因为篇章翻译要考虑上下文的。

聊天机器人

我们和微软产品组合作实现了一个小冰聊天机器人,有中文的、日文的、英文的,还有印度尼西亚语的等等。这里说说聊天机器人的研究。

聊天机器人的制作有两种方法:

一是基于检索,就是问一句话,然后通过匹配问题回答库中最相似的答案进行回复,这里的条件是数据库要很大,且越多越好,要分好各种类别,既要考虑当前输入也要考虑以前的对话。具体实现的时候可以做两次检索,一次(n-best 的类),第二次是根据上下文的再排序(re-ranking)的过程。

现在学术上做聊天机器人越来越转向做端到端对话的生成模型,即编解码的过程,与神经网络机器翻译很相似。

其过程是将用户上下文,机器上下文,和用户当前输入等进行编码,然后对话情感和用户画像等这些都作为一种编码输入,最后去解码产生一个句子。类似这样的技术,我们做了多语言的小冰,然后基于小冰的技术,微软延伸到新闻生成、客服,智能音箱等等。

在问答聊天技术上,我们还完成了敦煌公众号客服系统-敦煌小冰,可以回答简单的问题并进行聊天。

阅读理解

再介绍下阅读理解,我们通过阅读一篇文章,然后回答相关的问题,通过回答的好坏评判阅读能力的强弱。这对电脑也是一样,看电脑是否回答得上来。

这是自然语言理解中很难的问题,不过最近也是通过神经网络进行端对端的训练,才取得了不错的进展。

目前通过很多研究者团队的共同努力,现在已经超过了人做的水平,达到82.3分(以百分制为准)。

Embedding Layer:得到文档和问句每一个词都的词向量。

Encoding Layer:编码层,对问题和文档进行编码,比如类似于机器翻译中的对句子的循环神经网络编码。

Matching Layer:匹配层,匹配问题中的每个词和文档中的每个词的语义关联程度的强弱,而问题中的疑问词所对应文本中的关联词就很有可能是答案。

Self-Matching Layer:自匹配,输入问句中的每个词,可能对应文档中的很多词,那么需要做一个匹配排序,获取最可能匹配的那个词。

Pointer Networks:对文档中可能答案的地方的左右边界的判定。

在实验的时候,需要编码外在的人类知识库,通过维基百科文章所训练的到的语言模型加入到神经网络中增强推理。

通过这样的结构,首次超越了人做阅读理解的平均水平。

创作

最后再讲讲计算机创作。计算机创作就是通过人的一个想法,通过关键词,图片的输入,电脑可以反馈一首诗。13年以前,我们做了微软对联,后来又做了古典诗词,猜谜语,现代诗,歌词,配乐等等。

对联:输入上联,电脑输出下联和横批。

古典诗词:输入关键词,电脑创作相应的绝句,宋词,并配上标题。

猜谜语:通过用户的提示,电脑猜出字,并给出推理过程。

自由体诗:上传图片,电脑理解后通过关键词表达,通过强化有用的关键词,将其作为再输入,通过编解码技术得到第一句诗,然后把第一句诗当作神经网络的输入,再加上原来强化的关键词序列,再去产生第二句诗,这样逐句生成创作诗。

展望未来

有了大数据、神经网络、不断完善的网络结构、云计算、落地场景、未来的NLP会发展的越来越好。有几点预测:

1、未来的口语机器翻译一定是普及的,出国的语言交流将不是问题;

2、聊天系统越来越实用;

3、电脑创作诗词,小说,歌曲将会流行起来;

4、语音助手,物联网,智能家居,智能硬件等等都会因为自然语言的发展而普及起来;

5、与其他AI技术一起再金融、法律、教育、医疗上得到广泛应用。

整体上人工智能会提升人的生活质量,普惠所有人,因此我认为自然语言是未来的一个很好的方向。

Q&A

谷歌前两天做了Google I/O的发布会,花了很大篇幅展示了会话系统demo,那么现在这个技术是否已经走到了实用阶段呢?

通过我们目前的研究,单轮回答的问题,目前已经很好了,但是以具体某一问题的多轮的问答系统还有很大的提升空间,尤其是这种全双工方式,就是中间可以各种打断、猜测、还有否定进行干扰,而这里面最大的问题是没有很好的训练集和测试集。

视频现在是现象级的事件,发展很强劲,那么关于视频,它和自然语言怎么结合,未来会爆发出哪些和自然语言有关的应用场景?

现在的趋势是图文结合越来越紧密,一个图用关键词和一段话进行描述,而视频也是一样的,这方面的研究是方兴未艾,没有做的很好,假设这个技术越来越好的情况下,就能产生很多应用。

把物理和数字联系起来,例如用照相机对实物拍照时,电脑已经知道这个图景的属性,将这些属性再经过自然语言处理,就可以自动的翻译识别,生成一个可视化报告,可以完全联动起来。

我们可以设想一个照相机的场景,照相机照完后,自动将图片的一系列信息展示出来,而处理对一系列时序图片,就相当于是对视频的处理,我们就能知道视频出现的人物、物体和事件等等,可以得到文字描述。将来或许也我们也就可以是输入一段文字,通过图或者一小段视频表达出来,这样图文的互相转化会产生新的的机会。

现在已经有很多团队开始视频理解方面做研究,未来根据图片,文字生成视频这款,您感觉会需要多少时间?

这首先要有数据集,这些数据应该是有一个视频或者图片对应的描写是什么,但目前来看这方面数据还不够,而为了广泛的应用,我们需要对常见的视频情景做各种人工数据采集。基于这个,再进行神经网络的编解码训练,所以我猜测,如果有数据集,三年之内常见的图文转化的应用都会被做掉。

在场的学生,很多都是自然语言领域的,对于ta们在未来想做出些成绩,无论是科研和创业,那么在现在读书的时候,有什么建议给ta们?

无论现在处在什么情况,首先,选题是最重要的,其需要满足:1、重要;2、能真做出点什么东西;3、适合自己或自己所处的研究组;4、研究选新颖的题目。

自然语言领域还有哪些的题目还能选呢?神经网络机器翻译还可以在做,例如生词、篇章级的处理还不好,而且领域迁移做的不好,这些领域还可以进一步研究。第二个思路,用小数据集来训练机器翻译系统。

第二个方向,针对问答系统(QA),除了可以针对知识库来做,还可以无结构的文本集,表格图片。第二个和QA有关的是语义分析。

第三个方向是多轮对话,如何更好地建模上下文,甚至用户的不同时期的回复来生成好的回复。

最后还有很多跨学科跨领域的地方,例如歌曲创作等等。

而未来创业呢?主要考虑场景,先从市场需求出发,反推需要的技术。需要大家了解市场,可以通过在公司实习,了解实际需求,来反思学校学到的东西,哪些是用的上的,哪些还不行。也许可以发现我们未来创业的机会。

下期预告

下周三是Google搜索架构技术总监李双峰老师授课。

感兴趣的小伙伴可以添加量子位小助手6:qbitbot6,备注“北大”,通过后可进入课程活动群,获取每期课程信息,与其他小伙伴互动交流。

祝大家听课愉快~

学习资料

点击“阅读原文”,即可观看本期公开课视频。


在量子位(QbitAI)界面回复“北大AI公开课”,即可获得公开课往期视频观看通道。

加入社群

量子位AI社群17群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot7入群;


此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。


进群请加小助手微信号qbitbot7,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI · 头条号签约作者

վ'ᴗ' ի 追踪AI技术和产品新动态


登录查看更多
2

相关内容

周明,微软亚洲研究院副院长、国际计算语言学会前任会长,中国多所大学博士生导师,首都劳动奖章获得者。曾获得2010年华尔街日报亚洲创新奖、2012年微软CEO Ability Award以及2019年中国乌镇互联网大会世界互联网领先科技奖。中国第一个中英机器翻译系统和日本最著名的中日机器翻译的产品研究者。长期领导微软亚洲研究院的NLP研究。主编《机器翻译》《智能问答》等技术专著。CCF-NLPCC、语言与智能高峰论坛的策划组织者之一,ACL亚洲分部创建人。
【CAAI 2019】自然语言与理解,苏州大学| 周国栋教授
专知会员服务
62+阅读 · 2019年12月1日
CCAI2018演讲实录丨张民:自然语言处理方法与应用
中国人工智能学会
4+阅读 · 2018年8月13日
【NLP】周明:自然语言对话引擎
产业智能官
6+阅读 · 2017年10月19日
Compositional Generalization in Image Captioning
Arxiv
3+阅读 · 2019年9月16日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Arxiv
6+阅读 · 2018年1月29日
Arxiv
3+阅读 · 2017年11月21日
VIP会员
相关VIP内容
【CAAI 2019】自然语言与理解,苏州大学| 周国栋教授
专知会员服务
62+阅读 · 2019年12月1日
Top
微信扫码咨询专知VIP会员