【深度学习】为什么我一定要学深度学习;如何构建弹性深度学习计算平台

2017 年 8 月 25 日 产业智能官

为什么我一定要学深度学习?


人工智能爱好者俱乐部                                                        


作者:Easy

对于深度学习,我也是一个初学者,这篇文章只是我的个人想法,能力有限,所以对不对,不好说,但的确是我现在的真实想法,我也会按这个思路去尝试。请大家带着质疑精神去读吧。

我大概是一个好奇心很重的人,所以每次有新的技术出来,我都会在第一时间跟进。但我又是一个记性不太好的人,大部分研究过的新技术,因为没有天天用,很快又都忘掉了。

深度学习刚开始流行的时候,我就做过简单的学习。当时我的结论是短期内,深度学习只能在弱智能徘徊,很难进展到强智能。

这个结论在今天看来,也不算过时。但真正被深度学习给 Shock 到,是去年和某教育 APP 的 CEO 同学聊天。他告诉我,在教育这个垂直领域,他们的语音识别率已经比讯飞要高了,依赖于大量的数据;更 NB 的是,加上 NLP,他们的 AI 已经可以帮老师改主观题了。主观题啊,就是数学的问答题,语文的作文。

这让我开始重新思考弱智能。

二 

完全依靠强智能的应用场景,会产生很多问题。比如自动驾驶,要想在中国这种各种奇葩状况层出不穷的交通环境下运行,一时半会儿是不行。即使是一个看起来简单的问答机器人,也没一家真正做好,你多问 siri 几句,她很快就晕了。

经常关注我微博同学会知道,我最喜欢说的一句话就是:「能自动化的,要自动化;不能自动化的,要半自动化」。

在人工智能上,这个法则似乎依然是有效的。既然现在强智能还不够强,那么为什么我们不用弱智能+人工确认的方式,来实现「半智能化」呢:用机器帮你做预选,你来做最终选择,虽然依然包含了人工干预,但却可以把生产效率提升几十倍。

三 

有同学和我说,找不到应用深度学习的场景,这是因为太执着于强智能,想让机器独立处理所有事情;如果使用「半自动化」的思路,你会发现遍地都是场景。

最典型的场景就是「按需求进行组合搭配」。拿今天正式上线的小程序举例子吧,小程序在框架层上,将功能分隔到了page 的粒度,这使得小程序的组件会很好的被重用;而在设计上,小程序提供了统一的官方指导风格,所以不会出现太多个性化的东西。

我需要一个用户资料管理, xpm install user-profile;我需要动态 Feed 流,xpm install feed-timeline 。

然后这货就喊着要去做,还在 GitHub 上开了个坑,据说 SDK 已经写完,安装器年前能开始内测。https://git.oschina.net/xpmjs/xpm

然后我告诉他,你得赶紧做,从长远看,通用应用最后是不太值钱的,因为很快就有开源项目把它做得很好。真正值钱的是,下沉到行业里边的应用。比如说吧,同样是用户资料页,房地产行业的、猎头行业的以及技术社区的会完全不一样。但区别也就是添加几个行业特定的字段而已。 大量的「二次开发」工作,才是最为琐碎又最为挣钱的。

这就是典型的可以用上深度学习的场景。通过抓取对应行业的 H5 页面,我们很快就可以把各个行业需要哪些可能的字段给整理出来,然后把这些交给机器进行学习,当再有新的需求进来的时候,机器就可以自动配好预设字段。机器会出错么?当然。但哪怕是80%的准确率,也已经可以节省掉好几个程序员了。

为什么我要学深度学习? 因为这背后是 TM 白花花的银子。

四 

这是近在眼前的机会,我再说个远点的。大家知道,日本人的科技树一般都不按套路长。早稻田大学一心想把深度学习用在二次元上,他们先是搞了个项目给黑白画稿上色;后来又发了篇论文给草稿描线。我觉得很快,他们就要开始学习漫画大家的画风,通过线稿生成原稿了 

「传统」的日漫或许很难由机器生产,但现在社交网络上大量生产的「条漫」却对画质要求不高。尤其是四格类的,经常关注我的同学应该看过我用 Comipo!软件「绘制」的四格漫画。( http://zhijia.io/anthology/101869  ) 当机器参与进来后,根据脚本生成这种品质的漫画简直易如反掌。到时候,人人都能过上1%的生活。

为什么我要学习深度学习?因为我要让未来早点来。

上周我发了条微博,说2017年要自学深度学习,有过千的同学表示愿意一起来学。

也有同学表示,机器学习不是那么好学的。其实细心的同学会发现,我一直说的是「深度学习」而不是「机器学习」。

因为我的目的很简单,那就是用。在学习第一年,我给自己定的目标不是要理解「机器学习」的原理,而是要把「深度学习」用到自己产品的方方面面。

用以致学,是我一贯的学习方式。刚开始不理解没关系,先用起来。需要理解的时候,再慢慢理解。说到底,也没多少人理解自己手机每一部分的工作原理不是。

先学「深度学习」还有一个好处,那就是不用太多「机器学习」的基础。能把tensorflow、kears 这种开源框架搭起来,然后喂数据,然后看结果。等到优化的时候再去补知识点。

因为深度学习更像是一个黑盒子,现在很多专门搞深度学习的同学也说不清楚为什么要建三个层、要放四个节点;什么情况下用什么激活函数。只说通过实践+观察数据慢慢调整。这简直就是新手上路的最好切入点嘛。

如果不想在本地搭建环境,AWS 上已经有可以用的镜像,基于 API 的深度学习服务也日益增多。这东西就像水电气一样,用比学重要。

也有同学严谨的指出,很多场合下,机器学习的其他方法远比深度学习有效。他们是对的,如果说学好整个机器学习,可以做到90分;那么光用深度学习,可能只有70分。

但现在绝大部分的程序,连 TM 一点智能都还没用上呢。从零分到70分,只需要把深度学习用起来。

为什么我要学习深度学习,因为这 TM的性价比太高。



分析海量视频中的违规内容,七牛如何构建弹性深度学习计算平台

      

AI前线                                                        

InfoQ人工智能领域垂直号。专注AI新闻资讯,技术干货和人物访谈。

                                                                       



编辑|陈思
以云存储起家的七牛云为什么会选择在这个时间投身 AI?基于富媒体大数据的弹性深度学习计算平台能够为富媒体时代带来什么样积极的影响?来自七牛云人工智能实验室的负责人彭垚将为我们进行深度解答。

我是七牛云人工智能实验室的负责人彭垚,我们七牛云人工实验室是去年 6 月份创立的。我先介绍一下七牛为什么在这个时间点开始做人工智能。

今天演讲的主要内容包括人工智能实验室的前因后果,现在在做的深度学习主要是机器视觉方面研发的成果和近况,以及深度学习计算平台的框架架构。大家可以在会后跟我深度沟通,因为这一块我们才做了大概不到一年的时间。

七牛是云存储起家,服务移动互联网已经五六年的时间了。这几年移动互联网变成了一个富媒体的时代。从社交网站上的图片开始到短视频,今年短视频又开始复苏,包括去年非常火的直播。我们七牛一直跟着这股风潮在服务我们平台上广大的用户。

前面这五六年我们一直在做一件事情,我们把这件事情统一地叫做一个词“Connect”,就是连接。我们连接主要做的事情,最早做的是数据存储,就是让大家把各自 APP 上用户上传的图像、视频、音频内容存放在七牛云存储上。我们基于云存储又做了一些富媒体的编解码、图像处理和其他数据处理等,之后我们又给大家做了 CDN,使大家得到更好的用户体验,能够更好地访问这些数据、浏览这些数据。

去年我们又给大家提供了直播和点播云。我们一直在做的关键的事情,就是让用户和用户连接起来。那么怎样把用户体验做好,我们这么多年一直在做的事情就是用户体验,这个用户体验体验在什么地方?就是我们把人跟人之间的连接,把基础服务提供给 APP,提供给我们的客户,这是我们这么多年一直在做的事。

后来我们发现每天用户上传的数据非常多,每天用户上传的图像超过 10 亿张,有超过万亿小时的视频在云存储上。我们存储了海量的内容,大部分的存储数据都是图像、视频和音频。

我们问自己,这么多客户在我们的云存储上存了这么多内容,我们接下来该如何给用户提供更好的用户体验。于是我们去问客户需不需要知道这三种内容具体是什么,就是图像、视频、音频的具体内容。你的客户通过 APP 上传,每天在浏览,在分享的内容到底是什么,所以我们就开始思考这个问题,然后发现有这么几件事情,其实他们自己已经在做了。

第一件事是很多 APP 有自己专门的内容审核团队,审核客户上传的东西内容是不是合法,有没有涉黄、涉及反政府的信息在传播。

其次,对这些图像、视频、音频的内容,已经有客户有自己的数据运营团队去分析 APP 客户上传的具体内容,可能用抽样的方法,或者机器学习的方法去分析。

内容分析说起来很简单,就是你上传一个图像具体是什么,但是实际上又很复杂,很难说清楚,内容是什么?

比如我拿出一张图片,每个人描述一张图片里面有什么东西,这个叫图片描述。每个人的描述可能都不一样。主要问题是我们在看到东西,听到东西的时候,我们做出的反应,做出的事情跟我们大脑处理的任务相关。所以内容总结起来其实是跟内容最后的目的相关的。

我们怎么理解这个内容。首先我们可以去把内容解析成很多目的。第一个是分类,分类是基本内容的解析,比如判别这个图片是不是黄色图片。第二个就是检测,比如检测这个视频里面有没有人脸,这些人脸是谁,里面出现了哪些物体,有没有车,车的型号是什么。还有分割,比如说一个画面里面,这个人的形状是怎样的,他跟背景的界限在哪里,这就是一个很简单的分割问题。然后就是跟踪,比如说一个视频中,我们有人脸在走动,这就是一个跟踪问题。以及一个视频的描述,一个视频每一段里出现了什么事件,每一段里面有多少人物,这些是一个描述。还有搜索,我看了很多图片之后搜关键的信息出来,再之上可能就是分析,还可能做很多的处理。

其实我们去解读 content,最关键的是内容的目的。我们首先会去看对这些内容需要做哪一些事情,我罗列的就是我们经常做的一些项目的相关内容。

我们从去年开始做了一个很大的转变,我们从连接基础服务的提供商,变成去给客户做智能的提供商,也就是说我们希望帮助客户去做智能,去提供一些智能的解决方案,让客户去做一些更智能、更互动性的,更了解自己内容的一些行为。这就是我们提出要把我们的连接生意做成智能的生意。我们现在有海量的数据,而图像和视频的泛化能力是很强的,我们通过平台上的数据跟用户一起共建,一起训练,就可以得到很多有价值、有意思的东西出来。

现在这个时代经常提人工智能,智能这个词语到底是什么意思?其实很久以前图灵机的时候就已经有智能这件事情了,而到现在大家对智能还没有一个准确真实的答案,怎么样算是一个智能,我个人理解的智能是类似于人一样直觉型地思考反馈很多的东西,这可能就是最基本初级的智能。

其实我们现在做人工智能,要具备泛化的能力。比如要用深度学习解决像机器视觉这样的问题,首先要解决的最重要的两个问题,一个是大数据的问题,还有一个就是深度学习,也就是机器学习算法的问题。每天我们平台上传处理的图像非常多,可能超过 10 亿,我们不可能把所有的上传图像都拿来学习一次,所以大数据的处理能力非常重要。其次就是我们不可能把所有图像都拿去人工做标注,这个工程量非常大。所以我们会结合很多算法做一些半监督的机器学习,再加上标注,再加上深度的神经网络取得最终的结果。也就是说人工智能实验室在解决两个问题:一个是大数据,另外一个是机器学习的问题。

图中是我们去年成立的实验室 Ataraxia AI Lab。这个名称来源于一个古希腊的哲学学派,这个学派是个怀疑论的,Ataraxia 是指人对世界的认知是有缺陷的,你永远不可能了解事物的本质,就像我刚才提出来智能这个问题,其实每一个阶段都有人提出智能的含义,图灵认为智能能用机器制作出来,后面有希尔乐等等人反驳了他,其实智能这些东西跟用机器模仿出来的东西完全不一样。

我们做人工智能、做认知这件事情,我们一直在质疑自己,最终想达到的境界就是 Ataraxia 的境界,一直在不停地追求永远达不到的一个境界,这个就是古希腊文翻译出来的一个哲学的单词。

接下来介绍一些我们之前做的事情。我们做的第一件事情就是把一张图片扔进 CNN 的网络,识别这张照片是色情、性感还是正常的。如果这有搞机器视觉的朋友就会觉得这是一个非常常见、非常基础的一个分类问题。但是这个分类问题,它其实不那么好解决。因为会有各种各样的图像表述它是色情的,是性感的,所以模型需要去学习、去标注的内容非常多。我们在去年刚建实验室的时候,有很多实习生在实验室每天标注这些色情内容。当然现在已经少了,因为我们每天会有半监督打标的迭代过程,我们一直在优化鉴别色情暴恐的系统。如果大家有兴趣可以去我们实验室看一下,我们一直固定有人在做图像标注。包括有一些兼职的,在学校里面在帮我们做的,我们自己做了一套网络上的标注系统。

我们线上已经有超过 700 万的样本一直在滚动,每天新增的数据就有一两万,一直往样本中添加,还需要做大量的评估,以及过滤掉大量不需要打标学习的数据。我们对算法的要求已经固化了,算法基本停止了迭代,但是数据还在不停地迭代,鉴黄项目是一个数据量很大,要滚动起来自动迭代的一个项目。

第二个是识别图片具体内容的项目,就是人脸识别。需要对人脸提取特征,然后对大量的图片进行人脸聚类。比如说标注它是 id1 类的人,可以做一些特征的分类,像戴不戴眼镜、年龄、性别、颜值。后面就是场景识别,场景识别现在支持 300 多类场景的识别。户外的场景识别准确率非常高,室内会有很多误判,比如说教室和办公室等等。因为如果学习一个单一任务,可能会有疏漏,比如如果一张图片里有学生,场景是教室的概率就会非常高,成为 Office 的概率就会非常低。现在基本的分类算法,如果要提升背景的准确率,图像里面的人物内容都要结合学习。

还有就是审查,我们能够审查判定图像内容是非色情、非暴力、很健康的。

还有一些跟图像描述相关,就是通过 CNN 提取特征,通过 RNN 去做图像和视频描述相关的内容,比如我们在跟广电相关的一部分工程上做尝试,对一些球赛做分析,会学习很多名人的人脸,大概有 5000 多类名人的人脸。我们一直在搜集、迭代这些数据库以及对球赛的动作去做学习和描述,这就是我前面提到的描述。

第三个就是视频,视频的识别涉及到场景的概念。什么叫场景?你可以想象我们在拍电影,大家就会非常容易理解镜头,就是 Shot 这种概念。比如我们在拍摄这几个人在说话做事情,突然切了一个场景大家在户外开摩托,这就是场景的变化。它最根本的是对人脸和物体的跟踪,如果突然发现这些东西没了,那就说明场景切换了,这就是基本的场景识别。我们会把视频根据场景先切开,切开以后会把场景中的事件 1、事件 2 列出来,比如说有人在打棒球,有人在开摩托车这样的事件罗列出来。

之后会检测视频里的人脸,做一些人脸的识别加跟踪。视频是每帧图像之上持续的表述,一般会用 CNN 识别图像特征,图像特征之上会用 RNN 网络做时序学习。

前面我提到,今天我的主题是讲深度学习和计算平台,接下来跟大家介绍一下计算平台。计算平台同时在解决两个问题,一个是大数据,一个是深度学习算法,抽象来讲计算平台在做一些什么事情呢。首先有一些用户的行为,这些用户的行为会产生很多上传的图像、视频,包括调整相册这些动作,会告诉抽样整理模块,这些图像标注的信息是什么,或者说系统需要搜集这些信息,而抽样整理模块是分布式的富媒体处理模块,会不停地处理抽样和调整的工作,抽样调整完了之后就可以生成目标样本集。通过抽样整理不停地迭代整个样本,得到这个样本集之后我们就会继续上传到训练集群里。

训练集群完成后会生成线上的模型,我们的样本集也会有一部分持续投到模型评估的模块里,模型会根据一套 API 生成器自动上线到推理服务上。最后利用用户数据去访问推理服务,会得到相应的推理结果,这是比较简单的 AVA 的一个基本逻辑。

这是我们现在 AVA 整体的架构图。最底层通过七牛云存储了大量线上的图像、视频、音频的数据,这些数据会通过统一的 IO 接口做统一读写管理,这之上我们有两套系统。一套系统专门用于数据抽样和数据整理。Data Flow 里会做数据的清洗,以及数据的放大,数据放大是指对图像的二次加工,通过把同一张图像做裁剪、旋转等操作增加数据样本。

另一套是基于 Docker 的编排系统,这套编排系统与 Kubernetes 有点像,也是七牛很早之前在做的事情,和 Kubernetes 出来的时间差不多,七牛很多线上的图像处理一直在用。Docker 编排系统支撑的是 DataFlow 大数据分布式系统以及支撑了 Caffe、MXnet 、TensorFlow 三个主要的机器视觉框架。模型训练结束以后会自动通过 API Manager 的自动代码生成器生成线上的 Inference API,Inference API 生成自动评估模块以及做自动化的灰度发布。

最上一层我们基于下面的基础系统做了几个 APP 应用系统,第一个就是自动迭代的训练系统,这套自动迭代系统主要用于持续学习的项目。我们每天会有很多新增数据投到训练数据池中。我们会定期地,比如到上一个模型迭代周期结束之后,把这些数据自动化投进训练池中重新清洗,清洗之后重新训练,这就是迭代系统。

还有一个自增长数据集系统。比如鉴黄系统,针对每天都会增长的数据,我们会采取流式的深度学习训练模式,系统在某一个 snapshot 的时候引进一个新的数据集,然后会用这批新的数据再去学习。这个系统可以解决一些对训练出模型频率要求比较高的问题,比如最近比较热的黄色信息。

另外是做了一个半监督打标的系统,这套系统跟我们的打标软件连接。我们用一些轻量的模型,甚至 svm 这种小的分类器先做自动的图像预标注,跟我们的分类器的中心做比较,比较出来之后,拿出一部分的数据再去学习,投入到我们应该要学习的样本中。这其实也是模型融合的一点。

我们做了大量的模型融合。我们会选不同的 CNN 网络,在一些大一点的和小一点的不同的情况下做模型的融合。

模型融合确实比较有效,但是它比较费资源,费人力,所以我们就把这个单独做成一个 APP 自动化地运行,有时候在一些特定的场景还是需要模型融合的方法才能把准确率优化到能达到商用。

训练的过程还有一块是 Pipeline,这个 Pipeline 其实是对日志做迭代收集,做 transform,到不同的存储结构上,这些可能是一些图像的标签,视频的标签这些内容,这就是我们整体的 AVA 平台的架构。

这里我没有提到 multi task。实际上它的处理比较复杂,不像鉴黄那么简单,大部分问题都不会这么简单。举个特别简单的例子,比如说人脸聚类,也有三个小模型,首先要检测到图像里人脸的位置,其次要用机器学习抽取图片的人脸特征,之后利用这些特征做聚类。至少需要三个模型。

这个其实和人脑也很像,人脑解决问题是像这样的图。图中有 L1 到 L5,大脑皮层每一层都是这么处理问题的。信息从最底层扔给几个基础的模型,去做一些抽象、完成一些任务,到第二层的时候再去解决更高维的一些任务,比如像聚类这样感知型的任务,再上面做一些更具体的任务,比如搜索、判别这类事情。最高维就是在做一些预警,一些业务层的事情。已有的 AVA 只能解决单一的问题,不能满足整个人工智能的设计框架。所以我们做了一套 Argus 系统,实际上就是 API 的整体网状管理系统,它支持 Pipeline,也支持并行处理。可以直接用 Pipeline 的语义解决这种事情。

Argus 系统最底层是通过 AVA 训练出来的原子 API,有了原子的 API 之后上层是感知层,感知层会做基于原子 API 的抽象做一些复杂任务,比如聚类。再之上是一些高级的任务,最后是一些与视觉相关的综合 API,再往上是业务逻辑大数据分析,在 Vision 层我已经不管了,我把这个东西扔到抽象层结构化数据,或者说 vision 跟语言相关的加了一些 RNN 把语意描述出来之后就扔给业务逻辑处理了。所以现在 API 的 framework 整体设计成这个样子。设计成这套系统后,有很多是我们新研发的,Argus 系统现有的是蓝色的,原子 API 是通过 AVA 训练出来的,AVA 还没有公开,原子的基础视觉 API 都是我们自己研发的。我们希望之后跟大家公开用 AVA 训练出来的特定的一些识别模型。我们也在尝试性地找一些想做这个事情的长期合作伙伴。

上面业务层的 API 客户可以独立开发应用,包括像感知层、综合的整体业务逻辑的 API,直接可以通过我们 user-defined 图像处理模块,直接写一些简单的 docker 处理镜像 load 进来参与到 Argus 的机器视觉系统里。也就是说高层的业务层或者说智能的大数据分析能力是开放给客户的。

这是我们现在整体上 Argus 的图像认知,有很多基础服务,包括一些业务层的比如人脸检测、相似度比对、人脸聚类、鉴黄、暴恐,这些基础的模型之下,有一个一直在迭代运算的 AVA 深度学习平台,它一直不停地产出一些基础的原子 API 给 Argus 系统,Argus 系统跟客户走得更近,让客户可以自己在 Argus 上编 Docker 镜像,load 上来,一起完成智能的任务。

最后我想说 time to be an AI company,希望七牛之前的合作伙伴以及将来大家愿意跟我一起合作,可以一起在 Argus 系统上添砖加瓦,做很多有意思的机器视觉系统。

讲师介绍

彭垚,七牛云技术总监,人工智能实验室发起人和负责人,主导了七牛云人工智能和机器学习云的架构和发展,在分布式计算存储,富媒体海量数据分析与深度学习领域有超过 10 年的产品研发经验,曾担任 IBM 系统与科技实验室研发架构和管理工作多年,在美国、法国发表数篇专业领域发明专利。



拓尔思:NLP——人工智能“皇冠上的明珠”

金融界 

股道茶经老陆:300229拓尔思:NLP——人工智能“皇冠上的明珠”

最近人工智能板块的风口很大,中军 002230 科大讯飞趋势长牛,黑马 300678 中科信息暴力美学,上周听人工智能领域一位靠谱的卖方研究员推荐,买入了可以比肩科大讯飞,秒杀中科信息的人工智能NLP自然语言处理龙头——300229拓尔思(该研究员曾在六月份002230起飞前30块位置力推,故我觉得他很靠谱)。他说后面会连续出卖方研究报告力推人工智能NLP龙头300229。

但是一个礼拜快过去了,卖方还没出报告,我表示很着急。也许是这个领域涉及交叉学科较多,卖方还在准备资料。可以这么说,大多数研究员基本讲不清楚拓尔思是干嘛的,投资者对拓尔思也大多停留在大数据 和信息安全的概念上,殊不知这家毛利率高达68%,就是研发投入太多(研发占比70%),所以业绩一直这么低调温和的公司,未来将是人工智能领域伟大的公司。

首先,简单说下什么是自然语言处理Natural Language Processing

简单地说,自然语言处理(简称NLP)就是用计算机来处理、理解以及运用人类各种语言,它属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。由于自然语言是人类区别于其他动物的根本标志。没有语言,人类的思维也就无从谈起,所以自然语言处理体现了人工智能的最高任务与境界,也就是说,只有当计算机具备了处理自然语言的能力时,机器才算实现了真正的智能。

从研究内容来看,自然语言处理包括语法分析、语义分析、篇章理解等。

事实上,“人工智能”被作为一个研究问题正式提出来的时候,创始人把计算机国际象棋和机器翻译作为两个标志性的任务,认为只要国际象棋系统能够打败人类世界冠军,机器翻译系统达到人类翻译水平,就可以宣告人工智能的胜利。四十年后的1997年,IBM公司的深蓝超级计算机 已经能够打败国际象棋世界冠军卡斯帕罗夫。而机器翻译到现在仍无法与人类翻译水平相比,从此可以看出自然语言处理有多么困难!

一句话总结就是,语言是文明的标志,是人类思维逻辑和情感线索的载体,自然语言处理正是人工智能的最高境界。

为什么说NLP是人工智能皇冠上的明珠呢?

我们国家在语言文字信息处理方面诞生了三家上市公司,从上市的顺序来说,最早是汉王,做模式识别,后来的科大讯飞做语音识别 ,然后是拓尔思的信息检索和文本挖掘。最近5年和语音相关的投资非常大,除了科大讯飞以外,还有云知声等等,这两年视觉领域的投资非常热,现在技术的门槛已经变低了,这些东西已经基本成熟,关键是要找到应用场景。如果没有这个应用场景,变现就非常困难。而且这些公司基本上很贵,大家的目标都是独角兽,我们投资就要投资未来。

为什么说前沿的机会在NLP相关领域呢?人工智能从计算到感知的技术(如图像、语音)现在已经取得了非常大的突破,但是认知这一块还是很难的,比如说认知领域的自然语言处理。

我们看了一下国外调研公司的数据,最值得关注的100家AI公司中,25%的项目和自然语言直接或者间接相关。从另外一个角度,福布斯TOP50AI公司的融资中,16.2%的资金投向了NLP直接或者间接相关的领域,所以这个领域大有可为。我们投资很多时候是跟风的,都跟着美国跑,可以看出一些趋势。另外,从商业的视角来看,很多具有重要影响的技术和自然语言直接或者间接相关。为什么说是AI皇冠上的明珠呢?微软前不久提出一个口号是“自然语言是人工智能皇冠上的明珠”,现在我们中文信息处理界一致认为这个口号恰如其分。

拓尔思在自然语言处理(NLP)领域的深耕二十年,厚积薄发,商用爆发临界点。

拓尔思在NLP这领域耕耘了二十多年, 那时候人工智能领域还没有百度, 没有谷歌……公司是人工智能领域核心标的,其大数据战略日渐清晰,作为 NLP 龙头多领域开始发力。 公司围绕自然语言理解( NLP)、大数据采集和分析核心技术,在泛安全、传媒、政府、金融四大行业拓展客户的同时,升级服务方式,数据运营战略稳步推进。报告期内,公司研发并推出了海贝大数据管理系统、DL-CKM、政府集约化智能门户平台、 “ 数家” 媒体大数据云服务 和网脉用户行为分析云服务等产品服务的全新版本。目前,公司绝大多数产品线均涉及人工智能核心技术。作为人工智能三层次(计算智能、感知智能、认知智能)中的最高层, NLP 和人工智能其他层面一样,同样需要技术 场景 数据的三要素积累,拓尔思在中文语言处理技术和多垂直行业应用中积累的场景数据,将助力公司升级为平台 云服务型企业,并带来更多的应用和市场拓展空间。

我们看好公司在中文检索、自然语言处理等领域的先发优势,以及在安全、传媒、政府、金融四大行业的客户资源优势,随着大数据需求不断增长,以及人工智能应用的多场景推进,公司的核心优势将转换为更多的变现机会。作为 A 股的 NLP 龙头,公司目前估值已被低估。

 



新一代技术+商业操作系统:

AI-CPS OS

     

新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能分支用来的今天,企业领导者必须了解如何将“技术”全面渗入整个公司、产品等“商业”场景中,利AI-CPS OS形成字化力量,实现行业的重新布局、企业的重新构建和自我的焕然新生,在行业、企业和自身三个层面勇立鳌头。


数字化力量与行业、企业及个人三个层面的交叉,形成了领导力模式,使数字化融入到领导者所在企业与领导方式的核心位置。

  • 分辨率革命种力量能够使人在更加真实、细致的层面观察与感知现实世界和数字化世界正在发生的一切,进而理解和更加精细地进行产品控制、事件控制和结果控制。

  • 复合不确定性:数字化变更颠覆和改变了领导者曾经仰仗的思维方式、结构和实践经验,其结果就是形成了复合不确定性这种颠覆性力量。主要的不确定性蕴含于三个领域:技术、文化、制度。

  • 边界模糊化:数字世界与现实世界的不断融合成CPS不仅让人们所知行业的核心产品、经济学定理和可能性都产生了变化,还模糊了不同行业间的界限。这种效应正在向生态系统、企业、客户、产品快速蔓延。


领导者无法依靠某种单一战略方法来应对多维度的数字化变革。随着变革范围不断扩大,一切都几乎变得不确定,即使是最精明的领导者也可能失去方向。面对新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能颠覆性的数字化力量,领导者必须在行业、企业与个人这三个层面都保持领先地位。


如果不能在上述三个层面保持领先,领导力将会不断弱化并难以维继: 

  • 重新进行行业布局:你的世界观要怎样改变才算足够?你必须对行业典范进行怎样的反思?

  • 重新构建你的企业:你的企业需要做出什么样的变化?你准备如何重新定义你的公司?

  • 重新打造新的自己:你需要成为怎样的人?要重塑自己并在数字化时代保有领先地位,你必须如何去做?


子曰:“君子和而不同,小人同而不和。”  《论语·子路》

云计算、大数据、物联网、区块链和 人工智能,像君子一般融合,一起体现科技就是生产力。


如果说上一次哥伦布地理大发现,拓展的是人类的物理空间。那么这一次地理大发现,拓展的就是人们的数字空间。

在数学空间,建立新的商业文明,从而发现新的创富模式,为人类社会带来新的财富空间。

云计算,大数据、物联网和区块链,是进入这个数字空间的船,而人工智能就是那船上的帆,哥伦布之帆!


人工智能通过三个方式激发经济增长:

  1. 创造虚拟劳动力,承担需要适应性和敏捷性的复杂任务,即“智能自动化”,以区别于传统的自动化解决方案;

  2. 对现有劳动力和实物资产进行有利的补充和提升,提高资本效率;

  3. 人工智能的普及,将推动多行业的相关创新,开辟崭新的经济增长空间。


新一代信息技术(云计算、大数据、物联网、区块链和人工智能)的商业化落地进度远不及技术其本身的革新来得迅猛,究其原因,技术供应商(乙方)不明确自己的技术可服务于谁,传统企业机构(甲方)不懂如何有效利用新一代信息技术创新商业模式和提升效率。


“产业智能官”,通过甲、乙方价值巨大的云计算、大数据、物联网、区块链和人工智能的论文、研究报告和商业合作项目,面向企业CEO、CDO、CTO和CIO,服务新一代信息技术输出者和新一代信息技术消费者。


助力新一代信息技术公司寻找最有价值的潜在传统客户与商业化落地路径,帮助传统企业选择与开发适合自己的新一代信息技术产品和技术方案,消除新一代信息技术公司与传统企业之间的信息不对称,推动云计算、大数据、物联网、区块链和人工智能的商业化浪潮。


给决策制定者和商业领袖的建议:


  1. 超越自动化,开启新创新模式:利用具有自主学习和自我控制能力的动态机器智能,为企业创造新商机;

  2. 迎接新一代信息技术,迎接人工智能:无缝整合人类智慧与机器智能,重新

    评估未来的知识和技能类型;

  3. 制定道德规范:切实为人工智能生态系统制定道德准则,并在智能机器的开

    发过程中确定更加明晰的标准和最佳实践;

  4. 重视再分配效应:对人工智能可能带来的冲击做好准备,制定战略帮助面临

    较高失业风险的人群;

  5. 开发人工智能型企业所需新能力:员工团队需要积极掌握判断、沟通及想象力和创造力等人类所特有的重要能力。对于中国企业来说,创造兼具包容性和多样性的文化也非常重要。


新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能作为新一轮产业变革的核心驱动力,将进一步释放历次科技革命和产业变革积蓄的巨大能量,并创造新的强大引擎。

重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式。引发经济结构重大变革,深刻改变人类生产生活方式和思维模式,实现社会生产力的整体跃升。

新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能正在经历从“概念”到“落地”,最终实现“大范围规模化应用,深刻改变人类生活”的过程。





产业智能官  AI-CPS



新一代技术+商业操作系统(AI-CPS OS:云计算+大数据+物联网+区块链+人工智能),在场景中状态感知-实时分析-自主决策-精准执行-学习提升认知计算机器智能实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链




长按上方二维码关注微信公众号: AI-CPS,更多信息回复:


新技术“云计算”、“大数据”、“物联网”、“区块链”、“人工智能新产业:智能制造”、“智能驾驶”、“智能金融”、“智能城市”、“智能零售新模式:案例分析”、“研究报告”、“商业模式”、“供应链金融”、“财富空间”






本文系“产业智能官”(公众号ID:AI-CPS)收集整理,转载请注明出处!



版权声明产业智能官(公众号ID:AI-CPS推荐的文章,除非确实无法确认,我们都会注明作者和来源。部分文章推送时未能与原作者取得联系。若涉及版权问题,烦请原作者联系我们,与您共同协商解决。联系、投稿邮箱:erp_vip@hotmail.com





登录查看更多
0

相关内容

机器学习的一个分支,它基于试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的一系列算法。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
FPGA加速系统开发工具设计:综述与实践
专知会员服务
63+阅读 · 2020年6月24日
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
44+阅读 · 2020年5月23日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
209+阅读 · 2020年4月26日
专知会员服务
197+阅读 · 2020年3月6日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
116+阅读 · 2019年9月24日
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
深度学习如何调参?
炼数成金订阅号
6+阅读 · 2018年10月18日
为什么分布式一定要有消息队列?
互联网架构师
4+阅读 · 2018年7月5日
SLA 99.99%以上!饿了么实时计算平台3年演进历程
51CTO博客
11+阅读 · 2018年4月10日
深度学习 | 免费使用Google Colab的GPU云计算平台
沈浩老师
11+阅读 · 2018年2月4日
【机器学习】机器学习和深度学习概念入门
产业智能官
11+阅读 · 2018年1月3日
吴恩达最新问答:深度学习泡沫何时会破?
德先生
19+阅读 · 2017年11月22日
前端高性能计算(4):GPU加速计算
前端大全
7+阅读 · 2017年10月26日
Arxiv
7+阅读 · 2018年6月19日
Arxiv
8+阅读 · 2018年5月15日
Arxiv
9+阅读 · 2018年3月23日
Arxiv
7+阅读 · 2018年1月24日
VIP会员
相关VIP内容
FPGA加速系统开发工具设计:综述与实践
专知会员服务
63+阅读 · 2020年6月24日
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
44+阅读 · 2020年5月23日
深度学习自然语言处理概述,216页ppt,Jindřich Helcl
专知会员服务
209+阅读 · 2020年4月26日
专知会员服务
197+阅读 · 2020年3月6日
复旦大学邱锡鹏老师《神经网络与深度学习》书册最新版
神经网络与深度学习,复旦大学邱锡鹏老师
专知会员服务
116+阅读 · 2019年9月24日
相关资讯
7个实用的深度学习技巧
机器学习算法与Python学习
16+阅读 · 2019年3月6日
深度学习如何调参?
炼数成金订阅号
6+阅读 · 2018年10月18日
为什么分布式一定要有消息队列?
互联网架构师
4+阅读 · 2018年7月5日
SLA 99.99%以上!饿了么实时计算平台3年演进历程
51CTO博客
11+阅读 · 2018年4月10日
深度学习 | 免费使用Google Colab的GPU云计算平台
沈浩老师
11+阅读 · 2018年2月4日
【机器学习】机器学习和深度学习概念入门
产业智能官
11+阅读 · 2018年1月3日
吴恩达最新问答:深度学习泡沫何时会破?
德先生
19+阅读 · 2017年11月22日
前端高性能计算(4):GPU加速计算
前端大全
7+阅读 · 2017年10月26日
相关论文
Top
微信扫码咨询专知VIP会员