## 什么是人工智能 人工智能(Aritificial Intelligence, AI)是一门融合了计算机科学、统学、脑神经学和社会科学的前沿综合性学科。它的目标是希望计算机拥有像人一样的智力能力,可以替代人类实现识别、认知、分类和决策等多种功能。 ![](http://data.xyzgate.com/90191ad8734d82b5586a78cb795d0541.png) ## 人工智能发展史 ![](http://data.xyzgate.com/21afbcbcdf34705e67c758ef18acfc5d.png) 可以看到,在人工智能概念提出之后的最初几十年,其发展是极其缓慢的。计算能力的不足是此阶段人工智能发展的主要瓶颈。 ### GPU的横空出世 大家都知道,计算能力的强弱取决于cpu的性能强弱。传统的cpu的运算能力一般用GFLOPS这个单位来表示,即一秒十亿次浮点运算。而当我们提到GPU时,我们则会使用TFLOPS,即一秒万亿次浮点运算,差距立显。在NVIDIA最新的发布会上,他们推出了一款超级计算机,名为DGX Station。其内部包含四块Tesla V100 GPU、NVLink互联技术、128GB的GPU内存和20480个NVIDIA CUDA core,这一切共同造就了500 TFLOPS的超强深度学习能力。想象一下,这台超级计算机的运算能力相当于一万个甚至十万个传统cpu的运算能力。目前,这款超级计算机可以在NVIDIA官网限时抢购,而且买四赠一。 不仅如此,GPU还完美支持整形、单精度以及双精度运算,而且其上还搭载了张量核心,为所有类型的运算提供强大的支持。 即使是一款游戏显卡(rtx-2080ti),其计算能力也能达到78TFLOPS(如下图)。也就是说,现在任何一款搭载了GPU的电脑都可以用来实现人工智能。 ![](http://data.xyzgate.com/b2af07367e37a0fb2017a4936183a538.png) 我们甚至可以这么说,是GPU让人工智能成为可能,并走进千家万户。 ### 人工智能就是深度学习? GPU的强大运算能力让那些曾经只能进行理论研究的项目得以真实地实现。我们好像终于可以让计算机像人一样复杂地全面地思考问题。可怎么思考呢?2006年Hinton提出了深度学习的神经网络。从此人工智能一发而不可收拾。发展到今天的地步,我们甚至可以说人工智能就是深度学习。 ## 人工智能现状 ### 研究领域 人工智能的研究领域主要有5层,最底层是基础设施建设,包括数据和计算能力两部分,数据越大人工智能的能力越强。往上一层是算法,比如深度学习等算法。再上一层是主要的技术方向,如计算机视觉、语音工程、NLP等。第二层是各个技术方向中的技术。 最上层为人工智能的应用领域。 ![](http://data.xyzgate.com/4b76ccf9c77c4adab0d77e03e89ec652.png) 最近比较热门的领域为图像识别、物体检测、自然语言处理。图像识别从几年前的Alexnet,到vgg,再到如今的resnet以及resnext,可以说解决了基本的图像识别问题。而物体检测往往是基于图像识别的,在图像识别的基础上,使用一些相对简单的区域搜索网络,如:fast-r-cnn、faster-r-cnn、yolo、ssd等。以faster-rcnn为例,其主要原理就是在cnn(此处一般选取resnext)后面增加了一个rpn(region proposal network),用于搜索目标物体,所以r-cnn即rpn-cnn。而对于自然语言处理,其核心技术一般为rnn(循环神经网络,Recurrent Neural Network)。 在此再介绍一些深度学习常用的框架,caffe2(目前基本与pytorch融合,是facebook的开源项目)、tensorflow(google开源)、mxnet(aws)、CNTK(microsoft)。 前面也介绍了硬件对于人工智能的重要意义,因此NVIDIA,作为全球最重要的人工智能硬件厂商,也推出了一些开源项目,比如:cuda、cudnn。上面讲到的那些常用框架也基本上是基于NVIDIA的这些开源项目的。最近,NVIDIA又推出了一个开源项目:rapidsai,号称能解决400G以上数据量的机器学习问题,而400G往往是传统机器学习方法的极限。在rapidsai中,NVIDIA把传统的机器学习算法统统搬到了它的GPU上,因此这些传统算法在性能上的提升是不言而喻的。但目前为止,只实现了以下六个算法:a) Single GPU Truncated Singular Value Decomposition (tSVD), b) Single GPU Principal Component Analysis (PCA), c) Single GPU Density-based Spatial Clustering of Applications with Noise (DBSCAN), d) Single GPU Kalman Filtering, e) Multi-GPU K-Means Clustering, f) Multi-GPU K-Nearest Neighbors。而且在以下几个领域实力还比较薄弱:a) Linear Algebra, b) Statistics, c) Basic Matrix Operations, d) Distance Functions, e) Random Number Generation。rapidsai的使用方式和pandas相差无几,因此上手还是比较容易的,有兴趣的可以去试试,没准你的算法就提速了几百几千倍。 ### 应用场景 - 计算机视觉:车牌识别、人脸识别、无人驾驶、行为识别等 - 语音工程:2010 年后,深度学习的广泛应用使语音识别的准确率大幅提升,像 Siri、Voice Search 和 Echo 等,可以实现不同语言间的 交流,从语音中说一段话,随之将其翻译为另一种文字;再如智能助手,你可以对手机说一段话,它能帮助你完成一些任务。 - 自然语言处理:问答系统、机器翻译、对话系统等。 - 决策系统:决策系统的发展是随着棋类问题的解决而不断提升,从 80 年代西洋跳棋开始,到 90 年代的国际象棋对弈,再到AlphaGo,机器的胜利都标志了科技的进步。决策系统可以在自动化、量化投资等系统上广泛应用。 - 大数据应用:分析客户的喜好进行个性推荐,精准营销;分析各个股票的行情,进行量化交易。 ### AI面临的挑战 - 计算机视觉:未来的人工智能应该更加注重效果的优化,加强计算机视觉在不同场景、问题上的应用。 - 语音工程:当前的语音工程在安静环境下,已经能够取得和人类相似的水平。但在噪音情景下仍有挑战,如原场识别、口语、方言等长尾识别。 - 自然语言处理:机器欠缺对语意理解能力,包括对口语不规范的用于识别和认知等。 - 决策系统:目前存在的两个问题,第一是不通用,即学习知识的不可迁移性,如用一个方法学习下象棋,不能直接将其迁移到下围棋上;第二是大量模拟数据。 ![](http://data.xyzgate.com/251efcbb9490c6ad2f209f88689beb0f.png)
/
Go to slide: