深度学习与人工智能革命:part I

首发地址:https://yq.aliyun.com/articles/395712

深度学习(DL)和人工智能(AI)已经不再是科幻小说中遥不可及的目标,目前成为了互联网和大数据等领域的前沿研究内容。

由于云计算提供强的计算能力、提出的先进算法以及充裕的资金,这创造了五年前难以想象的新技术此外,层出不穷的丰富数据也使得深度学习成为了现实。

相关内容分成四个部分,主要深入探索深度学习、数据库的选择以及相关实际商业应用问题等。

在今天的第I部分内容中,主要是讲解人工智能的历史以及它现在高速发展的原因;

II部分内容中,将讨论一下人工智能、机器学习和深度学习之间的区别;

第III部分内容中,将深入研究深度学习以及在为新项目选择数据库时需要评估的关键事项;

IV部分内容中,将讨论深度学习为何使用MongoDB,并提供相关使用实例;

由于本文内容是第I部分内容,主要介绍人工智能的历史。如果读者想快速将四部分内容全部看完,可以下载本文附件。

深度学习与人工智能革命:part I

人工智能的历史

我们目前生活在人工智能开始崭露头角的时代,人工智能不仅创造了扰乱工业和变革工作场所的可能性,而且还可以解决一些社会上的挑战。比如自动驾驶可以挽救数万人的生命、增加老年人和残疾人的流动性,精准医学可以开展个体化治疗以延长生命,智能建筑有助于减少碳排放并节约能源等,这些只是人工智能承诺的一些潜在的好处,并且大多已经取得相关突破性的进展。

到2018年,Gartner公司估计机器将占全球所有业务内容的20%,并预计60亿个联网设备将产生大量的数据。人工智能对理解这一切显得至关重要,AI不再局限于科幻电影中,人工智能和机器学习正在被现实世界中的相关业务采用。

自从艾伦·图灵(Alan Turing)于1950年写了篇论文《计算机器与智能》以来,人工智能一直是人们的一个梦想。在这篇论文中,图灵提出了一个根本性的问题——“机器能思考吗?”,并考虑计算机是否能像人类那样进行思考。人工智能领域的研究真正诞生于1956年的夏天,一组聚集在达特茅斯学院(Dartmouth College)的研究人员发起了一系列的研究项目,他们的目标是让计算机做出像人类一样行为。“人工智能”这一词也是第一次在这所学院被创造出来,该会议的概念形成了一个合法的跨学科交流的研究领域。

在接下来的十年中,随着新技术的发展受到当代技术的限制,人工智能的发展经历了繁荣和萧条周期。在1968年,科幻电影《2001:太空漫游》中的智能电脑——HAL9000说了一句著名的话,“对不起,戴夫,恐怕我不能那么做”,这帮助AI在主流意识中留下了不可磨灭的印象。在20世纪70年代末,电影《星球大战》中智能机器人帮助拯救银河的场景进一步巩固了AI在主流文化中地位。

但直到20世纪90年代末,人工智能才开始从科幻传说转变为现实世界的实际应用。1997年初,由IBM的深蓝国际象棋程序击败了当时的世界冠军Garry Kasparov,人工智能在上世界90年代迎来了一个新的时代,AI的研究进展开始加速。研究人员变得开始关注人工智能的相关子问题,并利用它来解决现实世界中的应用任务,比如图像和语音识别等。研究人员没有试图构造由专家知识决定的逻辑规则,而是开始研究如何通过算法学习逻辑规则本身,这一趋势有助于将研究重点转移到人工神经网络(ANNs)中。在20世纪40年代,人工神经网络被发明成“松散地”模仿人脑的学习方式。当反向传播梯度下降算法得到改进时,人工神经网络的研究于1986年开始变得流行起来,反向传播算法减少了人工神经网络训练时需要大量手工调参问题,因此反向传播算法(BP)也是一种有效的减少人工智能训练时间的方法。

即使在算法方面取得新的进展,但神经网络仍然受到技术上的限制,这些限制也影响了ANNs在过去几十年的应用情况。直到2000年中期,人工智能才重新掀起一次科技浪潮。2006年,多伦多大学的Geoffrey Hinton提出对人工神经网络进行修改,并将其研究成果称为“深度学习(Deep Neural Network)”。Hinton对人工神经网络添加多个隐藏并对每层进行数学优化,逐层学习使得模型训练变得更快。在2012年,斯坦福大学的Andrew Ng进一步推动了深度学习的发展,他建造了一个简陋的利用图形处理单元(GPU)实现深度神经网络的模型,Andrew Ng发现集群GPU仿真训练深度学习模型比通用的CPU训练快得多,对于同样的任务而言,GPU可能只需要一天的时间,而CPU需要几周的时间才能产生相同的结果,这是由于GPU是大规模并行架构,而且能同时处理多个任务。

从本质上讲,将软件算法与高性能的硬件相结合已经酝酿了几十年,这也将迎来AI正在经历的快速发展。

人工智能现在为什么高速发展?

目前有四个主要因素推动了人工智能的发展:

1.更丰富的数据。人工智能需要大量的数据来学习,社交的数字化为其进步提供了可利用的原材料。诸如物联网(传感器等)、社交和移动计算、科学和学术界、医疗保健以及许多新的应用程序等来源的大数据可以用来训练人工智能模型。不出意料,目前在人工智能领域投资较多的公司,比如亚马逊、苹果、百度、谷歌、微软等,同时也是数据较多的公司。

2.更便宜的计算成本。在过去,即使人工智能相关算法得到改进,硬件仍然是一个制约因素。由于硬件和新的计算模型取得新的突破,尤其是GPU,加速了人工智能的发展过程。GPU由于其自身的并行处理能力及高效的执行矩阵乘法的方式使得其在人工智能社区得到普及,这也缔造了英伟达这一优秀公司的行业地位。 最近,英特尔Xeon和Xeon Phi处理器中增加了新的深度学习指令,这允许其能更好进行并行和高效的矩阵运算。随着人工智能技术的应用,硬件厂商现在需要专门针对人工智能进行开发、设计和制造相关产品,这些进步将导致更好的硬件设计、性能、功耗以及配置文件。

3.更复杂的算法。更高效的性能和更便宜的计算花费使得科研人员能够开发和训练更高级的算法,这是因为他们不再受限于过去硬件约束的限制。因此,深度学习现在正以惊人的精确度解决特定的问题(例如,语音识别、图像分类、手写识别、欺诈检测等),更先进的算法继续推动人工智能技术的发展。

4.更广泛的投资。在过去的几十年中,人工智能的研究和发展主要局限于大学和研究院等机构。资金缺乏以及人工智能问题的困难性导致其发展甚微。如今,人工智能投资不再局限于大学实验室,而是在许多领域都在进行发展——*、风险资本支持的初创公司、互联网巨头和各行业的大型企业等。

作者信息

Mat Keep产品营销总监,目前就职于MongoDB团队

个人主页:https://www.linkedin.com/in/matkeep/

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《Deep Learning and the Artificial Intelligence Revolution: Part 1》,作者:Mat Keep,译者:海棠,审阅:袁虎。

文章为简译,更为详细的内容,请查看原文

上一篇:MySQL主从数据库同步延迟问题解决


下一篇:Directx11教程40 纹理映射(10)