您当前的位置:首页 > 电脑百科 > 人工智能

人工智能发展简史——从理论走向应用

时间:2021-06-15 10:41:09  来源:今日头条  作者:微说互联网

起源阶段(1943-1969)

1943年,神经科学家麦卡洛克(W.S.McCilloch) 和数学家皮兹(W.Pitts)建立了神经网络和数学模型,称为M-P模型,即两个人的名字的合称McCulloch-Pitts。

这个模型是对生物神经元的一个建模。当时是希望能够用计算机来模拟人的神经元反应的过程,该模型将神经元简化为了三个过程:输入信号线性加权、求和和非线性激活(阈值法)。人工神经网络(ANN: Artificial Neural Network)以此为开端,不过这个模型直到1958年,才开始有了实用价值。

人工智能发展简史——从理论走向应用

M-P人工神经元模型

1958年,计算机科学家罗森布拉特( Rosenblatt)提出了一个由两层神经元组成的神经网络,称之为“感知器”(Perceptrons),第一次将M-P模型用于机器学习的分类(classification)问题

人工智能发展简史——从理论走向应用

人工智能先驱Marvin Minsky

1969年,美国数学家及人工智能先驱 Marvin Minsky 在其著作中证明了感知器本质上是一种线性模型(linear model),只能处理线性分类问题,就连最简单的XOR(异或)问题都无法正确分类。由此,神经网络的研究也陷入了将近20年的停滞,进入了第一个寒冬期。

发展阶段(1986-1998)

1986年,神经网络之父 Geoffrey Hinton 发明了适用于多层感知器(MLP)的BP(Back Propagation)算法,并采用Sigmoid函数进行非线性映射,有效解决了非线性分类和学习的问题。这种方法引起了神经网络的第二次热潮。

人工智能发展简史——从理论走向应用

Sigmoid函数


人工智能发展简史——从理论走向应用

多层感知器:至少有一个隐藏层

当神经网络的规模增大时,使用BP算法会出现“梯度消失”的问题。当梯度消失发生时,接近于输出层的隐藏层由于其梯度相对正常,所以权值更新时也就相对正常,但是当越靠近输入层时,由于梯度消失现象,会导致靠近输入层的隐藏层权值更新缓慢或者更新停滞。

人工智能发展简史——从理论走向应用

梯度消失问题限制了ANN结构的层数(规模)

90年代中期,以SVM为代表的其它浅层机器学习算法被提出,并在分类、回归问题上均取得了很好的效果,而ANN则相形见绌,人工神经网络的发展再次进入瓶颈,迎来了第二个寒冬期。

深度学习开始(2006-2012)

2006年,Geoffrey Hinton 和他的学生 Ruslan Salakhutdinov 在顶尖学术刊物《科学》上发表了一篇文章,该文章提出了深层网络训练中梯度消失问题的解决方案:无监督预训练对权值进行初始化+有监督训练微调。这个方案的提出,为基于ANN的深度学习(DL:Deep Learning)提供了可能性。

造成梯度消失的一个主要原因就是激活函数Sigmoid。Sigmoid的导数的取值范围在0~0.25之间,初始化的网络权值通常都小于1,当层数增多时,小于0的值不断相乘,最后导致梯度消失的情况出现。因此解决梯度消失的一个办法是替换激活函数。2011年,ReLU激活函数被提出,该激活函数能够有效地抑制梯度消失问题。

2011年以来,微软首次将DL应用在语音识别上,取得了重大突破。微软研究院和google的语音识别研究人员先后采用深度神经网络(DNN)技术降低语音识别错误率20%~30%,是语音识别领域十多年来最大的突破性进展,人工神经网络终于证明了自己的实用价值。

深度学习爆发

2012年,Hinton课题组为了证明深度学习的潜力,首次参加了ImageNet图像识别比赛,其构建的卷积神经网络(CNN)模型AlexNet一举夺得冠军。深度学习算法在世界大赛的脱颖而出,也再一次吸引了学术界和工业界对于深度学习领域的关注。

通过ImageNet图像识别比赛,DL的网络结构、训练方法、GPU硬件的不断进步,促使DNN在其他领域也在不断地征服战场。

2014年,Facebook基于深度学习技术的DeepFace项目,在人脸识别方面的准确率已经能达到97%以上,跟人类识别的准确率几乎没有差别。

2016年,随着谷歌旗下Deepmind公司基于深度学习开发的AlphaGo以4:1的比分战胜了国际顶尖围棋高手李世石,深度学习的热度一时无两。后来,AlphaGo又接连和众多世界级围棋高手过招,均取得了完胜。

人工智能发展简史——从理论走向应用

AlphaGo战胜李世石,再次证明了深度学习的能力

正是由于DL在理论上的成功以及GPU硬件的发展,DL在工程实践上开始证明价值,催生了一批以人工智能(机器视觉为主)的科技公司,比如国内耳熟能详的AI四小龙:商汤、云从、依图和旷世,都有将AI技术应用于实际的落地案例。

从DNN到多样化的结构

人工智能发展简史——从理论走向应用

全连接DNN

如上图所示,全连接DNN的结构里相邻两层的神经元之间都能够形成连接,从而导致参数数量膨胀。这不仅容易过拟合,而且极容易陷入局部最优。

由于图像中存在固有的局部模式(如人脸中的眼睛、鼻子、嘴巴等),所以将图像处理和神经网络结合引出卷积神经网络CNN。CNN是通过卷积核将相邻层进行链接,大幅降低了输入层到隐藏层的参数。

另外DNN无法对时间序列上的变化进行建模,而样本的时间顺序对于自然语言处理、语音识别、手写体识别等应用非常重要。为了适应这种需求,就出现了另一种神经网络结构:循环神经网络RNN

在RNN中,神经元的输出可以在下一个时刻作用到自身,即第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括其自身在(m-1)时刻的输出。

人工智能发展简史——从理论走向应用

神经元按照时间展开

RNN可以看成一个在时间上传递的神经网络,它的深度是时间的长度,“梯度消失”现象又要出现了,只不过这次发生在时间轴上。

为解决上述长时依赖问题,又提出了LSTM(长短时记忆单元),通过神经元的门开关实现时间上的记忆功能,并防止梯度消失。

人工智能发展简史——从理论走向应用

LSTM

除了RNN和LSTM以外,还有很多网络结构可以用于序列信号分析中,比如双向RNN、双向LSTM,这些结构可以同时利用历史和未来的信息。在实际应用中,我们往往不会使用单一的结构,经常混合着使用。

我会持续更新关于物联网、云原生以及数字科技方面的文章,用简单的语言描述复杂的技术,也会偶尔发表一下对IT产业的看法,欢迎大家关注,谢谢。



Tags:人工智能   点击:()  评论:()
声明:本站部分内容及图片来自互联网,转载是出于传递更多信息之目的,内容观点仅代表作者本人,如有任何标注错误或版权侵犯请与我们联系(Email:2595517585@qq.com),我们将及时更正、删除,谢谢。
▌相关推荐
11月2日召开的世界顶尖科学家数字未来论坛上,2013年诺贝尔化学奖得主迈克尔·莱维特、2014年诺贝尔生理学或医学奖得主爱德华·莫索尔、2007年图灵奖得主约瑟夫·斯发斯基、1986年图灵奖得主约翰·霍普克罗夫特、2002...【详细内容】
2021-11-03  Tags: 人工智能  点击:(39)  评论:(0)  加入收藏
说起人工智能,大家总把它和科幻电影中的机器人联系起来,而实际上这些科幻场景与现如今的人工智能没什么太大关系。人工智能确实跟人类大脑很相似,但它们的显著差异在于人工智能...【详细内容】
2021-09-17  Tags: 人工智能  点击:(57)  评论:(0)  加入收藏
作者:阿米特·V. 乔希(Ameet V Joshi)来源:华章科技 01 人工智能艾伦·图灵(Alan Turing)对人工智能的定义如下:如果窗帘后面有一台机器,并且有人正在与之互动(无论以何...【详细内容】
2021-09-07  Tags: 人工智能  点击:(74)  评论:(0)  加入收藏
人工智能看似是这几年才流行起来的一个新技术行业,但是人工智能不是一门新学科,它的学科发展已经有了60多年的历史了。如果想要入门人工智能行业,那么你需要学习的知识将会非...【详细内容】
2021-06-16  Tags: 人工智能  点击:(125)  评论:(0)  加入收藏
起源阶段(1943-1969)1943年,神经科学家麦卡洛克(W.S.McCilloch) 和数学家皮兹(W.Pitts)建立了神经网络和数学模型,称为M-P模型,即两个人的名字的合称McCulloch-Pitts。这个模型是对...【详细内容】
2021-06-15  Tags: 人工智能  点击:(132)  评论:(0)  加入收藏
理解什么是人工智能,以及机器学习和深度学习如何影响它,是一种不同凡响的体验。在 Mate Labs 我们有一群自学有成的工程师,希望本文能够分享一些学习的经验和捷径,帮助机器学习...【详细内容】
2021-06-09  Tags: 人工智能  点击:(128)  评论:(0)  加入收藏
韩国著名研究机构IITP(2019年)曾经对外发布了一组调研数据,通过科研专家进行的问卷调查,将全世界范围内的AI强国来了一次评分排座次,最终结果显示中国位列全球第三,第一、二名分别...【详细内容】
2021-05-18  Tags: 人工智能  点击:(402)  评论:(0)  加入收藏
人工智能在各个行业中广泛应用,并且对很多行业都起到了一定的改善作用,同时在各个行业中的应用场景也是大不相同的。那么人工智能在网络安全领域中的应用场景有哪些?人工智能在...【详细内容】
2021-05-12  Tags: 人工智能  点击:(183)  评论:(0)  加入收藏
未来20年,这种工作不可代替,无需担心会失业随着人工智能的发展,已经有很多职业被代替了,尤其是电销行业,在过去需要人工来拨打推销电话,每天差不多最多能够拨打200通电话,这种工作...【详细内容】
2021-05-10  Tags: 人工智能  点击:(139)  评论:(0)  加入收藏
「中国人工智能研究论文总数已经超过了美国,成为全球第一」「人工智能初创企业获得的资本青睐越来越少」「主流NLP系统也存在种族歧视」这些话题都出自斯坦福大学Human-Cent...【详细内容】
2021-04-20  Tags: 人工智能  点击:(202)  评论:(0)  加入收藏
▌简易百科推荐
作为数据科学家或机器学习从业者,将可解释性集成到机器学习模型中可以帮助决策者和其他利益相关者有更多的可见性并可以让他们理解模型输出决策的解释。在本文中,我将介绍两个...【详细内容】
2021-12-17  deephub    Tags:AI   点击:(15)  评论:(0)  加入收藏
基于算法的业务或者说AI的应用在这几年发展得很快。但是,在实际应用的场景中,我们经常会遇到一些非常奇怪的偏差现象。例如,Facebook将黑人标记为灵长类动物、城市图像识别系统...【详细内容】
2021-11-08  数据学习DataLearner    Tags:机器学习   点击:(32)  评论:(0)  加入收藏
11月2日召开的世界顶尖科学家数字未来论坛上,2013年诺贝尔化学奖得主迈克尔·莱维特、2014年诺贝尔生理学或医学奖得主爱德华·莫索尔、2007年图灵奖得主约瑟夫·斯发斯基、1986年图灵奖得主约翰·霍普克罗夫特、2002...【详细内容】
2021-11-03  张淑贤  证券时报  Tags:人工智能   点击:(39)  评论:(0)  加入收藏
鉴于物联网设备广泛部署、5G快速无线技术闪亮登场,把计算、存储和分析放在靠近数据生成的地方来处理,让边缘计算有了用武之地。 边缘计算正在改变全球数百万个设备处理和传输...【详细内容】
2021-10-26    计算机世界  Tags:边缘计算   点击:(45)  评论:(0)  加入收藏
这是几位机器学习权威专家汇总的725个机器学习术语表,非常全面了,值得收藏! 英文术语 中文翻译 0-1 Loss Function 0-1损失函数 Accept-Reject Samplin...【详细内容】
2021-10-21  Python部落    Tags:机器学习   点击:(43)  评论:(0)  加入收藏
要开始为开源项目做贡献,有一些先决条件:1. 学习一门编程语言:由于在开源贡献中你需要编写代码才能参与开发,你需要学习任意一门编程语言。根据项目的需要,在后期学习另一种语言...【详细内容】
2021-10-20  TSINGSEE青犀视频    Tags:机器学习   点击:(37)  评论:(0)  加入收藏
SimpleAI.人工智能、机器学习、深度学习还是遥不可及?来这里看看吧~ 从基本的概念、原理、公式,到用生动形象的例子去理解,到动手做实验去感知,到著名案例的学习,到用所学来实现...【详细内容】
2021-10-19  憨昊昊    Tags:神经网络   点击:(47)  评论:(0)  加入收藏
语言是人类思维的基础,当计算机具备了处理自然语言的能力,才具有真正智能的想象。自然语言处理(Natural Language Processing, NLP)作为人工智能(Artificial Intelligence, AI)的核心技术之一,是用计算机来处理、理解以及运...【详细内容】
2021-10-11    36氪  Tags:NLP   点击:(48)  评论:(0)  加入收藏
边缘计算是什么?近年来,物联网设备数量呈线性增长趋势。根据艾瑞测算, 2020年,中国物联网设备的数量达74亿,预计2025年突破150亿个。同时,设备本身也变得越来越智能化,AI与互联网在...【详细内容】
2021-09-22  汉智兴科技    Tags:   点击:(54)  评论:(0)  加入收藏
说起人工智能,大家总把它和科幻电影中的机器人联系起来,而实际上这些科幻场景与现如今的人工智能没什么太大关系。人工智能确实跟人类大脑很相似,但它们的显著差异在于人工智能...【详细内容】
2021-09-17  异步社区    Tags:人工智能   点击:(57)  评论:(0)  加入收藏
最新更新
栏目热门
栏目头条