人工智能(Artificial Intelligence),英文缩写为AI,通俗来讲就是用机器去做在过去只有人能做的事。
人工智能是一门边缘学科,属于自然科学和社会科学的交叉。
研究范畴有自然语言处理,知识表现,智能搜索,推理,规划,机器学习,知识获取,组合调度问题,感知问题,模式识别,逻辑程序设计软计算,不精确和不确定的管理,人工生命,神经网络,复杂系统,遗传算法等。
实际应用:机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,自动规划,智能搜索,定理证明,博弈,自动程序设计,智能控制,机器人学,语言和图像理解,遗传编程等。
人工智能最早的提出者是图灵,所以图灵又称“人工智能之父”。
在1950年,计算机科学之父艾伦▪图灵发表了一篇论文:Computing Machinery and Intelligence(计算机器与智能),这篇文章开启了计算机与智能模拟的科学讨论。
1955年,在达特茅斯学院任教的约翰麦卡锡组建专家组希望能够给人工智能一个清晰定义和研究方向,选定了Artificial Intelligence一词。
1956年,夏天约翰麦卡锡和马文闵斯基发起了达特茅斯会议,达特茅斯会议正式确立了AI这一术语,并且开始从学术角度对AI展开了严肃而精专的研究。达特茅斯会议被广泛认为是人工智能诞生的标志。
在1956年的这次会议后至今的几十年的时间里,人工智能几经繁荣,又几次被抛弃打入冷宫,直到2016年,DeepMind开发的AlphaGo横空出世,AlphaGo与围棋世界冠军李世石的人机大战,最终李世石与AlphaGo总比分定格在1比4,以李世石认输结束。
这一次的人机对弈让人工智能正式被世人所熟知,彻底引爆了全球人工智能发展热潮,此后,以机器学习,尤其是深度学习为代表的新一代人工智能在更加先进、复杂、自主的方向上取得了突破性进展,给经济和社会发展带来了新的变革与机遇。
人工智能详细发展历程,可以查看这个链接:
机器学习,MachineLearning(简称ML),机器学习领域知名学者Tom M.Mitchell曾给机器学习做如下定义:
如果计算机程序针对某类任务T的性能(用P来衡量)能通过经验E来自我改善,则认为关于T和P,程序对E进行了学习。
通俗来讲,计算机针对某一任务,从经验中学习,并且能越做越好,这一过程就是机器学习。
一般情况下,“经验”都是以数据的方式存在的,计算机程序从这些数据中学习。学习的关键是模型算法,它可以学习已有的经验数据,用以预测未知数据。
举个例子,垃圾邮件过滤器就是一个机器学习的程序,它通过垃圾邮件(比如用户手动标记的垃圾邮件)以及常规邮件(非垃圾邮件)的示例,来学习标记垃圾邮件。系统用来学习的这些示例,我们称之为训练集。每一个训练示例称为训练实例或者是训练样本。
任务 T 就是给新邮件标记垃圾邮件,经验 E 则是训练数据,那么衡量性能表现的指标 P 则需要我们来定义,例如,我们可以使用被正确分类的邮件的比率来衡量,这个特殊的性能衡量标准称为精度。通过输入海量训练数据对模型进行训练,使精度越来越高,进而对新输入的数据进行准确的分类或预测。
机器学习的流程本质上就是数据准备、数据分析、数据处理、结果反馈的过程,按照这个思路,可以把机器学习分为如下步骤:业务场景分析、数据处理、特征工程、算法模型训练、应用服务。
根据是否在人类的监督下进行学习这个问题,机器学习任务区分如下:
监督学习:监督学习算法依赖具有标签的训练数据来建立数学模型。
半监督学习:在某些情况下,并不是所有的输入数据集都被有效标注了,即训练集中包含已标注的样本和未标注的样本。实际上未标注样本与已标注样本拥有同样的分布,在训练时若能利用这一点,则会很有帮助。
无监督学习:无监督学习算法完全利用不带标签的训练数据去训练一个模型。无监督学习用于探索数据的分布,例如将点聚类等。无监督学习可用于发现数据的潜在模式,并将数据按组归类,还可用于特征学习和数据降维等。
强化学习:在动态环境中以正或负强化的形式给出反馈,并用于自动驾驶车辆,或者学习与人类对手玩游戏等。
了解更多机器学习的知识可以点击查看这篇回答:
深度学习(Deep Learning),简称:DL,是一种实现机器学习的技术。
深度学习的定义:
“一种机器学习的形式,使计算机能够从经验中学习并以概念层次结构的方式理解世界。”(Goodfellow 等,麻省理工学院出版社,Deep Learning)
深度学习的概念就源于人工神经网络的研究,含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
神经网络是一组粗略模仿人类大脑,用于模式识别的算法。神经网络这个术语来源于这些系统架构设计背后的灵感,这些系统是用于模拟生物大脑自身神经网络的基本结构,以便计算机能够执行特定的任务。
普通的神经网络可能只有几层,深度学习可以达到十几层。深度学习中的深度二字也代表了神经网络的层数。现在流行的深度学习网络结构有"CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的等。现在流行的深度学习框架有MXnet,tensorflow,caffe等,而在这些框架之上(或许不太准确),还有PyTorch,Keras等。
神经元分为三种不同类型的层次:
输入层接收输入数据。
隐藏层对输入数据进行数学计算。
人工神经网络的输出层是神经元的最后一层,主要作用是为此程序产生给定的输出。
从X1/X2/X3输入到输出的过程,定义了一个层次的概念,譬如上图就包括四层,包含最左边的输入层,和最右边的输出层。如果这是一道选择题的话,那么题目就是输入层,而ABCD的选择结果就是输出层,如上图的L1和L2分别是输入层和输出层。
而选择题解题的过程是不写出来的,我们叫做”隐藏层“,这里L2和L3就是隐藏层,题目越难,给出的信息可能是越多的,而解题所需要的过程就越复杂的,也就可能需要更多的”隐藏层“来计算最终的结果。
最终要来解释什么是深度学习的”深度“了,就是从”输入层“到”输出层“所经历层次的数目,即”隐藏层“的层数,层数越多,板凳的深度也越深。所以越是复杂的选择问题,越需要深度的层次多。例如,AlphaGo的策略网络是13层,每一层的神经元数量为192个。
总结一句话,深度学习就是用多层次的分析和计算手段,得到结果的一种方法。深度学习是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术。
基于深度神经网络的端到端学习在最近几年取得很大的成功,被大量应用与计算机视觉、语音识别、自然语音处理、医学图像处理等领域中。
了解更多深度学习的相关知识,可以查看这篇回答:
概念提出的时间顺序:
人工智能(AI)的概念是在1955 年提出的;机器学习(ML)概念是在1990 年提出的;而深度学习(DL)概念是在 2010 年提出的。
逻辑关系:
深度学习包含于机器学习,而机器学习又包含于人工智能。也就是说,深度学习包含于人工智能。
因果关系:
人工智能是目的,是结果;深度学习、机器学习是方法,是工具。
总结:
人工智能是最终的目标,就是让机器模拟人类的思维模式;机器学习是实现人工智能的一种途径,它有很多模型可以选择;深度学习是机器学习的一个分支,它使用了一种更加智能和通用的模型,使得计算机能够解决更复杂的问题。