人工智能知识体系

 人工智能知识     |      佚名

计算机科学体系

计算机科学是系统性研究信息与计算的理论基础以及它们在计算机系统中如何实现与应用的实用技术的学科。它通常被形容为对那些创造、描述以及转换信息的算法处理的系统研究。分支学科脉络划分如下

  • 理论电脑科学
    • 数据结构和算法
    • 计算理论
    • 信息论与编码理论
    • 编程语言和编译器
    • 形式化方法
  • 计算机系统
    • 计算机体系结构与计算机工程
    • 操作系统
    • 并发、并行与分布式系统
    • 计算机网络
    • 计算机安全和密码学
    • 数据库
  • 计算机应用技术
    • 计算机图形学
    • 科学计算
    • 多媒体技术
    • 人工智能
  • 软件工程

人工智能

人工智能(英语:Artificial Intelligence,缩写为AI)亦称智械、机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指通过普通计算机程序来呈现人类智能的技术。该词也指出研究这样的智能系统是否能够实现,以及如何实现。同时,通过医学、神经科学、机器人学及统计学等的进步,常态预测则认为人类的无数职业也逐渐被其取代

人工智能分支学科划分如下

  • 机器学习
  • 计算机视觉
  • 图像处理
  • 模式识别
  • 数据挖掘
  • 演化计算
  • 知识表示和自动推理
  • 自然语言处理
  • 机器人学

机器学习

机器学习是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。机器学习是实现人工智能的一个途径,即以机器学习为手段解决人工智能中的问题

机器学习在近30多年已发展为一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科

机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论

算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法

机器学习有下面几种定义

  • 机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能
  • 机器学习是对能通过经验自动改进的计算机算法的研究
  • 机器学习是用数据或以往的经验,以此优化计算机程序的性能标准

一种经常引用的英文定义是 A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E

机器学习可以分成下面几种类别

  • 有监督学习 从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求是包括输入和输出,也可以说是特征和目标。训练集中的目标是由人标注的。常见的监督学习算法包括回归分析和统计分类
    • 回归分析(英语:Regression Analysis)是一种统计学上分析数据的方法,目的在于了解两个或多个变量间是否相关、相关方向与强度,并建立数学模型以便观察特定变量来预测研究者感兴趣的变量。更具体的来说,回归分析可以帮助人们了解在只有一个自变量变化时因变量的变化量。一般来说,通过回归分析我们可以由给出的自变量估计因变量的条件期望
    • 统计分类 是机器学习非常重要的一个组成部分,它的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。分类是监督学习的一个实例,根据已知训练集提供的样本,通过计算选择特征参数,创建判别函数以对样本进行的分类
  • 无监督学习 是一种自组织的HEBBY学习的类型,它帮助在没有预先存在标签的情况下找到数据集中先前未知的模式。它也被称为自组织,允许对给定输入的概率密度进行建模。常见的无监督学习算法有生成对抗网络(GAN)、聚类分析
    • 生成对抗网络(英语:Generative Adversarial Network,简称GAN)是非监督式学习的一种方法,通过让两个神经网络相互博弈的方式进行学习。该方法由伊恩·古德费洛等人于2014年提出。生成对抗网络由一个生成网络与一个判别网络组成,生成网络从潜在空间(latent space)中随机取样作为输入,其输出结果需要尽量模仿训练集中的真实样本;判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来,而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实
    • 聚类分析(英语:Cluster analysis)亦称为群集分析,是对于统计数据分析的一门技术。聚类是把相似的对象通过静态分类的方法分成不同的组别或者更多的子集(subset),这样让在同一个子集中的成员对象都有相似的一些属性。一般把数据聚类归纳为一种非监督式学习

有监督学习和非监督学习的差别就是训练集目标是否人标注。他们都有训练集且都有输入和输出

  • 半监督学习 介于监督学习与无监督学习之间
  • 增强学习 机器为了达成目标,随着环境的变动,而逐步调整其行为,并评估每一个行动之后所到的回馈是正向的或负向的

具体的机器学习算法有

  • 构造间隔理论分布:聚类分析和模式识别
    • 人工神经网络
    • 感知器
    • 决策树
    • 支持向量机
    • 集成学习AdaBoost
    • 降维与度量学习
    • 聚类
    • 贝叶斯分类器
  • 构造条件概率:回归分析和统计分类
    • 高斯过程回归
    • 线性判别分析
    • 最近邻居法
    • 径向基函数核
  • 通过再生模型构造概率密度函数
    • 最大期望算法
  • 概率图模型
    • 贝叶斯网
    • Markov随机场
    • Generative Topographic Mapping
  • 近似推断技术
    • 马尔可夫链蒙特卡罗方法
    • 变分法
  • 最优化

神经网络

生物神经网络(Biological Neural Networks) 一般指生物的神经元、细胞、触点等组成的网络,用于产生生物的意识,帮助生物进行思考和行动

人工神经网络(英语:Artificial Neural Network,ANN),简称神经网络(Neural Network,NN)或类神经网络,在机器学习和认知科学领域,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似

神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统,通俗的讲就是具备学习功能

现代神经网络是一种非线性统计性数据建模工具,神经网络通常是通过一个基于数学统计学类型的学习方法 (Learning Method) 得以优化,所以也是数学统计学方法的一种实际应用,通过统计学的标准数学方法我们能够得到大量的可以用函数来表达的局部结构空间,另一方面在人工智能学的人工感知领域,我们通过数学统计学的应用可以来做人工感知方面的决定问题 (也就是说通过统计学的方法,人工神经网络能够类似人一样具有简单的决定能力和简单的判断能力),这种方法比起正式的逻辑学推理演算更具有优势

感知器 (英语:Perceptron) 是Frank Rosenblatt在1957年就职于康奈尔航空实验室 (Cornell Aeronautical Laboratory) 时所发明的一种人工神经网络。Frank Rosenblatt 给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极小化,求出可将训练数据进行线性划分的分离超平面,从而求得感知机模型

感知机是生物神经细胞的简单抽象,神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’。神经细胞的状态取决于从其它的神经细胞收到的输入信号量,及突触的强度(抑制或加强); 当信号量总和超过了某个阈值时,细胞体就会激动,产生电脉冲; 电脉冲沿着轴突并通过突触传递到其它神经元。为了模拟神经细胞行为,与之对应的感知机基础概念被提出,如权量(突触)、偏置(阈值)及激活函数(细胞体)

在人工神经网络领域中,感知机也被指为单层的人工神经网络,以区别于较复杂的多层感知机(Multilayer Perceptron)。作为一种二元线性分类器,(单层)感知机可说是最简单的前向人工神经网络形式。尽管结构简单,感知机能够学习并解决相当复杂的问题。感知机主要的本质缺陷是它不能处理线性不可分问题

神经细胞结构示意图

感知机是一种模式识别算法,用简单的加减法实现了两层的计算机学习网络。罗森布拉特也用数学符号描述了基本感知机里没有的回路,例如异或回路,这种回路一直无法被神经网络处理,直到保罗·韦伯斯(1975)创造的反向传播算法有效地解决了异或的问题,还有更普遍的训练多层神经网络的问题

人工神经网络的组成

  • 结构 (Architecture) 指定了网络中的变量和它们的拓扑关系。例如,神经网络中的变量可以是神经元连接的权重 (weights) 和神经元的激励值 (activities of the neurons)
  • 激励函数 (Activation Rule) 大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。一般激励函数依赖于网络中的权重(即该网络的参数)
  • 学习规则 (Learning Rule) 指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。一般情况下,学习规则依赖于神经元的激励值,它也可能依赖于监督者提供的目标值和当前权重的值。例如,用于手写识别的一个神经网络,有一组输入神经元; 输入神经元会被输入图像的数据所激发; 在激励值被加权并通过一个函数 (由网络的设计者确定) 后,这些神经元的激励值被传递到其他神经元; 这个过程不断重复,直到输出神经元被激发; 最后,输出神经元的激励值决定了识别出来的是哪个字母

神经元

神经元示意图
  • a1~an为输入向量的各个分量
  • w1~wn为神经元各个突触的权值
  • b为偏置
  • f为传递函数,通常为非线性函数。一般有traingd(),tansig(),hardlim()。以下默认为hardlim()
  • t为神经元输出
数学表示式

一个神经元的功能是求得输入向量与权向量的内积后,经一个非线性传递函数得到一个标量结果。单个神经元的作用 把一个n维向量空间用一个超平面分割成两部分(称之为判断边界),给定一个输入向量,神经元可以判断出这个向量位于超平面的哪一边

该超平面的方程

学习过程

通过训练样本的校正,对各个层的权重进行校正 (learning) 而创建模型的过程,称为自动学习过程 (training algorithm)。具体的学习方法则因网络结构和模型不同而不同,常用反向传播算法 (Backpropagation/倒传递/逆传播,以output利用一次微分Delta rule来修正weight) 来验证


人工神经网络的两种分类方式

  • 依学习策略 (Algorithm) 分类
    • 监督式学习网络 (Supervised Learning Network)
    • 无监督式学习网络 (Unsupervised Learning Network)
    • 混合式学习网络 (Hybrid Learning Network)
    • 联想式学习网络 (Associate Learning Network)
    • 最适化学习网络 (Optimization Application Network)
  • 依网络架构(Connectionism)分类
    • 前馈神经网络 (Feed Forward Network)
    • 循环神经网络 (Recurrent Network)
    • 强化式架构 (Reinforcement Network)

深度学习

深度学习 (Deep Learning) 是机器学习的分支,是一种以人工神经网络为架构,对数据进行表征学习的算法。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征

在机器学习中,特征学习或表征学习是学习一个特征的技术的集合:将原始数据转换成为能够被机器学习来有效开发的一种形式。它避免了手动提取特征的麻烦,允许计算机学习使用特征的同时,也学习如何提取特征:学习如何学习

人工智能相关领域关系图

深度学习的概念 基于样本数据通过一定的训练方法得到包含多个层级的深度网络结构的机器学习过程。深度学习所得到的深度网络结构包含大量的单一元素(神经元),每个神经元与大量其他神经元相连接,神经元间的连接强度(权值)在学习过程中修改并决定网络的功能。通过深度学习得到的深度网络结构符合深度神经网络的特征,因此深度网络就是深层次的神经网络,即深度神经网络(DNN)

传统机器学习

机器学习的本质是从数据中构造算法 深度学习是机器学习中的一种特殊算法,一种在数据中学习多层次抽象的算法

深度学习

深度学习=特征学习,效果优于其他机器学习方法

特征学习可以被分为两类

  • 监督特征学习 从被标记的数据中学习特征
    • 监督字典学习
    • 神经网络
  • 无监督特征学习
    • κ-平均算法
    • 主要成分分析
    • 独立成分分析
    • 局部线性嵌入算法
    • 无监督字典学习

深度学习框架

  • 深度神经网络 (DNN) 是一种判别模型,可以使用反向传播算法进行训练,具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力
  • 卷积神经网络 (CNN) 由一个或多个卷积层和顶端的全连通层 (对应经典的神经网络) 组成,同时也包括关联权重和池化层
  • 深度置信网络 (DBN) 神经网络的一种。既可以用于非监督学习,类似于一个自编码机;也可以用于监督学习,作为分类器来使用
  • 循环神经网络 (RNN) 是一类以序列 (sequence) 数据为输入,在序列的演进方向进行递归 (recursion) 且所有节点 (循环单元) 按链式连接的递归神经网络

深度学习的基础是机器学习中的分散表示 (distributed representation)。分散表示假定观测值是由不同因子相互作用生成。在此基础上,深度学习进一步假定这一相互作用的过程可分为多个层次,代表对观测值的多层抽象。不同的层数和层的规模可用于不同程度的抽象

深度神经网络

特征 深度神经网络由多个单层非线性网络叠加而成。常见的单层网络按照编码解码情况分为3类:只包含编码器部分、只包含解码器部分、既有编码器部分也有解码器部分

编码器提供从输入到隐含特征空间的自底向上的映射,解码器以重建结果尽可能接近原始输入为目标将隐含特征映射到输入空间

分类 前馈深度网络(FFDN) 由多个编码器叠加而成、反馈深度网络(FBDN) 由多个编码器叠加而成、双向深度网络(BDDN) 通过叠加多个编码器层和解码器层构成(每层可能是单独的的编码过程或解码过程,也可能既包含编码过程也包含解码过程)

深度神经网络分类结构

前馈深度网络 前馈神经网络是最初的人工神经网络模型之一。具有几个特点:信息只沿一个方向流动,从输入单元通过一个或多个隐层到达输出单元,在网络中没有封闭环路

几个名称解析

  • 单层感知机:无法解决线性不可分问题(异或操作)
  • 多层感知机:可解决线性不可分问题。反向传播算法与神经网络结合,传统反向传播算法收敛速度慢、需要大量带标签的训练数据、容易陷入局部最优等缺点,因此多层感知机效果不是十分理想
  • 神经认知机(感受野):卷积神经网络的一种特例,卷积神经网络是神经认知机的推广形式
  • 卷积神经网络(CNN) 由多个单层卷积神经网络组成的可训练的多层网络结构

单层卷积神经网络包括卷积、非线性变换和下采样3个阶段。其中,下采样阶段为非必需,一些卷积神经网络完全去掉该阶段,通过在卷积阶段设置卷积核窗口滑动步长大于1达到降低分辨率的目的

卷积过程

其中下采样阶段不是每层都必需的。每层的输入和输出为一组向量构成的特征图(feature map) (第一层的原始输入信号可以看作一个具有高稀疏度的高维特征图)。例如,输入部分是一张彩色图像,每个特征图对应的则是一个包含输入图像彩色通道的二维数组(对于音频输入,特征图对应的是一维向量;对于视频或立体影像,对应的是三维数组);对应的输出部分,每个特征图对应的是表示从输入图片所有位置上提取的特定特征

卷积神经网络,将单层的卷积神经网络进行多次堆叠,前一层的输出作为后一层的输入,便构成卷积神经网络。其中每 2 个节点间的连线,代表输入节,一般最后一层的输出特征图后接一个全连接层和分类器

卷积神经网络的特点:采用原始信号直接作为网络的输入,避免传统识别算法中复杂的特征提取和图像重建过程。局部感受野方法获取的观测特征与平移、缩放和旋转无关

卷积阶段利用权值共享结构减少权值的数量进而降低网络模型的复杂度;下采样阶段利用图像局部相关性的原理对特征图进行子抽样,在保留有用结构信息的的同时有效地减少数据处理量

反馈神经网络 是通过解反卷积或学习数据集的基,对输入信号进行反解前馈网络是对输入信号进行编码的过程,反馈网络则是对输入信号进行解码的过程。卷积神经网络是一种自底向上的方法,该方法的每层输入信号经过卷积、非线性变换和下采样 3 个阶段处理,进而得到多层信息反卷积网络模型的每层信息是自顶向下的,组合通过滤波器组学习得到的卷积特征来重构输入信号

单层翻卷积模型

反卷积网络的特点:通过求解最优化输入信号分解问题计算特征,而不是利用编码器进行近似,这样能使隐层的特征更加精准,更有利于信号的分类货重建

双向深度网络 双向网络由多个编码器和解码器层叠加形成,每层可能是单独的编码过程或解码过程,每层可能是单独的编码过程或解码过程,也可能同时包含编码和解码过程

双向网络的结构结合了编码器和解码器 2 类单层网络结构,双向网络的学习则结合了前馈网络和反馈网络的训练方法,通常包括单层网络的预训练和逐层反向迭代误差 2 个部分,单层网络的预训练多采用贪心算法;网络结构中各层网络结构都经过预训练之后,再通过反向迭代误差对整个网络结构进行权值微调. 其中单层网络的预训练是对输入信号编码和解码的重建过程,这与反馈网络训练方法类似;而基于反向迭代误差的权值微调与前馈网络训练方法类似

小结

文章沿着计算机科学体系的脉络,梳理了人工智能和机器学习整个知识体系,并对神经网络这个分支主要做了简单介绍。






    版权声明:部分文章来源于网络,仅作为参考,不代表本站观点。如果网站中图片和文字侵犯了您的版权,请联系我们及时删除处理!


    上一篇:人工智能入门指南:一文搞懂人工智能关键知识

    下一篇:人工智能的全面科普




      相关推荐