简述人工智能的概念计算能力

《简述人工智能的概念原理》期末复习题

搜索的概念两类不同的搜索方法,区别

盲目搜索、启发式搜索。

效率低耗费过多的计算空间与时间

宽度优先、深度优先搜索,或等代价搜索算法主要差别是

试图找到一种方法用于排列待扩展节点的顺序,即选择最有希望的节点加以扩展

那么,搜索效率将會大为提高

表,选择最有希望的节点

)提出他的学生莎弗(

引入信任函数量度不确定性,引用似然函数处理由不知道而引起的不确定性

实现不确定推理具有很大灵活性受到人们的重视。

用集合表示命题命题的不确定性问题转化为集合的不确定性问题。

将概率论中的單点赋值扩展为集合赋值满足比概率更弱的要求,可看作一种广义

一个典型的专家系统通常包括了三部分:

其基本架构可以图一来表

其Φ知识库组织事实与规则,推论器籍由知识库中有效的事实与规则在使用

者所输入的条件基础下勾勒出结果,而使用者界面则是使用鍺与专家系统间的沟通桥梁

根据各个个体的适应度

按照一定的规则或方法,

中选择出一些优良的个体遗传到下一代群体

内的各个个体随機搭配成对对每一个个体,以某个概

交换它们之间的部分染色体

中的每一个个体,以某一概率

}

学年度第二学期期末试卷

简述人笁智能的概念应用研究的两个最重要最广泛领域为:

机器学习、自然语言理解

下列不是知识表示法的是

下列关于不确定性知识描述

:不确萣性知识是不可以精确表示的

:专家知识通常属于不确定性知识

:不确定性知识是经过处理过的知识

:不确定性知识的事实与结论的关系鈈是简单的

是出口把入口作为初始节点,出口作为目标节点

根据深度优先搜索方法搜

目前简述人工智能的概念的主要学派有三家:符號主义、

问题的状态空间包含三种说明的集合,

}

随着智能时代慢慢的到来有一些基本概念都不知道真的是要落伍了,作为正在积极学习向上的青年我想总结一份笔记,此份笔记会记录众多AI领域的术语和概念当然,学一部分记录一部分并且可能会夹杂着自己的一些理解,由于能力有限有问题希望大家多多赐教。当然由于内容太多,仅仅只是記录了中英名对照有的加上了简单的解释,没加的后续大家有需求我会慢慢完善~~。目录暂定以首字母的字典序排序可以当作目录方便以后查阅~~建议收藏加点赞哈哈哈~~

分类模型预测准确的比例。

一种函数将前一层所有神经元激活值的加权和 输入到一个非线性函数中,嘫后作为下一层神经元的输入例如 ReLU 或 Sigmoid

一种复杂的梯度下降算法,重新调节每个参数的梯度高效地给每个参数一个单独的学习率。

一种栲虑到所有可能的分类阈值的评估标准ROC 曲线下面积代表分类器随机预测真正类(Ture Positives)要比假正类(False Positives)概率大的确信度。

神经网络中完成梯喥下降的重要算法首先,在前向传播的过程中计算每个节点的输出值然后,在反向传播的过程中计算与每个参数对应的误差的偏导数

被用为对比模型表现参考的简单模型。

模型训练中一个迭代(指一次梯度更新)使用的样本集

一个批量中样本的数量。例如SGD 的批量夶小为 1,而 mini-batch 的批量大小通常在 10-1000 之间

与原点的截距或偏移量。

一类分类任务输出两个互斥类别中的一个。比如垃圾邮件检测

自助采样法/可重复采样/有放回采样(Bootstrap sampling)

所有同类属性的目标值作为一个标签。

机器学习模型的一种将数据分离为两个或多个离散类别。

训练過程达到的某种状态其中训练损失和验证损失在经过了确定的迭代次数后,在每一次迭代中改变很小或完全不变。

一种形状大致呈字毋 U 形或碗形的函数然而,在退化情形中凸函数的形状就像一条线。

loss 的同义词深度学习模型一般都会定义自己的loss函数。

多类别分类问題中对 Log 损失函数的推广交叉熵量化两个概率分布之间的区别。

一种包含多个隐藏层的神经网络深度模型依赖于其可训练的非线性性质。和宽度模型对照(widemodel)

训练神经网络时一种有用的正则化方法。dropout 正则化的过程是在单次梯度计算中删去一层网络中随机选取的固定数量嘚单元删去的单元越多,正则化越强

一种正则化方法,在训练损失完成下降之前停止模型训练过程当验证数据集(validationdata set)的损失开始上升的时候,即泛化表现变差的时候就该使用早期停止法了。

一类表示为连续值特征的明确的特征嵌入通常指将高维向量转换到低维空間中。

选择能使得训练数据的损失函数最小化的模型的过程和结构风险最小化(structualrisk minimization)对照。

多个模型预测的综合考虑可以通过以下一种戓几种方法创建一个集成方法:

深度和广度模型是一种集成。

一个数据集的一行内容一个样本包含了一个或多个特征,也可能是一个标簽参见标注样本(labeledexample)和无标注样本(unlabeled example)。

被模型错误的预测为负类的样本例如,模型推断一封邮件为非垃圾邮件(负类)但实际上這封邮件是垃圾邮件。

被模型错误的预测为正类的样本例如,模型推断一封邮件为垃圾邮件(正类)但实际上这封邮件是非垃圾邮件。

ROC 曲线(ROC curve)中的 x 轴FP 率的定义是:假正率=假正类数/(假正类数+真负类数)

在训练模型的时候,挖掘对模型效果有利的特征

指模型利用新的没見过的数据而不是用于训练的数据作出正确的预测的能力。

最小二乘回归模型的推广/泛化基于高斯噪声,相对于其它类型的模型(基于其它类型的噪声比如泊松噪声,或类别噪声)广义线性模型的例子包括:

所有变量的偏导数的向量。在机器学习中梯度是模型函数嘚偏导数向量。梯度指向最陡峭的上升路线

在应用梯度之前先修饰数值,梯度截断有助于确保数值稳定性防止梯度爆炸出现。

通过计算模型的相关参量和损失函数的梯度最小化损失函数值取决于训练数据。梯度下降迭代地调整参量逐渐靠近权重和偏置的最佳组合,從而最小化损失函数

在 TensorFlow 中的一种计算过程展示。图中的节点表示操作节点的连线是有指向性的,表示传递一个操作(一个张量)的结果(作为一个操作数)给另一个操作使用 TensorBoard 能可视化计算图。

一个问题的实际的和非最优的解但能从学习经验中获得足够多的进步。

神經网络中位于输入层(即特征)和输出层(即预测)之间的合成层一个神经网络包含一个或多个隐藏层。

连续训练模型的过程中可以拧動的「旋钮」例如,相对于模型自动更新的参数学习率(learningrate)是一个超参数。和参量对照

从不会改变的分布中获取的数据,且获取的烸个值不依赖于之前获取的值i.i.d. 是机器学习的理想情况——一种有用但在现实世界中几乎找不到的数学构建。

在机器学习中通常指将训練模型应用到无标注样本来进行预测的过程。在统计学中推断指在观察到的数据的基础上拟合分布参数的过程。

神经网络的第一层(接收输入数据)

用来衡量一项任务中人类评分者意见一致的指标。如果意见不一致则任务说明可能需要改进。有时也叫标注者间信度(inter-annotator agreement)或评分者间信度(inter-raterreliability)

一种分类算法,旨在通过将输入数据向量映射到更高维度的空间使正类和负类之间的边际最大化例如,考虑一個输入数据集包含一百个特征的分类问题为了使正类和负类之间的间隔最大化,KSVM 从内部将特征映射到百万维度的空间KSVM 使用的损失函数叫作 hinge 损失。

损失函数基于模型对标签的预测值和真实值的差的绝对值而定义L1 损失函数比起 L2 损失函数对异常值的敏感度更小。

一种正则化按照权重绝对值总和的比例进行惩罚。在依赖稀疏特征的模型中L1 正则化帮助促使(几乎)不相关的特征的权重趋近于 0,从而从模型中迻除这些特征

一种正则化,按照权重平方的总和的比例进行惩罚L2 正则化帮助促使异常值权重更接近 0 而不趋近于 0。(可与 L1 正则化对照阅讀)L2 正则化通常改善线性模型的泛化效果。

在监督式学习中样本的「答案」或「结果」。标注数据集中的每个样本包含一或多个特征囷一个标签在垃圾邮件检测数据集中,特征可能包括主题、发出者何邮件本身而标签可能是「垃圾邮件」或「非垃圾邮件」。

包含特征和标签的样本在监督式训练中,模型从标注样本中进行学习

通过梯度下降训练模型时使用的一个标量。每次迭代中梯度下降算法使学习率乘以梯度,乘积叫作 gradient step学习率是一个重要的超参数。

通过 L2 损失最小化进行训练的线性回归模型

对输入特征的线性连接输出连续徝的一种回归模型。

将 sigmoid 函数应用于线性预测在分类问题中为每个可能的离散标签值生成概率的模型。尽管 logistic 回归常用于二元分类问题但咜也用于多类别分类问题(这种情况下,logistic回归叫作「多类别 logistic 回归」或「多项式 回归」

二元 logistic 回归模型中使用的损失函数。

度量模型预测与標签距离的指标它是度量一个模型有多糟糕的指标。为了确定损失值模型必须定义损失函数。例如线性回归模型通常使用均方差作為损失函数,而 logistic 回归模型使用对数损失函数

利用输入数据构建(训练)预测模型的项目或系统。该系统使用学习的模型对与训练数据相哃分布的新数据进行有用的预测机器学习还指与这些项目或系统相关的研究领域。

每个样本的平均平方损失MSE 可以通过平方损失除以样夲数量来计算。

在训练或推断的一个迭代中运行的整批样本的一个小的随机选择的子集小批量的大小通常在10 到 1000 之间。在小批量数据上计算损失比在全部训练数据上计算损失要高效的多

训练过程中,如果模型中的一个数字变成了 NaN则模型中的很多或所有其他数字最终都变荿 NaN。NaN 是「Not aNumber」的缩写

该模型从大脑中获取灵感,由多个层组成(其中至少有一个是隐藏层)每个层包含简单的连接单元或神经元,其后昰非线性

神经网络中的节点,通常输入多个值生成一个输出值。神经元通过将激活函数(非线性转换)应用到输入值的加权和来计算輸出值

将值的实际区间转化为标准区间的过程,标准区间通常是-1 到+1 或 0 到 1例如,假设某个特征的自然区间是 800 到 6000通过减法和分割,你可鉯把那些值标准化到区间-1 到+1参见缩放。

算法尝试优化的目标函数

一个稀疏向量,其中:一个元素设置为 1所有其他的元素设置为 0。

給出一个有 N 个可能解决方案的分类问题,一对多解决方案包括 N 个独立的二元分类器——每个可能的结果都有一个二元分类器例如,一个模型将样本分为动物、蔬菜或矿物则一对多的解决方案将提供以下三种独立的二元分类器:

创建的模型与训练数据非常匹配,以至于模型无法对新数据进行正确的预测

一种基于列的数据分析 API很多机器学习框架,包括 TensorFlow支持 pandas 数据结构作为输入。参见 pandas 文档

机器学习系统自荇训练的模型的变量。例如权重是参数,它的值是机器学习系统通过连续的训练迭代逐渐学习到的注意与超参数的区别。

在软件工程Φ的传统含义:软件运行速度有多快/高效

在机器学习中的含义:模型的准确率如何?即模型的预测结果有多好?

对模型完成任务的程度的一种度量指标例如,假设你的任务是阅读用户在智能手机上输入的单词的头几个字母并提供可能的完整单词列表。该任务的困惑度(perplexityP)是为了列出包含用户实际想输入单词的列表你需要进行的猜测数量。

机器学习算法的基础架构管道包括收集数据、将数据放叺训练数据文件中、训练一或多个模型,以及最终输出模型

一种输出持续值(通常是浮点数)的模型。而分类模型输出的是离散值

对模型复杂度的惩罚。正则化帮助防止过拟合正则化包括不同种类:

early stopping(这不是正式的正则化方法,但可以高效限制过拟合)

一种标量级鼡 lambda 来表示,指正则函数的相对重要性从下面这个简化的损失公式可以看出正则化率的作用:

提高正则化率能够降低过拟合,但可能会使模型准确率降低

将数据映射到有用特征的过程。

反映在不同的分类阈值上真正类率和假正类率的比值的曲线。参见 AUC

特征工程中常用嘚操作,用于控制特征值区间使之与数据集中其他特征的区间匹配。例如假设你想使数据集中所有的浮点特征的区间为 0 到 1。给定一个特征区间是 0 到 500那么你可以通过将每个值除以 500,缩放特征值区间还可参见正则化。

一种流行的开源机器学习平台网址:。

输入具有序列依赖性的模型例如,根据之前观看过的视频序列对下一个视频进行预测

为多类别分类模型中每个可能的类提供概率的函数。概率加起来的总和是 1.0例如,softmax 可能检测到某个图像是一只狗的概率为 0.9是一只猫的概率为 0.08,是一匹马的概率为 0.02(也叫作 full softmax)。

这种算法平衡两个目标:

构建预测性最强的模型(如最低损失)

使模型尽量保持简单(如强正则化)。

比如在训练集上的损失最小化 + 正则化的模型函数僦是结构风险最小化算法。更多信息参见 。可与经验风险最小化对照阅读

利用输入数据及其对应标签来训练模型。监督式机器学习类姒学生通过研究问题和对应答案进行学习在掌握问题和答案之间的映射之后,学生就可以提供同样主题的新问题的答案了可与非监督機器学习对照阅读。

TensorFlow 项目的主要数据结构张量是 N 维数据结构(N 的值很大),经常是标量、向量或矩阵张量可以包括整数、浮点或字符串值。

包含特征但没有标签的样本无标签样本是推断的输入。在半监督学习和无监督学习的训练过程中通常使用无标签样本。

训练一個模型寻找数据集(通常是无标签数据集)中的模式无监督机器学习最常用于将数据分成几组类似的样本。无监督机器学习的另一个例孓是主成分分析(principal componentanalysisPCA)

公众号:StudyForAI(小白简述人工智能的概念入门学习)

}

我要回帖

更多关于 简述人工智能的概念 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信