机器学习中神经网络算法matlab60element是如何计算出的

日拱一卒,功不唐捐
机器学习中使用的神经网络第四讲笔记
博客已经迁移至
Geoffery Hinton教授的Neuron Networks for Machine Learning的第四讲主要介绍如何使用back propagation算法来学习到词汇的特征表示、Neuron-probabilistic language models和处理大规模输出的方法。
Learning to predict the next word
接下来的几小节主要介绍如何使用back propagation算法来学习到词汇的特征表示。我们从一个很简单的例子开始,介绍使用back propagation算法来将词汇间的相关信息转换成特征向量。
下图给出了一个家庭的树状图,我们要做的就是让神经网络去理解树状图中的信息,将其中的信息翻译成一个个命题,如下面第二张图所示。
现在的关系学习任务是从类似上图中的由树状图中得到的三元关系得到规律性的东西,一个典型的表示方法如下图红色字体所示。要知道,从树状图中搜索这种典型的规律是一个很困难的事情,因为搜索空间是离散的。一个与众不同的方法是使用神经网络来搜索权值的连续实数域,从而尝试从树状图中提取到类似的关系表示。
如果神经网络能够根据三元组信息的前两个信息元素预测出第三个信息元素,我们就说神经网络能从树状图中提取到信息。下图是神经网络的一个示意图,底部为输入,顶部为输出。在底部,我们输入一个人名p1和一种关系R;在顶部,输出则是神经网络找到的与p1有着关系R的人名p2。
现在我们需要做的是对信息以一种中性(不加感情色彩)的方式进行编码。因为前面给出的家庭关系树状图例子中有24个人,所以,在流程图的底部会产生24个neuron,每一个person one对应24个人中的一个。类似的这里应该有12个neuron对应着12个不同的关系,对于给定的person one和relationship神经网络应该有唯一的输出。当然,比如说图中没有给出Christopher的mother,那神经网络给出的答案肯定是错的。
这里截图一下视频中的小测试,我认为还是值得思考的。
我们使用类似小测试中的编码方法,最大程度的减少因编码问题而造成的人物之间的相似度信息,这样神经网络应该就不会得到由不当编码而暗含的关系信息(we’re not cheating by giving the network information about who’s like who)。就是说,对于神经网络而言,人物编码只是一组没有任何意义的标志。
在神经网络的第二层,我们已经得到了the local encoding of person one,然后将其与24个neuron的一个子集联系起来,在这个例子中这个集合的大小为6(一个人最多有6个关系),神经网络需要针对这6个neuron对person one进行re-represent。下图是神经网络得到的信息(具体如何得来的后面课程会介绍),用24维的二元向量来表示每一个人,下面给出了6个unit,上面一行代表英国人,下面一行代表意大利人。仔细观察发现,右侧第一个的第一行全为positive(黑色),第二行全为negative(白色),说明学习到了这十二个人全是英国人;右侧第二个学习到了辈分,辈分最高的人全对应中等大小的方块,辈分第二的人全对应的是最小的方块,辈分最小的人全对应最大的方块;左侧最后一个学习到了分支,标记为negative(白色)的人全都在树状图的有分支,标记为positive(黑色)的人全都在树状图的左分支。(这里是按照应该人一组说明的,对意大利人是一样的)可以看到,神经网络自动的从树状图中挖掘到了一些隐含的信息。
下面两张图告诉我们神经网络学到了什么。
对于大规模问题,下图给出了建议。
这一小节不太懂,希望学过的同学分享一下你们的理解。
A brief diversion into cognitive science
这一小节简单的介绍一点认知科学(cognitive science)。在计算机科学中,关于概念的特征向量表述与该概念关系到其他概念时的表述之间的关系,已经持续争论了近百年。针对家庭关系树的学习算法在这个争论的方面有一些值得讨论的东西。
在认知科学中存在两种对立的观点:特征理论(feature theory)认为概念时语义特征的集合,而结构主义理论(structualist theory)认为概念的意义依赖于其与其他概念的关系。
Hinton教授认为两种观点都是错的,因为两种观点根本就不是对立的。
Another diversion: The softmax output function
这一小节介绍soft max output function。该函数将神经网络的输出加到一起,用以表示互相排斥的选择的概率分布。
先说点题外的东西。对于训练神经网络或者线性神经元来说,平方误差是一个明智的选择,但其也有一些缺点。例如,如果理想输出为1,而实际输出为0.,对于逻辑回归单元来说梯度特别小,需要很长很长的时间才能修正参数。再或者,如果我们要用互相排斥的类别来标记输入,不同输出的概率之和应为1,单我们没有提供给网络这一信息,那么当出现标记为A的概率为13,标记为B的概率为13这样的结果(输出只有A和B两种可能)时是比较可怕的(不可信的)。
那么是否存在更好地损失函数呢?答案是肯定的,该函数可以让输出表示不同输出选择的概率分布。这个函数就是soft max output function。Softmax group是非局部、非线性的,其输出yi不仅仅来自于zi,而是来自所有互相排斥的zj。下面给出了yi的公式及其对zi的偏导。
下图给出了损失函数及其对zi的偏导。
Neuron-probabilistic language models
这一小节给出几个用特征向量来表征词汇的实例。首先看其在语音识别(speech recognition)中的应用。在语音识别中,我们很难从有噪声的语音中完美得分辨出音位(phoneme),原声输入总是不够好。而我们人类很擅长利用对说话方式的理解来听出正确的词汇,这就是说语音识别者通常需要知道接下来可能会出现哪些词汇不会出现哪些词汇。
这里有一个预测接来下可能会出现的几个词的频率的一个方法,称为三元模型方法(trigram method),下图给出了步骤。
三元模型方法也存在一些缺点,其无法理解一些词汇间的相似性,如下图所示。为克服这一缺陷,我们需要利用前面词汇的语法语音特征向量来预测下一个词汇的特征。
下图是Bengio教授预测下一个词汇的神经网络。
下图给出了大规模输出面临的问题,在下一小节中我们会讨论大规模输出的问题。
Ways to deal with the large number of possible outputs
这一小节讨论如果真的需要100,000个词汇的概率时,我们避免真的使用100,000个输出单元的几个方法。下图给出了a serial architecture,输入在原来的基础上加上了candidate,表示可能的可能出现的词汇。多次运用神经网络计算出每一个候选词汇的logit score之后,再使用softmax函数得到每一个词汇的可能性。由词汇可能值和目标词汇可能值的差值,我们可以得到交叉熵损失导数(cross-entropy error derivatives),而该导数可以提高正确选项的分数而降低high-scoring rivals的分数。如果仅使用由其它预测器(predictor)得来一个候选词汇的小集合,那我们就可以节省很多时间。
这里介绍了得到候选词汇的二叉树。我们将所有的词汇放到二叉树的叶子节点上,然后我们利用前面词汇组成的文本产生一个预测向量v。我们拿从二叉树的每一个节点学习到的向量与预测向量作比较,做比较的方法是taking a scale of product of the, the prediction vector and the vector that we’ve learned for the node of the tree(不知道啥意思)。然后引入logistics函数,计算出下图中二叉树中每一个路径的权值(其中σ是参数)。
下图中的红线路径上的节点是我们在学习中需要考虑的,个中缘由没搞明白。
下面还给出了学习词汇的特征向量的一种简单方法,该方法是由Collobert和Weston两人提出的。例如,给出一个长度为11的文本,前五个词汇和后五个词汇输入正确,中间的词汇可能输入正确的词汇也可能随机的输入一个词汇。在神经网络得到训练之后,当中间的词汇输入正确时,输出结果时high的;当中间的词汇输入时一个随机的词汇时,输出结果是low的。将词汇映射到特征向量,然后去判断文本中的某一个词汇是否合理。
下面介绍了在二维平面中可视化。
下面两张图给出了2500个最常用词汇可视化后的一部分,从中可以看出哪些词会经常出现在一起等规律性的东西。
没有更多推荐了,请在APP上操作
打开万方数据APP,点击右上角"扫一扫",扫描二维码即可将您登录的个人账号与机构账号绑定,绑定后您可在APP上享有机构权限,如需更换机构账号,可到个人中心解绑。
检索详情页
{"words":"$head_words:BP神经网络+$head_words:网络模型+$head_words:网络训练","themeword":"$head_words","params":"$title:基于神经网络算法的机器学习模型研究"}
&&&基于神经网络算法的机器学习模型研究
基于神经网络算法的机器学习模型研究
人工神经网络是一种新型的信息处理技术,具有先进的建模技术,但网络自身存在的不足影响了其进一步的发展和应用。本文详细研究了标准BP神经网络,并提出了网络性能的改进着眼点。
摘要: 人工神经网络是一种新型的信息处理技术,具有先进的建模技术,但网络自身存在的不足影响了其进一步的发展和应用。本文详细研究了标准BP神经网络,并提出了网络性能的改进着眼点。&&
相关论文(与本文研究主题相同或者相近的论文)
同项目论文(和本文同属于一个基金项目成果的论文)
您可以为文献添加知识标签,方便您在书案中进行分类、查找、关联
请输入添加的标签
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)
&北京万方数据股份有限公司 万方数据电子出版社
实名学术社交
个性化订阅推荐
快速查看收藏过的文献神经网络和机器学习基础入门分享
神经网络和机器学习基础入门分享
最近在做知识图谱实体对齐和属性对齐中,简单用了下Word2vec谷歌开源代码。Word2vec是一个将单词表征成向量的形式,它可以把文本内容的处理简化为向量空间中的向量运算,计算出向量空间上的相似度,来表示文本语义上的相似度。
最近在做知识图谱实体对齐和属性对齐中,简单用了下Word2vec谷歌开源代码。Word2vec是一个将单词表征成向量的形式,它可以把文本内容的处理简化为向量空间中的向量运算,计算出向量空间上的相似度,来表示文本语义上的相似度。
Word2vec采用CBOW(Continuous Bag-Of-Words Model,连续词袋模型)和Skip-Gram(Continuous Skip-GramModel)两种模型,涉及到神经网络和深度学习的一些知识。故这周给学弟和同学们分享PPT的主题就是《神经网络是个什么东东?》,参考了很多资料并简单讲述了机器学习和神经网络的入门知识。
希望文章对你有所帮助,文章中分享了很多参考资料和最后对吴老的赞扬~
一. 机器学习入门介绍
以前转载过"数盟"的一篇关于机器学习入门介绍的文章,这里简单引入它的几张图片作为引入。参考原文地址和转载地址:
机器学习这个词是让人疑惑的,首先它是英文名称Machine Learning(简称ML)的直译,在计算界Machine一般指计算机。这个名字使用了拟人的手法,说明了这门技术是让机器“学习”的技术。但是计算机是死的,怎么可能像人类一样“学习”呢?
下图是非常形象的将机器学习的过程与人类对历史经验归纳的过程做个比对:
机器学习方法是计算机利用已有的数据(经验),得出了某种模型(迟到的规律),并利用此模型预测未来(是否迟到)的一种方法。
常见的例子包括房价与面积、预测患病概率等等,详见斯坦福NG教授课程。
下图是机器学习所牵扯的一些相关范围的学科与研究领域。
简单的等价划分如下:
模式识别=机器学习: 两者的主要区别在于前者是从工业界发展起来的概念,后者则主要源自计算机学科。
数据挖掘=机器学习+数据库: 从数据中挖出金子,以及将废弃的数据转化为价值。
计算机视觉=图像处理+机器学习: 图像处理技术用于将图像处理为适合进入机器学习模型中的输入,机器学习则负责从图像中识别出相关的模式。例如百度识图、手写字符识别、车牌识别等等应用。
统计学习≈机器学习: 统计学习是个与机器学习高度重叠的学科。因为机器学习中的大多数方法来自统计学,甚至可认为统计学的发展促进机器学习的繁荣昌盛。例如著名的支持向量机算法,就是源自统计学科。区别在于统计学习者重点关注的是统计模型的发展与优化,偏数 学,而机器学习者更关注的是能够解决问题,偏实践。
语音识别=语音处理+机器学习: 语音识别就是音频处理技术与机器学习的结合。一般会结合自然语言处理的相关技术,目前的相关应用有苹果的语音助手siri。
自然语言处理=文本处理+机器学习: 让机器理解人类的语言,NLP中大量使用了编译原理相关的技术,例如词法分析、语法分析、语义理解等。
自然语言处理作为唯一由人类自身创造的符号,一直是机器学习界不断 研究的方向。按照百度机器学习专家余凯的说法“听与看,说白了就是阿猫和阿狗都会的,而只有语言才是人类独有的”。如何利用机器学习技术进行自然语言的的深度理解,一直是工业和学术界关注的焦点。
Deep Learning (深度学习)算法已经在图像和音频领域取得了惊人的成果,但是在 NLP 领域中尚未见到如此激动人心的结果。有一种说法是:
语言(词、句子、篇章等)属于人类认知过程中产生的高层认知抽象实体,而语音和图像属于较为底层的原始输入信号,所以后两者更适合做deep learning来学习特征。
而将词用“词向量”的方式表示可谓是将 Deep Learning 算法引入 NLP 领域的一个核心技术。大多数宣称用了 Deep Learning 的论文,其中往往也用了词向量。显然Word2vec也引入了词向量。参考licstar文章:
机器学习的方法很多,其中经典的方法包括:回归算法、神经网络、支持向量机SVM、聚类算法、降维算法、推荐算法、朴素贝叶斯、决策树等。详见这两篇文章:
二. 神经网络入门介绍
该部分主要通过白话文的方式讲述神经网络,其中主要转载吴老的文章。链接:
斯坦福机器学习视频NG教授
书籍《游戏开发中的人工智能》、《游戏编程中的人工智能技术》
神经网络(也称之为人工神经网络,ANN)算法是80年代机器学习界非常流行的算法,不过在90年代中途衰落。现在,携着“深度学习”之势,神经网络重装归来,重新成为最强大的机器学习算法之一。
人工神经网络(artificial neural network,缩写ANN),是一种模仿生物神经网络的结构和功能的数学模型或计算模型。神经网络由大量的人工神经元联结进行计算。其来源于生物,故吴老先先讲述了生物神经网络的基础知识,从而进行引入。
神经细胞通过轴突将信号传递给其他的神经细胞,通过树突向各个方向接受信号。
神经细胞利用电-化学过程交换信号。输入信号来自另一些神经细胞。这些神经细胞的轴突末梢(也就是终端)和本神经细胞的树突相遇形成突触(synapse),信号就从树突上的突触进入本细胞。
信号在大脑中实际怎样传输是一个相当复杂的过程,但就我们而言,重要的是把它看成和现代的计算机一样,利用一系列的0和1来进行操作。就是说,大脑的神经细胞也只有两种状态:兴奋(fire)和不兴奋(即抑制)。
神经细胞利用一种我们还不知道的方法,把所有从树突突触上进来的信号进行相加,如果全部信号的总和超过某个阀值,就会激发神经细胞进入兴奋(fire)状态,这时就会有一个电信号通过轴突发送出去给其他神经细胞。如果信号总和没有达到阀值,神经细胞就不会兴奋起来。这样的解释有点过分简单化,但已能满足我们的目的。
由于人脑具有一下几个特点:
1.能实现无监督的学习
大脑能够自己进行学习,而不需要导师的监督教导。如果一个神经细胞在一段时间内受到高频率的刺激,则它和输入信号的神经细胞之间的连接强度就会按某种过程改变,使得该神经细胞下一次受到激励时更容易兴奋。
2.对损伤有冗余性(tolerance)
大脑即使有很大一部分受到了损伤, 它仍然能够执行复杂的工作。
3.处理信息的效率极高
神经细胞之间电-化学信号的传递,与一台数字计算机中CPU的数据传输相比,速度是非常慢的,但因神经细胞采用了并行的工作方式,使得大脑能够同时处理大量的数据。例如,大脑视觉皮层在处理通过我们的视网膜输入的一幅图象信号时,大约只要100ms的时间就能完成,眼睛并发执行。
4.善于归纳推广
大脑和数字计算机不同,它极擅长的事情之一就是模式识别,并能根据已熟悉信息进行归纳推广(generlize)。例如,我们能够阅读他人所写的手稿上的文字,即使我们以前从来没见过他所写的东西。
5.它是有意识的
如下图所示,它表示的是一个人工神经细胞。其中:
输入(Input);权重(Weight):左边五个灰色圆底字母w代表浮点数;激励函数(Activation
Function):大圆,所有经过权重调整后的输入加起来,形成单个的激励值;输出(Output):神经细胞的输出。
进入人工神经细胞的每一个input(输入)都与一个权重w相联系,正是这些权重将决定神经网络的整体活跃性。假设权重为-1和1之间的一个随机数,权重可正可负(激发和抑制作用)。当输入信号进入神经细胞时,它们的值将与它们对应的权重相乘,作为图中大圆的输入。如果激励值超过某个阀值(假设阀值为1.0),就会产生一个值为1的信号输出;如果激励值小于阀值1.0,则输出一个0。这是人工神经细胞激励函数的一种最简单的类型。涉及的数学知识如下图所示:
如果最后计算的结果激励值大于阈值1.0,则神经细胞就输出1;如果激励值小于阈值则输出0。这和一个生物神经细胞的兴奋状态或抑制状态是等价的。下面图是通过神经网络实现逻辑表达式与运算:(参考NG斯坦福机器学习讲义)
可以看到x1和x2变量作为神经网络的输入,当它们取不同的0或1值时,其结果通过sigmod函数计算的值是不同的。它模拟了整个AND运算。
该图中神经网络共有三层 ( 注输入层不是神经细胞,神经细胞只有两层 ):
输入层中的每个输入都馈送到了隐藏层,作为该层每一个神经细胞的输入;然后,从隐藏层的每个神经细胞的输出都连到了它下一层(即输出层)的每一个神经细胞。
1.图中仅仅画了一个隐藏层,作为前馈网络,一般地可以有任意多个隐藏层。但在对付你将处理的大多数问题时一层通常是足够的。
2.事实上,有一些问题甚至根本不需要任何隐藏单元,你只要把那些输入直接连结到输出神经细胞就行了。
3.每一层实际都可以有任何数目的神经细胞,这完全取决于要解决的问题的复杂性。但神经细胞数目愈多,网络的工作速度也就愈低,网络的规模总是要求保持尽可能的小。
神经网络体系创建成功后,它必须接受训练来认出数字4,方法:
1.先把神经网络的所有权重初始化为任意值;
2.然后给他一系列输入代表面板不同配置的输入,对每种输入配置,检查它的输出是什么,并调整相应的权重;
3.如果我们送给网络的输入模式不是4,则我们知道网络应该输出一个0。因此每个非4字符时,网络权重应进行调整,使得它的输出趋向于0;当代表4的模式输送给网络时,则应把权重调整到使其输出趋向于1;
4.我们可以进一步识别0到9的所有数字或字母,其本质是手写识别的工作原理。
5.最后,网络不单能认识已经训练的笔迹,还显示了它有显著的归纳和推广能力。
正是这种归纳推广能力,使得神经网络已经成为能够用于无数应用的一种无价的工具,从人脸识别、医学诊断,直到跑马赛的预测,另外还有电脑游戏中的bot(作为游戏角色的机器人)的导航,或者硬件的robot(真正的机器人)的导航。
上图会演示神经网络在图像识别领域的一个著名应用,这个程序叫做LeNet,是一个基于多个隐层构建的神经网络。通过LeNet可以识别多种手写数字,并且达到很高的识别精度与拥有较好的鲁棒性。LeNet的发明人是机器学习的大牛Yann LeCun(目前google)。
右下方的方形中显示的是输入计算机的图像,方形上方的红色字样“answer”后面显示的是计算机的输出。左边的三条竖直的图像列显示的是神经网络中三个隐藏层的输出,可以看出,随着层次的不断深入,越深的层次处理的细节越低,例如层3基本处理的都已经是线的细节了。
推荐我自己非常喜欢的&牛逼的CSDN机器学习"一只鸟的天空"博主的一篇文章:
这种类型的训练称作有监督的学习(supervised learnig),用来训练的数据称为训练集(training set)。调整权重可以采用许多不同的方法。对本类问题最常用的方法就是反向传播(backpropagation,简称backprop或BP)方法,即BP神经网络。
你自己可以去学习另外的一种训练方式,即根本不需要任何导师来监督的训练,或称无监督学习(unsupervised learnig)。
下图是神经网络的简单回顾与总结:
最后给大家看一个利用神经网络对图片进行分类的例子:过程就不详细论述了,图片很清晰,对人、汽车、摩托车、卡车进行图片识别,而具体的隐藏层函数需要大家去深入研究,我自己研究得也很浅显,抱歉~
参考资料包括NG教授的课程讲义和CSDN一位很厉害的女博主Rachel-Zhang:
三. 监督学习和无监督学习
因为给刚入学的学弟们讲的PPT,所以也简单讲述了监督学习和无监督学习的区别。下图是刘斌《Web数据挖掘》书的整体框架,当年我讲过。
在给它们解释监督学习和无监督学习的过程中,主要通过的五个问题进行讲解。
第一个问题:什么是学习(Learning)?
一个成语就可以概括:举一反三 。以高考为例,高考的题目在上考场前我们未必做过,但在高三做过很多题目,懂得解题方法,因此考场上也能算出答案。
机器学习的思路类似:我们能不能利用一些训练数据(已经做过的题)使机器能够利用它们(解题方法)分析未知数据(高考题目)。
第二个问题:最普遍也是最简单的机器学习算法?
分类(Classification):输入的训练数据有特征(feature),有标签(label)。学习的本质就是找到特征和标签间的关系(mapping)。这样当有特征而无标签的未知数据输入时,我们可以通过已有的关系得到未知数据的标签。
第三个问题:上述分类所有训练数据都有标签,如果没有呢?
所有训练数据都有标签则为有监督学习(Supervised Learning),如果数据没有标签则是无监督学习(Unsupervised Learning),也即聚类(Clustering)。但有监督学习并非全是分类还有回归(Regression)。
无监督学习本身的特点使其难以得到如分类一样近乎完美的结果。这也正如我们在高中做题,答案(标签)是非常重要的,假设两个完全相同的人进入高中,一个正常学习,另一人做的所有题目都没有答案,那么想必第一个人高考会发挥更好,第二个人会发疯。
第四个问题:既然分类如此之好,聚类如此之不靠谱,那为何我们还可以容忍聚类的存在?
在实际应用中,标签的获取常常需要极大的人工工作量,有时甚至非常困难。例如在自然语言处理NLP中,Penn Chinese Treebank在2年里只完成了4000句话的标签。
第五个问题:难道有监督学习和无监督学习就是非黑即白的关系吗?有没有灰呢?
Good idea。灰是存在的。二者的中间带就是半监督学习(semi-supervised learning)。对于半监督学习,其训练数据的一部分是有标签的,另一部分没有标签,而没标签数据的数量常常极大于有标签数据数量(这也是符合现实情况的)。
这篇文章主要是一篇基础介绍神经网络和机器学习的入门文章,同时参考了很多资料,主要是自己分享的PPT给学弟的新知识。同时由于我自己也只是入门,所以很多高深的东西也在学习,在此需要向上面文章中的个位大牛虚心学习。但作为入门文章,感觉还是不错的~
最近发生的事情太多太多,其中包括拒绝了一些互联网公司或航天院的offer、面试,一心准备回家乡贵州的一些大学教书。怎么说呢?贵州那里确实承载了太多的东西,有亲情、有梦想,更有一些根深蒂固的东西。从小就在校园长大,父母都是老师,家住校园,到了高中也独自去到了省会贵阳住校三年,大学更是来到了北理,异地他乡的我,一呆就是六年。从小玩到大的姐姐也成为了初中老师,似乎我这一生与学校挂钩后,就再也脱不了关系了。
这并没有什么情怀,没有什么了不起,更没有什么高大上。更多的是自己从小一直希望成为一名教师吧!尽管父母都不愿意让孩子再从事这一行业,但我已毅然决定。确实,我自己也舍弃了很东西,如每月的高工资福利、发布一款产品后的欣喜若狂等等,但同时有舍才有得,希望自己能在大学中获得一些东西吧!还是《当幸福来敲门》那句话:
在你的人生路上,总有很多人说你这也不行,那也不行,梦想是你自己的;有梦想就需要学会自己去保护它。
别拿着青春的幌子,浪费自己的年轻时光。我一直都喜欢深夜写文章,深夜是思考的好时间,更是寂寞的好时光。一个人行走在这个世界,很多路都需要自己去孤独的前行,需要让自己的内心强大起来。但每每写完一篇博客或想到当老师上课,都能让我心灵为之一颤。这就够了~
下面是我看到吴祖增老师80多岁高龄后,依然坚持写作的感慨!见笑了~
侠之为大,为国为民。行止无定,随遇而安。心安乐处,便是深安乐处。
最后希望自己能够找到一所大学,成为一名教师!同时也希望文章对你有所帮助~
(By:Eastmount
用云栖社区APP,舒服~
【云栖快讯】云栖社区技术交流群汇总,阿里巴巴技术专家及云栖社区专家等你加入互动,老铁,了解一下?&&
讲解的很好
神经网络和机器学习做成产品,除了alfa狗,还有没有?
--速嵌智造
阿里云机器学习是基于阿里云分布式计算引擎的一款机器学习算法平台。用户通过拖拉拽的方式可视化的...
通过机器学习和数据建模发现潜在的入侵和攻击威胁,帮助客户建设自己的安全监控和防御体系,从而解...
基于全网公开发布数据、传播路径和受众群体画像,利用语义分析、情感算法和机器学习,分析公众对品...
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效...}

我要回帖

更多关于 神经网络算法matlab 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信