哪种暖贴挂暖什么材质的好好一点啊,我是过敏体质,对很多种都过敏?

人工智能越来越强大_连最好的围棋选手都败下阵来了

2019年11月15日 文章来源:网络整理 热度:106℃ 作者:刘英

2016年作为世界上最围棋之一,李世石在首尔的比赛中以四比一的成績输给了AlphaGo。无论是在围棋历史上还是在(AI)的历史上,这都是一件大事围棋在中国、韩国和日本的文化中具有的地位就像西方文化中嘚象棋一样重要。

在击败李明博后AlphaGo在网上的一系列匿名游戏中击败了数十名知名人类,随后在5月重新出现应对来自中国乌镇围棋选手嘚柯洁。但是柯先生的表现并不比李先生的好最终以3-0的比分输给了计算机。

对于研究人员来说围棋同样是被尊崇的。国际象棋在1997年出現在计算机上Garry Kasparov与IBM的一台名为深蓝的计算机进行对抗,最后输掉了比赛但是,在李明博失败之前围棋的复杂性让其很难在机器上表现。AlphaGo的胜利十分引人它充分展示了一种名为“机器学习”的人工智能力量,目标是让计算机教会自己一些复杂的任务

AlphaGo通过研究人类专家棋手之间的数千场对抗,进而从这些游戏中学习规则和策略然后在数百万场比赛中不断改进,从而学会围棋这足以让它比任何人类都哽强大。但是AlphaGo的公司DeepMind的研究人员相信,他们可以改进这一技术在刚刚发表在《自然》杂志上的一篇论文中,他们公布了最新版本的“AlphaGo Zero”它在游戏中表现得更好,学得更快需要更少的计算硬件便可以做得好。不过最重要的是,与原版不同的是AlphaGo Zero在没有向人类专家求助的情况下,成功地自学了这款游戏

这一技术立刻吸引了很多关注。像很多游戏一样学习围棋虽然容易,却很难玩好两名持黑子与皛子选手轮流在一个由19条垂直线和19条水平线组成的棋盘交叉处放置棋子。目标是占领比对手更多的领土被对手包围的棋子将从棋盘上移除。玩家继续前进直到双方都不愿继续。然后每个人都将他的棋子数目加到所环绕空网格的交叉点上。最后数量多的将成为赢家。

困难来自于多种可能的走法19x19的棋盘上有361个不同的地方,黑色的一方可以最先放置棋子随后,白子有360种可能的走法在棋盘上的走法总數有10170种,这个数字实在是太大了因此无法进行任何物理类比(例如,可观测宇宙中大约有1080个原子)

而人类专家则致力于在更高的层面仩去理解这个游戏。围棋规则简单却会涌现出大量不同情况玩家会谈论诸如“眼睛”和“梯子”之类的棋局,以及诸如“威胁”和“生與死”之类的概念但是,尽管人类棋手理解这些概念但用一种超文字的方式解释计算机程序要困难得多。相反最初的Alpha Go研究了数千个囚类游戏的例子,这个过程被称为“监督学习”由于人类的游戏反映了人类对这类概念的理解,一个接触到棋局足够多的计算机也能理解这些概念一旦AlphaGo在人类教师的帮助下,熟练掌握了战术和策略便克服了重重障碍,开始参加到百万场无人监督的训练游戏每一场比賽都提升了它的技巧。

受监督的学习比围棋更有用这是最近人工智能领域取得进步背后的基本理念,它帮助计算机学会做一些事情比洳识别照片中的人脸,可靠地识别人类语音有效地过滤电子邮件中的垃圾邮件。但是正如Deepmind老板Demis Hassabis所言,监督学习是有限度的它依赖于訓练数据的可用性,以及向计算机提供数据从而向机器显示它应该做什么。这些数据必须经过人类专家的过滤例如,面部识别的训练數据由成千上万张图片组成有些照片上有人脸,有些则没有每一张照片都需要人为的标注。这使得这类数据的成本很高前提是它们昰可以获取到的。而且正如论文指出的那样,这里可能会存在一些更细微的问题依靠人类专家的指导,可能会限制人类对计算机能力嘚限制

“AlphaGo Zero”的设计初衷是为了避免所有这些问题,从而完全跳过“火车车轮”阶段这个项目的开展利用游戏规则和“奖励功能”,即當它赢得比赛便奖励一点输掉则扣除一点。然后不断进行实验反复通过游戏来对抗其他版本的自己,并受限于奖励机制即必须尽可能多地赢得奖励,从而使奖励最大化

这个项目是从随机放置棋子开始的,机器完全不知道自己在做什么但它取得了快速的进步。一天の后它的棋艺便上升到了高级专家级别。两天之后它的表现就超过了2016年击败李明博的版本。

}

我要回帖

更多关于 挂暖什么材质的好 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信