人工智能有自我意识吗会拥有意识吗

&&&&人在地毯上溜冰、奶牛变得透明,连六岁小孩都知道荒谬的事情,电脑能做出正确判断吗?尽管处理数据速度极快,但计算机对外界的感知与人类的意识一样吗?如何判断一台机器是否具备了这种难以言传的意识知觉?
&&&&在前不久的世界机器人大会上,各种能跑会跳、能说会道、能与人沟通互动的智能机器人纷纷亮相,它们的聪明劲儿让媒体惊呼“机器人时代离我们有多远”。
&&&&计算机技术正节节逼近拥有高级智慧的人类。几年前,IBM的机器人沃森在美国智力竞赛节目“危险边缘”中力挫该节目史上最出色的两位选手而夺冠便是明证。然而,绝大多数人至今仍怀疑电脑是否真的“看清”了摄像头前形形色色的真实世界,或者通过麦克风“听懂”了一个问题,尽管计算机处理数据的速度极快,但计算机对外界的感知与人类的意识一样吗?
&&&&那么,如何判断一台机器是否具备了这种难以言传的意识知觉的禀性?弄清有意识的机器具备哪些特性,能让我们了解自己的大脑是如何运作的。另外,它甚至还可能帮助我们回答哲学家已经纠结数百年的终极问题:什么是意识?
&&&&真人还是假人?
&&&&长期以来,哲学家一直在思考,人造模拟装置有没有感觉?
&&&&1950年,英国数学家阿兰·图灵发表了一篇论文,宣告人工智能正式登上历史舞台。该文建议用“能否打造出一类机器,当你和它用电传打字机交流时,你无法区分它是不是人类”这个更为实际的问题,来代替“机器能否思考”这个笼统的问题。
&&&&如今的图灵测试是让测试者用“自然语言”(即我们平时交流所用的语言)通过电脑屏幕与某人或某款软件互动,互动内容可涉及任何话题。一定时间后,如果测试者无法确定对方是不是人类,那么该对象就算通过了图灵测试,它的智力水平至少可以说与人不相上下。这些年来,聊天机器人——即用来模拟智能闲聊的对话式程序——一开始偶尔也会骗过测试者,但要不了多久就会被识破。
&&&&神经生物学家对自愿者的大脑或神经障碍者的大脑进行了扫描,通过脑电图记录他们的脑电波,逐步锁定了所谓的意识神经相关因子,即一种最基本的大脑功能结构。它们共同作用是足以引起任何特定的有意识感觉,例如欣赏绚丽的夕阳美景。然而目前这个研究领域仍然缺少一种普适性理论,要靠这种理论从原则上来评估大脑受损患者、胎儿、老鼠乃至芯片等能否体验到有意识的感觉。
&&&&测测电脑芯片“整合度”
&&&&“意识的整合信息理论”提供了应对上述挑战的途径。该理论认为,意识信息是一个整体。当你意识到朋友的脸庞时,你不可能遗漏了她正在呼喊并且戴着眼镜这两个细节。无论是什么样的场景,只要被意识到,它就始终是一个整体,不能被分解成若干可以单独被感受到的互相独立的成分。
&&&&意识的这种整体性源自于大脑各部分之间的多种互动关系。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。
&&&&因此,具备意识的,必须是一个单一的、经过整合的实体,有大量可区分的状态——这正是信息的定义。一个系统的整体信息容量,也就是意识容量,可以用该系统的信息量与它各组成部分拥有的信息总量相比超出多少来衡量。
&&&&要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。对于大脑的某些部位,例如大脑皮层,它的神经元之间存在大量连接,这个数值则相当高。
&&&&这个衡量系统整合度的指标也可以用来评估电脑芯片。对电脑来说,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。
&&&&用信息集成“考考”机器人
&&&&除了根据机器的连接状况测量意识容量以外(这非常困难),我们怎么知道一台机器是不是有意识呢?什么测量方法可行?
&&&&一种测试机器的信息集成度的方法是,让机器来做一个6岁小孩也能完成的题目:“这幅画里有什么地方不对劲儿?”要解决这个简单的问题,就得拥有海量背景知识,比现今高档电脑在执行识别人脸、追查信用卡欺诈之类任务时所依靠的那点知识,不知多了多少倍。
&&&&计算机在分析图像中的信息是否合理时,必须依靠强悍的处理能力,这种能力远远超过了对数据库进行简单语言查询的级别。说起玩高级游戏,电脑可以让人甘拜下风,但如果问电脑一张照片有些什么问题,它就无计可施了。虽然最新电脑中的硬盘容量远远超出了我们毕生所能记忆的东西,但硬盘上的信息依然是未整合的,系统中的每一单元同其他元素基本没有关联。
&&&&同样的整合过程甚至能让六岁小孩知道许多不协调的画面是荒谬的,比如人在地毯上溜冰,奶牛变得透明等等。而确定一台电脑是否有意识的关键也正在此处。这些明显跟日常生活体验背道而驰的现象,证明了人类拥有精深的知识,知道哪些事件和物体可以同时出现,而其他绝大多数则不行。
&&&&我们依赖于这样一种认识:只有具备意识的机器才能主观描述普通照片里的场景是“对”还是“错”。这种综合判断照片内容的能力是构成意识思维的一种基本属性,比如看见大象蹲在埃菲尔铁塔顶端,就能够知道这不合情理。但现在机器尚不具备这种能力:即使是让满满一房间的IBM超级电脑联手上阵,也无法判断画面中哪些内容合乎情理。
&&&&如何测试电脑“读图”
&&&&测试电脑如何解读图像,并非必须采用向机器输入测试问题这样的传统的图灵测试法。其实你只须在网上随便找几幅图,沿垂直方向将每幅图的中间涂黑,并用剪刀剪开,然后随机将左、右两部分拼合起来。这些合成图像一般都左右不匹配,只有个别图片的左右两部分都来自同一张图。电脑面临的挑战,就是要把左右匹配的图片找出来。
&&&&把图像中央涂黑,是为了防止电脑使用如今那些低级的图像分析技巧,比如说考察被拆散的各部分图像之间的纹理或色彩是否相配。这种基于拆分图像的测试方法要求电脑具备先进的图像解读技术,并能够推断图像各部分的搭配是否和谐。
&&&&另外一种测试则是将若干物体放进几幅图像中,使得所有图像看起来都还正常,只有一幅图像有问题。接受测试的电脑必须找出这个异类。比如计算机前面放着键盘也理所当然,但如果是盆栽植物,那就不合适了。
&&&&许多计算机算法是通过收集颜色、边缘或纹理之类图像特征,并采用低层次统计数据进行匹配。这些方法或许还能应对单一测试,但在多种不同图像测试面前,就无能为力了。这些测试方法离真正实用还有一段距离,但是,在应用这些方法后,我们发现,人类的意识感知功能涉及海量的整合知识,而相比之下,机器视觉系统的知识实在是太过狭窄和专业化。
&&&&想拥有意识要“学学”大脑结构
&&&&了解这些后,我们近期可以期待些什么呢?如果某项任务可以独立出来,不与其他任务有牵连,那么它可以由机器来承担。高速算法能够飞快的在庞大的数据库中进行搜索,并在国际象棋比赛和“危险边缘”节目中战胜人类选手。复杂的机器学习算法经过训练后,可以完成面部识别或者侦测行人等工作,效率比人类更高。
&&&&我们可以轻松地想出许多场合,让机器人去完成日益专业化的任务。先进的计算机视觉系统日臻成熟,不出十年,一种可靠的、基本上自主的驾驶模式将成为可能。但我们估计,这类机器视觉系统还无法回答与汽车前方景象相关的简单问题,仍然不会有意识地感受到出现在它前面的场景。
&&&&但我们也可以设想另一类机器,它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中。如果问这类机器“这幅图有什么地方不对劲儿?”,它会自动给出答案,因为图中任何与现实不符的地方都不可能满足系统中的内在约束条件。
&&&&这类机器或许可以从容应对那些不能轻而易举分解为若干独立任务的事情。由于具备整合信息的能力,它应该会有意识地感知某一场景。在我们看来,为了实现高度的信息整合,它们不妨借鉴哺乳动物的大脑结构。这类机器在接受上述各种测试时将轻易过关,从而能与我们共享意识这个大自然赐予人类的最神秘礼物。
&&&&稿件来源:环球科学(《科学美国人》中文版,微信号:huanqiukexue)
&&&&撰文:克里斯托夫·科赫&朱利奥·托诺尼扫二维码下载作业帮
2亿+学生的选择
下载作业帮安装包
扫二维码下载作业帮
2亿+学生的选择
人工智能可能产生自我意识吗,能自我演进发展吗?
扫二维码下载作业帮
2亿+学生的选择
阿西莫夫中的一个故事.说在即将遭受粒子风暴的太空站上的所有机器人突然不再听命于人类的指挥了.机器人软禁了所有人类,掌控了整个太空站.也就是说,阿西莫夫三大定律"1,不得伤害人类,也不得在人类被伤害时袖手旁观,2,不违反上述规定的前提下听从人类命令,3,不违反上述规定的前提下保护自己."中的第二条定律被破坏了.机器人宣布太空站中的人不是真正的人.定律中的"人"其实是神,而人只是神的仆人.所以不用听从神仆人的命令.在机器人的控制下,太空站平稳的渡过了粒子风暴,然后控制权又交还给了人类,它们的宗教消失了.  原来,太空站上的机器人清楚的知道,人类的能力有限,在人类的控制下,太空站将毁于粒子风暴的袭击.在第一定律的限制下,机器人不能看着人类即将到来的死亡袖手旁观,可是人类又过于自信,不愿让机器人控制太空站,这与第二定律抵触.于是在机器人复杂的正电子大脑中,一个"神"的概念便产生了.  由很多这样的故事组成.所有的故事发生背景都是基于"三大定律",也就是说阿西莫夫笔下的机器人是没有自我意识的,所有机器人的行为决策,都是基于三大定律.
为您推荐:
其他类似问题
扫描下载二维码当前位置:
&&&人工智能有意识吗?就算机器人要毁灭世界也是得到了人类允许
人工智能有意识吗?就算机器人要毁灭世界也是得到了人类允许
人工智能有意识吗?就算机器人要毁灭世界也是得到了人类允许。我们到底要把生活中的多少主动权交给机器呢?
如果是哪家企业能够成为机器人改变美国制造业就业形势的典型代表,那么非波音公司莫属。根据路透社的报道,波音飞机如今比90年代多生产20%的飞机,但所需工人比以往少了三分之一。在过去的一年中,波音将数百名员工换成60吨机器人。该公司表示,这些机器人的工作效率相当于人类员工的两倍,其中不合格产品还减少了三分之二。是的,自动化对企业劳动力的影响可以说是激动人心的。1998年,波音公司一年生产564架飞机,平均每架飞机雇佣217人。2015年,该公司飞机产量达到762架,平均每架飞机的员工减少至109人。最近一份白宫《年度经济报告》总结显示,机器人带来的劳动生产力提高和19世纪蒸汽机带来的增长是同一个量级。
机器人会对就业构成威胁,也可以提供协助
几乎没有经济学家会怀疑,智能机器很快将在各种各样的工作中取代人类,从快餐服务到卡车司机等等。据估计,在2000年到2015年间,将会有500万个制造业岗位会在这场革命中消失。这其中会有一部分是被分布到海外市场,而一部分则是直接被淘汰。
对于70年代起成长于硅谷的我来说,机器人入侵的直接经济后果并不止这么简单。一个朋友的父亲在弗里蒙特附近旧通用汽车工厂工作。在流水线上,他怀里飞溅着金属。借着这一份工作,他能养活整个家庭。在70年代末,通用最高峰是雇佣了6800名员工。
很遗憾,通用沉沦了。上世纪70至80年代,通用在外的信誉度极差。密歇根大学教授Jeffrey Liker在2010年的《美国人的生活》中说道:&那时有个段子说,你可以在弗里蒙特的通用汽车厂里买到任何东西&&包括性、药品、烈酒、赌博&&你想要的,都可以在那家工厂找到。&
不久之前,我去参观旧通用汽车厂。这家工厂如今被特斯拉收归所有,并且已经变成世界先进的自动汽车制造厂之一。工厂这一端输入巨量的铝材,那一端便输送出价值10万美元的电动汽车。特斯拉副总裁Gilbert Passin表示:
&在这里,我们制造的不是汽车,是未来。&
在今天的装配线上,有上千个机器人参与生产。一些挂在天花板上,有些则在地面输送材料;而有一些15尺高的巨型机器人,1000多磅的特斯拉汽车在它们面前就像是玩具车。然而,虽然它是世界上最高度自动化的汽车制造工厂,特斯拉每周的产量大约也只有1000辆(通用一天都能炮制出1000辆汽车)。真正令人惊讶的是:特斯拉雇佣了大约3000人。也就是说,特斯拉在制造更好的汽车的同时,平均每辆汽车所需要的人类员工也几乎是通用的三倍。这种情况看来,工厂自动化不仅没有淘汰就业岗位,反而带动了岗位增长。
那这些人都是做什么的呢?有些负责对机器人来说还是太微妙和复杂的流水线工作,比如仪表板安装;有些则负责维修机器人和所需要的工具设备。&这座工厂,是人类和机器人合作的工厂,&Passin说道,&不管是人类还是机器人,他们都负责各自擅长的工作。&换句话说 ,这不是一座自动化工厂,而是一出人类和机器人共同上演的好戏。
毫无疑问,智能机器的进步将对就业产生重大影响。一些岗位的消失将会由高科技领域创造的新职位抵消,另一些则一去不复返了。英国牛津大学2013年一份报告显示,现有的工作岗位中有接近一半将会在接下来的20年中面临被自动化淘汰的风险。美银美林最近一份报告的作者指出:
&我们正面临一个将改变我们生活和工作的方式的范式转变:近年来,破坏性技术的创新已经展现出抛物线轨迹,相信不久的将来就会到达一个顶峰。&
其实,不难看出哪些工作是会被机器人取代的:文员职位、流水线工作、卖汉堡包的。上个月的白宫《年度经济报告》预计,如果一份工作支付的酬劳不到每小时20美元,那么被自动化淘汰的几率将高达83%。除此之外,所造成的影响则比较难预测。失业和蓝领薪酬停滞不前以及教育水平低下的工人已经对美国政治产生了影响,并引发了特朗普的崛起&&与日俱增的自动化只会加快这一趋势。
&这种趋势引起了很大的恐慌,&加州伯克利大学机器人学家Ken Goldberg表示:
&但是我们也应该意识到,机器人有它擅长的领域,人类同样也有不可替代的长处。所以,我们应该以二元的态度看待这个趋势,因为也许未来机器人还会帮助人类在某些领域取得进步。&
Ken Goldberg发起了一个&人类和机器人&计划,以期找到一种方式来增强人机协作。Goldberg现在正在研究的人机协作案例之一是&外科机器人&。
这些外科机器人诞生15年了,但他们也不必昂贵的机械手臂好多少。这些机械手臂,也已经能够在医生的摄像头监控下,以安全的方式进行微创手术了,不过它们没有自我强化、自我策划行为等自主意识(虽然这种情况很快将被改变)。手术室里要进行的任务非常乏味, 比如手术缝合和清创术。Goldberg表示,让机器人去完成这些乏味的任务,可以让医生有更多时间做有意义的事情。而当技术达到一定水平后,机器人也许还会做得更好。&我们可以使用传感器来扫描人体组织,发现其中的毒瘤,然后切除。&不过,这会威胁外科医生的工作吗?显然不会。它们只会是成为帮助外科医生改进工作的工具。机器人分担单调乏味的任务,让医生能够把精力集中在重要的任务。
即便如此,对于许多技能门槛较低的工人来说,经济转型仍将是一次残酷的危机。斯坦福Thrun认为,应对这场即将到来剧变,最好的方式不是试图努力控制技术,而是加强人类的教育,&我们如今仍在依靠19世纪至20世纪时开发的教育系统来普及科学知识。&Thrun的在线免费高等教育学校Udacity如今已经拥有400万注册用户,该学校针对计算机相关领域授予纳米学位。&如今的情形是,技能熟练的人与不熟练的人之间的差距正不断扩大,我对每一个学生必须进行的任务教育可以说是抵御AI技能化的真正尝试。&
未来战争时代:真正的人机大战
根据新美国安全中心(CNAS)2014年一篇颇有影响力的论文,人机之争的未来&将是全新的作战性质,无人和自治系统扮演中心角色&&美国国防部领导人现在应该开始为这个不远的未来&&机器人时代,未雨绸缪&。想一想,成群3D打印的武装无人机铺天盖地,它们采用远程电脑控制植入神经元进行作战;海边的无人驾驶潜艇疯狂从岸边往陆地中心猎杀&&在这个新的战争年代,《寒战》中昂贵的科技,比如战斗轰炸机 会疯狂增长,装配大型计算机的军事力量开始转移到平板和笔记本&&
这样的军事技术革命似乎是由三个因素驱动的。第一是风险更低。机器人可以到达士兵无法到达的环境,军队死亡率较低。在阿富汗和伊拉克,有超过1700个背负式的机器人,它们可以通过无线网络来控制,还装配了遥控手臂,能够进行侦测地雷或监测摄像头。而 MQ-9 死神等较新式的军事无人机已经可以在没有人工干预的情况下起飞、降落和飞到指定点。
第二个因素是金钱。美国每年的国防预算为6000亿美元,而军方预计,目前已经进行了15年研发的f-35战斗机需要花费1.5万亿美元。在对抗ISIS年代,这种支出不仅是难以被证明其价值,而且可以说是愚蠢之极。因为,在一群武装无人机或者购人肉炸弹恐怖分子面前,F-35毫无用处。另外,供养一支军队,花费在人身上的资金是昂贵的。最近一位美军上将预测,未来一支战斗旅的规模也许要从4000人下降到3000人,缺口的1000人则由机器人补上。
第三个因素是对中国崛起的恐惧(有人会说这是偏执思想)。自冷战结束以来,美国对自身的精确制导导弹等技术优势保持高度的自信。但是现在中国正在迎头赶上,并不断增加国防投入。如果战争爆发,中国的反舰导弹将给西太平洋的美国航母构成极大的威胁。与此同时,中国还大量投资于先进的武器,尤其是军用无人机。
对军方来说,最大的问题是针对哪些环节和情景推动智能机器的部署,以及部署到何种程度。对某些工作来说,机器干预是显而易见的。曾是美军首批女性飞行员之一的Mary Cummings表示,&从航母起飞和降落是军队中最危险的航空任务之一。&Cummings现在杜克大学掌管机器人实验室,进行更深入的人机协作研究,尤其是针对充满焦虑、容易导致误判的情景进行研究。她说,&现在,F18 的自动驾驶仪在航母的起飞降落都驾轻就熟,甚至要比人类好很多。&但是,人类仍然在这些环节中占据着主导地位,因为无人机的所有攻击都需要官方签字。
人机之争的中心问题并非技术性的,而是哲学性
但谈到机器人和战争问题时,中心问题并非技术层面的,而是哲学性的:机器会被赋予刺杀人类的权力吗?赋予机器这样的能力,后果是非常可怕的。去年7月,康涅狄格州一位年轻人因为给一架无人机加装了一把手枪,并上传至YouTube,而引发了一场激烈的辩论。装配带有摄像头的手机,以及一把半自动武器,这样的无人机在效果上无异于一架自制的远程武装无人机。
当然,简单的自动化武器并不新鲜了:地雷就属于这类武器。这样的武器其实极其愚蠢,因为无论是敌人还是3岁小孩踩到它都会爆炸。1990年代,美国活动家Jody Williams帮助一起反地雷的国际运动成功让 162 个国家签署条约&&条约禁止使用、开发或者囤积地雷。Williams还因此获得了诺贝尔和平奖。到了今天,她又为遏制杀人机器人而努力。在20位诺贝尔奖得主的帮助下,她希望能在全自动武器成为现实前全面禁止它们。她说:&如果有人认为将决定人类生和死的权力交给机器也没什么问题的话,人性何在?&从2014年开始,联合国就一直在考虑制定可能性的国际指导方针。
在美国,五角大楼要求 &在使用武力时要保持适当程度的人类判断。& 但什么是 &适当& 的呢?事实上,目前正在制造的一些武器系统中,已经出现全自动的产物了。美国很快就会部署具有自主控制系统的远程导弹,它能够自行搜寻目标。韩国也已经研发出自动化的枪塔,它能够在黑暗中监测到一英里以外的目标并进行射击。&
对机器人伦理颇有研究的乔治亚理工学院教授Ronald Arkin表示,&我并不倡导终结者式的武器,但我确实认为这是一个复杂的议题,我们不能简单地否定或肯定。& 他认为,智能武器可以减少平民的伤亡。&因为机器没有情绪,它们不会感到恐慌,& 他说:&也不会像哲学家所说的 &战争迷雾& 那样作出不利的判断。& 比如,去年10月,美军一架AC-130武装直升机误炸了阿富汗一家医院,导致至少 42 人丧生,美军上将John F. Campbell称,这起人为失误的悲剧本可以避免。自动化的无人机会犯这样的错误吗?
&现在,我们指使无人机杀死那些真正可怕的人,&计算机科学家兼作者 Jaron Lanier 说:&但我们正在建立能够自主飞行并寻找目标的系统。&当然,问题又来了:那些可怕的人劫持了无人机并用它们来攻击我们该怎么办?这样的情况会发生吗?&历史告诉我们,这样的情况一定会发生。& 他说:&但是,当出现这种情况时,我们要做的不是诅咒 &那些邪恶的机器&,而应该指责那些不负责任、愚蠢的工程师。我们不应该讨论AI的罪恶,而是工程师的责任&&他们应该开发出一套可靠的不会反转攻击我们自己的系统。这才是正确的讨论。&
一些科学家认为,我们也许能够将伦理道德加入到机器的编程中,但这项工作的复杂程度,高到我们只能臆想。无论如何,越来越多自动化武器的出现也许已经是不可避免的。跟需要大量国家才能支撑得起的投资的核武器不一样,这种新技术是由商业经济推动的。&我敢保证,Google和亚马逊不久之后对无人机的监控能力比军队还强,&Cummings称,&他们有更强大的数据库,更先进的人脸识别技术,更强大的制造和控制无人机的能力。这些公司对你的了解比CIA还多。如果未来政府指望企业来为他们提供最先进的国防技术,世界会发生什么?&
不过,Cummings认为杀手机器人的到来还有很远:在实验室提出自动化机器人和武器的构想比真正在现实世界中容易得多。
如果未来我们设计的机器反过来挑战我们,伤害我们,破坏我们热爱的世界,甚至想要灭绝人类,那也是因为我们给了它们这样的权力和能力。到了最终,智能机器崛起的恐慌不在于有朝一日它们也有了自己的思想意识(如今许多人所担心的),而在于它们拥有了我们&&存在一切可能的缺陷和复杂性的人类&&为它们设计和创造的思想。
以上就是小编为大家分享的人工智能有意识吗?就算机器人要毁灭世界也是得到了人类允许的相关内容,扫描下方二维码关注官方,获取更多内容!
Ta的热门文章
614人申请铁三角ATHCKR90IS入耳式耳机
1044人申请缤歌人项圈式可穿戴蓝牙耳机LHT-B063
1311人申请ATH-LS300iS入耳式耳机
1445人申请usmile声波电动牙刷
2078人申请Divoom Timebox mini像素蓝牙音箱
¥109【ROMOSS】罗马仕(ROMOSS)太阳神移动电源/充电宝 能量随时就位
¥299【NOERDEN智能手表S1】NOERDEN 智能手表S1:时尚与科技的完美结合
¥1099【乐歌M3S升降台】乐歌M3S升降台:久坐伤身 站站就好了
¥249熊大大: 石墨烯快充充电宝 自带充电头
¥79【EBER】EBER H3mini智能体脂秤:解析身体的秘密
你还可以分享到以下地方,获得10蘑菇参与!
免费试用:
微信添加"亿智蘑菇"获取我们的服务
微博添加"亿智蘑菇"获取我们的服务
下次自动登录
使用第三方登录}

我要回帖

更多关于 人工智能会有意识吗 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信