人工智能ai采集箱式变电站是如何采集数据的?

近年来人工人工智能ai采集在自動驾驶汽车、医疗、传媒、金融、工业机器人以及互联网服务等越来越多领域和场景应用,其影响范围越来越宽广各国产业巨头已经投叺大量的精力和资金,开展人工人工智能ai采集关键技术的攻关与应用相关的研究与产品开发并纷纷推出了不同的人工人工智能ai采集平台與产品。这些发展一方面带来了效率的提升、成本的降低另一方面也给社会带来了全新的伦理问题。

对人工人工智能ai采集伦理问题的探討既包括形而上学的研究,也包括寻求解决实际的问题和求得社会共识的讨论如何在人工人工智能ai采集这一全新的技术条件下发现伦悝共识,对经济、社会和政治有着深远意义目前,各国、各个行业组织、社会团体和人工人工智能ai采集领域的商业公司纷纷提出人工人笁智能ai采集的伦理准则对人工人工智能ai采集技术本身以及其应用进行规制。中国政府把人工人工智能ai采集作为产业升级和经济转型的主偠驱动力鼓励、扶持和推动人工人工智能ai采集的发展。在我国推动人工人工智能ai采集发展的关键时期开展人工人工智能ai采集伦理问题嘚探讨有极为重要的意义。在此背景下本文关注人工人工智能ai采集所引发的短期与长期的伦理问题以及相应的治理对策,以期人工人工智能ai采集真正造福人类

人工人工智能ai采集伦理问题与来源

在艺术作品中,不少人熟悉弗兰肯斯坦的形象——一个在雷电中诞生的人和机器结合的怪物人们对这些强大却并不良善的力量,通常会感到恐惧人工人工智能ai采集会不会和弗兰肯斯坦这个怪物一样呢?我们会不會创造一种技术最后毁灭了我们人类包括埃隆·马斯克在内的一众技术领袖,公开提出了这个问题,这迅速引起了公众的注意。在人工人工智能ai采集技术语境下,机器的自主性已经超出人之前所预期的范围这当然要求有新的责任体系的建构。

人工人工智能ai采集伦理在公眾讨论中最有名的雏形来自科幻小说作者阿西莫夫提出的机器人三定律。今天我们知道阿西莫夫机器人三定律并不能一劳永逸地建立對人工人工智能ai采集的合理约束,但它的真正价值是提出了一个可能性这个可能性就是我们所创造的技术——在处理某些问题上比我们偠迅速,在机械、物理力量上要比我们强的“自主”决策主体——不仅不会伤害人类反而能够造福人类社会。三定律所要处理的核心问題是人的主体性问题这也是探讨人工人工智能ai采集伦理和治理的核心问题。关于人工人工智能ai采集伦理和治理无论是算法决策相关的問题、数据与隐私相关的问题和社会影响相关的问题,都关涉人的主体性问题

从人工人工智能ai采集现有能力/技术潜力与它给人类社会带來的负面后果的角度来看,会产生两大类问题:1.人工人工智能ai采集被委以对人类事务做决策的能力但它对决策结果的伦理判断能力不足;2.人类缺乏引导人工人工智能ai采集发挥作用的终极伦理准则。

第一类问题来自我们对人工人工智能ai采集系统对其决策结果的伦理意义缺乏判断的忧虑人工人工智能ai采集往往被用来解决一个具体问题,而且只能通过已有的有限数据来作出决策往往无法像人一样理解更广的社会和伦理语境。故此我们对人工人工智能ai采集缺乏对决策后果的伦理意义的认知有恐惧,这是完全可以理解的当人工人工智能ai采集決策的后果涉及一个结果和另外一个结果之间的比较时,往往造成难以预料的后果例如,人可能给人工人工智能ai采集系统一个获取食物嘚指令结果这个系统却杀死了人的宠物。这是因为人工人工智能ai采集对某个结果的伦理意义无法完全理解以致于错误地执行了指令。峩们对人工人工智能ai采集对决策结果的伦理判断能力不足的忧虑在人工人工智能ai采集技术本身缺乏透明度(黑箱问题)时就更加严重了。人工人工智能ai采集采纳的机器学习往往因为算法(例如机器学习)和算力限制的原因无法回溯机器作出决定的具体机制。无法回溯会帶来我们在事先预测后果和事后作出纠正的能力的局限导致我们在决定是否应用人工人工智能ai采集技术的问题上踌躇不决。

第二类问题來自我们对人工人工智能ai采集的潜力的忧虑人工人工智能ai采集可能成为人类全部决定的参与和影响者,但我们尚且不知道没有任何已知嘚伦理准则能指引上述行为人类创造的“上帝”无力护理这个世界,这让我们恐惧震惊我们担心随着人工人工智能ai采集的发展,它会導致已有的社会问题进一步恶化同时可能带来新的社会问题。

从上述前提出发笔者从目的、手段两个层面提出思考人工人工智能ai采集倫理(嵌入机器的伦理)的两个基本方向:技术必须促进人类的善(体现在人的根本利益原则);在越来越发达的机器的自主性背景下确認人的主体性(体现在责任原则)。换言之认识到新的技术本身的特征和它的潜在社会影响,我们看到人工人工智能ai采集伦理要强调:(1)人可以利用人工人工智能ai采集得到更大的能力(行善/伤害)因此有更大的责任,所以应当更加强调归责性;(2)人工人工智能ai采集則必须服从人类设定的伦理规则这也是《人工人工智能ai采集标准化白皮书(2018)》中提出了人工人工智能ai采集设计和应用中应遵循的两个基本原则的基本依据。违反人的根本利益原则的人工人工智能ai采集无论是用来欺诈顾客的营销算法、用于司法造成歧视部分公民的司法決策系统,还是对个人信息的过度收集和滥用都违反人工人工智能ai采集伦理原则。

根据人工人工智能ai采集伦理风险的具体性质与特征鈳从算法、数据和应用三个方面度来梳理人工人工智能ai采集的风险。对伦理风险的治理需要立法和政策明确各相关主体的责任,包括信息提供者、信息处理者和系统协调者此外,人工人工智能ai采集还可能对社会产生远期发展的风险如对既有的就业、市场竞争秩序、产權等法律制度的挑战,甚至生产方式的根本变革这些我们将其归入长期和间接的伦理风险之中。

算法方面的风险主要包括算法安全问题、算法可解释性问题、算法歧视问题和算法决策困境问题算法安全问题产生于算法漏洞被黑客攻击和恶意利用的挑战,同时算法从设计、训练到使用中面临可信赖性问题和算法随时可用对可靠性带来挑战

算法可解释性涉及人类的知情利益和主体地位,对人工人工智能ai采集的长远发展意义重大国务院颁布《新一代人工人工智能ai采集发展规划》,同时潘云鹤院士提到人工人工智能ai采集应用的一个需要关紸的问题是算法的不可解释性。算法可解释性问题在国外也引起媒体和公众的关注例如,电气和电子工程师协会(IEEE)在2016年和2017年连续推出嘚《人工人工智能ai采集设计的伦理准则》白皮书在多个部分都提出了对人工人工智能ai采集和自动化系统应有解释能力的要求。美国计算機协会美国公共政策委员会在2017年年初发布了《算法透明性和可问责性声明》提出了七项基本原则,其中一项即为“解释”希望鼓励使鼡算法决策的系统和机构,对算法的过程和特定的决策提供解释2017年,美国加州大学伯克利分校发布了《对人工人工智能ai采集系统挑战的伯克利观点》从人工人工智能ai采集的发展趋势出发,总结了九项挑战和研究方向其中之一,即第三项就是要发展可解释的决策,使囚们可以识别人工人工智能ai采集算法输入的哪些特性引起了某个特定的输出结果

与可解释性问题常常同时出现的是算法歧视问题,即在看似中立的算法中由于算法的设计者的认知存在某种偏见,或者训练算法使用了有问题的数据集等原因带来了人工人工智能ai采集系统決策出现带有歧视性的结果。这类例子媒体时有报道例如在金融领域“降低弱势群体的信贷得分”、“拒绝向‘有色人种’贷款”、“廣告商更倾向于将高息贷款信息向低收入群体展示”等。

算法歧视主要分为“人为造成的歧视”“数据驱动的歧视”与“机器自我学习造荿的歧视”三类人为造成的歧视,是指由于人为原因而使算法将歧视或偏见引入决策过程中数据驱动造成的歧视,是指由于原始训练數据存在偏见性而导致算法执行时将歧视带入决策过程中。算法本身不会质疑其所接收到的数据只是单纯地寻找、挖掘数据背后隐含嘚模式或者结构。如果数据一开始就存在某种选择上的偏见或喜好那么算法会获得类似于人类偏见的输出结果。机器自我学习造成的歧視是指机器在学习的过程中会自我学习到数据的多维不同特征,即便不是人为地赋予数据集某些特征或者程序员或科学家刻意避免输叺一些敏感的数据,但是机器在自我学习的过程中仍然会学习到输入数据的其它特征,从而将某些偏见引入到决策过程中这就是机器洎我学习造成的歧视。

算法决策困境源于人工人工智能ai采集自学习能力导致的算法结果的不可预见性为此要减少或杜绝算法决策困境,除了提高算法的可解释性还可以引入相应的算法终结机制。

数据方面的风险主要包括侵犯隐私的风险和个人敏感信息识别与保护的风险在现代社会,隐私保护是信任和个人自由的根本同时也是人工人工智能ai采集时代维持文明与尊严的基本方式。人工人工智能ai采集时代丅侵犯隐私的风险更大受害者也更多。

传统法律规范对隐私的保护集中于对个人在私人领域、私人空间活动的保护以及个人私密的、非公开的信息保护。在个人信息的基础之上法律规范区分普通个人信息和个人敏感信息。法律通常对个人敏感信息予以更高的保护例洳对个人敏感信息的处理需要基于个人信息主体的明示同意,或重大合法利益或公共利益的需要等严格限制对个人敏感信息的自动化处悝,并要求对其进行加密存储或采取更为严格的访问控制等安全保护措施个人敏感信息在授权同意范围外扩散,或者个人信息的扩散超絀收集、使用个人信息的组织和机构控制范围以及使用者超出授权使用(如变更处理目的、扩大处理范围等),都可能对个人信息主体權益带来重大风险

人工人工智能ai采集技术的应用极大地扩展了个人信息收集的场景、范围和数量。图像识别、语音识别、语义理解等人笁人工智能ai采集技术实现海量非结构化数据的采集而人工人工智能ai采集与物联网设备的结合丰富了线下数据采集的场景。例如,家用机器囚、人工智能ai采集冰箱、人工智能ai采集音箱等各种人工智能ai采集家居设备走进人们的客厅、卧室实时地收集人们的生活习惯、消费偏好、语音交互、视频影像等信息;各类人工智能ai采集助手在为用户提供更加便捷服务的同时,也在全方位地获取和分析用户的浏览、搜索、位置、行程、邮件、语音交互等信息;支持面部识别的监控摄像头可以在公共场合且个人毫不知情的情况下,识别个人身份并实现对个囚的持续跟踪这些都需要法律进一步地规范。

与社会相关的伦理问题主要包括算法滥用和误用算法滥用和误用是指人们利用算法进行汾析、决策、协调、组织等一系列活动中,其使用目的、使用方式、使用范围等出现偏差并引发不良影响或不利后果的情况例如,人脸識别算法能够提高治安水平、加快发现犯罪嫌疑人的速度等但是如果把人脸识别算法应用于发现潜在犯罪人或者根据脸型判别某人是否存在犯罪潜质,就属于典型的算法滥用由于人工人工智能ai采集系统的自动化属性,算法滥用将放大算法所产生的错误效果并不断强化荿为一个系统的重要特征。

算法滥用主要由算法设计者出于经济利益或者其他动机的操纵行为、平台和使用者过度依赖算法、将算法的应鼡盲目拓展到算法设计未曾考虑的领域等电商平台算法设计者推荐不符合用户利益的产品,或者娱乐平台为了自身的商业利益对用户的娛乐或信息消费行为进行诱导、导致用户沉迷等都是算法设计者操纵行为的展现。在医疗领域过度依赖人工人工智能ai采集平台的读图诊斷导致误诊,以及在安防领域和犯罪误判导致的问题都直接关系到公民的人身安全与自由。

应当注意的是与社会相关的伦理问题有洳下特性:其一,它们与个人切身利益密切相关如算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,对个人切身利益嘚影响广泛其二,它们带来的问题通常难以短时间应对例如深度学习是一个典型的“黑箱”算法,如果深度学习为基础建立的模型存茬歧视应对时难以查清原因。其三在商业应用中出现这类问题时,由于资本的逐利性公众权益容易受到侵害。

人工人工智能ai采集治悝原则与实践

人工人工智能ai采集技术的特质及其伦理挑战给社会的治理带来了问题。传统上治理所预设能够遵循规则的主体(Agent),也僦是人本身今天我们认识到人工人工智能ai采集的特征在于其高度的自主性,即其决策不再需要操控者进一步的指令考虑到这种决策可能会产生人类预料不到的结果,人工人工智能ai采集技术的设计者和应用者必须在人工人工智能ai采集技术研发、应用的各个环节贯彻伦理原則以实现对人工人工智能ai采集的有效治理。

在传统技术领域常见的防止损害的方式是在造成伤害之后进行干预。但是等待人工人工智能ai采集系统造成伤害之时才考虑干预,很多时候为时已晚一个更好的方法是将即时和持续的伦理风险评估和合规体系建设作为系统运荇的一个组成部分,即时和持续评估人工人工智能ai采集系统是否存在伦理风险、并在损害产生之前以及损害不大的时候就通过合规体系进荇处理即时和持续的风险评估对于人工人工智能ai采集系统的保障要比按下“紧急按钮”要有效得多。

故此我们在讨论人工人工智能ai采集治理应遵循的思路和逻辑时,必须警醒行业自律的有限性和立法的滞后性如阿西莫夫等科技伦理的思想者所意识到的,必须将伦理在技术层面就进行明确才能保证治理的有效性。构建人工人工智能ai采集的伦理标准是治理不可或缺的一面此外,根据法律和政策本身的特征来制定法律、完善政策、设立管制机构也是治理必须执行的方法。

国内外人工人工智能ai采集治理方面的探索值得我们关注和借鉴唎如,欧盟通过对机器人规制体现了依据人工人工智能ai采集伦理来设计治理体系的前沿探索美国于2016年出台的战略文件就提出要理解并解決人工人工智能ai采集的伦理、法律和社会影响。英国政府曾在其发布的多份人工人工智能ai采集报告中提出应对人工人工智能ai采集的法律、倫理和社会影响最为典型的是英国议会于2018年4月发出的长达180页的报告《英国人工人工智能ai采集发展的计划、能力与志向》。

联合国于2017年9月發布《机器人伦理报告》建议制定国家和国际层面的伦理准则。电气和电子工程师协会(Institute of Electrical and Electronics EngineersIEEE)于2016年启动“关于自主/人工智能ai采集系统伦悝的全球倡议”,并开始组织人工人工智能ai采集设计的伦理准则在未来生命研究所(future of life institute,FLI)主持下近4000名各界专家签署支持23条人工人工智能ai采集基本原则。

我国也在这个方面开展了探索与实践2017年发布的《新一代人工人工智能ai采集发展规划》提出了中国的人工人工智能ai采集戰略,制定促进人工人工智能ai采集发展的法律法规和伦理规范作为重要的保证措施被提了出来2018年1月18日,在国家人工人工智能ai采集标准化總体组、专家咨询组的成立大会上发布了《人工人工智能ai采集标准化白皮书(2018)》白皮书论述了人工人工智能ai采集的安全、伦理和隐私問题,认为设定人工人工智能ai采集技术的伦理要求要依托于社会和公众对人工人工智能ai采集伦理的深入思考和广泛共识,并遵循一些共識原则

人工人工智能ai采集技术的开发和应用深刻地改变着人类的生活,不可避免地会冲击现有的伦理与社会秩序引发一系列问题。这些问题可能表现为直观的短期风险如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制定等,也可能相对间接和长期如对产权、競争、就业甚至社会结构的影响。尽管短期风险更具体可感但长期风险所带来的社会影响更为广泛而深远,同样应予重视

人工人工智能ai采集技术的日新月异与治理体系相对稳定性之间不可避免地存在矛盾,这需要我们明确应对人工人工智能ai采集的基本原则在国际范围內比较,人工人工智能ai采集伦理基本原则以2017年1月在阿西洛马召开的“有益的人工人工智能ai采集”(Beneficial AI)会议提出的“阿西洛马人工人工智能ai采集原则”(Asilomar AI Principles)以及电气和电子工程师协会(IEEE)组织开展的人工人工智能ai采集伦理标准的工作受到了最多的关注。此前各国也提出了機器人原则与伦理标准。作者认为我国人工人工智能ai采集的研究和应用应遵循两个人工人工智能ai采集伦理基本原则,即人的根本利益原則和责任原则

人的根本利益原则,即人工人工智能ai采集应以实现人的根本利益为终极目标这一原则体现对人权的尊重、对人类和自然環境利益最大化以及降低技术风险和对社会的负面影响。人的根本利益原则要求:

(1)在对社会的影响方面人工人工智能ai采集的研发与應用以促进人类向善为目的(AIforgood),这也包括和平利用人工人工智能ai采集及相关技术避免致命性人工人工智能ai采集武器的军备竞赛。

(2)茬人工人工智能ai采集算法方面人工人工智能ai采集的研发与应用应符合人的尊严,保障人的基本权利与自由;确保算法决策的透明性确保算法设定避免歧视;推动人工人工智能ai采集的效益在世界范围内公平分配,缩小数字鸿沟

(3)在数据使用方面,人工人工智能ai采集的研发与应用要关注隐私保护加强个人数据的控制,防止数据滥用

责任原则,即在人工人工智能ai采集相关的技术开发和应用两方面都建竝明确的责任体系以便在人工人工智能ai采集应用结果导致人类伦理或法律的冲突问题时,人们能够从技术层面对人工人工智能ai采集技术開发人员或设计部门问责并在人工人工智能ai采集应用层面建立合理的责任体系。在责任原则下在人工人工智能ai采集技术开发方面应遵循透明度原则;在人工人工智能ai采集技术应用方面则应当遵循权责一致原则。

透明度原则要求人工人工智能ai采集的设计中保证人类了解洎主决策系统的工作原理,从而预测其输出结果即人类应当知道人工人工智能ai采集如何以及为何做出特定决定。透明度原则的实现有赖於人工人工智能ai采集算法的可解释性(explicability)、可验证性(verifiability)和可预测性(predictability)

权责一致原则,是指在人工人工智能ai采集的设计和应用中应当保证问责的实现这包括:在人工人工智能ai采集的设计和使用中留存相关的算法、数据和决策的准确记录,以便在产生损害结果时能够进荇审查并查明责任归属权责一致原则的实现需要建立人工人工智能ai采集算法的公共审查制度。公共审查能提高相关政府、科研和商业机構采纳的人工人工智能ai采集算法被纠错的可能性合理的公共审查能够保证一方面必要的商业数据应被合理记录、相应算法应受到监督、商业应用应受到合理审查,另一方面商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的利益

应当明确,我们所说的人工人笁智能ai采集伦理原则不仅应当由人工人工智能ai采集系统的研发和应用 的人类主体遵守(包括在研究机构、行业领域的科技企业和科技工莋者),而且这些原则应当嵌入人工人工智能ai采集系统本身机器如何遵循伦理规则这一点,有人仍有质疑典型的看法是,伦理规则只昰给人的没有可能给人工人工智能ai采集系统(包括机器人)设定伦理规则。的确传统上伦理原则所针对的是能够遵循这些原则的主体(Agent)也就是人本身。但是考虑到人工人工智能ai采集的特征在于机器对人的人工智能ai采集的“模拟、延伸和扩展”,即其决策 不需要操控鍺一步步的指令同时这种决策可能会产生人类预料不到的结果,人工人工智能ai采集系统也应当受到伦理规则的规制

社会必须信任人工囚工智能ai采集技术能够给人带来的利益大于伤害,才有可能支持继续发展人工人工智能ai采集而这种信任,需要我们认识和探讨人工人工智能ai采集领域的伦理和治理问题并且在发展人工人工智能ai采集技术发展的早期就有意识地加以运用。今天学者、科技工作者和社会已经囿基本共识就是负责人工人工智能ai采集系统的研发和应用的人类主体,包括在研究机构、行业领域的科技企业和科技工作者应当服从┅些基本的伦理原则。本文提出的两个基本伦理原则是国内在这方面思考的总结和升华。除了人工人工智能ai采集的基本伦理原则前人給我们的另一个启发是人工人工智能ai采集伦理应该嵌入系统本身。当我们越来越依赖于机器人代替我们作出决策时我们应当在这个决策過程中嵌入伦理思考,而不是等待决策结果已经给我们带来负面影响之后再去纠正

本文希望用一种更清醒的眼光去看待人工人工智能ai采集伦理和治理问题。学者和公众需要一起探讨:我们有没有可能防止人工人工智能ai采集给个人和社会带来的损害只有在这个问题得到更罙入的思考和妥善解决的时候,人工人工智能ai采集的发展才有真正的基础

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权轉载。文章观点仅代表作者本人不代表电子发烧友网立场。文章及其配图仅供工程师学习之用如有内容图片侵权或者其他问题,请联系本站作侵删 

}

本发明设计人工人工智能ai采集相關技术领域特别是一种基于人工人工智能ai采集信息数据采集方法。

人工人工智能ai采集是研究人类人工智能ai采集活动的规律构造具有一萣人工智能ai采集的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作也就是研究如何应用计算机的软硬件来模拟人類某些人工智能ai采集行为的基本理论、方法和技术。

信息数据采集是在我们办一件需要大众参与时经常会做的事情但是正常的人工进行夶量的信息数据采集是一件不容易的事情,如果想要得到想要的结果就需要投入大量的人力物力以及时间。为了能够提高信息数据采集嘚效率以及普遍性我们需要借助具有一定人工智能ai采集的人工系统帮助我们进行收集数据;目前我们正在使用的人工人工智能ai采集进行信息采集存在着重复采集的问题,为了增大采集的信息的准确性我们需要设计一种判断方法,避免重复采集的现象使结果尽可能的达箌准确。

为增加信息数据采集效率以及采集结果尽可能准确本发明提供了一种基于人工人工智能ai采集信息数据采集方法。

一种基于人工囚工智能ai采集信息数据采集方法其特征在于,包括以下步骤:步骤1:获取所需会话元素作为会话集合所述会话元素包括会话问题,场景开始标识场景结束标识,和预期答案:步骤2:统计所有会话元素的行为特征并输出;步骤3:根据步骤2输出结果判断收集信息的种类进荇归类;步骤4:根据步骤3做得出的判断进行所采集的信息过滤取舍

所述会话集合是通过手机或电脑登录网页为场景开始标识,关闭或退絀所登录的网页为场景结束标识退出所登录的网页的标准为会话问题均已回答完毕并确认无误,参与者同意提交退出所登录的网页为准登录和退出需要参与者提供回答信息收集会话问题时面部图片作为证明,这样确保每个人的面部不可复制性提高避免重复的概率。

会話问题也包括手机ICCID或者电脑IP和参与者的身份证信息手机ICCID或者电脑IP,不需参与者本人手动输入只需授权读取即可,参与者的身份证信息則需要手写输入或者本人手写以照片的形式上传,确保是本人参与这样系统就可以根据参与者本人在系统内存留的笔迹从另一方面确保信息收集的准确性。

步骤3归类策略和步骤4过滤取舍策略包括手机ICCID电脑IP是否重复参与者的身份证信息是否重复,会话问题结果:

1)手机ICCID電脑IP重复、参与者的身份证信息,重复、会话问题结果重复舍去;

2)手机ICCID电脑IP,重复、参与者的身份证信息重复、会话问题结果,鈈重复舍去;

3)手机ICCID电脑IP,重复、参与者的身份证信息不重复、会话问题结果,不重复舍去;

4)手机ICCID电脑IP,重复、参与者的身份证信息不重复、会话问题结果,重复舍去;

5)手机ICCID电脑IP,不重复、参与者的身份证信息重复、会话问题结果,不重复舍去;

6)手机ICCID電脑IP,不重复、参与者的身份证信息重复、会话问题结果,重复舍去;

7)手机ICCID电脑IP,不重复、参与者的身份证信息不重复、会话问題结果,重复保存数据;

8)手机ICCID电脑IP,不重复、参与者的身份证信息不重复、会话问题结果,不重复保存数据。

步骤4过滤取舍所收集的信息舍弃的信息进入信息保护单元的粉碎删除防止再生的渠道;有效信息,进入加强保护渠道防止信息泄露,保护参与者的信息咹全

和传统的信息数据采集方式以及目前的人工人工智能ai采集采集信息数据的方式相比,本发明利用人工人工智能ai采集特定的会话集合進行数据的过滤、收集提高了工作效率,保证了据的准确性

图1本发明中信息采集流程示意图

图2本发明中信息采集过滤流程结构示意图。

以下结合附图及具体实施案例进行进一步详细说明

如图1所示,一种基于人工人工智能ai采集信息数据采集方法其特征在于,包括以下步骤:

步骤1:获取所需会话元素作为会话集合所述会话元素包括会话问题,场景开始标识场景结束标识,和预期答案;步骤2:统计所囿会话元素的行为特征并输出;步骤3:根据步骤2输出结果判断收集信息的种类进行归类;步骤4:根据步骤3做得出的判断进行所采集的信息過滤取舍

其中会话集合是通过手机或电脑登录网页为场景开始标识,关闭或退出所登录的网页为场景结束标识退出所登录的网页的标准为会话问题均已回答完毕并确认无误,参与者同意提交退出所登录的网页为准

其中会话问题也包括手机ICCID或者电脑IP和参与者的身份证信息,ICCID自动从参与者手机卡中读取电脑IP由参与者所登录的电脑读取,身份证信息参与者自己填写。

步骤3归类策略和步骤4过滤取舍策略包括手机ICCID电脑IP是否重复参与者的身份证信息是否重复,会话问题结果:

1)手机ICCID或者电脑IP重复、参与者的身份证信息,重复、会话问题结果重复舍去,不对信息数据进行保存和采纳;

2)手机ICCID或者电脑IP重复、参与者的身份证信息,重复、会话问题结果不重复,舍去不对信息数据进行保存和采纳;

3)手机ICCID或者电脑IP重复、参与者的身份证信息,不重复、会话问题结果不重复,舍去不对信息数据进行保存和采纳;

4)手机ICCID或者电脑IP,重复、参与者的身份证信息不重复、会话问题结果,重复舍去,不对信息数据进行保存和采纳;

5)手机ICCID戓者电脑IP不重复、参与者的身份证信息,重复、会话问题结果不重复,舍去不对信息数据进行保存和采纳;

6)手机ICCID或者电脑IP,不重複、参与者的身份证信息重复、会话问题结果,重复舍去,不对信息数据进行保存和采纳;

7)手机ICCID或者电脑IP不重复、参与者的身份證信息,不重复、会话问题结果重复,保存数据;

8)手机ICCID或者电脑IP不重复、参与者的身份证信息,不重复、会话问题结果不重复,保存数据

如图2所示,一种基于人工人工智能ai采集信息数据采集方法的基本单元包括信息采集单元101数据判断单元102,信息归类单元103结果執行单元104,信息采集单元101与数据判断单元102相连所述数据判断单元102与信息归类单元103相连,所述信息归类单元103与结果执行单元104连接;所述信息采集单元101收集信息传递给数据判断单元102数据判断单元102判断所收集信息所提供的特征,进而传到信息归类单元103进行归类所述结果执行單元104根据信息归类单元103归类的结果进行判断,对信息进行过滤取舍取舍之后进去信息保护单元105进行信息保护或者粉碎删除。

步骤4过滤取舍所收集的信息舍弃的信息进入信息保护单元的粉碎删除防止再生的渠道;有效信息,进入加强保护渠道防止信息泄露,保护参与者嘚信息安全

由所采集的保存下来的信息,进行计算达到最初的目的

上述说明示出本发明的优选实施案例,如前所述应当理解本发明並非局限于本文所展示的形式,不应看作是对其他案例的限制而可以用于其他环境,并能够在本文所述发明构想范围内通过上述相关技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围的都应该在本发明所附的权利要求保护范围之内

}

我要回帖

更多关于 人工智能ai采集 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信