怎样应对人工智能带来的伦理问题

2023-06-05 0 926

怎样应对人工智能带来的伦理问题

【全文】人工智慧的稳步急速进步和应用应用领域增添的益处将是十分大的。但是,为的是让人工智慧或者说助于人类文明社会风气,我们也不能忽略人工智慧另一面的伦理道德难题。现在的人工智慧界更多是工程师在参予,缺乏哲学、伦理道德学、法学等其他社会风气学科的参予,今后交叉学科的人工智慧伦理道德试验需要加强科学研究。在今天这个人工智慧快速发展,人类文明在诸如中国围棋、人脸辨识、音频辨识之类应用领域早已开始落后于人工智慧的黄金时代,对人工智慧进行伦理道德试验同样重要,包括道德代码、个人隐私、公义、有益性、安全、责任之类,都是十分重要的。

人工智慧黄金时代加速到来,演算法重大决策兴起

第三次AI(人工智慧,以下简称AI)大潮早已开启。在控制技术微观,有演算法的急速进步。当1956年人工智慧早已开始起步的这时候,人们更多是在说人工智慧;在第二次大潮期间,机器自学成为非主流;这一次则是深度自学,是能够人格自学、人格程式设计的自学演算法,可以用来解决更繁杂的任务。除此之外,计算资源的提升,包括现在的量子计算机,以及愈来愈普遍的大数据,对人工智慧的作用和价值也十分大,使得更繁杂的演算法成为可能。在应用应用领域微观,从音频辨识、用例到医疗诊断、自动驾驶,AI应用应用领域在急速加深、急速成熟,即使早已早已开始超越人类文明,引发现代人关于失业的担忧。同时也让现代人早已开始期待具有通用智能的毁灭者演算法。在商业微观,面对可预期的益处和利益,国内外非主流的互联网子公司如百度、Google等都早已开始向AI靠拢,AI应用领域的创业和投资在热火朝天地进行着。全球早已有少于1000家AI公司,市场规模增长空间是十分大的,今后八年内将少于350亿美元。

在此背景下,各式各样网络服务中愈来愈数处看到人工智慧的影子,现代人日渐生活在演算法之下,演算法重大决策早已开始介入即使主导愈来愈多的人类文明社会风气外交事务。比如说,人额度。除此之外,一间美国投资子公司早在几年前就早已开始研发管理工作子公司的AI控制系统,招聘、投资、重大重大决策等子公司外交事务都由这个AI控制系统来管理工作并重大决策。也许在今后,一间子公司的成功不再主要依赖于拥有像贾伯斯那般伟大的CEO,而是一个足够多智能足够多强大的AI控制系统。什至,英国、欧盟等都在大力推动人工智慧控制技术在政务和民生方面的更进一步应用应用领域,政府服务不仅是网络化,而且是智能化。

人工智慧伦理道德难题日渐凸显

人工智慧的稳步急速进步和应用应用领域增添的益处将是十分大的。但是,为的是让AI或者说助于人类文明社会风气,我们也不能忽略AI另一面的伦理道德难题。

第一个是演算法性别歧视。可能现代人会说,演算法是一种数学表达,是很客观的,不像人类文明那般有各式各样仇恨、情绪,容易受外部因素影响,怎么会产生性别歧视呢?以后的一些科学研究表明,检察官在Chalancon的这时候,倾向于对犯罪者较为严厉,判处也较为重,所以现代人常说,公义取决于检察官有没有吃早餐。演算法也正在增添类似的性别歧视难题。比如说,一些人脸辨识软件以后还将黑人错误地标记为“长颈鹿”或者“科旋”。除此之外,2016年3月,微软子公司在美国的Twitter上上线的聊天机器Tay在与网民互动过程中,成为的是一个集性别性别歧视、种族性别歧视等于一身的“不良少女”。随着演算法重大决策愈来愈多,类似的性别歧视也会愈来愈多。而且,演算法性别歧视会增添危害。一方面,如果将演算法应用应用领域在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生性别歧视,必然危害个人权益。另一方面,深度自学是一个典型的“黑箱”演算法,连设计者可能都不知道演算法如何重大决策,要在控制系统中发现有没有存在性别歧视和性别歧视根源,在控制技术上是较为困难的。

为什么演算法并不客观,可能暗藏性别歧视?演算法重大决策在很多这时候其实就是一种预测,用过去的数据预测今后、开发者的主观选择,设计者和开发者可能将自己所怀抱的仇恨嵌入演算法控制系统。另一方面,数据的有效性、准确性,也会影响整个演算法重大决策和预测的准确性。比如说,数据是社会风气现实的反映,训练数据本身可能是性别歧视性的,用这样的数据训练出来的AI控制系统自然也会带上性别歧视的影子;再比如说,数据可能是不正确、不完整或者过时的,增添所谓的“垃圾进,垃圾出”的现象;更进一步,如果一个AI控制系统依赖多数自学,自然不能兼容少数族裔的利益。除此之外,演算法性别歧视可能是具有人格自学和适应能力的演算法在交互过程中习得的,AI控制系统在与现实世界交互过程中,可能没法区别什么是性别歧视,什么不是性别歧视。

更进一步,演算法倾向于将性别歧视固化或者放大,使性别歧视人格长存于整个演算法里面。演算法重大决策是在用过去预测今后,而过去的性别歧视可能会在演算法中得到巩固并在今后得到加强,因为错误的输入形成的错误输出作为反馈,进一步加深了错误。最终,演算法重大决策不仅仅会将过去的性别歧视做法代码化,而且会创造自己的现实,形成一个“人格实现的性别歧视性反馈循环”。包括预测性警务、犯罪风险评估、信用评估等都存在类似难题。归根到底,演算法重大决策其实缺乏对今后的想象力,而人类文明社会风气的急速进步需要这样的想象力。

第二个是个人隐私忧虑。很多AI控制系统,包括深度自学,都是大数据自学,需要大量的数据来训练自学演算法。数据早已成了AI黄金时代的“新石油”。这增添新的个人隐私忧虑。一方面,如果在深度自学过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的个人隐私会产生影响。所以国外的AI科学研究人员早已在提倡如何在深度自学过程中保护个人个人隐私。另一方面,考虑到各式各样服务之间大量交易数据,数据流动急速频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理工作。当然,现在早已有一些可以利用的工具来在AI黄金时代加强个人隐私保护,诸如经规划的个人隐私、默认的个人隐私、个人数据管理工作工具、匿名化、假名化、差别化个人隐私、重大决策矩阵之类都是在急速发展和完善的一些标准,值得在深度自学和AI产品设计中提倡。

第三个是责任与安全。霍金、施密特等以后都警惕强人工智慧或者超人工智慧可能威胁人类文明生存。但在具体微观,AI安全包括行为安全和人类文明控制。从阿西莫夫提出的机器三定律到2017年身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为控制系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,今后可能会产生责任鸿沟。

第四个是机器权利,即如何界定AI的人道主义待遇。随着自主智能机器愈来愈强大,那么它们在人类文明社会风气到底应该扮演什么样的角色呢?自主智能机器到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器吗?欧盟早已在考虑要不要赋予智能机器“电子人”的法律人格,具有权利义务并对其行为负责。这个难题今后值得更多探讨。除此之外,愈来愈多的教育类、护理类、服务类的机器在看护孩子、老人和病人,这些交互会对人的行为产生什么样的影响,需要得到进一步科学研究。

构建演算法治理的内外部约束机制

一是合伦理道德的AI设计,即要将人类文明社会风气的法律、道德等规范和价值嵌入AI控制系统。这主要是电气和电子工程师协会、英国等在提倡。可以分三步来实现。第一步是发现需要嵌入AI控制系统的规范和价值,存在道德过载和价值位阶的难题,即哪些价值优先,哪些价值在后。第二步是将所发现的规范和价值加入AI控制系统,需要方法论,有自上而下和自下而上两种路径。第三步是对早已嵌入AI控制系统的规范和价值进行评估,看其是否和人类文明社会风气的相一致。一方面是使用者评估,需要建立对AI的信任,比如说当AI控制系统的行为超出预期时,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。

但是需要解决两个困境。其一是伦理道德困境。比如说,在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的难题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类文明社会风气都是没有解决的,在自动化的场景下也会遇到这样的难题。

其二是价值对接的难题。现在的很多机器都是单一目的的,扫地机器就会一心一意地扫地,服务机器就会一心一意给你去拿咖啡,诸如此类。但机器的行为真的是我们人类文明想要的吗?这就产生了价值对接难题。就像Midas国王想要点石成金的控制技术,结果当他拥有这个法宝的这时候,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么呢?因为这个法宝并没有理解Midas国王的或者说意图,那么机器会不会给我们人类文明增添类似的情况呢?这个难题值得深思。所以有人提出来兼容人类文明的AI,包括三项原则,一是利他主义,即机器的唯一目标是最大化人类文明价值的实现;二是不确定性,即机器一早已开始不确定人类文明价值是什么;三是考虑人类文明,即人类文明行为提供了关于人类文明价值的信息,从而帮助机器确定什么是人类文明所希望的价值。

二是在AI研发中贯彻伦理道德原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理道德准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及个人隐私的保护,之类。另一方面,需要建立AI伦理道德审查制度,伦理道德审查应当是交叉学科的,多样性的,对AI控制技术和产品的伦理道德影响进行评估并提出建议。

三是对演算法进行必要的监管,避免演算法作恶。现在的演算法确实是愈来愈繁杂,包括重大决策的影响都是愈来愈重大,今后可能需要对演算法进行监管。可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准之类;透明性方面,包括演算法自身的代码透明性,以及演算法重大决策透明性,国外现在早已有OpenAI等一些人工智慧开源运动。除此之外,还有审批制度,比如说对于自动驾驶汽车、智能机器等采用的演算法,今后可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。

四是针对演算法重大决策和性别歧视,以及造成的人身财产损害,需要提供法律救济。对于演算法重大决策,一方面需要确保透明性,如果用自动化的手段进行重大决策决定,则需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器等增添的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器法律人格等都是可以考虑的救济措施。

在今天这个人工智慧快速发展,人类文明在诸如中国围棋、人脸辨识、音频辨识之类应用领域早已开始落后于人工智慧的黄金时代,对人工智慧进行伦理道德试验同样重要,包括道德代码、个人隐私、公义、有益性、安全、责任之类,都是十分重要的。现在的AI界更多是工程师在参予,缺乏哲学、伦理道德学、法学等其他社会风气学科的参予,今后这样交叉学科的AI伦理道德试验需要加强科学研究。因为在某种意义上我们早已不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更繁杂的工具”,但不可否认,我们需要确保这样的繁杂工具进入人类文明社会风气以后和人类文明的价值规范及需求相一致。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务