人工智能伦理问题

2023-06-05 0 262

1956年,人工智慧概念在美国乔治城学院正式诞生。期间最高潮低潮期屡经磨难,经过60百余年的产业发展,2015年,Google的Alpha Go程序击败中国围棋剑客柯洁,掀开又一场最高潮大幕。距离那次最高潮早已往后整整30年。人工智慧产业发展到今天并不是一蹴而就的。

控制技术微观上,应该说,这一场最高潮是在第三次大潮基础上形成的,因为第三次大潮是以机器自学为非主流;而这一场最高潮所依赖的广度自学控制技术,不可否认是机器自学的两个利皮扬卡,确切的说,是如前所述人工智能化的机器自学方式的推进,用来化解比以往任何机器自学方式更高效率地化解更复杂的任务。当然,有赖于计算机的计算资源的提升以及大数据,使得广度自学的杀伤力得以展现出。

应用应用领域微观上,从音频辨识、用例到医疗诊断、自动驾驶,如前所述广度自学的应用应用领域在急速增进、急速成熟,甚至在许多难题化解方面早已已经开始胜过人类文明,与此与此同时,又引发现代人利皮扬卡工作智能化增添失业者等社会风气难题的忧虑。与此同时也期盼具有心智、自主自学和决策的更高级的智能化系统的再次出现,就像许多奇幻影视制作中再次出现的那些机器所体现的人工智慧。

商业微观上,面对今后非常大的利益驱使,国内外非主流的网络公司如Google、Amazon、Facebook、腾讯、腾讯等都已经开始争相布局人工智慧,创业和投资的风潮也从前几年的舰载、VR全面延伸到人工智慧应用领域。短短的两年,全球早已有十几家人工智慧公司,市场规模增长空间非常大,今后十年内将创造亿美元左右的价值。

        人类文明似乎早已进入了两个人工智能化增添的幸福时代。而往后,这种情景只有在奇幻片中才能看到。在对今后的幸福依恋中,也鲜有来自社会风气和科学控制技术应用领域的专家、学者争相表达利皮扬卡工智慧增添的消极影响的忧虑。这些忧虑提醒现代人在乐观期盼今后的与此同时

   人工智慧伦理道德的理应之意

事实上,控制技术进步增添的风险是各方面的,在人类文明历史上也并不可见,几乎在每两个重大控制技术突破的时代,比如电力、蒸汽机、通讯以及计算机和网络都是毫无生气的、冷冰冰的机器,一方面,它们在智能化程度上早已可以远远超过人类文明,比如此次最高潮中的图像辨识和音频辨识,以及增强人体的机械外骨骼控制技术,另一方面,可能是具有人类文明的外观以及情绪、情感的智能化机器,可能具有了人格或人的属性。人类文明利皮扬卡工智慧而言,可能正在扮演上帝的角色,而“人类文明上帝”创造出的“智能化体”有可能会反过来威胁人类文明,这是自世界上第一部科学幻想小说《弗兰肯斯坦》诞生以来就充斥奇幻片和小说中的标准桥段。事实上,由此人工智慧所引发的所谓伦理道德思考,最早不是来自现实的控制技术进步,而不可否认是奇幻小说和影视制作。

                 人工智能伦理问题

人类文明思想的伟大之处在于,能够把头脑中幻想的事物一点点变成现实,事实上,每一代人类文明所生活的现实世界某种程度上也正是前几代上所幻想或构想的世界。我们当代人也不例外。许多奇幻片和小说中的情景逐步变为现实,原本只是停留在幻想阶段的伦理道德忧虑和威胁似乎完整的映射到了现实世界,从而给人类文明增添了实实在在的困扰和恐慌。

人工智能伦理问题

因此,此时此刻的人类文明,必须团结起来,在扮演上帝的与此同时,也要已经开始寻求防止自己所创造的智能化体无序产业发展,从而危及自身的生存的手段和方式。这其中,从基本社会风气制度、道德微观到伦理道德、法律、教育、哲学微观都大限度的将危险消灭在萌芽之中,另一方面,引导控制技术力量注重在源头已经开始开发、设计友善的、幸福的人工智慧,最大限度避免人工智慧的“恶之花”。这就是人工智慧伦理道德的理应之意。

机器伦理道德与人工智慧伦理道德

“机器伦理道德”(Machine Ethics Michael AndersonSusan Leigh AndersonChris Armen 2004 年发表的《走向机器伦理道德》(TowardsMachine Ethics”。类是否负责任地使用了控制技术,以及控制技术的使用利皮扬卡类文明而言有哪些福祉或者弊端。然而,很少有人关心人类文明应该如何负责任地对待机器。这里的机器实际上指的是具有人工智慧的机器。由于机器的智能化化产业发展使得机器负载着越来越多的价值和责任,从而使机器具有伦理道德属性,以帮助使用者做出伦理道德决策,或者产业发展一种具有伦理道德意向的自动机器以实现情景判断、案例分析和实时决策的功能,这是目前该应用领域的研究重点。与此同时,这里也需要指出,机器伦理道德不能等同于人工智慧伦理道德。在国外产业发展的机器伦理道德,往往与机器伦理道德在概念上不加区分,因为我们可以认为机器伦理道德就是机器伦理道德。但是就机器与人工智慧的关系而言,它只是人工智慧控制技术的具象,是以人类文明喜闻乐见的形象展现出人工智慧,与此同时具有完成各种不同任务的功能,当然需要根据不同情景和任务需要设计不同功能的机器,通用的类人智能化机器或者超级智能化只有奇幻片和小说中才能看到。

而且,人工智慧控制技术实现的具体形式多种多样,比如现阶段的各种智能化软件,用于医疗、法律、教育、金融甚至音乐、绘画等应用领域的智能化软件,各种聊天机器,其背后一般是强大的机器自学算法广度自学,以及自然语言理解、音频辨识等人工智慧控制技术。而这些控制技术并没有使这些软件达到强人工智慧的程度。其所承载的伦理道德责任也与机器伦理道德有许多区别。目前,关于人工智慧伦理道德的讨论多集中在机器伦理道德,因为这部分最容易引起现代人的共鸣,影视制作电影的影响和熏陶使得机器与人的关系最密弱人工智慧两方面讨论。

强人工智慧和弱人工智慧的伦理道德难题

       人工智能伦理问题

强人工智慧是指有心智、自主自学、自主决策能力的人工智慧,由此衍生出的智能化体形态多样,也是人工智慧产业发展的终极目标。但是在意识的科学难题没有化解之前,强人工智慧的实现还需要很长时间。但比尔·盖茨和斯蒂芬·霍金都表示了利皮扬卡工智慧会具有自我觉知(self-aware),具有意识(consciousness)的忧虑。霍金认为人工智慧可能是人类文明最大的灾难。如果不加以恰当管理,会思考的机器可能终结人类文明文明。机器权利等伦理道德难题多数属于现实中尚不存在的强人工智慧增添的可能的、潜在的难题。正如我们幻想机器智能化超过人类文明利皮扬卡类文明进行灭绝一样,我们需要预先考虑这种控制技术产业发展的后果。因此,我们需要思考诸如人工智慧人道主义待遇、有心智的智能化机器在人类文明社会风气的角色、有心智的智能化机器在法律上如何定义(电子人?合成人?智能化体?)以及是否应该赋予“电子人”法律人格并具有权利义务和行为责任、有意识的机器受到折磨或虐待怎么办、利用性爱机器牟利算不算违法、各类服务机器在照顾孩子、老人或病人时发生事故如何界定责任等等难题。这些难题在强人工智慧实现之前需要来自法律、哲学、控制技术和政府、企业、社会风气组织等各方面的更多探讨。牛津大学哲学家尼克·波斯特洛姆针对强人工智慧可能面临的各种伦理道德和法律难题提出了“建造幸福的人工智慧”的设想,也就是按照建造两个种子人工智慧,然后按照人类文明需要的方式去赋予其“与支配我们的思维的认识论相匹配的基本论原理”,它会随着世界理解的急速产业发展由它自己急速创造并修改其对世界的认识。

         人工智能伦理问题

弱人工智慧是指各种模拟人或动物智能化化解各种难题的控制技术,这包括难题求解、逻辑推理与定理证明、自然语言理解、自动程序设计、专家系统、机器自学、人工智能化、机器学、模式辨识、机器视觉、智能化控制、智能化检索和智能化调度与指挥等。目前这些应用领域的研究以广度自学为代表早已取得了非常惊人的成果,这些成果也证明了在某一特定方面人工智慧可以胜过人的能力,并衍生出各种形式的智能化体,软件、算法、无人车、舰载、各种类型和功能的机器等等。但正是以广度自学为非主流的弱人工智慧控制技术在某些方面表现出的超出人类文明的能力反倒令我们已经开始惴惴不安,因为我们不了解广度自学的运行机制。

目前,机器伦理道德学应用领域目前存在着“自上而下”与“自下而上”两种构建方式。“自上而下”的伦理道德建构,“运用道义逻辑将道义论的义务和规范转换为逻辑演算,与此同时通过净利益的计算实现功利的算计与权衡,使机器能够从一般的伦理道德原则出发对具体的行为作出伦理道德判断”;“自下而上”的伦理道德建构则“通过机器自学和复杂适应系统的自组织产业发展与演化使机器能够从具体的伦理道德情境生成普遍的伦理道德原则,通过道德冲突中习得道德感知与伦理道德抉择的能力,最终使机器的人工伦理道德能力得以从一般的人工智慧中涌现出来。”

  具体看来,将机器伦理道德付诸于实践的应用应用领域程序主要存在着“如前所述伦理道德原则”或者“如前所述案例”的两种程序设计形式。实际上,这两种构建方式不可否认是符合弱人工智慧控制技术或当前现实需要的方式。因为,强人工智慧的实现将不再需要算法和程序。强人工智慧伦理道德将是完全参考人类文明的伦理道德规范来确定,包括赋予有意识的人工智慧以人格、法律主体地位,甚至承认其拥有与人类文明平等的权利“人权”等等

可理解的机器

20166月,微软总裁萨蒂亚纳德拉(Satya Nadella) 曾说过我们不仅想要智能化机器,还需要可理解的机器。”如今,它已成为控制技术和应用应用领域应用领域的两个重要难题,尤其在广度神经网络在医疗、司法、金融、交通、军事等关键应用领域急速得到应用应用领域的情况下,也增添了弱人工智慧伦理道德难题。与尚未实现的强人工智慧在今后可能给人类文明增添的伦理道德困惑或难题不同,弱人工智慧是在现实中可能给我们增添种种伦理道德难题或困惑:比如,支付宝背后的算法机器拒绝贷款给某人合理吗?法律软件根据哪些具体标准来判定某人犯下杀人罪?医疗诊断机器根据哪些症状宣布病人得了不治之症?自动驾驶汽车出了事故责任怎么认定?智能化算法建议一支部队轰炸医院、学校怎么办?微软小冰所做的诗歌版权属于谁?等等诸如此类的难题。美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能化机器的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,今后可能会产生责任鸿沟。

以广度自学+大数据为主要模式的人工智慧系统需要大量的数据来训练自学算法。必然会产生隐私泄露等难题。一方面,如果在广度自学过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。目前人工智慧研究人员早已在提倡如何在广度自学过程中保护个人隐私。区块链控制技术+人工智慧+量子加密控制技术今后可能会成为两个有效化解方案,在此之前,仍需要政府、企业和个人多方努力防止此类难题的大规模爆发。

造成这些难题的背后是当前以广度自学+大数据+超级计算为主要模式的弱人工智慧,主要以大数据为依据,因此数据质量和隐含的信息决定了广度自学控制技术得到的结果可能存在偏颇甚至所谓产生“算法歧视”。因为人工智慧倾向于系统性地复制用于自学的数据中所有或明或暗的人类文明过失。比如2016 3 月,微软公司在美国Twitter 上上线的聊天机器Tay 在与网民互动过程中,成为了两个集性别歧视、种族歧视于一身的“不良少女”。

机器自学算法歧视会产生前面所提出的关于支付宝拒绝贷款等难题,甚至增添更多危害。一方面,如果将算法应用应用领域在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。

由于目前的广度自学还是两个典型的“黑箱”算法,连设计者都不知道它是如何决策。传统软件的每一行代码都由人类文明编写,还要经过严谨地测试验证才能正式使用。但是目前已经实现了计算机自主编程,无需人类文明干预。虽然有研究人员在通过可视化方式研究广度自学的特征提取和信息处理过程,但要解释广度自学算法做出的每两个决定,目前还是比较困难。

尽管在大规模图像处理、音频辨识甚至音乐、绘画等艺术应用领域的表现虽然令人刮目相看,但没人知道其决定的背后隐藏着什么,机器自学算法不仅仅会将歧视代码化,而且会创造自己的现实,事实上生成对抗网络早已可以做到这一点。预测性警务、犯罪风险评估、信用评估等都存在类似难题。归根到底,广度自学算法仍然缺乏人类文明这样的联想、记忆、自学、推理等高级智能化。但一定程度上,它有些接近机器自学专家佩德罗·多明戈斯所提出的“终极算法”,意思是说通过数据学得包括往后、现在以及今后的所有知识的算法,创造该算法讲师科学历史上最大的进步之一。迄今为止,这样的算法并没有被创造出来。广度自学只是一定程度上接近终极算法的理想,但许多表现早已让人类文明不可理解。

因此,当前化解弱人工智能伦理道德难题的首要任务是让人工智慧得出的结果变得可以理解,可以解读。美军近一年启动了至少13个项目,都以可解释的人工智慧为主题。欧洲为保护数据信息制定的新法令里甚至包括一条解释权”——有权要求做出决定的机器做出解释,该法令将于20185月生效。

上述分析说明目前以机器自学算法为主的弱人工智慧并不值得百分百信任,并且人类文明对这种新型智慧的认识还太粗浅。因此,我们一方面要对今后再次出现的类人智能化机器增添的威胁和伦理道德难题,另一方面,更要面对现实中早已再次出现的广度自学之类的智能化算法可能造成的潜在威胁和伦理道德难题。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务