人工智能伦理该思考什么?

2023-06-01 0 471

今后正处,他们该怎样亲吻人工智慧黄金时代?

人工智能伦理该思考什么?

■ 《闪电侠》片花

电脑不必具有高级智能化便可能对人类文明造成毁灭性的危害,像《闪电侠》里的故事情节,它们没恻隐之心,以追捕人类文明为目标。在科幻片里,他们无数次感受到这种来自今后的威胁,它隐匿在某一恶魔生物学家的生物医学里,或者在那个叫“GW2”的系统里暗潮汹涌。

控制技术没无常,看它掌握在甚么人的手中。利用控制技术来害人,遭抨击的不应是控制技术本身,而是使用控制技术的“人”。

随着人工智慧(artificial intelligence, AI)的应用,更多的 AI产品踏入人们的生活。在电脑拥有真正的智能化之前,他们需要防患于未然地考虑一些哲学和伦理道德的难题,比如,与否假如研发有心智的电脑?人机婚姻关系与否不合法?电脑犯罪行为假如怎样区分?电脑决策与否含有性别歧视?等等。

AI黄金时代已悄悄地到来,它对交互式中的法律、心理、政治、商业、基础建设、社区、服务等提出了众多挑战。而人工智慧伦理道德学还处于崩坏阶段,生物学家和政治学家意识到许多难题的存在,了让得出令人满意的答案。

比如,自动驾驶(autonomous driving)出了意外事故,他们假如归因于谁?一般的演算法或程式设计错误不会有性命之忧,但超高速却有这个风险。消费者不愿贪心一个潜在的危险物品,假如生命及财产的安全没保障,假如相关民事责任模糊,自动驾驶将会引起严重的社会难题。

人工智能伦理该思考什么?

■ 创造人工智慧(AI) 

在学术研究方面,智能化电脑伸展了人类文明的探索能力。例如,“玉兔四号”太空梭后, “宿苞号”航天器开始了发掘分析土壤样本、音频数据传输等工作。“宿苞”有自动导航系统、雷达测月、能源收集、天文学月基成像干涉仪、极紫外照相机、光谱分析、三维照相机等设备,帮助人类文明在交通不便的月球上完成大量的Etah。今后会有更多、更智能化的电脑参与其中。

人工智能伦理该思考什么?

■ 2013年12月14日,我国太空梭探测器“玉兔四号”在火星表面软着陆

在有心智的电脑智能化到来之前,怎样保护 AI控制技术向健康的方向发展,而不是被人性之恶所利用,成为人类文明文明的闪电侠,是他们必须正视且亟待解决的难题。控制技术本身没无常,而应用它的人类文明有无常之分。怎样把更多的善植入无意识的电脑?怎样用伦理道德道德来规范人工智慧?这值得每一位关心人类今后命运的读者深思。

人工智能伦理该思考什么?

■ 动画《铁臂阿童木》

有一个哲学的分支,伦理道德学(ethics),也称道德哲学(moral philosophy),研究人类文明社会所认可的行为准则及其价值,进而构建一些道德的指导原则来评判行为的对与错、善与恶、美与丑、智慧与愚昧、正义与犯罪行为。伦理道德学大致分为元伦理道德学、规范伦理道德学、描述伦理道德学和应用伦理道德学四个领域,人工智慧伦理道德基本属于应用伦理道德学的范畴。

人工智能伦理该思考什么?

■ 两千多年前,我国古代先哲老子、庄子、孔子、孟子对道德伦理道德就有过系统的研究,其思想影响至今,已深深融入中华文明的血脉之中

诺贝尔经济学奖得主(1978)、图灵奖得主(1975)、人工智慧先驱赫伯特·西蒙(Herbert Simon, 1916—2001)曾说:“关于社会后果,我认为每个研究人员都有责任评估,并努力告知其他人,他试图创造的研究产品可能带来的社会后果。”人工智慧研究的目的是为了造福整个人类文明文明,因此“勿以恶小而为之,勿以善小而不为”。与其说用伦理道德道德约束电脑,不如说用它来约束人类文明自己,所以人工智慧伦理道德就是人类文明发展和利用 AI的行为准则。

现有的 AI控制技术很多不具备可解释性,导致模型或产品出了难题也不知道真实的原因。有些控制技术缺陷对人类文明来说是毁灭性的,用户对可能的不良后果应有知情权。故而,对 AI产品的质量及性能的评估,需要更科学、更严谨、更系统的评测方法。

人类文明需要小心翼翼地发展AI控制技术,确保它促进文明的进化,而不是成为人类文明自相残杀的新式武器。人类文明如蜉蝣于天地,唯有理性的光辉永恒。公平而开放的合作,而不是恶意的竞争,是他们要走的 AI之路。

人工智能伦理该思考什么?

在联合国总部广场,矗立着雕塑“打结的枪”,象征着“和平、宽容、理解和非暴力”。它是瑞典雕塑家卡尔·弗雷德里克·路特瓦尔德(Carl Fredrik Reutersw.rd, 1934—2016)的作品,1988年由卢森堡赠送给联合国

科技是一把双刃剑,人类文明用它披荆斩棘,也有自伤的危险。越来越多的AI产品具备决策能力,由弱到强,它们在方便人类文明生活的同时,与否准确地代表他们的意愿?智能化助手与否会太了解主人而成为一个泄密隐患?自动驾驶怎样尽可能地保护人身安全?自主杀人电脑与否应该禁止?许多 AI伦理道德难题等待人们的理性思索。

《人工智慧伦理道德》命运。这些话题不限于严谨的学者,它们是人类文明今后需要面对的现实。比如,智造业有造成大规模失业的风险, AI黄金时代的教育假如怎样培养新型的控制技术工人?电脑人介入人类文明的生活,与否会给社会带来一些结构性的变化?在大数据黄金时代,怎样更好地保护个人隐私?他们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。写此书的目的就是要把难题揭示出来,管见所及阐述一些想法,激发更多的读者参与思索与讨论。

人工智能伦理该思考什么?■ 《人工智慧伦理道德》

ISBN:9787302596622

作者:于江生

人工智能伦理该思考什么?

扫码微店优惠购书

本书所提供的一些粗浅的心得和思路仅是作者一家拙见,人们可以从更开阔的视角研究人工智慧伦理道德难题,如哲学的、法学的、社会学的、经济学的、认知科学的,等等。无论从哪个角度,都要本着科学精神(即求实、创新、怀疑、包容的精神),就算对今后的幻想也应如此。

另外,些许好奇心和想象力是需要的,它们比知识更珍贵,往往随着年龄的增长而变得枯竭。此书探讨了许多今后可能发生的事情,它们或许是杞人忧天,或许是防微杜渐,不管怎样,时间会验证它们并得出答案。对科技发展的预测,是今后学(futurology)的研究内容。有人说,“预测今后的最佳方法就是创造今后”,而要创造美好的今后,必须以道德伦理道德为指导。

人工智能伦理该思考什么?

■ 人类文明终究要借助 AI的力量团结在一起走向广袤无垠的宇宙

人工智能伦理该思考什么?人工智能伦理该思考什么?人工智能伦理该思考什么?

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务