人工智能的六大伦理原则

2023-06-01 0 289

人工智能的六大伦理原则

有效性和问责是基础,其他五项准则是公正、可信和安全可靠、个人隐私和保证、宽容

Tim O’Brien  | 文

人工智能的六大伦理原则

2018年,谷歌刊登了《未来排序》(The Future Computed)那哥,其中提出了人工智慧开发的五大准则:公正、可信和安全可靠、个人隐私和保证、宽容、透明化、职责

首先是公正性。公正性是指对人来说,相同地区的人、相同级别的其他人在AI眼前是公平的,不如果有人被性别歧视。

人工智慧统计数据的结构设计均始自体能训练统计数据的选择,这是可能将产生漠视的第二个各个环节。体能训练统计数据如果不足以代表他们存活的多元化的当今世界,最少是人工智慧将运转的那一小部分当今世界。以脸部辨识、焦虑检验的人工智慧控制系统为例,假如只对孩童脸部影像展开体能训练,这个控制系统可能将就难以精确辨识幼儿的特点或眼神。

保证统计数据的“指标性”还不如,种族性别歧视和种族性别歧视也可能将悄悄地混进社会统计数据。假设他们结构设计一个协助雇员甄选应聘者的人工智慧控制系统,假如用公用劳工市场统计数据展开甄选,控制系统很可能将会“自学”到绝大多数应用软件合作开发者为女性,在优先选择应用软件合作开发者职务的最佳人选时,该控制系统就很可能将偏重女性,尽管实施该控制系统的公司想通过招工提高雇员的多元性。

假如人们假设技术控制系统叶黄杨更慢手忙脚乱、更为精确、极具权威性,也可能将造成漠视。许多情况下,人工智慧控制系统输出的结果是一个概率预测,比如“申请人贷款违约概率约为70%”,这个结果可能将非常精确,但假如贷款管理人员将“70%的违约风险”简单解释为“不良信用风险”,拒绝向其他人提供贷款,那么就有三成的人虽然信用状况良好,贷款申请也被拒绝,导致漠视。因此,他们需要对人展开培训,使其理解人工智慧结果的含义和影响,弥补人工智慧决策中的不足。

第二是可信性和安全可靠性它指的是人工智慧使用起来是安全可靠的、可信的,不作恶的。

目前全美热议的一个话题是自动驾驶车辆的问题。之前有新闻报道,一辆行驶中的特斯拉控制系统出现了问题,车辆仍然以每小时70英里的速度在高速行驶,但是驾驶控制系统已经死机,司机难以重启自动驾驶控制系统。

想象一下,假如你要发布一个新药,它的监管、测试和临床试验会受到非常严格的监管流程。但是,为什么自动驾驶车辆的控制系统安全可靠性完全是松监管甚至是无监管的?这就是一种对自动化的偏见,指的是他们过度相信自动化。这是一个很奇怪的矛盾:一方面人类过度地信赖机器,但是另一方面其实这与人类的利益是冲突的。

另一个案例发生在旧金山,一个已经喝晕了的特斯拉车主直接进到车里打开了自动驾驶控制系统,睡在车里,然后这辆车就自动开走了。这个特斯拉的车主觉得,“我喝醉了,我没有能力继续开车,但是我可以相信特斯拉的自动驾驶控制系统帮我驾驶,那我是不是就不违法了?”但事实上这也属于违法的行为。

一个领域。自动驾驶车只是其中一个例子,它涉及到的领域也绝不仅限于自动驾驶。

第三是个人隐私和保证,人工智慧因为涉及到统计数据,所以总是会引起个人个人隐私和统计数据安全可靠方面的问题。

美国一个非常流行的健身的App叫Strava,比如你骑自行车,骑行的统计数据会上传到平台上,在社交媒体平台上有很多人就可以看到你的健身统计数据。问题随之而来,有很多美国军事基地的在役军人也在锻炼时用这个应用,他们锻炼的轨迹统计数据全部上传了,整个军事基地的地图统计数据在平台上就都有了。美国军事基地的位置是高度保密的信息,但是军方从来没想到一款健身的App就轻松地把统计数据泄露出去了。

第四是人工智慧必须考虑到宽容性的道德准则,要考虑到当今世界上各种功能障碍的人群。

举个领英的例子,他们有一项服务叫“领英经济图谱搜索”。领英、谷歌和美国一些大学联合做过一个研究,研究通过领英实现职业提升的用户中是否存在性别差异?这个研究主要聚焦了全美排名前20 MBA的一些毕业生,他们在毕业之后会在领英描述自己的职业生涯,他们主要是对比这些统计数据。研究的结论是,最少在全美排名前20的MBA的毕业生中,存在自我推荐上的性别差异。假如你是一个女性的MBA毕业生,通常你在毛遂自荐的力度上要超过女性。

假如你是一个公司负责招工的人,登录领英的控制系统,就会有一些关键字域要选,其中有一页是自我总结。在这一页上,女性对自己的总结和评估通常都会高过女性,女性在这方面对于自我的评价是偏低的。所以,作为一个招工者,在招工人员的时候其实要获得相同的统计数据信号,要将这种统计数据信号的权重降下来,才不会干扰对应聘者的正常评估。

但是,这又涉及到一个程度的问题,这个统计数据信号不能调得过低,也不能调得过高,要有一个正确的度。统计数据能够为人类提供很多的洞察力,但是统计数据本身也包含一些偏见。那他们如何从人工智慧、伦理道德的角度来更好地把握这样一个偏见的程度,来实现这种宽容性,这就是他们说的人工智慧宽容性的内涵。

在这五项价值观之下还有两项重要的准则:有效性和问责,它们是所有其他准则的基础。

第五是有效性。在过去十年,人工智慧领域突飞猛进最重要的一个技术就是深度自学,深度自学是机器自学中的一种模型,他们认为最少在现阶段,深度自学模型的精确度是所有机器自学模型中最高的,但在这里存在一个它是否透明化的问题。有效性和精确度难以兼得,你只能在二者权衡取舍,假如你要更高的精确度,你就要牺牲一定的有效性。

在李世石和AlphaGo的围棋赛中就有这样的例子,AlphaGo打出的很多手棋事实上是人工智慧专家和围棋职业选手根本难以理解的。假如你是一个人类棋手,你绝对不会下出这样一手棋。所以到底人工智慧的逻辑是什么,它的思维是什么,人类目前不清楚。

所以他们现在面临的问题是,深度自学的模型很精确,但是它存在不透明化的问题。假如这些模型、人工智慧控制系统不透明化,就有潜在的不安全可靠问题。

为什么有效性这么重要?举个例子,20世纪90年代在卡耐基梅隆大学,有一位学者在做有关肺炎方面的研究,其中一个团队做基于规则的分析,协助决定患者是否需要住院。基于规则的分析精确率不高,但由于基于规则的分析都是人类能够理解的一些规则,因此透明化性好。他们“自学”到哮喘患者死于肺炎的概率低于一般人群。

然而,这个结果显然违背常识,假如一个人既患有哮喘,也患有肺炎,那么死亡率如果是更高的。这个研究“自学”所得出的结果,其原因在于,一个哮喘病人由于常常会处于危险之中,一旦出现症状,他们的警惕性更高、接受的医护措施会更好,因此能更快得到更好的医疗。这就是人的因素,假如你知道你有哮喘,你就会迅速采取应急措施。

人的主观因素并没有作为客观的统计数据放在体能训练模型的统计数据图中,假如人类能读懂这个规则,就可以对其展开判断和校正。但假如它不是基于规则的模型,不知道它是通过这样的规则来判断,是一个不透明化的算法,它得出了这个结论,人类按照这个结论就会建议哮喘患者不要住院展开治疗,这显然是不安全可靠的。

所以,当人工智慧应用于一些关键领域,比如医疗领域、刑事执法领域的时候,他们一定要非常小心。比如某人向银行申请贷款,银行拒绝批准贷款,这个时候作为客户就要问为什么,银行不能说我是基于人工智慧,它必须给出一个理由。

第六是问责。人工智慧控制系统采取了某个行动,做了某个决策,就必须为自己带来的结果负责。人工智慧的问责是一个非常有争议的话题,他们还是回到自动驾驶车上展开讨论。确实,它还涉及到一个法律或者立法的问题。在美国已经出现多例因为自动驾驶控制系统导致的车祸。假如是机器代替人来展开决策、采取行动出现了不好的结果,到底是谁来负责?他们的准则是要采取问责,当出现了不好的结果,不能让机器或者人工智慧控制系统当替罪羊,人必须是承担职责的。

但现在的问题是他们不清楚基于全当今世界的法律基础来说,到底哪个国家具备能力处理类似案件的能力。(美国)很多案件的裁决是基于“判例法”展开判定的,但是对于这样一些案例,他们没有先例可以作为法庭裁决的法律基础。

其实,不光是自动驾驶,还有其他很多领域,比如刑事案件问题,还有涉及军事领域的问题。现在有很多的武器已经自动化或者是人工智慧化了,假如是一个自动化的武器杀伤了人类,这样的案件如果如何裁定?

这就要牵涉到法律中的法人主体的问题,人工智慧控制系统或全自动化控制系统是否能作为法人主体存在?它会带来一系列的法律的问题:首先,人工智慧控制系统是否可以判定为是一个法律的主体?假如你判定它是一个法律的主体,那就意味着人工智慧控制系统有自己的权力,也有自己的职责。假如它有权力和职责,就意味着它要对自己的行为负责,但是这个逻辑链是否成立?假如它作为一个法律主体存在,那么它要承担相应的职责,也享有接受法律援助的权利。因此,他们认为法律主体一定要是人类。

作者为谷歌人工智慧项目总经理,编辑:韩舒淋,原载2019年5月27日《财经》杂志

(本文首刊于2019年5月27日出版的《财经》杂志)

人工智能的六大伦理原则

大家都在看

敏俊:如何破解京津冀迷局

百度最难捱的一夜:五名高管闪电辞职内幕

张一鸣的用人观

李铁:大城市如果如何对待外来人口|城市论坛

京东数科的野心 |《财经》特别报道

责编  |  苏月yuesu@caijing.com.cn

人工智能的六大伦理原则

人工智能的六大伦理原则

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务