朱恬骅:伦理、技术和利益,人工智能的不可能三角?

2023-06-05 0 228

有“人工智慧传奇人物”之称的理查德·梅埃(Geoffrey E. Hinton)在这个周一宣布从Google子公司离任,“以自由谈论人工智慧的风险”。一些新闻媒体称他的返回为“拯救”,另一半则图形了梅埃对他们毕生精力从事的人工智慧科学研究的“后悔”。不过,正如梅埃他们所说,“如果不是我,或许别的人也会作出同样的组织工作”:相比过去的事情,他更在意将进行的组织工作。

对他们的离任,梅埃在SNS新闻媒体上不愿将发难指向新东家。他认为,这是一类经常出现的问题:信息技术巨擘研发先进的人工智慧,这必须受到全世界监管,以避免“可耻的利用产生意料之外的后果”。在这个意义上,如果说梅埃返回了某家子公司,不如说是他优先选择返回业内。

梅埃的主要组织工作完成于20世纪80年代。他和两位商业伙伴共同完善了训练第二层数学模型的逆向传播演算法,使之得到广泛应用。说它是当前人工智慧控制技术的一块终极目标,也许不算诮。2012年,梅埃和他的学生合写了使用深度传递函数网络进行图像分类的工作,这在计算机系统视觉应用领域树立了里程碑式。鉴于他的贡献,2018年,他同亚伦·本希奥(Yoshua Bengio)及匹兹伐(Yann LeCun)一道获得诺贝尔奖。

与梅埃的优先选择相较照,匹兹伐仍在Meta任副总裁人工智慧应用领域执行官生物学家,本希奥则通过孵化器子公司的中介为谷歌提供更多相关服务。人工智慧应用领域这些著名人类学家和子公司间的结成联盟,或许是莫拉塔在1973年的《后现代主义状况》中就已发现的那种情形的进一步延伸。“当科学几乎完全用于为子公司提供更多专利和私有控制技术时,科学知识的数字化不但加快了科学知识转移的速度,而且改变了我们所认为的科学知识。”

朱恬骅:伦理、技术和利益,人工智能的不可能三角?

2021年,上海萝岗站。势不可挡摄影记者 周Behren 图

但另一方面,这种结合往往不是Esternay。知名华人人工智慧专家伏彩瑞(Andrew Ng)曾于2011年参与创建“Google大脑”(Google Brain),2014年又转投腾讯,任执行官生物学家。2017年从腾讯离任后,他创办了一系列人工智慧应用领域的初创子公司,同时经营着最早的“慕课”平台Coursera。其他相较不那么著名的高级控制技工,也频繁在业内与学术界间重定向:返回信息技术巨擘提供更多的优厚条件,许多科学研究事实上难以开展;陷于商业自身利益的支配下,则很难在个人价值观念和控制技术应用场景间作出平衡。伦理道德、控制技术和自身利益或许形成一类“不可能四角”,总有至少一个目标难以兼具。

从科学知识的“数字化”到计算机系统的“去科学缠绕植物”

莫拉塔论断,随着科学知识从任何人特定的个体科学沃苏什卡中外化出来,学习科学知识的“仁义”(Bildung)功能将消失,不但“形成的科学知识体系中,任何人不能译成计算机系统语言的东西都将被放弃”,而且“新科学研究的方向将由这种翻译的可能性决定”。

莫拉塔写作《后现代主义状况》的时代,“科学知识要性。他将重建公共性的希望寄托在数据库的开放上:

“计算机系统可以成为控制和调节市场体系的‘梦幻’工具,扩展到包括科学知识本身,并完全由性能原则来管理。在这种情况下,它将不可避免地涉及使用恐怖手段。但它也可以帮助讨论元规定性(metaprescriptive)的群体,向他们提供更多他们通常缺乏的信息,以作出有科学知识的决定。要使数字化走上这两条道路中的第二条,原则上是很简单的:让公众自由地访问存储器和数据库。”

在《哲学的误配》中,东浩纪质疑了莫拉塔策略的有效性。他指出,今天的搜索引擎已构筑起一个巨大的数据库,每个人都可免费访问,因此莫拉塔的前提得以成立,但其设想的结果却并未来临。东浩纪认为,这是由于莫拉塔误解了他所援引的“语言游戏”所致。

相比东浩纪给出的诊断,更值得注意的是:搜索引擎之为“数据库”的性质,已与莫拉塔时代经过精心筛选、构建的科学知识库有了很大区别。随着基于符号推理的控制技术路径被基于概率统计的数值运算所掩蔽,仔细筛选并编码的、结构化的“科学知识”表征,也为非结构化的全量收录所代替。此时的“数据库”,并不只包含设计者制定的规则和认定的“科学知识”;可以说,搜索引擎不提供更多“科学知识”,而是呈现“内容”。它不对内容本身的真实有效负责。无怪乎,莫拉塔意向中提供更多有效“科学知识”以利人们作出决策的数据库,并没有随着搜索引擎出现而成为现实。

朱恬骅:伦理、技术和利益,人工智能的不可能三角?

2021年,上海曹杨公园一角。势不可挡摄影记者 周Behren 图

不但如此,在当今人工智慧控制技术条件下,计算机系统给出的可能只是一类偏见。设想,从网络社区语料中训练出的生成性语言模型,或将产生冒犯而有偏见的文本。今天的人们习惯以伦理道德要求来约束这样的语言模型和控制技术应用。

但是,这种在文本中浮现的冒犯或偏见,并不是模型无中生有的“发明”或“幻觉”,更不是控制技术的“本质属性”,而是它们的统计性质同冒犯与偏见在互联网上的实际盛行相遇的结果。阻止模型产生有偏见的内容,相比消除切实存在的偏见而言,是一类控制技术性的“解决”,但也无异于饮鸩止渴,是一类对现实存在的不公的粉饰。

在语言模型的偏见输出中所浮现的,正是东浩纪所说的“公意2.0”,就是“以统计学的方式从全体民众的话语和行动中产生”的“诸众的欲望”(desire of the masses)。不同于卢梭对“公意”的倚重,对这种新版本的“公意”,必须保持批判的态度:它只描绘“实然”,而应然仍需由观察者另行判断。在此,人工智慧的作用在于,将原本就存在于人类社会的种种偏见与不公,再度呈现于世人面前。

人工智慧所显现的伦理道德问题

于是我们发现,近半个世纪后的当下,莫拉塔的问题意识仍然有效:科学知识与大子公司间的关系,以及更普遍意义上与社会的关系应当得到重新审视,以便从中寻求一条路径,能够“同时尊重对正义的渴望和对未知的渴望”。

除了上文提及的那类在人工智慧模型中直接显现的伦理道德问题外,人工智慧控制技术的发展和应用,也给伦理道德问题创造出新的登场机会。例如,时人一而再、再而三地谈论过计算机系统或人工智慧能够“替代”何种职业,同资本市场对高度自动化未来的赌注,就足以说明这一问题:一个人对另一个人的“替代”,不能脱离“出卖他们的劳动力”的制度;而谈论人工智慧对人的“替代”之所以有意义,条件同样在于一类将“人”仅视为完成某项任务的工具的系统性制度。

又如,全球范围内插画师群体对人工智慧绘画模型广泛而持续的反对,就其一般的方面而言,固然和那种有关人工智慧职业“替代”的观点一脉相承;但在其特殊语境中,还存在一系列围绕艺术身份和风格署名的论争。由此呈现的境况是,人工智慧绘画模型的设计方,从未征询插画师的意见,就将他们的作品用于训练他们的模型。这在牵涉任何人艺术上的观点与立场之前,首先显现的是业内成员对插画师的傲慢与相应的模式,其方法是将他们排除在人工智慧模型的设计过程之外。

意义。事实上,英国版权局2022年6月发布的一项规定甚至已将其合法化,并称之为“创新者蓬勃发展的催化剂”和“突破性研发的强大推动力”,以“利于”英国在人工智慧和数据挖掘应用领域取得进展。在此,伦理道德、控制技术和自身利益的取舍,不再是人类学家个体一己的决定,而上升为一类公共决策。

在这一境况下,谈论人工智慧模型在人面前可能的“伦理道德”地位,显得有些奢侈,因为应当着手处理的是,那些借“人工智慧”之名而显现的真正的伦理道德问题,潜藏其中的“危险”当下就切实存在并起着作用,甚至也将决定我们是否必须面对那样一个不确定的“未来”。

回到莫拉塔的问题,答案并不是显然的。现在所能给出的,毋宁说更接近一类愿望:控制技术科学知识作为社会的一部分,不是专属于控制技术专家或大子公司的事物,从而没有人应当被预先排除出关于人工智慧的讨论。每个人有他们理解和把握人工智慧的方式,它不应任由专家、子公司凭借经济与社会资本的权力来规定。只有这些意见充分地得到表达,处于公开的、理智的讨论之下,它才能凝结出应然的效力。

(朱恬骅,上海社会科学院文学科学研究所,是计算机系统背景的城市爱好者)

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务