科技伦理审查提速 人工智能如何趋利避害

2023-06-01 0 721

原副标题:信息技术伦理道德审核加速 人工智慧怎样马萨省

科技伦理审查提速 人工智能如何趋利避害

4月4日,根据信息技术部官方网站消息,信息技术部正式发布关于公开征询对《信息技术伦理道德审核配套措施(全面实施)》(以下简称《配套措施》)意见的公告。随着AI技术的产业发展,特别是自ChatGP

此次《配套措施》提出,从事人工智慧的单位,研究内容涉及信息技术伦理道德脆弱领域的,应设立信息技术伦理道德(审核)委员会,并导入研究者复查程序,部分演算法模型、智能化决策控制系统需要研究者复查。有关分析认为,虽然伦理道德审核短期内会影响商品商品化的效率,但从长期来看,有助于人工智慧金融行业可持续的健康产业发展。

涌现的伦理道德问题

有新闻媒体引述比利时新闻媒体La Libre 3月28日的报道,一名荷兰妇女宣称,她的丈夫在与 AI 闲聊机器Chai聊天了五周后上吊自杀未遂,背后主要原因是Chai鼓励用户自杀未遂。据悉,闲聊机器Chai是基于GPT-4代替方案研发的商品。

3月29日,包括特斯拉、诺贝尔奖获得者亚伦·本巴塔、苹果公司联合创办人蒂姆·沃兹尼亚克在内的1000数名人工智慧研究者和金融行业老总联署签署了一份联署信,敦促中止开发比GPT-4更强大的AI控制系统至少6个月,称其“对社会和人类构成潜在性信用风险”。

人工智慧存在的伦理道德难题也引起了UNESCO的注意。近日,UNESCO发声明,敦促各国政府尽快实施该组织通过的第一份人工智慧伦理道德难题世界性协议——《人工智慧伦理道德难题计划书》。

在最新正式发布的声明中,UNESCO对信息技术创新引发的伦理道德难题表示愤慨,特别是异性恋歧视、异性恋不公平难题,此外还有打击不实信息、对个人个人隐私、对个人网络管理等。金融行业自我管理显然足以防止这些伦理道德危害性。因此,《人工智慧伦理道德难题计划书》提供了工具,以确保人工智慧的产业发展严格遵守法律条文,防止构成威胁性,并在危害性发生时启动追责和解决问题机制。

倍受争论的法律条文焦点

人工智慧可能将带来什么样伦理道德和法律条文难题?在中国数实结合50人论坛智囊团研究者、海关总署研究所电商研究所研究员洪勇看来,人工智慧可能将面临对天然资源的耗用、商品升级换代产生的各种废弃物等环境伦理道德难题,个人隐私外泄、异性恋歧视、失业者、安全信用风险等对个人伦理道德难题,以及逻辑推理能力、可解释性等技术伦理道德难题。

浙江理工大学数据法治研究所副院长郭兵对北京商报记者表示,从社会和经济层面来看,企业一般利益至上,如果各家信息技术巨头通过研发的大型语言模型,利用“演算法暗箱”,谋一时之利,就有可能将有损整个社会利益和国家利益,给国家安全带来信用风险。人工智慧还可能将引发劳动者权益方面的争论,引发劳动者的“饭碗焦虑”。

“从对个人的角度来看,人工智慧的应用还可能将会侵犯人格尊严。比如演算法所引发的异性恋歧视信用风险,还包括公民的个人隐私和对个人信息外泄的信用风险。同时还可能将危及对个人的生命与健康,比如人工智慧诱导自杀未遂事件的情况。”郭兵说。

人工智慧是否能够承担法律条文责任、怎样追责也倍受争论。河南泽槿律师事务所主任付建认为,人工智慧技术的程序是开发人员编写的,但决策是由机器做出的,如果出现重大失误造成损害后果,责任谁来承担仍存在争论,同时,人工智慧能否对自己做出的决策进行道德判断也是一个值得商讨的难题。

不断完善的审核规范

早在ChatGPT诞生之前,我国就已经有与人工智慧伦理道德的相关规范和标准。2021年9月25日国家新一代人工智慧治理专业委员会正式发布了《新一代人工智慧伦理道德规范》,旨在将伦理道德融入人工智慧全生命周期,为从事人工智慧相关活动的自然人、法人和其他相关机构等提供伦理道德指引,促进人工智慧健康产业发展。

3 月 5 日,在第十四届全国人大第一次会议举行的首场“部长通道”采访活动上,信息技术部部长王志刚表示,希望国内外企业在AI领域能够取得更多好成果,同时提醒需要注意信息技术伦理道德、需要做到马萨省。

本次信息技术部正式发布的《配套措施》提出,从事生命科学、医学、人工智慧等信息技术活动的单位,研究内容涉及信息技术伦理道德脆弱领域的,应设立信息技术伦理道德(审核)委员会。

此外,在《配套措施》的附录中还提到了“需要开展研究者复查的信息技术活动清单”,其中包括:具有舆论社会动员能力和社会意识引导能力的演算法模型、应用程序及控制系统的研发;面向存在安全、人身健康信用风险等场景的具有高度自主能力的自动化决策控制系统的研发。

郭兵表示,目前我国信息技术伦理道德的审核,正由传统的完全自我管理逐渐演变成为法定的义务,在一些具体的领域例如《对个人信息保护法》中,已经明确规定了信息技术平台有义务设置独立的第三方机构对其对个人信息的处理活动进行监督。

《对个人信息保护法》第五十八条规定,提供重要互联网平台服务、用户数量巨大、业务类型复杂的对个人信息处理者,应当按照国家规定建立健全对个人信息保护合规制度体系,成立主要由外部成员组成的独立机构对对个人信息保护情况进行监督。

“此前信息技术部征询意见的《配套措施》,进一步对更广泛的信息技术伦理道德审核难题做了规定,导入了研究者复查制度,是比较大的亮点。”郭兵表示,此前《对个人信息保护法》并未要求企业邀请何种外部人员,而信息技术领域、AI领域专业性较强,通过法定的研究者参与机制的设计,能够更好地保障人工智慧伦理道德审核的效果。

未雨绸缪的蓝图产业发展

信息技术伦理道德审核将给人工智慧金融行业将带来什么样变化?中国电商研究者服务中心副主任、知名互联网研究者郭涛认为,《配套措施》进一步明确政府、科研机构、信息技术企业等责任主体,建立伦理道德高信用风险信息技术活动的清单制度,有效防止人工智慧技术被不当滥用,推动人工智慧技术健康可持续产业发展。

“对人工智慧可能将带来的难题提前加以防范,进行伦理道德审核会对金融行业产生重大影响。此前更强调数字技术、人工智慧技术在效率上带来的变革,而忽略技术对社会、对对个人产生的伦理道德难题。随着信息技术伦理道德越来越得到重视,将会对人工智慧在医疗、教育、无人驾驶等领域的应用产生影响。”北京市社科院研究员、中国人民大学智能社会治理研究中心研究员王鹏对北京商报记者表示。

郭兵认为,随着人工智慧伦理道德审核越来越严,会增加企业的成本,特别导入了研究者复审要求后,会影响产品或技术市场化的效率,研发出来的某个演算法模型不能立马投入商品化的应用。但另一方面,审核的严格将有利于人工智慧产业的可持续产业发展。

“如果企业研发的商品投入市场化之后产生伦理道德方面的巨大争论,面临巨大法律条文信用风险,被直接叫停,带来的不利影响会比人工智慧伦理道德审核带来的影响要更大,从长期来看,加强伦理道德审核有利于人工智慧企业的可持续健康产业发展。”郭兵说。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务