探寻生成式人工智能算法规制的思路

2023-05-26 0 1,046

5月18日,第五届世界智能化讨论会在天津开幕。讨论会期间举办闭幕式、年会、平行论坛、智能化科技展、智能化体验等系列活动。智能化科技应用领域的院士研究者和企业家聚焦智能化网系柴、生成式人工智慧、虚拟实境可视化等全面性课题,深入探讨AI与经济、社会风气、人文等应用领域的热门话题。新华社记者孙凡越摄

近日,由复旦大学法律系、复旦大学今后法制研究所主办的“生成式人工智慧算法律法法律条文——《生成式人工智慧服务项目管理工作配套措施(草案稿)》学术深入探讨会议”召开,来自政府有关部门、高校研究机构、人工智慧工业界的研究者参加了本次深入探讨会。

复旦大学今后法制研究所执行院长张吉豫:

可以以产业发展、安全可靠和法制四个关键字概括对ChatGPT为代表的大规模语言数学模型的伴随着信用风险与挑战。第二,为调节好产业发展和安全可靠之间的武装冲突,构建以人民为中心的智能化社会风气法律条文秩序,对于推动人工智慧控制技术健康有序产业发展具备重要意义。

腾讯公司副总裁吴梦漪:

结合《生成式人工智慧服务项目管理工作配套措施(草案稿)》的两个看法:一是将开放API和通过API调阅功能判定为文本生产者可能将提升了对合规性义务的明确要求。二是将生成式人工智慧判定为具备舆论属性和社会风气动员能力的互联网重要信息服务项目,可能将普遍化了通则。三是从实践的角度,文本生成的准确度与生成式人工智慧控制技术原理存在武装冲突。因此,初始阶段市场监管层面的重点项目需从追求文本准确度转向对违法利用行为的打击。四是需要实事求是审视统计数据的好坏。生成式人工智慧具备一定的创作性,海量数据的体能训练数据有利于提升控制技术的产业发展速度,希望市场监管的重点项目在于生成式人工智慧产品的产品质量,不宜对体能训练统计数据和控制技术路线做过分详细的明确规定。五是综合考量生成式人工智慧服务项目的可视化式特点,简化对真实身份重要信息明确要求的明确规定。

腾讯研究所首席统计数据法律条文政策研究者窦怀贞:

对生成式人工智慧的法律条文的两个建议。第一,生成式人工智慧可能将是今后捷伊网络时代最为基础的工具,超越了单纯的互联网重要信息服务项目,应以全新视点去审视。第二,制订法规是必要的,但是目前法律规范本身可能将还需要进一步讨论捷伊难题;输出重要信息的产品质量方面有很强的市场自驱力;而大数学模型时代的底层重要信息安全可靠和统计重要信息安全可靠,产业发展更为优先。第二,四个月的数学模型优化体能训练期限在工作中难以落地,不妨考量其他多种控制技术手段。最后,在AI产业发展应用领域,信用风险浮现是渐进的,民营企业和市场监管主体应在共同目标和接近的立场下协同解决难题。

复旦大学法律系教授张兴栋:

应直面ChatGPT引起的难题,思考法律条文上如何积极应对。首先,面对生成式人工智慧引起的法益和知识产权方面的难题,修法过分全面性可能将会阻碍控制技术的产业发展和创新,通过发布管理工作配套措施或制订有关措施积累经验,时机成熟后再修法可能将是相对稳妥的配套措施。

对ChatGPT引起的侵权难题,提出五点建议:一是在价值取向上积极支持人工智慧产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务项目提供者承担无过错责任会阻碍控制技术产业发展,不符合鼓励控制技术创捷伊价值取向。三是可借鉴医疗事故责任的减免规则,因控制技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务项目提供者的责任。四是加强和强化服务项目提供者对个人隐私重要信息的安全可靠保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配难题,应区别平台大规模生成与用户恶意诱导的情形。

中国社会风气科学院大学副教授刘晓春:

从四方面提出市场监管的建议。一是市场监管必要性,若在新控制技术场景下,原有体系能解决大部分难题,就缺乏专门法律条文的必要性。生成式人工智慧的重要信用风险点在文本层面,如果生成的文本没有传播,是否存在信用风险仍存在疑问;如果已经传播,则要考量原有的治理系统是否能够解决难题。二是市场监管有效性,其核心难题是公权力对产业的治理或干预是否能真实、有效地达到基于市场监管必要性的信用风险治理目的。三是结合我国现有产业背景考量市场监管控制技术的应用场景。未必每个企业都研发大数学模型,但是在应用层面具备各自极大的拓展商业的可能将性,应为应用层面的商业模式留出产业发展的空间。特别是在对文本生产者的定义上不应拓宽。四是从修法基础的角度考量协调性。比如,在实名制难题上与重要信息安全可靠法相协调,在算法的评估和备案难题上,也应基于现有的机制协调。

对外经济贸易大学副教授许可:

《生成式人工智慧服务项目管理工作配套措施(征求意见稿)》与之前的法律条文、现有的实践和控制技术存在四大矛盾。第一,新法和旧法的矛盾。《互联网重要信息服务项目深度合成管理工作明确规定》中的深度合成控制技术和《生成式人工智慧服务项目管理工作配套措施(草案稿)》中的深层次人工智慧控制技术之间有何异同尚不明确,今后执法过程中可能将产生矛盾。第二,域外效力和属地管辖之间的矛盾。《生成式人工智慧服务项目管理工作配套措施(草案稿)》涉及的文本超出了《个人重要信息保护法》覆盖范围,部门法规是否能设立超出上位法的域外管辖权存在疑问。第二,网络重要信息文本安全可靠管理工作和通用控制技术法律条文之间的矛盾。将通用性的人工智慧限制在网络重要信息文本上,可能将出现法律条文工具和法律条文目标的不匹配。实际上,在不同的场景下,生成式人工智慧的信用风险因形态而异,如何判断其信用风险,需要模块化判断。第四,全流程安全可靠明确要求和控制技术内在特征的矛盾。全流程的管理工作和生成式人工智慧的特性不符,例如,预体能训练统计数据的合法性难以实现,统计数据与最后重要信息生成之间也并不存在直接映射关系。

对外经济贸易大学副教授张欣:

在市场监管对象上,我国的人工智慧企业此前多集中在应用层,在基础层和控制技术层分布相对较少。在市场监管方式上,面向生成式人工智慧的产业链特点,可以提升市场监管的互操作性、一致性。在市场监管创新上,一方面应注重市场监管的韧性,另一方面应积极探索以模块化市场监管为代表的新型市场监管方式。对《生成式人工智慧服务项目管理工作配套措施(草案稿)》的四点修改意见:第一,进一步厘清第2条对“生成式人工智慧”的定义。第二,面向产业平条件下,组织和企业履行了相应义务,可认为符合人工智慧准确度原则。第四,第15条关于防止再次生成的期限和防止再次生成的方式聚焦于控制技术过程,目前的控制管理手段上难以达成,可以转换为从结果市场监管的角度防止被用户举报的不合法合规性的文本再次出现。

复旦大学法律系教授万勇:

在生成式人工智慧对著作权法合理使用制度的挑战方面,生成式人工智慧可能将涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智慧控制技术。其次,为了解决有关的难题,应人工智慧产业产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了统计数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。建议修改《著作权法实施条例》,引入专门例外,兼顾产业产业发展和著作权人的权利。

中国人民公安大学法律系教授苏宇:

处于追赶中的国内生成式人工智慧在信用风险治理之外也非常需要制度支持。生成式人工智慧大数学模型面临算法解释难、算法审计难、算法标准形成难、算法影响评估难、算法认证难等难题。《生成式人工智慧服务项目管理工作配套措施(草案稿)的具体界定等。总体来说,对生成式人工智慧的法律条文治理,大幅度降低无效或低效信用风险冗余应当是机制设计的重要目标。

中国信通院高级工程师程莹:

生成式人工智慧第一大特点是通用目的性。作为新底层基础平台,AIGC供应链被拉长,研发者是否应承担责任,研发者、平台方、B端用户、C端用户等如何分担责任成为关键难题。草案稿第5条应对各个主体进行精细划分。第二个特点是文本生成性,带来了知识产权、虚假重要信息等难题。今后生在一定武装冲突。第二个特点是统计数据依赖性,这是人工智慧一直以来的典型特征,但是呈现了捷伊形式,例如中文语料库输入不足带来的文化偏见、统计数据虹吸效应带来的统计数据泄露信用风险等,有关法律条文义务应注意保持与上位法明确要求的一致性。

中国科学控制技术重要信息研究所助理研究员刘鑫怡:

英国的市场监管框架是基于人工智慧应用场景来规范人工智慧应用,而非规范人工智慧控制技术,并不为整个行业或控制技术设定规则或信用风险级别。在市场监管依据上,在不确定的控制技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国市场监管政策的出台有启发意义。在目前的大数学模型市场监管上存在难点。主要包括三方面:一是控制技术的局限性导致目前难以达到治理的高标准;二是大数学模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。随着多模态大数学模型的研发和广泛应用,今后的信用风险难题会逐步深化。建议在统筹产业发展与安全可靠的基础上,构建全生命周期的差异化市场监管机制,加强人工智慧重点项目应用领域关键环节市场监管。同时倡导“以技治技”,开展安全可靠可信控制技术的治理。(金灿)

(经济参考报)

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务