学术动态 | 深度合成技术产业发展法治研讨会
3月2日下午,由中国政法大学数据法治研究院主办的“深度合成技术产业发展法治研讨会”在中国政法大学海淀校区举行。中央网信办网络法治局、最高人民法院司改办有关负责同志以及中宣部法规局有关同志出席了本次会议。研讨会分为“技术产业发展”和“法治路径探索”两个单元,技术、产业、法律三个领域的专家共聚一堂,在本次会议学科交融的视角下研讨交流,为在《互联网信息服务深度合成管理规定》的基础上进一步完善法规制度、推动产业发展、促进技术创新提供思路和方案。
中国政法大学副校长、中国政法大学数据法治研究院院长时建中向与会嘉宾介绍了本次研讨会的会议主旨。数据法治研究院一直服务数字经济、数字社会和数字政府的国家战略,作为支撑单位参与相关立法工作和课题研究工作。自《互联网信息服务深度合成管理规定》于2023年1月10日开始实施后,短时间内深度合成技术领域出现了ChatGPT这样的现象级应用,成为了推动人工智能进入下一发展阶段的引擎。本次会议是继2022年3月份在数据法治研究院举办的《互联网信息服务深度合成管理规定》征求意见会后,进一步邀请业界和学界专家共同研讨深度合成治理的重要会议。
第一单元 技术产业发展
第一单元“技术产业发展 ”由中国政法大学数据法治研究院教授张凌寒主持。张凌寒教授简要介绍了本次会议嘉宾,技术领域的三位嘉宾来自国内顶尖科研团队,体现了深度合成技术从通用到场景的脉络。产业领域的嘉宾来自深度合成产业的信息基础设施、文本生成、音视频、电商和解决方案等不同产业赛道,法学专家则具有刑法、法理、知识产权、民法等不同的学科背景。本次会议议程则体现了从技术到产业再到治理的数据法学研究规律。
清华大学互联网司法研究院院长刘奕群回顾了ChatGPT的发展历程和我国基础模型研究的进展,指出该产品的出现让我们对通用人工智能有了更深层次的认识。他同时对以ChatGPT为代表的基础模型产品的发展提出两点建议。首先,基础模型的研究具有产学研用联动的特点,迫切需要探索新兴举国体制下推进相关研究工作的合理模式。其次,基础模型将成为“人工智能+X”研究的基本范式,文法理工多学科贯通是发挥基础模型潜力的必要条件,而推进这类交叉学科研究的基础是建设对学术界开源开放的模型。
中科院计算所数字内容合成与伪造检测实验室主任、研究员曹娟首先指出以ChatGPT为代表的文本生成中具有涌现的特点,这是对技术发展的一个核心挑战。其次阐述了ChatGPT中存在的问题与局限性,以及对人类社会的影响与冲击。最后提出中国要造自己的ChatGPT,并且努力、快速地去研制针对ChatGPT的反制技术,来保证ChatGPT技术得以安全的使用。
中国信息通信研究院云计算与大数据研究所内容科技部副主任刘硕首先对AIGC技术产业的发展进行了全方位的概括描述,并指出ChatGPT提供的新型交互模式为社会带来了巨大的想象空间。最后提出AIGC发展仍然面临较多风险挑战,建议从人工智能治理和算法治理(深度合成)两个维度思考治理路径。
中国移动咪咕公司法律事务总经理助理顾文扬首先介绍了元宇宙建设技术要素,并提出元宇宙建设目标是技术环境、时空观、价值观和生命观的四个融合。同时展示了依托“5G+算力网络”元宇宙在现实社会中的各种创新应用场景。
抖音集团产品法务副总裁邰江丽首先就深度合成技术在音视频产品中的应用进行了介绍,之后针对《互联网信息服务深度合成管理规定》提出了互联网企业在深度合成技术治理与保护实践中所存在的法律难点,最后对深度合成技术的法律规制进行展望,指出对于深度合成技术,应该从个人信息保护与数据流通、法律规范与技术创新发展和多维度协同治理三个方面平衡好风险防范与技术创新。
阿里巴巴算法风险治理团队负责人张荣首先介绍了以内容合成、虚拟模特、客服对话为代表的电商业务中的深度合成算法服务,并提出互联网企业在针对深度合成算法服务合规的过程中存在的难点,主要包括深度合成的定义、标准以及平台责任。
百度AI创新业务法务负责人徐全全首先从现状、技术生态及应用场景三方面对AIGC行业发展进行了概述,随后介绍了互联网企业对于AIGC业务合规工作中存在的挑战进行的应对措施,最后提出前沿科技领域需要更好地平衡发展与安全、风险与效率,构建先行先试的准入机制和宽松的创新环境,让新技术新产品新应用更快走向市场。建议根据深度合成技术的具体应用、特定场景下对个人、群体和企业的影响进行监管。
清华瑞莱智慧AI治理研究院院长张伟强向大家描述了人工智能潜在风险,包括伦理安全问题、算法可靠问题、数据安全问题和技术滥用问题,并针对以上风险,从形成治理理论、构建治理机制、探索治理技术三方面提出有效治理建议。同时,对产品化赋能包括AIGC在内的人工智能安全发展,构建安全可信可靠可扩展的第三代人工智能进行了展望。
第二单元 法治路径探索
第二单元“法治路径探索”由中国政法大学数据法治研究院教授王立梅主持。
中国政法大学刑事司法学院院长、《政法论坛》主编刘艳红从知识产权法、数据法和刑法角度介绍了ChatGPT可能引发的法律风险。首先是人工智能生成内容对著作权的挑战,其次提到深度合成技术应用中数据采集的合法性、正当性及算法的合理性问题。最后她表达了对深度合成技术滥用成为网络犯罪分子作恶的工具、降低网络犯罪门槛的担忧。
中国社会科学院法学研究所研究员、《环球法律评论》副主编支振锋谈到了ChatGPT对信息和数据保护、网络安全等方面带来的风险,对风险进行了较为客观的分析。他认为法学研究人员应当冷静思考,避免陷入到绝对安全的理念当中并从产业发展和社会治理的角度提出了自己的思考。
北京大学法学院教授杨明从法律与技术的关系角度出发,从社会治理的角度谈到了对目前立法状况的审视和对法律规则的潜在思考。他提到从行为的角度对技术的发展进行规制,用债的方式来解决人工智能生成物侵权中的风险负担和责任承担的问题。
中国政法大学数据法治研究院教授范明志首先针对“人工智能技术带来的问题是法律问题还是哲学问题”进行阐述,随后他分析了那些并未落入到我国现有数据治理规则中的数据可能带来的风险。最后他谈到机械伦理和司法文明的相关问题,认为可以确定的是人工智能技术不会取代人类法官的主体地位。
中国社会科学院大学互联网法治研究中心执行主任、副教授刘晓春发表题为“ChatGPT应用的风险识别与治理路径”的主题演讲。她从智能终端、搜索引擎等ChatGPT可能的应用场景出发,介绍了ChatGPT应用可能带来的风险和利益冲突,提出了专门备案、信息披露等监管工具,为监管提供了自主可控基础上理性开放、激励并促进发展的新思路。
清华大学智能法治研究院院长助理刘云阐述了人工智能透明度、公平性、可控性、包容性、可问责性五大治理原则,向大家介绍了人工智能制度的最新进展和深度合成可能涉及的法律风险以及美国和欧洲规制深度合成的法律框架,主张采用技术方案和法律方案并行来解决深度合成技术的法治问题。
会议总结
最后,中国政法大学副校长、中国政法大学数据法治研究院院长时建中为会本次研讨会作出总结。他提到本次研讨会有关深度合成技术的产业发展和合规的议题极具创新性和前瞻性,同时亦需要做好相关的实践研究。随后,以ChatGPT的出现引导嘉宾对我国数据创新环境进行思考,指出唯有营造良好的制度环境,才能创造出ChatGPT这种颠覆性的创新技术,并重申算法的责任承担议题的重要性。最后,他对与会嘉宾表达了感谢,在热烈的掌声中本次研讨会圆满闭幕。