他指出制定一部既要解决当下问题,又能充分考虑长远的人工智能法难度极大,可以选择生成式人工智能这一社会最关心最直接最现实的“切口”,重点加快出台有关生成式人工智能全方位规范的立法。
人工智能立法已是全球共识
人工智能立法是全球都关切的议题。2024年3月21日,联合国大会通过全球首个关于监管人工智能的决议《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》;经过长达三年的筹备与谈判,去年3月,欧盟正式完成《人工智能法案》立法流程,出台全球首部关于人工智能的全面立法。在我国,国务院2023年度立法工作规划,已将人工智能法草案列入其中。
全国政协委员、中华全国律师协会监事长吕红兵
吕红兵表示,相对于专用人工智能系统而言,生成式人工智能具有可以执行不特定任务、具有庞大数据训练量等重要特征。欧盟《人工智能法案》基于风险的监管路径对生成式人工智能监管缺少针对性,很难应对生成式人工智能与不具有预设目的、多用途使用情景和大规模攫取训练数据相关的风险。
2023年8月15日,《生成式人工智能服务管理暂行办法》施行,利用生成式人工智能技术向我国境内公众提供生成文本、图片、音频、视频等内容的服务适用该办法。此前2021年12月31日,《互联网信息服务算法推荐管理规定》颁布;2023年1月10日,《互联网信息服务深度合成管理规定》实施。不过,三个办法主要规范服务提供者和技术支持者,而且属于部门规章性质,法律位阶较低。另外,科技部等10部委印发《科技伦理审查办法(试行)》,明确“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”为“需要开展伦理审查复核的科技活动”。
“与传统立法相比,人工智能立法面临技术飞速发展带来的调整对象不确定性、技术产业迭代带来的社会关系不确定性,以及风险种类和程度的高度不可预见性”,吕红兵指出,制定一部既要解决当下问题,又能充分考虑长远的人工智能法难度极大。他建议在加紧研究、充分借鉴、尽力推进的同时,可以选择生成式人工智能能这一社会最关心最直接最现实的“切口”,尽快推进“小、快、灵”立法,尽早出台行政法规。
明确不同主体的权利义务
吕红兵认为应重点加快出台有关生成式人工智能全方位规范的立法。他建议,该行政法规应对生成式人工智能技术开发者、服务提供者、使用者、监管者以及社会公众,分门别类明确各自权利和义务、职能与责任。
例如,技术开发者应对用于训练大语言模型的数据进行严格筛选与分类,剔除不当元素文本数据,确保数据源合法且内容健康;对于现有模型,运用数据遗忘等技术手段,消除不当内容输出;引入人工审核机制,对自动化系统标记为敏感或禁止的内容进行复核;建立开放研究、社区合作、线索举报机制,优化大语言模型筛选系统。
吕红兵特别指出,AI生成内容过程中的著作权保护是个核心又敏感的问题。输入阶段,使用语料是否构成侵权;产出阶段,涉及生成作品性质和作者资格,即是否足以确权及维权。从国际惯例看,输入端使用作品相对宽松,但前提是文本挖掘和数据训练使用为非商业性,一旦进入商业领域则版权严格保护。从发展的角度,规定输入阶段数据一一得到许可,实践中做不到,也不利于研发。应当按照更好发挥数据要素作用的立法本意,淡化所有权、强化使用权,明确使用原则,在涉及商业使用时,要求技术开发者支付报酬,由其与权利人组织协商解决。
他还建议,应明确服务提供者依据民法典侵权责任编有关责任主体的特殊规定履行“网络服务提供者”、依据民法典人格权编有关个人信息保护履行“信息处理者”的义务。依法对生成内容进行标识;发现违法内容应及时处置、整改并报告;对使用者的输入信息和使用记录依法保护,及时处理有关查阅、复制、更正、补充、删除个人信息请求;履行用户管理义务,公开服务适用情况,指导使用者科学理性认识和依法使用技术,采取未成年人防沉迷措施,建立健全投诉、举报机制,确保提供安全、稳定、持续服务。
又如,按照民法典有关“网络用户”“个人信息权利人”的权利、义务和责任规定,细化对使用者的权益维护与使用规范。对于使用者利用大模型生成的内容能否得到版权保护,应以提示词制作、内容编辑修改、创作中的选择判断等体现人类的智力劳动成果的要素为重点,建立科学的创作贡献认定标准。同时,对于生成内容涉嫌“深度伪造”可能构成侵权的,则应利用技术创新、技术对抗等方式,建立并完善精准的检测标准。