国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》,9月1日起正式施行,“标识办法”明确所有AI生成的文字、图片、视频等内容都要“亮明身份”。
《人工智能生成合成内容标识办法》明确,人工智能生成合成内容是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。人工智能生成合成内容标识包括显式标识和隐式标识。
平台在服务提供者的内容上架或上线时要进行审核,核验生成合成内容标识,对未标识或疑似生成内容要添加风险提示,从而在传播端阻断虚假信息扩散。
中国人民大学未来法治研究院执行院长张吉豫表示,“标识办法”中进行检测分三个层次,如果平台是从元数据中检测出隐式标签,那么平台就可以标识这个内容是AI生成的,但是如果它只是通过一些算法推测这个内容是AI生成的,它应该是标识为疑似AI生成。
针对目前由于技术的局限性而导致的部分原创内容被误判为AI生成,创作者权益受损等情况,法学专家指出,当前的算法仍然存在数据偏差和场景适配不足等问题,在误判率难以归零的情况下,应当建立相应的保障机制。
法学专家建议,首先网络服务提供者要公开算法原理及误判样本数据,提升透明度;其次要设立申诉渠道,允许用户提交证据申请复核,从而保证监管与创作自由的平衡。
据了解,截至目前,我国已有490余款大模型在国家网信办完成备案,240余款大模型在省级网信办完成登记,我国生成式人工智能产品的用户规模已达2.3亿人。
据记者了解,作为我国人工智能领域首部“办法+强标”的组合拳,强制性的国家标准《网络安全技术人工智能生成合成内容标识方法》将于9月1日与《人工智能生成合成内容标识办法》同步施行,在监管维度建立审核、监测、追责的闭环机制,在技术维度规范标识体系并预留创新空间。
据法学专家介绍,“标识办法”与《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规充分衔接。其中,服务提供者在履行算法备案、安全评估等手续时,相关材料可能涉及标识的技术细节,如水印算法、元数据格式、服务商编码等,这些信息能够帮助执法部门在发现违法内容时快速识别内容来源,追踪到服务提供者或者用户。