2023年10月,习近平主席提出《全球人工智能治理倡议》,围绕人工智能发展、安全和治理三个方面系统阐述了人工智能治理的中国方案;2024年7月,《中共中央关于进一步全面深化改革 推进中国式现代化的决定》明确提出“加强网络安全体制建设,建立人工智能安全监管制度”。推进人工智能依法治理正当其时。
目前,我国已初步形成政策、法律、部门规章、技术标准等组成的人工智能治理制度体系。但不法分子通过人工智能换脸、换声实施的新型电信网络诈骗案件时有发生,有的甚至短短几秒就造成上百万元的财产损失,给个人、社会、国家带来的衍生风险不容小觑。
毫无疑问,利用人工智能深度合成技术制作、复制、发布虚假信息实施电信网络诈骗者必须承担一定法律责任。同时,提供深度合成服务的社交媒体、分发平台以及在背后提供技术支持的研发人员,一旦发现行为人利用相关技术实施以上行为,有义务第一时间采取删除违法内容、限制封禁账号等积极措施,否则也要承担一定责任。此外,明知是虚假生成的信息,仍然故意在信息网络或者其他媒体上传播的网民,可能会面临不同程度的治安管理处罚;严重扰乱社会秩序的,还可能涉嫌构成刑法上的故意传播虚假信息罪。
近年来,我国出台了网络安全法、数据安全法、个人信息保护法、《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规,在较短时间内为人工智能治理提供了法律法规依据。进一步完善人工智能立法,关键在于使深度合成服务提供者、使用者能够有效履行显著标识或显式标识义务。
《互联网信息服务深度合成管理规定》第17条要求,深度合成服务提供者在提供“可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况”。尽管《人工智能生成合成内容标识办法(征求意见稿)》明确规定,显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识,同时赋予分发平台在应用程序上架或上线审核时对生成合成内容标识功能的核验义务,但在显式标识义务分配上仍沿用《互联网信息服务深度合成管理规定》第17条的规定。期待从执法司法实践出发,进一步细化生成合成内容显著标识或显式标识的范围,做到源头预防、前端化解、精准治理。
(作者单位:江苏警官学院)