AI新闻是借助人工智能技术来生成、编辑、分发或改进新闻内容的一种新闻生产方式,包括自动生成新闻内容、自动编辑和润色、个性化推送、数据分析和可视化、自动化采集信息,以及语音助手和虚拟新闻主播,等等。当前,AI新闻正引发社会广泛关注。有观点甚至认为,AI新闻将全面重塑新闻传播领域的生产内容、流程、传播模式和呈现手段。与此同时,AI新闻也带来一些需要直面的问题,正经受相关法律法规、新闻伦理的检视。
日前,法治网研究院邀请了中国社会科学院大学教授、媒体法研究中心主任罗斌,西北大学新媒体与法治研究中心主任、中国科技新闻学会数据新闻专委会常务理事赵双阁,湖南科技大学新闻系副教授、湖南新闻传播学会副会长陈功,《法治日报》律师专家库成员、观韬中茂律师事务所数字法律与网络合规业委会主任王渝伟,围绕相关话题展开了一场深度对话。
01
法治网研究院:近年来,随着人工智能技术的飞速发展,人工智能新闻已经对新闻业产生重要影响。一时间,“AI新闻重塑新闻传播全流程”“AI新闻将让记者失业”等论点引起舆论较大关注。当前,很多权威媒体、官方网站、社交媒体平台等都积极探索如何使用AIGC技术来提高新闻生产的效率以更好地满足数字时代的读者需求。与此同时,AI新闻侵权现象也引发广泛的关切和担忧。对于AI新闻的侵权行为如何界定,您有何见解?
罗斌:统而言之,AI新闻指新闻传播者使用人工智能技术制造的新闻或者合成的新闻,而AI新闻侵权指使用人工智能技术生成或合成的新闻作品对他人名誉权、隐私权、个人信息权益、肖像权、姓名权等人格权益或著作权的侵害。需要指出的是,AI新闻无论是完全虚假、部分虚假或完全真实,都有可能侵害他人合法权益。
陈功:此前我和我的研究生在《中国记者》发表的一篇文章《AI新闻侵权的表现、界定和规制》中,就专门探讨这个问题。我认为,目前,因经AI技术隐蔽处理后的数据隐患难以发现以及相关法律边界不明,故AI侵权行为的界定比较困难。但是,合法合规的AI新闻创作必须做到全流程、全效果都不构成侵权。
首先,数据使用必须合法。在不涉及国家安全、商业机密和重大公共利益的前提下,AI模型在数据抓取和模型训练的过程中使用未公开或未取得授权的数据则构成隐私权侵权。
其次,在内容生成方面,AI新闻作品泄露隐私数据属于侵犯隐私权。同时,如果AI新闻作品的表达方式和内容没有独创性,只源于对他人知识产权作品的复制、篡改,对原作品的社会效益和经济效益带来影响,则构成著作权侵权。
因此,判定AI技术创作新闻内容是否存在侵权问题,可以采用思想与表达二分法,先判定AI新闻是否具备独创性,是否能被视作符合著作权法的新闻作品,进而对其中的文字、图像、音乐等具体表达方式进行分析,判断其是否构成侵权;也可以使用抽象概括法将公共性知识排除在著作权法保护范围之外,从中剔除缺乏独创性的元素,将剩下的内容视为应受著作权法保护的部分,若AI新闻使用了“过滤”后的内容则构成著作权侵权行为。
最后,若AI在未取得授权的情况下模拟人脸、人声作出不当行为、发表不当言论甚至进行违法诈骗,给权利主体的社会评价带来严重负面影响,则构成肖像权和名誉权侵权。
赵双阁:随着AI技术的飞速发展,人工智能新闻也在不断迭代,从文字、音频、图画等到视频,基本上都是信息的传递。而只要涉及信息传递就必然会牵涉到名誉权、隐私权、肖像权、声音权以及著作权的侵权风险。人工智能生产包括数据材料的输入和产品成果的输出两个环节,那么,判断AI侵权也应该从这两个环节入手来分析。
首先,从输入环节来看,人工智能本身需要对海量信息进行学习和分析,这个学习过程中不仅会涉及公共领域的材料而且还会涉及大量他人拥有版权的作品的复制问题,这个就会涉及复制权侵权。
其次,从输出环节来看,人工智能输出的新闻产品中如果出现杜撰或者侮辱他人的语言,或者未经允许出现了他人的隐私或者个人信息、肖像,或者未经允许擅自使用了他人的声音,那么就会涉嫌侵犯他人人格权。如果AI新闻中出现照搬、杂糅、再加工他人作品的文字、图片、音频或者视频素材等情况,那么,就会涉嫌侵犯他人作品的复制权、改编权、汇编权。
王渝伟:我认为AI新闻目前涉及侵权的场景主要分为两部分:首先是在训练端,如果利用AIGC生成新闻,其势必需要大量的语料进行训练。在目前我国的知识产权法的语境下,在网络平台抓取有版权的语料进行训练可能很难被定义为“合理使用”,存在相关的著作权侵权风险。不仅在我国,早前生成式人工智能的领军者ChatGPT的母公司OpenAI也因为抓取美国新闻公司旗下报刊的新闻语料进行训练被美国新闻公司告上法庭,要求赔偿其版权所得。
其次是在输出端,AIGC生成作品目前的可版权性即是否可享有法律意义上的版权,也是目前非常值得关注的问题。早前北京互联网法院也对“AIGC版权第一案”做出了宣判。从目前司法实践的裁判要点来看,我们目前对AIGC作品的版权认定仍然主要分析其生成作品的“独创性”即人类的智慧与创意的参与程度,如果AI新闻只是对抓取的语料进行简单的整合,在当前的立法框架下可能会存在生成内容难以确定著作权权属的问题。
02
法治网研究院:AI技术给新闻业发展带来众多利好的同时,其亦可用于生成虚假新闻和深度伪造,又因公众难以辨别信息真伪,AI新闻容易陷入虚假新闻的困境。比如,2023年2月,浙江杭州某小区业主尝试使用ChatGPT,撰写了一篇《杭州3月1日取消限行》的不实新闻稿,这则消息被迅速疯转并登上微博热搜,造成恶劣影响,引发网友热议。“虚假新闻”是新闻人的耻辱,当事人可能要承担民事、行政甚至刑事责任。那么对于利用AI技术生成的虚假新闻并产生恶劣影响的,相关法律责任如何承担、由谁承担?
罗斌:利用AI技术生成的虚假新闻,无论导致民事、行政或刑事责任,都应当由AI技术的研发者或使用者承担。如果研发者或使用者不是同一主体,二者可能承担按份责任,也可能承担连带责任。
目前,社交媒体平台上的机器人账号,往往不是平台自己的,平台为了免除或减轻相关民事责任,需要加强对注册账号的管理。但在产生恶劣影响的情况下,平台往往难以免除行政或刑事责任。比如,《中华人民共和国网络安全法》第四十七条规定:“网络运营者应当加强对其用户发布的信息的管理,发现法律、行政法规禁止发布或者传输的信息的,应当立即停止传输该信息,采取消除等处置措施,防止信息扩散”;《中华人民共和国刑法》第二百八十七条之二设立了帮助信息网络犯罪活动罪,第二百八十六条之一设立了拒不履行信息网络安全管理义务罪。当然,上述责任也需要充分考虑“避风港规则”。
赵双阁:对于自然人而言,文责自负是一条常规归责原则。但是,AI本体不具有民法地位,AI新闻的权利归属尚无共识的情况下,AI新闻侵权或者违法责任由谁承担也就莫衷一是。英美法系国家虽然有英国《版权、设计和专利法》第9条规定,计算机生产戏剧、文学、音乐、美术作品的情况下,将对作品的创作做出必要操作者视为该计算机生成物的作者,但是鉴于何为“必要操作”并不明确,所以,很多英美国家中的大量企业采取与用户订立合同来实现对AI生成物归属的保护。大陆法系国家的日本则强调AI生成物的主体必须是创作过程中提供精神性贡献的人。在此背景下,我认为,我们应遵循版权法保护的本质是“思想的表达”这条原则,将有思想贡献的民事主体,即AI用户(媒体),作为权利和责任的主体;或者采纳世界范围内通行的做法:由AI服务提供商和用户订立合同,约定享受权利和承担责任的主体。
具体到AI虚假新闻,如果产生恶劣影响的话,一般会产生民事责任、行政责任或者刑事责任:民事责任,即如果散布AI虚假新闻侵犯了公民个人的名誉权或者侵犯了法人的商誉的,根据《中华人民共和国民法典》规定要承担停止侵害、恢复名誉、消除影响、赔礼道歉及赔偿损失的责任;行政责任,即如果散布AI虚假新闻,谎报险情、警情或者以其他方法故意扰乱公共秩序的,或者公然侮辱他人或者捏造事实诽谤他人的,尚不构成犯罪的,要依据《中华人民共和国治安管理处罚法》等规定给予拘留、罚款等行政处罚;刑事责任,即如果散布AI虚假新闻,构成犯罪的要依据《中华人民共和国刑法》的规定追究编造、故意传播虚假信息罪的刑事责任。
陈功:首先,生成和发布虚假新闻的主体应承担主要责任,无论是个人还是组织,都应对其利用AI技术发布不实信息的行为负责。
其次,如果对相关明显失实内容核查不严,也未进行拦截处理,信息发布平台也要承担监管失职的责任。
最后,AI技术的开发者或提供商未对使用其技术生产的新闻内容作出标识,未尽提醒之责而致公众误判,也要负相应的责任。
王渝伟:我认为在当前的立法框架下,AI服务提供者与用户都应该承担相应的责任。
就平台而言,根据《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》的规定,AI服务提供者需要落实信息安全主体责任、依法依约履行管理责任、建立健全辟谣机制等,同时如发现违法内容的还应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。如果AI生成的内容涉及一些产生恶劣影响的不实信息,服务提供者需要承担相应的法律责任,虽然目前对责任承担的形式没有进行明确的规定,但是我认为有可能承担包括但不限于平台下架整改、罚金等行政与民事责任。
就用户而言,目前甘肃已经有一例利用AI传播虚假信息被采取刑事强制措施的案例。我认为,用户如果利用AIGC生成对公共安全甚至国家安全有威胁的“假新闻”,可能会承担例如传播虚假信息罪等相应的刑事责任。
03
法治网研究院:AI新闻是一件新事物,对其发展需要怀有包容审慎的态度,但为了其能够更健康地发展,也需要提出更高要求。对其在合规方面,您还有什么提醒?
赵双阁:新闻作为一种公共产品,对人们的资讯、知识、文化、财务等方面都会产生重大影响,当然,AI新闻也不例外。随着AI技术的飞速发展,AI新闻的形式在不断迭代、质量在不断提高的情况下,它对社会的影响也在逐渐增大。
但是,鉴于AI毕竟还未进入强人工时代,AI生产、传播新闻必然会出现这样或者那样的违法、违规等行为。那么,为了AI生产更健康的发展,媒体单位就要加大人工协助的力度,建立“AI+人工审读”的工作模式,将侵权或者违法风险“扼杀”在摇篮里。
陈功:相关主管部门要继续细化有关AI创作的相关准则和处罚标准,在共享或者使用数据的前提下,明确数据产权、数据授权、数据使用范畴等各种权利义务。
新闻媒体则需要严格依照这些规定使用AI进行新闻生产,确保新闻内容的合法性和正当性,同时建立行业监督机制,加强自律和自省,共同制定统一且标准的AI新闻制作管理体系并积极承担新闻生产的管理责任,建立“人机责任捆绑机制”,确保AI新闻的质量和社会影响。
平台方要筑起防护网,加强对信息内容的审核,及时管控谣言与可能涉及侵权的内容。而技术供应商要进一步开发虚假内容识别技术(包括信息溯源、人脸伪造识别等)和自动化识别算法,避免出现误导性、虚假性新闻内容,并在生成的新闻中嵌入水印,以标识和跟踪其来源,实现对公众的提示,还可以通过采用访问控制或过滤技术等拦截涉嫌构成侵权行为的AI新闻。
王渝伟:我认为在合规方面,AI开发平台应该建立“全生命周期”的合规体系。
在事前应该判断自己的业务模式是否具有相关的合规风险,例如上面提到的是否涉及抓取版权作品,还有在模型研发方面是否满足诸如《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等相关规定的合规要求,例如在模型界面提示“深度合成”“征得用户个人信息收集同意”等。
在AI新闻相关模型的运行过程中,平台依照相关规定建立相应的风险识别和监控机制,例如建立相应的网络日志,对敏感内容进行识别等。
后续在相关的重大风险如侵权或舆情风险产生时,应该建立相应的应急预案,保障相关风险的及时解决与模型的正常运行。
只有在事前、事中、事后建立起相应的“全生命周期”的合规体系,才能更好地应对当前AIGC相关的合规挑战。
罗斌:AI技术的合规与合法涉及多个方面,不能一概而论。但AI只是一种技术或者工具。任何技术或者工具都必须在法律法规之下运行,应当符合社会伦理道德及主流价值观,即不应当以牺牲他人合法权益及公共利益为代价。
当然,面对一种新技术或新业态,法律应当及时跟进。比如,聊天机器人必须使用大模型训练,收集他人个人信息成为必需,否则就不可能有这种新的信息技术或服务;其在运行中也需对用户个人信息同步收集,而如果按照目前个人信息保护中的知情同意规则,这种产品将是一种非法服务。因此,应当从法律的修改与完善上给予这种技术以存在和发展的空间。