西部法制传媒网 > 深读

我们正在经历一场与AI假新闻的较量

AI工具从技术上降低了不法团伙造谣、传谣的门槛,大幅提升了谣言的数量级和传播力,可能促使网络谣言“定制化”生成、“精准化”传播、“智能化”扩散

视觉中国供图

《法治周末》记者 孟伟

近日,西藏日喀则市定日县发生6.8级地震,一张“地震期间小男孩被压在废墟下”的图片在网络上广泛传播,引发大量网民关注。经查,该信息是青海某网民为博取眼球,移花接木一手制造出来的假新闻。

随着人工智能技术的日益火爆,在网络上编造和传播谣言的成本变得越来越低。利用AI合成技术编造假新闻,甚至生成逼近真实的图片、音视频,让人难辨真假。

华南理工大学法学院副教授叶竹盛表示,AI技术的发展为新闻行业带来了新的机遇,但利用AI技术编造虚假新闻的行为严重破坏了新闻的真实性,扰乱了社会秩序。造谣者需承担民事、行政、刑事等多方面的法律责任,平台也肩负着重要的审核义务与法律责任。

AI制造假新闻并非个例

据公安部网安局微信公众号1月10日晚消息,经查,小男孩被埋废墟的图片由AI工具创作,原作者于2024年11月18日发布过相同画面的短视频,并未关联地震且声明是AI生成。警方通报称,青海某网民为博取眼球,将“小男孩被埋图”与日喀则地震相关的信息进行关联拼凑、移花接木、混淆视听、误导群众,致使谣言信息传播扩散。目前,该涉案人员已被属地公安机关依法行政拘留。

此外,1月8日,日喀则警方在其公众号上发布了《西藏定日县发生6.8级地震,警惕这些网络不实信息》的文章,辟谣了6起造谣视频,这些视频在被认定造谣视频前,在网络上都有较高的热度。

日喀则警方称:部分自媒体为博眼球、蹭流量、吸引粉丝,利用网络旧图、AI智能技术等手段合成发布日喀则市定日县地震的不实图片及音视频等信息严重误导网民。

如今在AI的助力下,创作者仅需轻松输入几个关键词,AI系统便能凭借其强大的算法和海量数据储备,在极短时间内生成一段涵盖人物、时间、地点、事件等关键要素的完整内容。这种简单的操作方式使得一些为了获取流量和利益的不法分子,在网络上大肆制造传播假新闻。

2024年1月,某社交平台出现一条关于“西安爆炸”的消息。消息称:1月10日晚11时48分,突然一声巨大的爆炸声在城市中响起。文字下方还配发了所谓爆炸的图片。这条消息很快在网上传播,甚至包含了时间、地点等关键信息。

江西省南昌市公安局调查发现:这耸人听闻的消息背后,是南昌市一家MCN机构在推波助澜。这家MCN机构发布的数条涉嫌网络造谣的信息,系通过AI软件生成内容制作。

负责该案件的警官介绍:该机构工作人员王某某以新闻撰稿人的角度、方向、语气,输入关键词如“爆炸”“民生”等,要求AI软件生成文章、新闻热点类的图片,产生了这样的谣言信息。这家MCN机构短时间内生成了大量文章,最高峰一天能生成4000至7000篇,最高的一条收入700元,初步估算每天的收入在1万元以上。

同样,在浙江省绍兴市,有团伙利用AI技术合成造谣视频20余条,并发至多个热门视频平台上牟利。他们将多个网络热点要素拼接制成新视频,如“上虞工业园区火灾”的虚假视频,致使谣言迅速扩散。

前不久,中国人民大学公共传播研究所与中国人民大学刑事法律科学研究中心联合举办“AI谣言现状与治理”专题研讨会(以下简称“研讨会”)。研讨会现场,清华大学新闻与传播学院新媒体研究中心发布了《揭秘AI谣言:传播路径与治理策略全解析》研究报告(以下简称《报告》),其中披露的一组数据显示:2023年以来,网络谣言整体态势平稳,但AI谣言量近半年增长65%。

《报告》指出,AI工具从技术上降低了不法团伙造谣、传谣的门槛,大幅提升了谣言的数量级和传播力,可能促使网络谣言“定制化”生成、“精准化”传播、“智能化”扩散。

造谣者的法律责任

1月10日,由中央网信办举报中心主办的中国互联网联合辟谣平台对2024年12月的网络谣言进行了梳理分析。网上数据监测和网民举报显示,当月网络谣言主要集中在伪造公共政策、炒作民生话题、杜撰事故灾害等方面,对社会秩序和群众权益造成负面影响。

文中指出:个别自媒体和网民为追逐流量,采用无中生有、捏造数据、拼凑剪接、移花接木等手段,编造杜撰涉灾害事故谣言,造成不良社会影响。

叶竹盛告诉《法治周末》记者,AI合成在新闻传播领域面临着极为严峻的挑战。由于利用AI合成内容操作简便,少数人可短期内制造并广泛散布大量虚假内容,这些虚假内容的快速传播可能引发极其严重的负面后果,如误导公众认知、扰乱社会秩序、破坏媒体公信力等,对社会的信息生态环境造成极大的冲击和危害,亟待引起高度重视与有效应对。

《法治日报》律师专家库成员、北京盈科(上海)律师事务所数智化建设委员会副主任李悦告诉《法治周末》记者:“‘地震期间小男孩被压在废墟下’一图的行为人已被追究行政责任。依据治安管理处罚法第二十五条规定,散布谣言,谎报险情、疫情、警情或者以其他方法故意扰乱公共秩序的,处五日以上十日以下拘留,可以并处五百元以下罚款,情节较轻的,处五日以下拘留或者五百元以下罚款。”

李悦强调,如果相应情节更严重,则将构成编造、故意传播虚假信息罪:“刑法第二百九十一条的规定,编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,或者明知是上述虚假信息,故意在信息网络或者其他媒体上传播,严重扰乱社会秩序的,处三年以下有期徒刑、拘役或者管制;造成严重后果的,处三年以上七年以下有期徒刑。”

除行政与刑事责任外,造谣者可能还需承担民事责任。

叶竹盛称:“当AI假新闻是利用他人肖像合成,程度较为轻微可能会构成民法上的名誉侵权,恶意或有目的性的行为可能会构成侮辱、诽谤。”

平台有不可推卸的法律义务

在“AI谣言现状与治理”研讨会上,一位长期从事互联网法律审判工作的法官指出:作为AI假新闻的“看门人”,首先要明确网络服务提供者,即内容生成平台的责任。

网络安全法的多个条款明确,平台有责任对用户发布的内容进行严格审核。相关部门已经陆续出台了多个文件,如《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,这些文件都明确平台肩负着不可推卸的法律义务与责任。

中国政法大学数据法治研究院教授张凌寒向《法治周末》记者透露:“《互联网信息服务深度合成管理规定》要求平台应当采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,并规定了配套措施。这个规定对平台方的要求有很多,第一,应当建立健全用于识别违法和不良信息的特征库;第二,当平台发现违法和不良信息的,应当依法采取处置措施,保存有关记录,及时向网信部门和有关主管部门报告;第三,平台应当落实信息安全主体责任,采取安全可控的技术保障措施。”

张林寒补充,《人工智能生成合成内容标识办法(征求意见稿)》也要求平台在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容等,但该办法尚未确定公布版本。

李悦表示:“平台上出现假新闻,平台若未及时采取措施制止虚假信息传播,主管部门将依法给予警告并没收违法所得;若平台拒不改正或情节严重,将面临十万元以上五十万元以下的罚款,并可能被责令暂停相关业务、停业整顿、关闭网站、吊销相关业务许可证或营业执照。同时,对直接负责的主管人员和其他直接责任人员,将处以一万元以上十万元以下的罚款。”

叶竹盛认为,平台还应建立健全内容审核机制,对于多次利用AI伪造内容的互联网用户,可探讨禁止其注册平台账号或接入网络等措施。同时,结合人工与AI技术对内容进行监测和过滤,加强用户协议和内容发布规范,明确禁止虚假信息和侵权内容。

与此同时,叶竹盛还强调,平台在AI信息治理与保障新闻真实性之间寻求平衡至关重要。

“一方面,平台不能借治理AI信息之名阻碍新闻正常传播,如滥用权力进行违法删稿行为;另一方面,要采取合理技术措施识别虚假信息,同时建立申诉机制避免误伤,并且提供便捷的举报投诉渠道,确保用户能及时反馈问题,平台也能迅速处理,从而实现AI治理与新闻真实价值的兼顾与统一。”叶竹盛说。

1月14日,今日头条发布2024年度治理报告,公布平台针对网络虚假谣言、网络诈骗、同质化发文、低质AI内容等问题的多项治理举措与成果。《报告》显示,今日头条已经建立起完整的谣言治理和防范体系。截至2024年12月底,平台累计拦截不实信息超500万条,封禁造谣、传谣等违规账号超47000个。

媒体行业的自律同样重要

《互联网信息服务深度合成管理规定》第六条第二款规定:深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。

张凌寒表示,如果AI合成图片没有侵权内容、无虚假信息等,那么其在新闻领域的合理使用就应当是合法的。

“AI技术为新闻传播领域注入了极大的能量和可能性,带来了效率和便利,但同时也带来伴生风险与复杂的法律挑战。例如,新闻领域中AI的应用改变了信息生成方式,模糊了虚实界限,极大地降低了生产内容的门槛,使得既往网络安全治理的行政与技术资源面临挑战。”张凌寒说。

“值得注意的是,如果短视频平台涉及新闻信息服务(如发布或转载新闻内容),则必须遵守该规定;即使不涉及新闻信息服务,平台仍需遵守网络安全法、《互联网信息服务管理办法》等法律法规,对用户生成内容(包括AI生成内容)进行审核和管理,确保内容的真实性和合法性。”李悦补充说。

专家认为,在这场与AI假新闻的较量中,媒体行业的自律至关重要。

叶竹盛提到:在技术创新发展进程中,平衡AI技术与新闻传播创新颇具难度。一方面,AI对新闻传播领域有积极价值,能助力新闻工作者快速收集、监测、预测新闻题材与内容,高效获取信息,成为重要助手,在坚持新闻客观主义前提下运用可提升传播效率和质量;另一方面,AI工具易被滥用生成违法信息,所以在鼓励其应用的同时,必须制定法规对滥用行为进行规制,以保障新闻传播环境的健康有序。

“媒体机构应积极制定严格的自律规范,加强对AI技术使用的内部管理和审核流程,探讨新闻及传播工作者使用AI工具的伦理准则,明确是否应告知AI运用程度等问题。在利用AI进行新闻采集、编辑和发布的过程中,要确保信息来源的可靠性和内容的真实性。内容创作发布平台需针对创作者使用AI工具制定自律公约,帮助用户辨别内容来源。”叶竹盛说。

张凌寒补充:“就目前而言,我国针对AI在新闻领域的应用已经建立起较为完善的体系,我国的信息内容安全治理制度相对完善,执法实践已走在世界前列。实现AI在新闻领域的健康发展不仅是一个法律问题,而是需要各领域同步采取措施,建立起综合的治理体系。”

(编辑:康丽)