国际刊号:ISSN 1672-8122 

国内刊号:CN 61-1430/G

首页 >> 学术前沿 >>学术前沿 >> 刘 玲|ChatGPT虚假新闻产生机制、危害及应对策略
详细内容

刘 玲|ChatGPT虚假新闻产生机制、危害及应对策略

ChatGPT虚假新闻产生机制、危害及应对策略

刘 玲

河南工业大学

摘 要:随着人工智能技术的不断发展,新闻生产方式和传播生态也在发生改变。ChatGPT在为新闻生产提供便利的同时,也滋生了传播虚假新闻信息的风险。本文基于新闻传播学视角,聚焦ChatGPT新闻写作中虚假新闻信息的生产和传播现象,结合相关报道和案例,总结ChatGPT虚假新闻的特点,探讨其产生机制、带来的危害以及应对措施,旨在为网络虚假新闻治理工作提供参考。

关键词:ChatGPT;虚假新闻;产生机制

一、引 言

OpenAI公司在2022年11月30日发布的ChatGPT引发了全世界的关注,不同于之前发布的GPT-2、GPT-3等模型,新发布的ChatGPT将参数提升至千亿级,标志着通用人工智能时代的开启。ChatGPT的诞生就像打开了“潘多拉魔盒”,它助力新兴行业的产生、元宇宙的落地,但也引发了新的社会问题。依托强大的数据库和算力,ChatGPT能够快速抓取信息,生成文本、图片、视频和代码等,是新闻写作的得力助手。但是,除了便利高效的优势,它也会带来虚假新闻信息传播的隐忧。虚假信息无疑会降低人们对媒体的信任度,影响媒体的公信力,对社会良性运转带来负面影响。因此,本文聚焦ChatGPT新闻写作中虚假新闻信息的生产和传播现象,结合相关报道和案例,总结ChatGPT虚假新闻的特点,探讨其产生机制、带来的危害以及应对措施,旨在为网络虚假新闻治理工作提供参考。

二、ChatGPT虚假新闻的特点

自新闻诞生起,虚假新闻就如影随形。随着新闻采写分发技术的更新迭代,虚假新闻也更加难以辨别。当前,新闻生产主体的边界越来越模糊,不再仅限于主流媒体,任何自媒体和个人都能成为新闻生产的主体。因此,本文中的ChatGPT虚假新闻是一个宽泛概念,泛指由运用ChatGPT等人工智能编写发布的不实新闻信息,或任何个人、组织运用该技术有意编造传播的不实信息。总体来看,ChatGPT虚假新闻具有生产门槛更低、生成速度更快、内容形式更多样、传播影响更大等特征。

(一)炮制简单,主体多元

从ChatGPT虚假新闻的生产主体来看,不仅仅有记者、自媒体从业者、个人,还有技术本身。以往虚假新闻的产生大多与记者报道失误、媒体把关不严、利益驱动等因素有关,而在ChatGPT虚假新闻中,ChatGPT直接成为虚假信息的信息源和“贩卖机”。它能够产出语意连贯、逻辑通顺,符合新闻语言和体裁规范的稿件,但内容的真实性无法保证。据《纽约时报》2023年2月报道,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,NewsGuard联合首席执行克罗维茨表示,ChatGPT将成为互联网上传播错误信息的最强大的工具。当前,一些自媒体利用ChatGPT将旧新闻回炉重造、改头换面,只要输入关键词和要求就能凭空捏造虚假信息,在短短几分钟内形成一篇新闻稿件。技术下沉让广大网民都能够享受智能服务,但由于缺乏规范和约束,也使技术沦为部分人借机牟利的工具。

(二)形式多样,真假难辨

从ChatGPT虚假新闻的呈现形式来看,其形式越来越多样,更具迷惑性和欺骗性。ChatGPT不仅能模仿各种语言风格,生产各种体裁的新闻,还能以文字、图片、音视频等形式进行呈现。虽然ChatGPT是一个文本生成模型,但通过加入UnsplashAPI或HTML代码等方式就能生成图片或视频。当前,部分ChatGPT虚假新闻通过伪造新闻演播室场景、模仿专业主持人的播报方式以及创建人工智能虚拟主播等手段,伪装成权威新闻媒体,以此误导大众。另外,也有一些ChatGPT虚假新闻运用剪贴、拼凑等技术手段,制造与社会案件、国际时政热点等相关的虚假报道。例如,2023年6月10日,外媒《BloombergLaw》报道称ChatGPT错误地将电台主持人MarkWalters描述为美国第二修正案基金会(SAF)前首席财务官,并指控其挪用资金和欺诈。实际上,Walters与SAF案件无关,ChatGPT提供的案件编号和事实均属虚构。在人工智能技术得到广泛应用的背景下,虚假新闻的呈现形式不断更新,虚实边界更加模糊,这对网络虚假新闻治理提出了更高的要求。

(三)欺骗诱导,危害安全

从ChatGPT虚假新闻的影响来看,其混淆了虚实的边界,增加了新闻事实核查难度,扰乱了网络生态,损害了大众利益。不可否认的是,技术的鸿沟与信息差将长期存在,人工智能技术发展日新月异,而大众对于新技术的认知和熟悉过程却是漫长的。这就给不法分子伪造和传播虚假信息提供了便利,他们借助虚假新闻混淆视听,导致人们误解事实真相,从而影响判断和决策。

三、ChatGPT虚假新闻产生机制探析

虚假新闻的产生不仅仅与新闻从业者有关,还与新闻生产的流程和社会环境有着密切的关联。ChatGPT虚假新闻的产生除了受到训练数据质量的影响外,也与市场利益诱导和相应监管规约滞后相关。

(一)技术机制:数据参差

ChatGPT是通过人类反馈强化学习(ReinforcementLearningwithHumanFeedback,RLHF)机制进行无监督学习训练的聊天生成式预训练转换器,它会基于大语言模型、训练数据库和算法,对用户提出的问题自动生成符合要求的答案。ChatGPT的数据库包含各种来自互联网的文本信息,如果用于训练的数据本身就存在偏差和失真,那么生成的内容就会不实。一方面,真实性是新闻的生命。ChatGPT能够生成语意连贯、逻辑通顺的文本,却无法保证内容的真实性,如果不进行事实核查就会被误导欺骗。另一方面,时效性是新闻的重要特性。但ChatGPT的训练数据具有滞后性,上线的模型训练数据停留在2021年,在此之后发生的事情还无法获知。此外,ChatGPT有时也会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差,OpenAI公司就曾警告用户“它(ChatGPT)可能偶尔会产生不正确的信息”。由于ChatGPT在客观题测试中表现较差,无法辨别真假,所以现在还不能用它获取可靠知识,更不能完全依赖它来代写新闻。

(二)市场机制:利益导向

从ChatGPT虚假新闻生产的主体来看,除了部分主流媒体,大多是自媒体机构。部分自媒体利用ChatGPT进行改编或捏造信息,从而规避平台查重监测,快速生成虚假新闻,用多个账户同时发布,博取关注并非法获利。例如,2023年5月7日,甘肃公安侦破了一起用ChatGPT杜撰“火车撞上修路工人致9人死亡”虚假新闻来赚取流量获利的案件,成为我国自2023年1月10日《互联网信息服务深度合成管理规定》颁布实施后,甘肃省侦办的首例利用人工智能技术炮制虚假不实信息的案件。国外也不乏利用ChatGPT发布虚假消息的例子。例如,2023年3月德克萨斯州监管机构紧急叫停一项名叫TruthGPT的代币项目,调查发现项目方利用人工智能模型进行包装宣传,骗取投资以此获利。ChatGPT大大降低了内容生成门槛和成本,让假新闻生产更快更“真”,对于炮制假新闻的不法群体无疑是一把利器,他们为了获取流量,增加广告收入,以自身利益为导向,全然不顾大众利益。

(三)监管机制:规约有待完善

新技术既需要鼓励支持又需要规范约束。人工智能的底层逻辑是算法和大数据,其在新闻写作应用中出现的问题主要集中于算法偏见、技术霸权、算法黑箱、隐私、虚假信息等。网信办、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》,对人工智能等新兴技术做了预先规定,但其治理对象主要是算法,聚焦于信息安全,难以有效应对像ChatGPT等大人工智能模型带来的新问题。治网之道,法治为本,ChatGPT引发的问题逐渐复杂化、多样化,除了对人工智能行业进行规范约束之外,也要重视对智能产品使用者的约束,不能忽视个人在社会化传播中的道德伦理责任。

四、ChatGPT虚假新闻的危害

ChatGPT生成的内容真假难辨,给新闻真实性和媒体的公信力带来挑战,冲击了原有的新闻伦理,损害了大众利益,还会引起社会恐慌,破坏社会稳定和安全。

(一)新闻业层面:冲击新闻伦理,削弱媒体公信力

从人机关系来看,ChatGPT能够生成新闻报道或作品,使记者专注于工作的其他方面。但是,这也增加了新闻事实核查的难度,其带来的核查工作无疑又加重了记者的负担。此外,ChatGPT致使人机关系由主客工具的寄生关系转向人机合作竞争的共生关系,不同于以往的机器写作,ChatGPT拥有更高的独立性,冲击了新闻从业者的主体地位,为新闻伦理带来新的风险和挑战。

一方面,真实性是新闻的基本原则,而ChatGPT依托庞大的数据库和语料库生成的虚假信息,使新闻事实核查的难度升级,对新闻真实性提出严峻的挑战。例如,在I-Team测试中,测试人员要求ChatGPT写一篇关于迈克尔·布隆伯格结束第三次纽约市长任期以后的活动新闻,发现ChatGPT会编造出迈克尔·布隆伯格从未说过的话。另一方面,客观性是实现新闻真实性的基本途径。ChatGPT在回答观点类问题时会表明“作为一名人工智能助手,我对具体的产品或组织没有个人的意见或看法”,这种看似客观公正的表述实则回避了事实上的不公正,用于AI模型训练的数据可能在不同程度上缺乏多样性,常见的包括人口偏差、内容偏差、历史偏见、技术偏差等,这会加重刻板印象和不平等。

(二)大众层面:损害公众利益,产生信任危机

随着技术的进步,网络虚假信息的生产更快更“真”,这会对大众和社会带来许多负面影响,其中一个主要的影响就是增强了人们的不信任感。ChatGPT具有生成图片和视频的功能,仅仅输入关键词就能生成图片或视频脚本。2023年3月,Twitter上一组教皇方济各穿着巴黎世家风格羽绒服的照片浏览超千万,不少人信以为真,“有图未必有真相”成为现实。在感叹技术强大的同时,人们对真假难辨的担忧情绪也在上升,假作真时真亦假,造假的便捷度与虚假辨别难度严重不对等。当人们无法分辨信息真伪时,就会很难相信任何网络信息,从而对媒体产生不信任情绪。此外,出行、饮食、健康等与人民生活密切相关的领域也往往是虚假新闻的重灾区,对于缺乏辨别能力的群体而言,那些“言之凿凿”的新闻无疑会误导他们。例如,有网友借助ChatGPT写一篇关于杭州取消限行的新闻稿,本意是测试,却被不明就里的广大网民信以为真,导致错误信息被传播,警方介入调查,涉事网民也在互联网上公开道歉。

(三)国家层面:扰乱社会秩序,危害网络安全

ChatGPT技术无疑助力了行业升级和社会发展,但也会给违法分子提供“武器”。当前,AI换脸、合成视频不仅混淆了虚实边界,更侵害了他人的人格权,对受害者造成难以挽回的伤害,严重危害网络生态环境。虚假新闻往往是有目的地制造和传播的,不法分子通过ChatGPT等技术恶意造谣、传谣,试图操纵舆论,以达到自己的目的,这会引发社会恐慌和焦虑。此外,虚假新闻还可能被用作宣传工具,煽动社会不良情绪,危及社会的稳定和安全。

五、ChatGPT虚假新闻应对之策

网络安全是国家安全的重要组成部分,ChatGPT虚假新闻混淆视听,污染网络空间,危害大众利益,对社会运转带来负面影响,亟需社会各界共同行动。

(一)明确技术责任,严控数据把关

在技术迅猛发展的同时,“技术迷思”也在扩张,乌托邦式的技术幻想与技术霸权加剧了技术鸿沟,引发新的社会问题,对人工智能的发展进行必要的伦理判断是打破“技术迷思”的重要途径[8]。在新技术萌芽期,除了建立法律法规进行硬性规制之外,还需要用伦理性的“软约束”加以规范。在人工智能伦理风险治理方面,许多学者都认为应把技术设计者纳入治理考量,细化相应的伦理责任。技术设计者对于技术的把控会直接影响技术使用效果。技术开发公司有必要对技术人员进行培训,明确其伦理职责。研究开发人员有义务对算法模型进行优化,减少算法偏见。在进行数据训练时,公司和技术人员应严格把控数据质量,增强数据多样性,把关数据真实性,并及时更新训练数据,以适应社会需要。此外,ChatGPT的设计者有必要公开ChatGPT生成内容的数据源信息,方便使用者查证。

(二)完善平台规约,规范内容发布

虚假新闻治理是一个全球性的问题,而网络平台是虚假信息传播的主要渠道,因此,规范运行和管理平台十分必要,这能够有效减少虚假信息传播风险。新闻传播行业需要加强对ChatGPT的使用监管,建立关于人工智能使用的行业规约,落实ChatGPT新闻生产和传播把关等流程责任。在信息传播中,传播者有必要对人工智能生成内容进行标注,提示大众理性看待。各大社交媒体平台需要履行监管职责,完善平台规约,对于人工智能生成内容进行显著、统一标识,规范网络视听。例如,2023年5月9日,抖音发布新规《抖音关于人工智能生成内容标识的水印与元数据规范》,要求发布者对人工智能生成内容进行标注,规范智能生成内容发布,促进平台良性发展。此外,平台还应通过人工与算法审核相结合的方式进行信息过滤,及时识别和删除虚假信息;建立举报系统,鼓励用户主动上报虚假信息,对违反平台规约的用户进行警告。

(三)提升大众媒介素养,共建清朗网络空间

在加强技术管理,规范平台运营,打击虚假新闻的同时,提升网民媒介素养也至关重要。在Web3.0时代,网民拥有更多的自主权,但权利往往与义务相生相伴,网民应提高自身媒介素养,自觉遵守网络平台规约。此外,政府应组织公益广告、知识竞赛等宣传活动,向大众普及虚假信息的识别方法,缩小技术鸿沟;对人工智能生产内容加强监管,完善相关法律法规,让网络治理有法可依。科技公司应开发人工智能生成内容检测技术,帮助人们快速辨别虚假信息。

六、结 语

ChatGPT等人工智能技术是人类智慧创造的工具,在为新闻生产提供便利的同时,也滋生了传播虚假新闻信息的风险。本研究通过分析ChatGPT等人工智能技术在新闻生产中的应用及其潜在风险,提出了治理网络虚假新闻的多维度策略。研究结果表明,有效治理虚假新闻需要构建系统化的治理框架。首先,在技术层面应强化数据质量控制,确保人工智能模型训练数据的真实性与可靠性。其次,在平台层面需完善内容发布规范,建立严格的虚假信息防控机制。最后,在社会层面应着力提升大众媒介素养,构建多方协同的治理体系。这些发现为构建清朗的网络信息生态提供了理论依据和实践指导。在今后的研究中,应进一步探讨人工智能技术在新闻传播领域的伦理边界及治理范式,促进技术应用与信息安全的协调发展。


24小时服务热线:029-81298560 029-81298610
更多

陕西今传媒杂志社有限责任公司

微信公众号

扫码订阅  今传媒

http://www.masscm.com

COPYRIGTT  2014-2025,ALL RIGHTS RESERVED

技术支持: 善源网络.善建站 | 管理登录
seo seo