Kaiyun(凯云)中国·官方网站

行业动态
NEWS
行业动态
NEWS
联系我们
Contact us

联系人: 张生

手机: 13845690023

电话: 0512-50135789

邮箱: 520233699@qq.com

地址: 江苏省苏州市姑苏区白洋湾街道朱家湾街8号2幢B座406区01室

公司动态

四川广播电视台党委书记、台长李鹏:AI重塑新闻业的创新逻辑与伦理边界

作者:小编 点击: 发布时间:2026-01-16 20:01:40

  

四川广播电视台党委书记、台长李鹏:AI重塑新闻业的创新逻辑与伦理边界(图1)

  在人工智能技术重构传播生态的进程中,新闻业经典的“把关人”理论正面临深刻异化。本文指出智能时代新闻公信力面临的“四重风险”:真实性风险、版权风险、偏见固化风险与责任界定风险。面对上述风险,仅仅依靠技术修补和完善是不够的,需要对传统新闻伦理进行理论层面的修正与扩容,提出可操作的人工智能技术风险预警机制、应用建议与规范思路。

  当前,传媒行业正经历着一场由人工智能技术引领的深刻革命。特别是生成式人工智能(AIGC)展现出颠覆性潜力,使技术从支撑工具跃升为核心驱动力,迅速成为行业基础设施被广泛应用,深刻重构内容生产、传播方式、用户体验和产业生态。与此同时,由人工智能技术深度应用带来的真实性风险、版权争议、算法偏见、AI幻觉等问题和挑战逐渐引发关注。

  本文旨在回归新闻学的本体论思考,从理论层面探讨新闻伦理在智能时代的创新与发展,尝试提出可操作的人工智能技术风险预警机制、应用建议与规范思路。

  新闻业的发展史,本质上是一部媒介技术演进史。与报纸、广播电视、互联网不同,AI带来的变革不仅是信息传输渠道的变化,还介入了信息的生产内核,正驱动行业内容生产力实现指数级的跃迁。传统模式下,记者赖以生存的信息采集与文本构建,其线性、孤立的作业流程,已被重构为高度协同的并行系统。AI能够完成从数据提取到语义组织的毫秒级生成,将人力从重复劳动中解放,转而投向调查性、解释性等更具创造力的深度领域。与此同时,多模态叙事工具(如Sora、Midjourney)的普及,正逐渐消融媒体形态的技能壁垒,文字记者也能直接生成视觉化、影像化的内容,丰富了内容形态,拓展了叙事方式。

  同时,在人工智能技术重构传播生态的进程中,新闻业经典的“把关人”理论正面临深刻异化。传统意义上,行使内容筛选、发布权力的,是拥有明确新闻理念与职业身份的人类专业编辑。如今,这一角色已悄然让渡给隐于代码之后的推荐算法。基于用户画像的精准建模,算法实现了“千人千面”的内容投喂,在极大提升分发效率的同时,也改变了传播逻辑:内容传播的广度,不再单纯由新闻价值的高低界定,而是被转化为算法对用户注意力概率的预测与争夺。

  以麦克卢汉“媒介即讯息”的理论视角审视,人工智能本身便是一种具备强大塑造力的元讯息。它所内嵌的效率至上与数据主义逻辑,改变了新闻创新方向:核心竞争力不仅是生产优质报道,还需设计高效、可控且符合伦理的人机协同工作流。

  在技术高歌猛进的背后,新闻业的基石——公信力,正面临前所未有的挑战,需要正视以下四大核心风险。

  这一风险部分源于技术自身特性。所谓的“AI幻觉”,并非偶然Kaiyun科技有限公司失误,而是基于概率预测的语言模型的内在逻辑所致。在数据不完备或知识边界处,模型的首要目标是生成合乎语言规律、上下文连贯的文本,而非必然符合客观事实。这可能导致模型看似“权威”地引用并不存在的法律条文,或为公众人物杜撰未曾发表的言论。对新闻业而言,这类错误不仅涉及表层准确度,更触及信息来源的可信度,使事实核查工作面临持续且复杂的挑战。

  与此同时,深度伪造技术正从外部动摇大众的信任基础。影像与音频不再天然等同于客观真相,一段高度逼真、成本低廉的伪造视频足以解构“眼见为实”的传统认知。这不仅加剧了不实信息的传播风险,也使得媒体在核实过程中必须投入更多技术与资源,每一次验证都需跨越更高的技术门槛。

  生成式内容与深度伪造共同对真实性构成了双重影响:一方面来自系统内部无意识的文本生成偏差,另一方面来自外部刻意的仿真伪造。在二者交织的背景下,新闻业如何坚守客观真实,成为一项愈发紧迫的命题。

  当生成式人工智能从互联网信息中学习时,其大规模的数据训练必然涉及大量现有内容的使用,在一定程度上绕过了传统版权框架下的授权与付费机制,将新闻机构等生产的深度原创内容转化为训练数据的重要组成部分。

  由此带来知识产权方面的现实挑战。与传统需人力介入的“洗稿”相比,AI能够在很短时间内对一篇深度报道进行解构,生成风格各异的衍生内容,如短视频脚本、社交媒体帖文等。这一过程不仅高效,也更为隐蔽,其输出的内容并非直接复制,而是对原文逻辑、事实、观点的提炼与重组,完成“不留指纹”的挪用,导致原创内容的价值在稀释与分流中被蒸发。

  在算法应用的进程中,一个值得关注的伦理议题是偏见可能被无形固化甚至放大。人工智能并非完全中立的工具,其输出的内容往往反映出训练数据中所包含的社会与文化痕迹,这些痕迹可能在不经意间将历史中存在的某些倾向带入新的信息环境。

  这一风险与训练数据密切相关。如果用于训练模型的内容资料中隐含性别、种族或地域等方面的不平衡叙事,由于缺乏对社会背景的批判性理解,AI可能将这些数据中存在的倾向不自觉地延续下来,甚至在生成内容时以更规范的语言形式予以强化,从而使某些社会认知偏差在技术流程中被进一步传递。

  而推荐算法主导的分发机制,则进一步为偏见的流动构筑了封闭的管道,形成了固化的“数字回音室”。这套机制以迎合用户既有认知与偏好为最高效率准则,持续推送情感共鸣大于事实异见的内容,在无形中筑起信息茧房,加剧群体的认知隔阂与社会极化,背离了新闻业所追求的公共性使命——提供多元信息、搭建对话桥梁、凝聚社会共识。

  在AI从开发、部署到使用的全过程中,当算法生成的内容触及伦理边界(例如涉及不实信息或煽动性言论时),责任归属问题变得更加复杂,甚至可能出现权责难以清晰界定的情况。开发方或许会指出,模型具有不可完全预测的特性,其不当输出可能是系统复杂性的非预期结果。使用算法的媒体则可能强调自身已进行必要审核,但难以完全透视算法的生成过程。而算法本身并非法律主体,无法直接承担伦理或法律责任。于是,责任往往在多方之间悬置,难以落实到具体一方。

  因此,行业必须深入思考:在人工智能深度参与内容生产的过程中,如何通过制度与规范设计,将伦理责任重新锚定于具体的人与机构之上?

  面对上述风险,仅仅依靠技术修补和完善是不够的,需要对传统新闻伦理进行理论层面的修正与扩容。

  随着人工智能深度参与内容生产的各个环节,传统上对新闻“客观性”的要求,正面临新的现实挑战。当从采写、编辑到分发的全过程都有人工智能参与时,客观性愈发难以成为界定新闻可信度的结果标准。在此现实下,新闻业重建受众信任的伦理基石,必须从单纯对结果“客观状态”的静态追求,转向对生产过程“可见性”的动态承诺,即以“透明性”作为智能时代可信新闻的新范式。

  其核心理论在于:媒体的责任范畴需从对最终文本的单一负责,扩展到对混合型新闻生产全过程的说明性负责。这意味着,受众不仅有权知晓事实是什么,更有权知晓事实如何被生产出来,即报道的哪些部分源于记者的调查与判断,哪些部分由AI生成或增强;模型训练的数据来源于何处,又经过了怎样的筛选与清洗;算法在推荐分发时,是基于何种逻辑权重了某些信息。“透明性”强调将人机协作的“后台”操作置于前台审视,目的是邀请受众共同参与对内容建构过程的监督,在认知协作中重建受众对内容的可信度。

  面对算法提升内容分发效率的技术现实,新闻业要推动“把关人”机制演进,从人类中心控制转向“人机双重把关”体系,通过结构设计,将人的伦理判断置于技术流程的核心,实现权责平衡。

  首先是“前置性”的技术伦理介入。在引入任何AI工具之前,必须对其开展系统性的伦理审查。审查的核心在于剖析其算法逻辑的价值预设、追溯其训练数据的构成与潜在偏见、评估其输出结果的社会风险。通过伦理筛查,将系统性歧视、数据隐私侵犯等风险尽可能排除在内容生产的起点。其次是确立“后置性”的人本价值兜底。无论AI的生成能力如何强大,只能扮演辅助性的“协作者”与“初稿生成者”角色。最终的核实、判断、定稿与至关重要的发布权,必须由人类专业编辑掌握;信息发布按钮的“最后一公里”,必须是理性与责任感的防线,确保价值导向不偏。

  在智能技术深度嵌入内容生产的当下,建立明确的算法问责制,成为捍卫行业伦理底线的关键性制度。

  从根本上看,人工智能仍是由人设计、为人所用的工具。媒体机构作为技术的主动引入者和使用者,理应为其采用工具所产生的社会影响负责。不能只在成果有效时归功于技术,而在出现偏见、错误或侵权等问题时,将责任推给所谓“算法故障”。根据“谁使用,谁负责”的原则,媒体应对其采用的智能系统及其输出内容承担最终责任。

  问责不能停留在事后补救,而应贯穿技术应用的全过程。媒体有义务对算法的设计逻辑、数据来源进行事先评估,并在使用中建立持续监督与人工干预的机制。唯有如此,才能将飘散的责任重新凝聚,在技术的复杂性之上重塑新闻业清晰坚实的责任坐标。

  为让上述思考不止步于理论探讨,我们尝试将之转化为可供业界参考与商榷的实践思路。

  一级预警(涉及政治、司法、公共健康及重大突发事件等领域):此类内容事关重大公共利益,AI工具应被严格限定于辅助性角色(如信息整理、线索提示),严禁直接使用其生成任何事实性陈述或结论。所有由AI引用的数据、信源或背景信息,编辑必须执行“溯源到根”的强制核查,即跨越机器摘要,直接验证并评估原始信源的可信度。

  二级预警(涉及人物、社会议题、文化评论等含观点性的内容):在此领域需高度警惕叙述视角的单一性与潜在的隐性偏见。必须引入“多元化视角交叉审核”机制,即由具备不同背景的编辑或特邀专家,对AI生成或辅助的内容进行批判性审读,确保其平衡性与语境完整性,防止观点在“技术中立”伪装下悄然倾斜。

  三级预警(适用于翻译、润色、摘要等辅助性任务):在此领域,可采用“重点抽样核查”制度。关键在于监控AI处理过程中是否出现关键的语义漂移或细微失真。例如,在摘要中弱化核心争议,或在翻译中曲解微妙情感,确保效率的提升不以信息保真度的微量损耗为代价。

  拥抱人工智能,对媒体而言,意味着在明确边界的基础上,善用其赋能潜力,使其服务于新闻价值的提升与公共使命的回归。媒体机构不仅要成为技术的使用者,更要成为技术应用场景的设计者与价值校准者,在智能时代重新掌握舆论引导、信息传递的主动权。

  其次,运用AI实现“传播的精准适配”。借助AI,打破语言与形式的限制,将同一核心事实转化为适应不同平台、不同受众的叙事形态,如短视频、多语种版本等,推动公共信息更普惠、更有效地触达。

  此外,面对版权与可信度挑战,媒体可将自身积累的优质内容转化为战略资产,通过构建基于内部知识库的生成模式,使AI输出建立在已验证、可追溯的信源之上,从源头强化内容的可信性与版权安全。

  总体而言,AI与内容生产的深度融合,关键在于将AI从“替代人力”的工具,转变为“增强人智”的伙伴,使其在效率与创新之间,始终服务于新闻业的公共价值。

  面对生成式人工智能带来的多重挑战,零散应对已显不足,新闻业亟待构建涵盖行业规范、内部机制与法律支撑的系统性治理框架。

  首先,在行业层面建立以透明度为核心的操作准则。应由权威机构牵头,推动形成具有实质约束力的行业标准,重点包括:明确标识要求,对AI生成或深度编辑的内容,实施统一、显著的标识制度,主动向公众说明内容来源。严守真实底线,严禁使用AI生成或合成仿冒新闻现场的影像,图解类内容也需明确标注,以维护公共信息的感知基础。

  最后,行业应积极推动相关立法进程,在法律层面形成明确的责任界定与权益保障。重点在于明晰数据产权与使用规则,建立合理的授权与利益分享机制,保障原创内容的可持续生产;界定主体责任,在法律上明确媒体对AI生成内容负有相应责任,以此倒逼内部审核机制的完善。

  通过行业规范、内部治理与法律框架的协同,可以为技术应用铺设既有包容性又有约束力的发展轨道,引导其在服务于新闻真实、责任与公共价值的根本方向上稳步前行。


相关标签:
热门产品