国际研究:AI 助手常歪曲新闻内容,45% 回答存重大问题

10 月 27 日消息,由欧洲广播联盟(EBU)协调、英国广播公司(BBC)主导的一项最新研究发现,如今作为数百万人日常信息获取渠道的人工智能助手,无论在测试哪种语言、哪个地区或哪个人工智能平台时,都经常歪曲新闻内容。

这项史无前例、覆盖范围最广、规模最大的国际研究于 EBU 新闻大会在那不勒斯发布。来自 18 个国家、使用 14 种语言的 22 家公共媒体机构(PSM)共同参与了该研究,揭示了四款主流 AI 工具中存在的多项系统性问题。

据了解,来自各参与公共媒体的专业记者,依据准确性、信息来源标注、区分事实与观点以及背景信息提供等关键标准,评估了 ChatGPT、Copilot、Gemini 和 Perplexity 生成的超过 3,000 条回答。

主要研究发现:

  • 所有人工智能回答中,有 45% 存在至少一个重大问题。

  • 31% 的回答存在严重的信息来源问题,包括缺失、误导或错误引用来源。

  • 20% 的回答存在重大准确性问题,包括虚构的细节和过时的信息。

  • Gemini 表现最差,其 76% 的回答存在显著问题,是其他 AI 助手的两倍以上,主要归因于其糟糕的信息溯源能力。

  • 与 BBC 今年早些时候的研究结果相比,部分 AI 工具有所改进,但错误率仍处于高位。

人工智能助手已逐渐取代传统搜索引擎,成为许多用户的首选信息入口。根据路透社新闻研究所《2025 年数字新闻报告》,全球有 7% 的在线新闻消费者通过 AI 助手获取新闻,而在 25 岁以下人群中,这一比例高达 15%。

EBU 媒体总监兼副总干事让・菲利普・德滕德尔(Jean Philip De Tender)表示:“这项研究明确表明,这些问题并非孤立事件,而是具有系统性、跨国性和多语种特征。我们认为,这正在危及公众对媒体的信任。当人们无法判断什么值得信赖时,最终可能什么都不再相信,而这将削弱民主社会的参与基础。”

BBC 生成式人工智能项目总监彼得・阿彻(Peter Archer)表示:“我们对 AI 充满期待,相信它能帮助我们为受众创造更多价值。但前提是,人们必须能够信任他们所阅读、观看和接触到的内容。尽管已有一定改善,但这些 AI 助手仍存在显著问题。我们希望这些技术能够成功,并愿意与 AI 企业合作,共同为受众和社会创造积极影响。”

研究团队同时发布了《AI 助手中的新闻完整性工具包》(News Integrity in AI Assistants Toolkit),旨在为解决报告中揭示的问题提供实用方案。该工具包涵盖提升 AI 助手回应质量及增强用户媒介素养两个方面。基于本次研究中收集的大量案例与洞察,工具包聚焦两大核心问题:“什么样的 AI 助手回应才算优质?”以及“哪些问题亟需修复?”

此外,EBU 及其成员机构正敦促欧盟及各国监管机构严格执行有关信息真实性、数字服务法规和媒体多元化的现有法律。鉴于 AI 技术发展迅速,持续开展独立监测至关重要。为此,EBU 正在探索建立常态化、滚动式的研究机制,以长期跟踪 AI 助手的表现。

本研究建立在 BBC 于 2025 年 2 月发布的初步研究基础之上,当时首次揭示了 AI 在处理新闻内容方面的严重缺陷。此次第二阶段研究将范围扩展至全球,进一步证实此类问题具有普遍性,并非局限于特定语言、市场或某一款 AI 助手。

另据 BBC 同日发布的补充研究显示,公众对 AI 助手用于新闻的使用习惯与认知也令人担忧:目前已有超过三分之一的英国成年人相信 AI 生成的新闻摘要具备准确性,而在 35 岁以下人群中,这一比例接近一半。

这些发现引发了重大关切:许多人误以为 AI 生成的新闻摘要准确可靠,而事实上并非如此;当他们发现错误时,往往同时责怪新闻机构和 AI 开发者 —— 即便错误完全由 AI 助手造成。长此以往,这类问题可能严重损害公众对新闻本身及其品牌的信任。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平