

根据哥伦比亚新闻评论数字新闻中心的最新研究,流行的 AI 搜索工具在回答问题时,超过60%的概率提供了不准确或误导性的信息。这一发现引发了广泛关注,因为这些工具不仅削弱了公众对新闻报道的信任,也使出版商面临流量和收入的双重损失。
研究团队对包括 ChatGPT、Perplexity、Gemini 和 Grok 在内的八款生成式 AI 聊天机器人进行了测试,要求它们识别来源于200篇最新新闻文章的摘录。结果显示,超过60%的回答是错误的,这些聊天机器人经常编造标题、不引用文章,或引用未经授权的内容。即使在能够正确指出发布者的情况下,提供的链接也常常指向失效的 URL、转载版本或与文章内容无关的页面。
令人失望的是,这些聊天机器人很少表达不确定性,反而以不当的自信提供错误答案。例如,ChatGPT在200个查询中提供了134条错误信息,但仅在15次中表示过怀疑。而即使是付费版的 Perplexity Pro 和 Grok3,其表现同样不理想,错误答案的数量还更高,尽管它们的订阅费用分别为每月20美元和40美元。
在内容引用方面,多款聊天机器人未能遵循出版商的限制尝试,五款聊天机器人甚至忽视了被广泛接受的机器人排除协议。以 Perplexity 为例,尽管出版商限制其爬虫,仍然成功引用了国家地理的文章。而 ChatGPT 则通过未授权的 Yahoo 新闻引用了收费墙内容的 USA Today 文章。
此外,很多聊天机器人将用户引导至 AOL 或 Yahoo 等平台的转载文章,而非原始来源,即便在与 AI 公司达成授权协议的情况下。例如,Perplexity Pro 引用了德克萨斯论坛的转载版本,却未能注明来源,而 Grok3 和 Gemini 则常常虚构 URL,在Grok3的200个回答中有154个链接至错误页面。
本研究突显了新闻机构面临的日益严重的危机。越来越多的美国人将 AI 工具视为信息来源,但与 Google不同,聊天机器人并不将流量引向网站,而是在不回链接的情况下总结内容,从而导致出版商流失广告收入。新闻媒体联盟的代表丹妮尔·科菲警告说,如果缺乏对爬虫的有效控制,出版商将难以“变现有价值的内容,或支付记者的薪水”。
在联系 OpenAI 和微软后,虽然两家公司对自己的做法进行了辩护,但并未对此研究的具体发现作出回应。OpenAI表示其“尊重出版商的偏好”,并旨在协助用户“发现优质内容”,而微软则宣称其遵循“robots.txt”协议。研究人员强调,错误引用的做法是系统性的问题,而非个别工具的问题,并呼吁AI公司提高透明度、准确性及对出版商权益的尊重。
划重点:
📊 研究显示,AI 聊天机器人的回答错误率超过60%,严重影响了新闻的可靠性。
📰 多款聊天机器人无视出版商的限制,引用了未授权内容和错误链接。
💰 新闻机构面临流量与收入的双重危机,AI 工具逐渐取代传统搜索引擎。