

埃隆·马斯克旗下的社交平台X(原推特)近日出现了一个新的趋势,部分用户开始利用马斯克旗下人工智能公司xAI开发的AI聊天机器人Grok进行“事实核查”。专业人工事实核查员对此表示担忧,他们认为这可能会加剧虚假信息的传播。
据悉,X平台最近向用户开放了直接使用xAI的Grok进行提问的功能,用户可以就不同话题向Grok寻求答案。这与Perplexity公司在X上运营自动化账户提供类似服务的方式相似。
自从xAI的Grok自动化账户登陆X平台以来,用户们开始向其提出各种问题。特别是在印度等市场,一些用户开始要求Grok对特定政治观点的评论和问题进行“事实核查”。
然而,人工事实核查员对利用Grok或其他类似AI助手进行“事实核查”的做法表示担忧,因为即便这些机器人提供不实信息,也能用听起来令人信服的方式构建答案。过去,Grok曾传播假新闻和误导信息的情况屡有发生。
在去年八月,美国五个州务卿曾敦促马斯克对Grok进行关键调整,因为在当时的美国大选前夕,该助手在社交网络上传播了误导性信息。其他聊天机器人,如OpenAI的ChatGPT和谷歌的Gemini,去年也被发现生成了不准确的选举信息。一项研究发现,包括ChatGPT在内的AI聊天机器人能轻松生成具有误导性叙事和极具说服力的文本。
国际事实核查网络(IFCN)主任安吉·霍兰指出:“像Grok这样的AI助手擅长使用自然语言,可以给出听起来像是真人说的答案。即使潜在存在严重错误,这些AI产品也能提供一种自然和真实感。这正是其中潜在危险之所在。”
一个X用户曾要求Grok对另一用户的言论进行“事实核查”。不同于AI助手,人工事实核查员会利用多个可信来源验证信息,并对调查结果负责、署名并附上所属机构以确保可信度。
Alt News的联合创始人普拉蒂克·辛哈指出,虽然Grok目前似乎能给出令人信服的答案,但其能力完全取决于所获取数据的质量。他强调:“决定获取什么数据的问题将引发政府干预等问题。缺乏透明度的事物必然会造成危害,因为任何缺乏透明度的东西都可能被随意操控,进而可能被滥用以传播虚假信息。”
Grok在X平台上的官方账号最近发布的一则声明承认可能会被滥用,用于传播虚假信息和侵犯隐私。然而,该自动化账户在给出答案时并未向用户显示任何免责声明。如果答案源自“幻觉”,用户可能会被误导,这也彰显了AI的潜在缺陷。Digital Futures Lab的研究员安努舒卡·贾恩表示:“它可能会捏造信息来作出回应。”
此外,人们还对Grok在多大程度上利用X平台上的帖子作为训练数据,以及它使用何种质量控制措施来核实这些帖子的真实性提出疑问。去年夏季,X平台做出了一项更改,似乎允许Grok默认使用X用户的公开数据。
AI助手(如Grok)通过社交媒体平台公开传播信息的另一个令人担忧的方面是,即使某些用户清楚地知道从AI助手处获得的信息可能具有误导性或不完全正确,平台上的其他用户仍可能相信这些信息,从而可能带来严重的社会危害。印度之前就曾因通过WhatsApp传播虚假信息而导致群体性暴力事件发生,尽管那些事件发生在生成式AI出现之前,现在有了生成式AI,合成内容的制作变得更容易,更具真实感。
IFCN的霍兰表示:“如果你看到很多Grok的答案,可能会觉得多数都是正确的,但肯定有一些是错误的。错误率有多高?并非小概率。一些研究表明,AI模型的错误率高达20%……一旦出现错误,可能造成严重后果。”
AI公司,包括xAI在内,正在改进其AI模型,使其更像人类进行交流,但它们现在还不能取代人类,将来也不可能取代。近几个月来,科技公司一直在探索减少对人工事实核查员依赖的方法。X和Meta等平台已经开始尝试通过“社区笔记”进行众包式事实核查,这些变化也引起了事实核查员的担忧。应置评请求。
要点如下:
- 马斯克旗下AI机器人Grok被用于X平台的事实核查,引发人工核查员担心误导信息的扩散。
- AI助手,如Grok,可能生成听起来可信但不准确的答案,且缺乏透明的质量控制和数据来源。
- 人工事实核查员依赖多方可信信源,并承担核实信息的责任,AI无法取代人类在信息核实中的作用。