

近期研究表明,使用人工智能检测网络虚假信息的努力,可能反而加剧了该问题的严重性。研究显示,在一定时间内,一种人工智能工具错误地将大量真实新闻标记为虚假信息。具体而言,一项研究发现,一个人为识别AI生成的在线广告,在短短17天内,就错误地将2843条信息标记为不实信息。这一发现突显了人工智能在内容审核方面应用时可能产生的偏差,尤其是在处理网络错误信息时。
404 Media的记者Jason Koebler撰写了关于这一现象的文章。他指出,出现了一种名为AI Hawk的人工智能工具,专门用于识别AI生成的内容。然而,该工具会识别并标记包含人类撰写的内容、程序生成的内容以及机器翻译的内容,这表明该工具可能存在过度识别的问题,错误地将真实信息归类为虚假信息。
实际上,AI Hawk被设计为用于检测AI生成的内容。该工具的开发者表示,其目标是识别网络上大量涌现的人工智能生成文本,例如用于垃圾邮件或欺诈活动的内容。Koebler强调,这种鉴别真伪的方法可能会被滥用,尤其是在涉及到人工智能生成内容检测工具方面。一项2023年的调查显示,42%的受访者曾经错误地将人工智能生成的内容识别为人类创作的内容。
这种现象突显了自动内容审核系统所面临的挑战。尽管利用这些系统来识别不实信息的想法看似合理,但实际应用中可能会出现意想不到的后果。我们需要认真评估人工智能技术在内容审核领域的应用,以避免无意中扩大人工智能错误识别所造成的负面影响。
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/kki115hu暂无评论...