

近日,一项研究揭示了人工智能(AI)在识别虚假陈述方面的局限性。研究显示,ChatGPT模型在区分已知的主办方生成的虚假信息(AI生成)方面,表现出一定的困难。具体而言,ChatGPT识别出1.64万条索赔请求,其中包含约260930个令牌(token,即文本的基本单元),并将其与260个相关的事实核查请求进行对比,从而验证信息的真实性。结果表明,AI在识别复杂和细微的虚假信息时,仍然面临挑战。
这项研究突显了AI领域内一个关键的难题,即如何提高机器识别和处理复杂信息的能力。尽管AI技术在过去几年中取得了显著进展,从2017年到2023年间,AI在内容生成、模式识别和决策制定等方面的应用日益广泛,但AI和相关技术在识别虚假信息方面仍存在改进空间,尤其是在需要深入理解语境和文化背景的情况下。研究表明,仅仅依靠“检测虚假信息”的传统方法可能不足以应对当前信息环境的挑战。
实验数据显示,ChatGPT模型在检测方面表现出一定的滞后性,大约有50%的案例未能及时识别。在1.7万个由人类专家标注的数据集中,模型表现出对某些类型的虚假信息识别的不足。然而,值得注意的是,预计到2027年,人工智能驱动的虚假信息检测市场规模将达到85至134亿美元。OpenAI的CEO山姆·奥特曼强调,确保AI技术的安全应用是至关重要的。
AI在信息验证领域面临的挑战,促使人们重新审视“真相”的定义。加州大学伯克利分校的研究员哈尼·法里德认为,AI技术在识别复杂和微妙的虚假信息方面,仍有很长的路要走。一项来自UCLA的研究也支持这一观点,该研究发现,在2018年的一项研究中,人类专家识别的虚假信息比例为4.59%,而AI的识别率仅为2.18%。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/2h5ca5td暂无评论...