专家认为:ChatGPT的错误信息并非“幻觉”,而是“胡说八道”

7个月前发布AI俱乐部
3 0 0
专家认为:ChatGPT的错误信息并非“幻觉”,而是“胡说八道”的封面图

当前,针对四种特定类型的大型语言模型(LLM)的调查表明,它们可能展现出与人类认知相似的偏差。研究旨在揭示人工智能系统固有的认知局限性,并进一步探索它们在理解复杂概念时可能存在的固有缺陷。

由 Michael Townsen Hicks、James Humphries 和 Joe Slater 领导的研究团队,将人工智能所表现出的认知偏差,归因于其受到“锚定”和“可得性”的限制。相较于随机噪声,这些偏差更可能源自人工智能在特定情境下的学习方式,反映了人类思维中普遍存在的偏见。研究人员认为,人工智能的认知过程类似于人类,容易受到“可得性”启发的影响,即过于依赖容易回忆的信息。

作者指出:“识别这些偏差有助于理解‘大型语言模型’的局限性,尤其是在处理涉及复杂认知或依赖于特定情境的推理时。” 这一发现强调了理解语言模型中认知偏差的重要性,揭示了人工智能在处理需要细致分析和背景理解的任务时所面临的挑战。

进一步地,相关研究揭示了现有的大型语言模型(LLMs)在处理多步骤推理时,可能会在常见的推理模式中表现出不一致性。由于语言模型在模拟人类推理方面存在固有的局限性,因此它们可能无法完全摆脱人工智能在理解和应用复杂逻辑时所面临的潜在缺陷。由 Sandra Wachter、Brent Mittelstadt 和 Chris Russell 共同撰写的相关报告进一步强调了“算法公平性”的重要性。

基于这些发现,这项研究提出了一种更加细致的评估人工智能系统的方法,认识到其背后潜藏的认知局限性。作者强调,人工智能的“算法公平性”问题,不仅仅是数据偏见,还涉及到其潜在的认知偏差,即系统性地产生有偏见或不准确结果的倾向。

关键要点:

研究揭示了大型语言模型可能受到“锚定”和“可得性”等认知偏差的影响。

已有研究表明,人工智能系统在执行复杂推理任务时,可能无法完全避免固有的局限性。

算法公平性不仅与数据有关,还与人工智能的潜在认知偏差有关,可能会导致不公正的结果。

© 版权声明:
本文地址:https://aidh.net/kuaixun/3ca1rmbi

暂无评论

none
暂无评论...