研究揭示:AI 语言模型存在政治偏见

2年前发布AI俱乐部
14 0 0 0
摘要:

一项由华盛顿大学、卡内基梅隆大学和西安交通大学进行的最新研究发现,AI语言模型存在政治偏见。研究人员测试了14 […]

研究揭示:AI 语言模型存在政治偏见的封面图

一项由华盛顿大学、卡内基梅隆大学和西安交通大学进行的最新研究发现,AI语言模型存在政治偏见。研究人员测试了14个模型,并通过政治指南针测试来确定这些模型的政治倾向。结果表明,OpenAI的ChatGPT和GPT-4被认为是最左倾的自由主义模型,而Meta的LLaMA被认为是最右倾的独裁主义模型。研究人员指出,尽管政治指南针测试并非完美的工具,但它有助于揭示模型的偏见。他们鼓励企业认识到这些偏见,并努力让其产品更加公正。这个研究结果提醒公众,在开发和使用AI语言模型时需警惕政治偏见的存在,并确保表达的公正和多样化。

© 版权声明:
本文地址:https://aidh.net/kuaixun/6q6iams5

暂无评论

none
暂无评论...