

一项由华盛顿大学、卡内基梅隆大学和西安交通大学进行的最新研究发现,AI语言模型存在政治偏见。研究人员测试了14个模型,并通过政治指南针测试来确定这些模型的政治倾向。结果表明,OpenAI的ChatGPT和GPT-4被认为是最左倾的自由主义模型,而Meta的LLaMA被认为是最右倾的独裁主义模型。研究人员指出,尽管政治指南针测试并非完美的工具,但它有助于揭示模型的偏见。他们鼓励企业认识到这些偏见,并努力让其产品更加公正。这个研究结果提醒公众,在开发和使用AI语言模型时需警惕政治偏见的存在,并确保表达的公正和多样化。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/6q6iams5暂无评论...