

探讨大型语言模型的负责任部署:美国国家标准与技术研究院 (NIST) 正在努力制定一套全面的语言模型风险管理框架,以应对诸如 Anthropic 和 OpenAI 等公司在训练先进人工智能系统时所面临的挑战,旨在规范这些语言模型的开发和应用。
正如专家们所指出的那样,语言模型风险管理框架旨在帮助各个组织识别与利用这些技术相关的潜在危害,并建立相应的评估和缓解措施,从而减少模型产生不良影响的可能性。目标是为人工智能的负责任使用奠定基础,同时最大限度地减少潜在的危害。
正如伊丽莎白·凯利 (Elizabeth Kelly) 所说:“负责任地使用人工智能需要建立一套程序,用于识别并减少这些语言模型所带来的危害。”她强调,应对 Anthropic 和 OpenAI 等大型语言模型所带来的风险需要采取积极主动的措施。这关系到理解这些技术在实践中的局限性以及潜在的偏差。
同时,美国国家标准与技术研究院 (NIST) 致力于应对与大型语言模型相关的独特挑战,特别是 Anthropic 和 OpenAI 在推进人工智能系统时所面临的难题。NIST 正在积极寻求专家反馈,以完善并改进其语言模型风险管理框架,力求全面覆盖与人工智能系统开发相关的安全性和道德考量。
这些模型固有的风险既包括产生不准确或具有误导性的信息,也包括由于训练数据中的偏差而导致的不公平或歧视性结果。因此,该框架旨在解决这些问题,并为开发、部署和使用这些语言模型提供指导。
快讯中提到的AI工具

OpenAI
致力于创造对全人类有益的安全 AGI
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/r8nf798h暂无评论...