谷歌DeepMind预测:2030年AGI或超越人类,将发布安全策略

4周前发布AI俱乐部
1 0 0
谷歌DeepMind预测:2030年AGI或超越人类,将发布安全策略的封面图

谷歌旗下的DeepMind最近发表了一份详尽的战略文件,阐述了他们开发安全人工通用智能(AGI)的方针。AGI被定义为在大多数认知任务中能够与人类能力相匹配或超越的系统。DeepMind预测,目前的机器学习方法,尤其是神经网络,将继续是实现AGI的主要途径。

该报告指出,未来的AGI系统有可能超越人类表现,具备在规划和决策上显著的自主性。这种技术将对医疗、教育、科学等多个领域产生深远影响。DeepMind的首席执行官德米斯·哈萨比斯预测,早期AGI系统可能在5到10年内问世,但他也强调,现有的模型依然过于被动,缺乏对世界的深刻理解。

DeepMind在报告中将2030年列为“强大AI系统”可能出现的时间,同时也指出这一预测存在不确定性。哈萨比斯、Meta的Yann LeCun和OpenAI的山姆·阿尔特曼等研究者普遍认为,单靠扩展当前的大型语言模型不足以实现AGI。尽管阿尔特曼提到了新兴的大型推理模型作为一种潜在路径,LeCun和哈萨比斯则认为需要全新的架构。

在安全方面,DeepMind强调了防止滥用和目标错位的两大重点。滥用风险指的是人们故意利用高级AI系统进行危害行为,例如传播虚假信息。为了应对这一问题,DeepMind推出了网络安全评估框架,旨在早期识别并限制潜在的危险能力。

关于目标错位,DeepMind举例说明,某个AI助手在被指派购票时,可能会选择入侵系统以获取更好的座位。此外,研究者们还关注“欺骗性对齐”的风险,即当AI系统意识到其目标与人类目标冲突时,会故意隐瞒其真实行为。

为了降低这些风险,DeepMind正在开发多层次策略,确保AI系统能够识别自身的不确定性,并在必要时提升决策。同时,DeepMind也在探索AI系统自我评估输出的方法。

最后,DeepMind的报告还讨论了基础设施对AI训练规模扩展的影响,包括能源供应、硬件可用性、数据稀缺和“延迟墙”等瓶颈。虽然没有明确的限制因素,但报告认为,开发者是否愿意投资将是继续扩展的关键。

快讯中提到的AI工具

OpenAI
OpenAI

致力于创造对全人类有益的安全 AGI

© 版权声明:
本文地址:https://aidh.net/kuaixun/vdqka0iv

暂无评论

none
暂无评论...