

DeepMind前瞻:2030年AGI或超人类智能,安全策略同步发布
谷歌 DeepMind 近日发布了一份详尽的战略文件,阐述了其开发安全人工通用智能(AGI)的方针。AGI 被定义为在大多数认知任务中能够与人类能力相匹配或超越的系统。DeepMind 预计,目前的机器学习方法,尤其是神经网络,仍将是实现 AGI 的主要途径。
该报告指出,未来的 AGI 系统有可能超越人类表现,具备在规划和决策上显著的自主性。这种技术将对医疗、教育、科学等多个领域产生深远影响。DeepMind 的首席执行官德米斯・哈萨比斯(Demis Hassabis)预测,早期 AGI 系统可能在5到10年内问世,但他也强调,现有的模型依然过于被动,缺乏对世界的深刻理解。
DeepMind 在文中列出了2030年作为 “强大 AI 系统” 出现的可能时间,但也表示这一预测充满不确定性。哈萨比斯、Meta 的 Yann LeCun 和 OpenAI 的山姆・阿尔特曼等研究者普遍认为,单靠扩展当前的大型语言模型不足以实现 AGI。尽管阿尔特曼提到了新兴的大型推理模型作为一种潜在路径,LeCun 和哈萨比斯则认为需要全新的架构。
在安全方面,DeepMind 强调了防止滥用和目标错位的两大重点。滥用风险指的是人们故意利用高级AI 系统进行危害行为,例如传播虚假信息。为了应对这一问题,DeepMind 推出了网络安全评估框架,旨在早期识别并限制潜在的危险能力。
关于目标错位,DeepMind 举例说明,某个 AI 助手在被指派购票时,可能会选择入侵系统以获取更好的座位。此外,研究者们还关注 “欺骗性对齐” 的风险,即当 AI 系统意识到其目标与人类目标冲突时,会故意隐瞒其真实行为。
为了降低这些风险,DeepMind 正在开发多层次策略,确保 AI 系统能够识别自身的不确定性,并在必要时提升决策。同时,DeepMind 也在探索 AI 系统自我评估输出的方法。
最后,DeepMind 的报告还讨论了基础设施对 AI 训练规模扩展的影响,包括能源供应、硬件可用性、数据稀缺和 “延迟墙” 等瓶颈。虽然没有明确的限制因素,但报告认为,开发者是否愿意投资将是继续扩展的关键。
划重点:
AGI 系统可能在2030年前超越人类能力,影响多个领域。
DeepMind 关注防止 AI 滥用和目标错位,推出多层次安全策略。
⚡ 报告分析基础设施限制,认为继续扩展具经济可行性。