Google DeepMind 周三颁发了一篇详尽的论文,引见了其对 AGI 的平安方式。AGI 的粗略定义是可以或许完类所能完成的任何使命的人工智能。否决者认为它不外是一个白日梦。其他人,包罗Anthropic 等大型人工智能尝试室,说它即将到来,可能会制难性的风险。DeepMind 的这份长达 145 页的论文由 DeepMind 结合创始人 Shane Legg 配合撰写,论文预测 AGI 将于 2030 年问世,并可能导致做者所说的“严沉”。论文并没有具体定义这一点,但给出了“风险”这一“永世摧毁人类”的的例子。“我们估计正在末之前,将开辟出一种超凡的 AGI,”做者写道。“超凡的 AGI 是一种系统,可以或许正在普遍的非物理使命上取至多 99% 的熟练成年人相婚配,包罗进修新技术等元认知使命。”起首,该论文将 DeepMind 对 AGI 风险缓解的处置取 Anthropic 和 OpenAI 的处置进行了对比。论文称,Anthropic 不太注沉“稳健的锻炼、和平安”,而 OpenAI 则过于看好“从动化”一种被称为对齐研究的 AI 平安研究形式。这篇论文还对超等人工智能(可以或许比任何人类都更好地完成工做的人工智能)的可行性暗示思疑。它正正在将其方针从 AGI 转向超等智能。)若是没有“严沉的架构立异”,DeepMind 的做者们并不相信超等智能系统会很快呈现——若是有的话。不外,该论文确实认为,当前的范式将实现“递归式人工智能改良”:一个正反馈轮回,此中人工智能进行本人的人工智能研究以建立更复杂的人工智能系统。做者断言,这可能很是。该论文提出并倡导开辟手艺来不良行为者拜候假设的 AGI,提高对 AI 系统行为的理解,并“强化”AI 能够步履的。它认可很多手艺还处于萌芽阶段,存正在“未处理的研究问题”,但不要轻忽可能即将呈现的平安挑和。做者写道:“AGI 的变化性质既可能带来令人难以相信的益处,因而,为了负义务地建立 AGI,前沿人工智能开辟人员必需积极规划以减轻严沉风险。”非营利组织 AI Now Institute 的首席人工智能科学家 Heidy Khlaaf 认为 AGI 的概念定义过于恍惚,无法“进行严酷的科学评估”。另一位人工智能研究员、阿尔伯塔大学帮理传授 Matthew Guzdial 暗示,他认为递归人工智能改良目前并不现实。大学研究手艺取监管的研究员桑德拉·沃赫特 (Sandra Wachter) 认为,更现实的担心是人工智能通过“不精确的输出”来强化本身:“跟着互联网上生成式人工智能输出的激增以及实正在数据的逐步代替,模子现正在正正在从着虚假消息或的输出中进修。目前,聊器人次要用于搜刮和寻找。这意味着我们一临着被虚假消息并相信它们的风险,由于它们以很是令人信服的体例呈现。”虽然 DeepMind 的论文可能很全面,但它似乎不太可能处理关于 AGI 到底有多现实的辩论——以及最需要关心的人工智能平安范畴。