—
人工智能在军事领域的应用与通用人工智能(AGI)对人类的意义:谷歌DeepMind首席执行官Demis Hassabis访谈
上一次我采访Demis Hassabis是在2022年11月,就在ChatGPT发布前几周。即使在当时——在全世界陷入AI热潮之前——谷歌DeepMind的首席执行官就对人工智能进步的速度发出了严厉警告。”我会主张_不要_盲目追求快速突破,”Hassabis当时对我说。他批评了他所认为的同行中一些人的鲁莽态度,这些人就像实验人员一样”没有意识到自己正在接触危险物质”。
两年半后,人工智能领域发生了巨大变化。Hassabis本人则因在AlphaFold上的工作获得了2024年诺贝尔化学奖——这个人工智能系统可以预测蛋白质的三维结构,并加速了生物医学研究。人工智能的改进速度如此之快,以至于许多研究人员(包括Hassabis)现在认为人类水平的人工智能(业内称为通用人工智能或AGI)可能将在本十年内出现。2022年时,甚至承认AGI的可能性都被视为边缘观点。但Hassabis一直是个坚定的信仰者。实际上,创造AGI是他毕生的目标。
创造AGI需要巨大的计算能力——只有少数科技巨头(谷歌就是其中之一)拥有这种基础设施。这使得谷歌对Hassabis拥有了比他愿意承认的更大的影响力。当Hassabis加入谷歌时,他从公司那里获得了承诺:DeepMind的人工智能不会用于军事或武器用途。但十年后,这个承诺已经不复存在。如今,谷歌将其服务(包括DeepMind的人工智能)出售给包括美国和去年《时代》杂志披露的以色列国防部门在内的军方。因此,当我与Hassabis在他就入选今年的《时代》百人榜进行访谈时,我想问他的一个问题就是:为了实现毕生目标,你是否做出了妥协?
本次采访已根据清晰度进行缩编和编辑。
如果创造了AGI,它将产生巨大影响。你能为我描绘一下最好的情景吗?如果我们创造了AGI,世界会是什么样子?
我一生都在研究人工智能和AGI,是因为我相信,如果以正确且负责任的方式进行,它将是有史以来最有益的技术。我认为我们可以在未来10多年内用它来解决的问题包括:可能治愈所有疾病,帮助开发新的能源来源,无论是核聚变还是最佳电池或新型材料如超导体。我认为我们今天面临的一些最大问题,无论是气候变化还是疾病,都将被人工智能解决方案所缓解。所以如果向前推进10年,我对它的乐观看法是,我们将进入一个人类繁荣发展的世界,探索星际旅行,并借助人工智能带来的所有技术。
以气候变化为例。我认为我们无法通过其他方式解决这个问题,除了更多的技术,包括人工智能辅助技术如新型能源等。我认为我们无法迅速集结集体行动来有意义地应对这个问题。
换句话说:如果不知道像人工智能这样具有变革性的技术即将到来,我会非常担心当今社会。我坚信这一点。我之所以对接下来50年的前景感到乐观,是因为我知道如果我们正确构建人工智能,它将能够帮助解决我们最紧迫的问题。这几乎就像救兵。我认为我们今天就需要救兵。
你也在大声呼吁要避免风险。你能描绘一下最坏的情景吗?
当然。嗯,最坏的情况在科幻小说中已经有很多描述。我认为我最担心的两个问题是:如果以正确的方式使用,人工智能将是一项非凡的技术,但它是一种双用途技术,它将极其强大。这意味着潜在的恶意行为者可以将该技术重新用于可能有害的目的。因此,我们这个领域和社会面临的一个重大挑战是:如何让那些好人能够使用这些技术来实现治愈严重疾病等惊人的成就,同时限制那些潜在的恶意行为者(无论是个人还是到流氓国家)对相同技术的访问。这是一个非常困难的难题。第二个问题是AGI本身的风险。也就是说,随着技术变得更加自主、更加具有代理能力(这将在未来几年发生),如何确保我们能够掌控这些系统,控制它们,理解它们在做什么,为它们设置不可移动的护栏?这也是一个极其困难的挑战。所以这两个是主要的风险类别。如果我们能处理好这些问题,我认为我们将进入一个令人惊叹的未来。
但这并不是最坏的情景。最坏的情景会是什么样子?
我认为如果处理不好,这些系统就会被用于各种有害的用途,这可能从与我们试图做的事情相反的情况开始——而不是找到治愈方法,你可能会用这些系统找到毒素。因此,如果反转系统的宗旨,所有好的用途案例都会变成有害的用途案例。因此,作为社会,这就是为什么我一直支持国际合作的原因。因为无论这些系统是在哪里构建的,或者以何种方式构建的,它们都可以在全球范围内传播,影响世界几乎每个角落。因此,我认为我们需要围绕这些系统的构建方式、设计目标以及部署和使用方式建立国际标准。
当谷歌在2014年收购DeepMind时,你签署了一份合同,规定谷歌不会将你的技术用于军事用途。自那时以来,你进行了重组。现在DeepMind的技术被出售给包括美国和以色列在内的各国军方。你曾谈到开发AGI的巨大潜力。你是否觉得为了有机会制造这项技术而做出了妥协?
不,我不这么认为。我认为我们最近更新了一些内容,以部分考虑全球日益加剧的地缘政治不确定性。不幸的是,世界已经变得更为危险。我认为我们不能再理所当然地认为民主价值观会获胜——我认为这并不明确。存在严重的威胁。因此,我认为我们需要与政府合作。同时与政府合作也让我们能够与其他受监管的重要行业合作,比如银行业、医疗保健等。我们原则上的任何东西都没有改变。我们原则的核心始终是:我们必须慎重权衡好处,并且这些好处必须远远超过潜在的危害。这是对我们可能想要做的事情的一个高标准。当然,我们必须尊重国际法和人权——这些仍然有效。
另一个变化是这项技术的广泛可用性,对吧?开源的DeepSeek、Llama等,可能不如最顶级的专有模型那么好,但它们已经相当不错。一旦开源,基本上意味着全世界都可以用于任何用途。因此,我认为在某种程度上,这是被商品化的技术,然后是定制化的工作。对于定制化的工作,我们计划专注于我们独特擅长且世界领先的领域,比如网络防御和生物安全——我认为在这些领域,我们实际上有道德义务去帮助,因为我们在这些领域是世界最佳。我认为这对西方来说非常重要。
在人工智能安全领域有很多讨论,关于这些系统是否会表现出诸如追求权力、欺骗、试图剥夺人类权力并逃脱控制等行为。你对这是否是默认路径还是尾部风险有什么强烈观点吗?
我对这些风险的看法是未知的。有很多人,包括我的同事,著名的图灵奖得主,对此都有不同观点。我认为正确的答案是在两者之间,也就是说,如果你看看这场辩论,双方都有非常聪明的人。这告诉我我们目前还不了解这些风险的具体情况,无法量化它。也许随着这些系统的进一步发展,我们发现控制它们比我们想象的要容易得多或假设的更容易。很多事情都证明了这一点。因此,有一些证据表明,事情可能比一些悲观主义者认为的要容易一些,但在我看来,仍然存在重大风险,我们必须谨慎地进行研究以量化这些风险,并尽可能提前采取措施加以应对,而不是在事后处理,这在如此强大且具有变革性的技术面前可能极其危险。
什么让你夜不能寐?
对我来说,是关于国际标准和合作的问题,不仅仅是国家之间,还包括公司和研究人员在接近通用人工智能(AGI)的最后阶段时的协作。我认为我们正处于这个关键时刻。也许我们还有5到10年的时间。有些人说时间更短。我不会感到惊讶。这就像一个概率分布。无论如何,它即将到来。我不确定社会是否已经做好了准备。我们需要仔细思考这个问题,同时也要思考我之前谈到的关于这些系统可控性和访问权限的问题。
你更把自己看作科学家还是技术专家?你远离硅谷,在伦敦。你怎么看待自己的身份?
我首先把自己视为科学家。我一生所做的一切都是为了追求知识,试图理解我们周围的这个世界。从孩提时代起,我就对这件事着迷。对我来说,构建人工智能是我解决这些问题的方式:首先是构建一个工具——这本身就很迷人,是对智能和意识等一些最大谜题的陈述——然后它也可以作为研究周围自然世界(如化学、物理和生物学)的工具。还有什么比这更令人兴奋的冒险和追求呢?因此,我首先把自己视为科学家,然后可能是一个企业家,因为这是做事最快的方式。最后,可能是一个技术专家/工程师,因为最终你不想只在实验室里理论化和思考问题。你实际上希望在世界上产生实际的影响。
我想谈谈时间线。Sam Altman和Dario Amodei最近都发表了观点……
超短的,对吧?
Altman表示他预计在特朗普总统任期内会出现AGI。而Amodei表示它可能早在2026年就会出现。
嗯,这部分取决于你对AGI的定义。我认为为了各种原因(包括筹集资金),这个定义已经被大大弱化了。人们可能有各种原因这样做。我们的定义一直非常一致:拥有人类所有的认知能力。实际上,我的测试标准是:一个AI能否在与爱因斯坦1900年代所拥有的相同信息量下提出广义相对论?这不仅仅是解决一个数学猜想;你能提出一个同样有价值的猜想吗?我确信我们很快就会有系统解决千禧年奖问题中的一个。但你能提出一组像那样有趣的猜想吗?