我们将如何创建第一个超级人工智能:人工智能的未来 P3

图片来源: 量子运行

我们将如何创建第一个超级人工智能:人工智能的未来 P3

    在二战的深处,纳粹军队正在欧洲大部分地区肆虐。 他们拥有先进的武器、高效的战时工业、狂热的步兵,但最重要的是,他们拥有一台名为 Enigma 的机器。 该设备允许纳粹部队通过标准通信线路相互发送摩尔斯电码信息,从而进行远距离安全协作; 它是人类密码破解者无法攻破的密码机。 

    值得庆幸的是,盟军找到了解决方案。 他们不再需要人类思维来破解谜团。 相反,通过已故艾伦图灵的发明,盟军建立了一种革命性的新工具,称为 英国炸弹,一种机电设备,最终破译了纳粹的密码,并最终帮助他们赢得了战争。

    这台炸弹为现代计算机奠定了基础。

    在 Bombe 开发项目期间与图灵一起工作的是英国数学家和密码学家 IJ Good。 他很早就看到了这种新设备有朝一日可以带来的最终游戏。 在一个 1965纸, 他写了:

    “让超智能机器被定义为可以远远超过任何人的所有智力活动的机器,无论多么聪明。 由于机器的设计是这些智力活动之一,因此超智能机器可以设计出更好的机器。 然后毫无疑问会发生“智能爆炸”,人类的智能将被远远抛在后面......因此,第一台超智能机器是人类需要创造的最后一个发明,只要机器足够温顺,可以告诉我们如何来控制它。”

    创造第一个人工超级智能

    到目前为止,在我们的人工智能未来系列中,我们已经定义了人工智能 (AI) 的三大类,从 狭义人工智能 (ANI) 到 人工智能 (AGI),但在本系列章节中,我们将关注最后一类——在人工智能研究人员中引发兴奋或恐慌发作的一类——人工超级智能 (ASI)。

    要了解 ASI 是什么,您需要回想上一章,我们概述了 AI 研究人员如何相信他们将创建第一个 AGI。 基本上,它将结合大数据来提供更好的算法(专注于自我改进和类人学习能力的算法),这些算法包含在日益强大的计算硬件中。

    在那一章中,我们还概述了 AGI 思维(一旦它获得了我们人类认为理所当然的这些自我提升和学习能力)最终将如何通过超快的思维速度、增强的记忆力、不疲倦的表现和即时升级能力。

    但在这里需要注意的是,AGI 只会自我改进到它可以访问的硬件和数据的限制; 这个限制可大可小,取决于我们提供给它的机器人身体或我们允许它访问的计算机的规模。

    同时,AGI 和 ASI 之间的区别在于,后者在理论上永远不会以物理形式存在。 它将完全在超级计算机或超级计算机网络中运行。 根据其创建者的目标,它还可以完全访问存储在 Internet 上的所有数据,以及将数据输入和通过 Internet 提供数据的任何设备或人员。 这意味着该 ASI 可以学习多少以及可以自我改进多少将没有实际限制。 

    这就是麻烦。 

    了解智能爆炸

    AI 在成为 AGI 时最终会获得这种自我改进的过程(AI 社区称之为递归自我改进的过程)可能会跳出一个看起来像这样的正反馈循环:

    创建一个新的 AGI,获得对机器人身体或大型数据集的访问权限,然后完成自我教育和提高其智能的简单任务。 起初,这种 AGI 将具有婴儿的智商,难以掌握新概念。 随着时间的推移,它所学到的知识足以达到普通成年人的智商,但它并不止于此。 使用这种新发现的成人智商,将这种改进继续到其智商与已知最聪明的人类相匹配的程度变得更加容易和更快。 但同样,它并不止于此。

    这个过程在每个新的智能水平上复合,遵循加速回报的法则,直到它达到无法计算的超级智能水平——换句话说,如果不加以控制并给予无限的资源,AGI 将自我提升为 ASI,一种智能自然界中从未存在过。

    这就是 IJ Good 在描述这种“智能爆炸”或现代 AI 理论家(如 Nick Bostrom)所说的 AI 的“起飞”事件时首先确定的。

    了解人工超级智能

    在这一点上,你们中的一些人可能认为人类智能与 ASI 智能之间的主要区别在于双方的思考速度。 虽然这种理论上的未来 ASI 确实会比人类思考得更快,但这种能力在当今的计算机领域已经相当普遍——我们的智能手机思考(计算)的速度比人脑快, 超级计算机 比智能手机快数百万倍,未来的量子计算机的思考速度会更快。 

    不,速度不是我们在这里解释的智能的特征。 就是质量。 

    您可以随心所欲地加速萨摩耶或柯基犬的大脑,但这并不能转化为对如何解释语言或抽象概念的新理解。 即使再过一两年,这些狗也不会一下子理解如何制造或使用工具,更不用说理解资本主义经济制度和社会主义经济制度之间的细微差别了。

    在智力方面,人类在与动物不同的层面上运作。 同样,如果 ASI 充分发挥其理论潜力,他们的思维将远远超出普通现代人的能力范围。 对于某些上下文,让我们看一下这些 ASI 的应用。

    人工超级智能如何与人类一起工作?

    假设某个政府或公司成功创建了 ASI,他们将如何使用它? 根据 Bostrom 的说法,这些 ASI 可能采用三种独立但相关的形式:

    • 甲骨文。 在这里,我们将与 ASI 进行交互,就像我们已经与 Google 搜索引擎进行的交互一样; 我们会问它一个问题,但无论所说的问题多么复杂,ASI 都会以适合您和您的问题上下文的方式完美地回答它。
    • Genie. 在这种情况下,我们将为 ASI 分配一个特定的任务,它会按照命令执行。 研究治疗癌症的方法。 完毕。 找到隐藏在美国宇航局哈勃太空望远镜 10 年积压图像中的所有行星。 完毕。 设计一个工作中的聚变反应堆来解决人类的能源需求。 胡言乱语。
    • 君主. 在这里,ASI 被分配了一个不限成员名额的任务,并被赋予执行它的自由。 从我们的企业竞争对手那里窃取研发机密。 “简单的。” 发现隐藏在我们境内的所有外国间谍的身份。 “在上面。” 确保美国经济持续繁荣。 “没问题。”

    现在,我知道你在想什么,这一切听起来很牵强。 这就是为什么重要的是要记住那里的每一个问题/挑战,即使是迄今为止困扰世界上最聪明的人的那些,它们都是可以解决的。 但是一个问题的难度是由解决它的智力来衡量的。

    换句话说,对挑战应用的头脑越多,就越容易找到解决该挑战的方法。 任何挑战。 这就像一个成年人看着一个婴儿努力理解为什么他不能将一个方形积木放入一个圆形开口中——对于成年人来说,向婴儿展示该积木应该可以穿过方形开口将是小孩子的游戏。

    同样,如果这个未来的 ASI 充分发挥其潜力,这种思想将成为已知宇宙中最强大的智慧——强大到足以解决任何挑战,无论多么复杂。 

    这就是为什么许多 AI 研究人员称 ASI 是人类最后一个发明的原因。 如果确信与人类一起工作,它可以帮助我们解决世界上所有最紧迫的问题。 我们甚至可以要求它消除所有疾病并结束我们所知道的衰老。 人类第一次可以永久地欺骗死亡,进入一个新的繁荣时代。

    但相反的情况也是可能的。 

    智慧就是力量。 如果管理不善或受到不良演员的指导,这个 ASI 可能会成为最终的压迫工具,或者它可能完全消灭人类——想想终结者中的天网或黑客帝国电影中的建筑师。

    事实上,这两种极端都不太可能。 未来总是比乌托邦和反乌托邦预测的要混乱得多。 这就是为什么现在我们了解了 ASI 的概念,本系列的其余部分将探讨 ASI 将如何影响社会,社会将如何抵御流氓 ASI,以及如果人类和 AI 并存,未来会是什么样子-边。 继续阅读。

    人工智能系列的未来

    人工智能就是明天的电力:人工智能的未来系列 P1

    第一个通用人工智能将如何改变社会:人工智能的未来系列 P2

    超级人工智能会灭绝人类吗?:人工智能的未来系列 P4

    人类将如何防御人工超级智能:人工智能的未来系列 P5

    在人工智能主导的未来,人类会和平生活吗?:人工智能的未来系列 P6

    此预测的下一次预定更新

    2023-04-27

    预测参考

    此预测引用了以下流行和机构链接:

    斯图尔特·阿姆斯特朗
    情报网
    情报网
    YouTube - 世界经济论坛

    此预测引用了以下 Quantumrun 链接: