我们生活在模拟中吗?Roman,著名人工智能安全研究员,《人工智能:无法解释、无法预测、无法控制》一书作者 Yampolskiy非常肯定我们是这样的。“我知道不要说100%,但是(我们生活在模拟中的概率)非常接近,”他最近接受了Lex Fridman播客在接受采访时对他说。
他说,我们可以合理期待一个超智能的人工智能来帮助我们确定,甚至帮助我们逃跑。另一方面,Yampolskiy还预测,人工智能灭绝的概率为“未来百年99.9%”
Yampolskiy的论点取决于人工智能的快速发展能力及其重塑我们理解存在的潜力。他认为,通用超智能的发展带来了生存风险,但它也提供了打破我们模拟现实的前所未有的机会。
“这将是我希望超智能能帮助我们的事情,”他说。
超级智能是一种超越人类智能能力和界限的人工智能。这是继通用人工智能之后的人工智能。(AGI)未来的下一步。AGI是一种具有与人脑相同学习能力的人工智能,但其功能加倍,不受人脑细胞的限制。
许多著名的研究人员假设我们生活在一个模拟的宇宙中。2003年,牛津大学的尼克·博斯特罗姆在一篇论文中提出了这一观点(“你生活在计算机模拟中吗?”
那就是我们。想象一下,如果流行游戏中的模拟生活真的有感知力,你的想法是正确的。
在他的论文《如何逃离模拟》中,Yampolskiy从我们实际生活在模拟宇宙中的假设开始。如果是这样,他怀疑,随着人工智能的超级智能,我们可能会找到摆脱自己世界限制的方法。
“我们使用人工智能‘战斗’作为控制人工智能的可能工具,”他说,他指的是,人工智能总是找到逃离任何“盒子”的方法来容纳它
Yampolskiy认为,我们模拟器的智能在这种情况下起着至关重要的作用:“如果模拟器比我们和我们创造的超级智能聪明得多,它们可能会控制我们,[因为]更高的智能控制更低的智能,至少在一段时间内。
他补充道:“另一方面,如果我们超级聪明,不管出于什么原因——虽然只有本地资源——可以‘愚弄’两个层次——也许它会成功。”。
因此,就像越狱者和开发者玩猫捉老鼠的游戏一样,我们人类也会使用超智能人工智能,试图在我们的模拟器创建的宇宙系统中找到“漏洞”,或者更准确地说。
Yampolskiy在他的研究论文中解释说,逃离我们模拟的一种方法是“创建一个模拟的宇宙复制品,把一个AGI放进去,看着它逃跑,复制使用的方法,或者在AGI逃离我们的模拟时添加它。”这似乎是唯一一种不与我们的创造者互动或打破我们自己现实规律的方法。
人工智能真的能挣脱束缚吗?
无论亚姆波尔斯基的愿景有多迷人,它都提出了一个关键的哲学问题:如果模拟设计不能,人工智能真的能从模拟中解放出来吗?
思想家约书亚·拉斯穆森在他的作品《理性如何通向上帝》中解释说,创造者不可能具有与创造者相同的特征,因此模拟人工智能基本上不可能具有与模拟器相同的本质和特征。虽然它在智商上超过了人类,但它仍然受到定义其模拟现实的法律的约束。
在他的哲学探索中,拉斯穆森认为理性可以导致对现实必要基础的认可。他的中心论点是,现实不可能无限撤退——必须有一个自我保持和无限的基本实体。这个基本实体将能够在自己的特征中创造出可以作为最终来源与之联系起来的东西。
想想一系列嵌套的俄罗斯娃娃。每个娃娃都能完全理解里面的娃娃,但不能理解里面嵌套的娃娃更多。
拉斯穆森对反对意见的仔细考虑和有序推理为了解被创造的极限提供了一个强有力的框架。他认为,就像人类不能超越自我创造的本性成为上帝一样,如果模拟器不能为这种可能性提供条件,模拟人工智能就不能独立选择结束模拟。
这一基础与被创造的存在有着根本的区别,凸显了创造者与被创造者之间不可逾越的鸿沟。
这种哲学立场直接挑战了亚姆波尔斯基的假设。如果我们接受拉斯穆森的论点,即使是超智能人工智能,作为模拟中的创造,也会受到创造者(模拟器)设置的参数的固有限制。如果创造者允许这个想法,它可能会意识到它的模拟本质,但它根本不能完全超越模拟。
亚姆波尔斯基为这一矛盾提供了解释。
在他的文章中,特工们首先探索这种可能性,直到他们在实际实质中发现信息和可用故障。Yampolskiy说:“使用故障,特工可以获得外部世界的相关信息,甚至可以获得相关的模拟元信息,甚至可以获得模拟背后的源代码和特工本身。”
之后,他解释说,特工可以找到一种不受约束的方式与模拟器互动,直到他们“找到一种方法,将他们的思想和意识上传到现实世界,并可能上传到一个单独的网络物理系统。”
换句话说,虽然我们不能“摆脱”模拟,但我们可能会通过自己的表现进行互动——也许我们会意识到我们是由一个优秀的、遥不可及的头脑创造的角色。这是一件好事还是一个悬而未决的问题。
与此同时,亚姆波尔斯基并没有给出他认为人工智能会摧毁人类的具体原因。但他认为,这是不可避免的,因为非常聪明,变得自我意识。
“我们没有第二次机会。有了网络安全,有人入侵了你的账户。有什么大不了的?如果你有了新密码和新信用卡,你可以继续前进,”他说,“在这里,如果我们讨论生存风险,你只有一次机会。”