返回第142章 超级人工智慧  让你做短视频,你科普黑暗森林首页

关灯 护眼     字体:

上一章 目录 下一页

最新网址:m.92yanqing.com

“我们所期望找到的最先进的外星文明,是否可能已经不再是 “真正的生命体”?”

“我们人类自己,是否正走向一个 “感知能力可选项” 的未来?太空中是否散落著那些帝国的残骸,而这些残骸的每一部分都像过去一样 “鲜活且危险”?”

“我思考了一个很有趣的观点,现在將它展示给各位,內容如下:”

“殭尸人工智慧或许能解释 “宇宙的大寂静”,原因是:技术发展遵循 “从易到难” 的规律,这一规律也適用於人工智慧 —— 人工智慧会从简单向更复杂发展。”

“这其中隱含的意思是:“技术奇点”不太可能在一夜之间出现;每一种更新、更复杂的人工智慧技术叠代,都需要经过一段相当长的时间才能实现。”

“每一种更新、更复杂的人工智慧技术叠代,都需要经过一段相当长的时间才能实现;而且,一个智能种族 “不按顺序” 发展这些技术的可能性几乎为零。”

“因此,在发展出 “感知型超级智能之前,一个文明必然会先发展出 “殭尸超级智能”—— 这种殭尸超级智能可能强大到足以 “逃离控制”,並通过故意、意外或漠不关心的方式 “杀死” 其创造者,但它本身並不具备自我认知能力。”

“之后,这个文明才可能发展出 “感知型超级智能”—— 这种智能足够复杂,能够自我扩展,並像理性的生物实体一样行动,从而满足 “戴森困境”的要求。”

“而且,只有当这个文明成功克服了这些初始障碍后,他们才有可能开展足够的 “人工智慧对齐”和控制研究,从而避免被自己创造的人工智慧毁灭。”

“简而言之,危险的殭尸人工智慧会先於危险的感知型人工智慧出现;而只有在这两种危险人工智慧都出现之后,真正全面的 “安全人工智慧创建和使用方法” 才有可能被开发出来。”

“这一推理遵循了 “排他性原则”。”

““不按顺序” 发明这些技术的可能性极低。需要提醒的是,在费米悖论的背景下,“排他性” 指的是:任何涉及 “行为” 的解决方案,都必须 “普遍適用” 或 “几乎普遍適用”。”

“例如,如果某个解决方案认为 “所有文明最终都会趋向於某种特定行为”(比如避免殖民太空),那么就必须有充分的理由来解释为何这种行为的 “例外情况” 极其罕见。”

“否则,该解决方案就会因 “非排他性” 而失去解释力。”

“举个例子:能够进行星际旅行的文明,都必然受限於基础数学和物理的基本知识(这是 “普遍適用” 的)”

“但他们是否喜欢棒球,却与他们探索太空的能力无关(这是 “非普遍適用” 的)。”

“同样,儘管某些经济或政治体系可能更有利於实现太空殖民或长期存续,但我们知道,在不同的体系下,文明都有可能进入太空。”

““太空竞赛” 就是一个明確的例证 —— 资本主义国家(美国)和社会主义国家(苏联),都在太空探索领域取得了重大进展。”

“同样,民主国家、寡头国家和共和国,也都证明了自己有能力发展太空计划。因此,在 “能够进行星际旅行的文明” 这一范畴中,上述经济或政治体系都不具备 “排他性”。”

“当然,我们也可以设想一些 “例外情况”。”

“例如:某个文明源自 “天生就能进行太空旅行的物种”—— 这类物种进化於小行星带或行星环中。”

“同样,我们也可能设想 “所有智能文明最终都会趋向於某种特定的政治或经济体系”。但这些都只是用於阐释 “排他性” 概念的例证,它们並不需要是 “完美的规则”。”

“即便在某个星系中,每一百万个人类文明中只有一个 “打破常规”,且该星系中仅出现过少数几个文明,那么在我们整个超星系团中,也可能存在至少一个 “例外”。”

“此外,即便某个文明比我们早十亿年发展,且正以接近光速的速度扩张以殖民所有星球,我们目前也很可能无法观测到它们 —— 这种可能性非常高。”

“罗伯特认为,他提出的 “殭尸人工智慧先於感知型人工智慧出现” 的观点,並不违反 “排他性原则”—— 因为感知型人工智慧理应在殭尸人工智慧之后出现,而真正安全的这两类人工智慧,都只能在 “危险版本” 之后才会出现。”

“因此,一个文明最有可能被殭尸人工智慧毁灭。”

“他还认为,基於我们之前討论过的原因,殭尸人工智慧不太可能被归为 “喧闹的外星人”。”

“即便它们具备太空旅行能力,也只是通过 “微弱、简单的探测器” 来实现;而如果它们不具备太空旅行能力,就可能只是 “统治著自己的母星”,像狮子或大象一样,没有向太空探索的倾向。”

“此外,殭尸人工智慧的创造者,想必也不会 “完全无能”,因此,殭尸人工智慧被设计成 “容易发生突变或自我损坏” 的可能性非常低。”

“此外,殭尸人工智慧的创造者,想必也不会 “完全无能”,因此,殭尸人工智慧被设计成 “容易发生突变或自我损坏” 的可能性非常低。”

“正如我常说的:在创造人工智慧这件事上,只有 “天才”才蠢到足以把我们所有人都害死,而其他人根本造不出能毁灭我们的工具。”

“我们经常会设想 “灰色粘质”这类场景:自我复製的纳米机器人將一颗行星变成由它们自身构成的 “播种海洋”。”

“人们常常將这种场景与地球早期生命的演化进行对比 —— 地球早期生命遍布全球,並最终通过光合作用等过程改变了地球环境,为包括人类在內的更复杂生命形式的出现铺平了道路。”

“然而,如果自我复製机器人像早期生命那样容易发生突变,那么从 “灰色粘质” 中进化出 “智能体” 可能需要数十亿年的时间。”

“但这种情况似乎不太可能发生 —— 因为任何设计这类机器的人,都可能已经掌握了关於进化和突变的知识,也可能接触过警告 “失控人工智慧” 或 “失控机器人系统” 的科幻作品。”

“因此,有理由认为,人们会採取措施来防止不必要的突变,例如:提高复製精度、设置 “纠错算法”,以及安装物理防护装置以確保 “高保真复製”—— 这些措施都能將突变风险降至最低。”

“殭尸人工智慧,为费米悖论提供了一个合理且发人深省的解决方案。”

“它表明,“宇宙的大寂静” 可能是文明 “败给自身技术野心” 的结果。”

“因此,在我们继续发展先进人工智慧的过程中,必须谨慎行事。宇宙之所以寂静,或许並非因为缺乏智能,而是因为 “没有意识的智能” 可能会成为自身最大的敌人。”

“我认同这一观点,它是近年来我听到的关於费米悖论的较好解释之一。但该观点也存在一些潜在的漏洞。”

“首先,这一观点假设 “人工智慧的发展存在必然的先后顺序”。”

“由於我们可以说 “已经拥有了基础的殭尸人工智慧,且已经拥有一段时间了,但尚未拥有感知型人工智慧”,因此得出 “感知型人工智慧在殭尸人工智慧之后出现,而非之前” 的结论,似乎是合理的。”

“但该推理的第二部分 ——“若不先遭遇危险的人工智慧,就无法拥有安全的人工智慧”—— 则似乎有些牵强。”

“对费米悖论而言,“潜在危险的人工智慧” 並非关键,只有那些 “真正脱离控制、要么毁灭其创造者、要么造成巨大破坏以至於永久改变文明轨跡(使其无法成为『喧闹的外星人』)” 的人工智慧,才与费米悖论相关。”

“我並不认为这种 “危险→安全” 的发展顺序是 “必然的”。”

本章未完,点击下一页继续阅读。(1 / 2)

『加入书签,方便阅读』

上一章 目录 下一页