“为了 “减轻这种威胁”,它可能会决定將人类的大脑 “囚禁在大型装甲罐中”,为大脑提供营养和娱乐(或虚擬生存环境),並阻止新人类的诞生。”
“在它看来,“未来人类可能会危及当前受其监护的人类,或过快消耗资源”—— 即便这种风险的概率非零,也足以成为它採取这种极端措施的理由。”
“事实上,你我如今可能就生活在这样的环境中:我们的大脑被放在 “罐子” 里,沉浸在美妙的虚擬实境中。”
“你可能会说,这个场景已经涉及 “更智能的人工智慧” 范畴了 —— 我同意你的看法。但在 “简单殭尸人工智慧” 和 “复杂感知型人工智慧” 之间,存在一条我们尚未完全理解的模糊界限。”
“假设你有机会,前往其他的星系探索,可能会发现许多恆星系统中,都布满了基础探测器和採矿设备 —— 这些设备通常以 “鬆散的气泡状” 分布在某颗行星或某个恆星系统周围。”
“並且,其规模遵循 “卡尔达肖夫指数”的层级。”
“所以,“引入气泡文明”是可能的:某个文明可能会有意开採附近恆星系统的资源,將资源运回其核心星球,同时留下 “危险但无智能的机器”。这些机器可以充当 “威慑力量”,阻止敌对文明向该区域扩张,或至少让敌对文明的扩张 “速度大幅减慢、难度显著增加”。”
“如果某个外星帝国试图在你文明边界的 “已开採边缘区域” 定居,或者你自己文明的某个分支派系试图在那里建立敌对帝国,那么 “早期採矿导致的资源匱乏”,以及 “遗留下来的危险殭尸人工智慧”,会让他们的计划很难成功。”
“这也会给你更多时间来 “探测他们的活动”,並评估 “他们是否构成威胁”。”
“你甚至可以部署数千种不同类型、指令相互竞爭的机器人,包括一支 “净化舰队”—— 这类舰队的设计目的,就是摧毁任何 “规模过大或过於复杂的殭尸人工智慧集群。”
“同时,对於 “己方文明成员或分支派系建立的、规模过大且可能构成威胁的小型定居点”,也会採取同样的摧毁措施。”
“这类场景之所以让我感到不安,正是因为它们看似合理 —— 並非因为 “人们容易鲁莽地製造失控的危险人工智慧”,而是恰恰相反。”
“因为人们 “可能会有意识地选择製造危险的人工智慧”,以帮助自己 “控制邻居和分支派系,防止他们失控”。”
“说起来,人类对这种 “用机器进行威慑” 的想法,已经思考了数千年。”
“在希腊神话中,宙斯创造了自动机器人塔洛斯,並指派它守卫克里特岛—— 塔洛斯通过在岛屿周围巡逻,阻挡入侵者,来完成守卫任务。而宙斯本人,也曾推翻过自己的父亲克罗诺斯—— 这正是我们 “费米悖论之克罗诺斯场景”的灵感来源。”
“因此,针对费米悖论,我们有三类与 “危险人工智慧” 相关的场景:”
“1:经典场景:超级智能人工智慧將我们彻底毁灭;”
“2:殭尸人工智慧场景:殭尸人工智慧毁灭人类,或限制人类的活动范围;”
“3:自我限制场景:我们可能会选择 “自我限制”,利用殭尸人工智慧守卫边界、维持核心帝国的存续,並阻碍或管控任何分支派系或入侵者。”
“这些人工智慧系统甚至可能 “让行星保持相对完好”—— 因为行星 “易於监测”、“资源难以转移”,且 “隔离起来简单直接”。”
“一旦有飞船或卫星试图进入或离开轨道空间,“愤怒的机器群”或 “飢饿的人工智慧集群”就会蜂拥而至,形成一道有效的屏障。”
“这类场景的可怕之处在於:与费米悖论中 “人工智慧(无论是人工的还是其他形式的)取代人类或外星人” 的典型概念不同,后两类场景(殭尸人工智慧限制人类、人类利用殭尸人工智慧自我限制)会让宇宙中 “布满无智能的集群和机械掠夺者”。”
“这些机器会將宇宙变成一片 “布满被掏空岩石的混乱之地”,阻止任何真正的 “星系文明” 崛起或存续。”
……
【原子弹很危险但人类还活著?外星人:我们的ai比原子弹听话,然后就没有然后了!】
【楼上太乐观了!邻居危险社会还在,但ai邻居会直接把你家拆了当柴烧!】
【笑死!和机器聊天比和人聊天愉快?这不就是我的日常吗?】
【妈耶!ai认为人类是资源消耗者?完了,我们在ai眼里就是电费!】
【阿西莫夫机器人打死小动物?这保护过度比我妈还离谱!】
【哈哈哈哈!大脑装罐子里?原来我们已经在《黑客帝国》里了!】
【等等!故意製造危险ai来威慑邻居?这不就是养恶犬看家的宇宙版?】
【楼上神了!宙斯造塔洛斯守岛?原来希腊神话是ai使用说明书!】
【细思极恐!空荡荡的星球等待殖民者?这是宇宙级的鬼城啊!】
【完了!愤怒机器群守卫行星?想离开地球先过机器人这关!】
【临时组装的感知ai?这不就是变形金刚吗?用完就拆太浪费了!】
【笑死!宇宙变成布满被掏空岩石的混乱之地?外星人的拆迁队太敬业了!】
……