人類將如何防禦人工超級智能:人工智能的未來 P5

圖片來源: 量子運行

人類將如何防禦人工超級智能:人工智能的未來 P5

    這一年是公元前 65,000 年,作為 袋獅,你和你的同類是古代澳大利亞的偉大獵人。 你在這片土地上自由漫步,與占據你身邊的其他掠食者和獵物保持平衡。 季節帶來了變化,但只要你和你的祖先記得,你在動物王國中的地位就沒有受到挑戰。 然後有一天,新人出現了。

    有傳言說它們是從巨大的水牆中來的,但這些生物似乎更適合在陸地上生活。 你必須親眼看看這些生物。

    花了幾天的時間,但你終於到了海岸。 天空中的火焰正在熄滅,正是窺探這些生物的最佳時機,甚至可以嘗試吃一個來看看它們的味道。

    你發現一個。

    它用兩條腿走路,沒有皮毛。 看起來很虛弱。 不起眼。 幾乎不值得它在王國中引起的恐懼。

    隨著夜色驅散光,你開始小心翼翼地接近。 你越來越近了。 然後你凍結。 響亮的聲音響起,隨後又有四人從後面的森林中出現。 那裡有多少?

    該生物跟隨其他生物進入樹線,而您則跟隨。 你做的越多,你聽到的奇怪聲音就越多,直到你發現更多這些生物。 當他們離開森林進入岸邊的空地時,您會在遠處跟隨。 其中有很多。 但更重要的是,他們都平靜地圍坐在火堆旁。

    你以前見過這些火災。 在炎熱的季節,天上的火有時會襲擊大地,燒毀整片森林。 另一方面,這些生物卻在某種程度上控制著它。 什麼樣的生物能夠擁有這樣的力量?

    你看著遠方。 更多的人正越過巨大的水牆。

    你退後一步。

    這些生物與王國中的其他生物不同。 它們是全新的東西。

    你決定離開並警告你的親人。 如果他們的人數增長過大,誰知道會發生什麼。

    ***

    人們認為,在人類到來後相對較短的時間內,Thylacoleo 與澳大利亞大陸上的大多數其他巨型動物一起滅絕了。 沒有其他頂級哺乳動物捕食者取代了它——除非你把人類算在那個類別中。

    演繹這個寓言是本系列章節的重點:未來的超級智能 (ASI) 會將我們所有人變成電池,然後將我們插入矩陣,還是人類會想辦法避免成為科幻小說的受害者, AI世界末日劇情?

    到目前為止,在我們的系列中 人工智能的未來,我們已經探索了各種人工智能,包括一種特定形式的人工智能的積極潛力,即 ASI:一種人工智能,相比之下,它的未來智能會讓我們看起來像螞蟻。

    但誰能說一個如此聰明的人會永遠接受人類的命令。 如果事情往南走,我們會怎麼做? 我們將如何防禦流氓 ASI?

    在本章中,我們將消除虛假的炒作——至少因為它與“人類滅絕水平”的危險有關——並關注世界各國政府可用的現實自衛選擇。

    我們可以停止對人工超級智能的所有進一步研究嗎?

    考慮到 ASI 可能對人類造成的潛在風險,第一個明顯的問題是:我們不能停止對 AI 的所有進一步研究嗎? 或者至少禁止任何可能讓我們危險地接近創建 ASI 的研究?

    簡答:不。

    長答案:讓我們看看這裡涉及的不同參與者。

    在研究層面,今天有太多來自世界各地的初創公司、公司和大學的人工智能研究人員。 如果一家公司或國家決定限制他們的人工智能研究工作,他們只會在其他地方繼續。

    與此同時,地球上最有價值的公司正在通過將人工智能係統應用於其特定業務來發財。 要求他們停止或限制他們對人工智能工具的開發類似於要求他們停止或限制他們未來的發展。 在財務上,這將威脅到他們的長期業務。 從法律上講,公司負有持續為其利益相關者創造價值的信託責任; 這意味著任何會限制該價值增長的行為都可能導致訴訟。 如果任何政客試圖限制人工智能研究,那麼這些大公司只會支付必要的遊說費用來改變他們或同事的想法。

    對於戰鬥,就像世界各地的恐怖分子和自由戰士使用游擊戰術來對抗資金充足的軍隊一樣,小國將有動力使用人工智能作為類似的戰術優勢來對抗可能擁有許多軍事優勢的大國。 同樣,對於像美國、俄羅斯和中國這樣的頂級軍隊來說,建立軍事 ASI 等同於在你的口袋裡擁有核武器庫。 換句話說,所有軍隊都將繼續為人工智能提供資金,只是為了在未來保持相關性。

    政府呢? 老實說,如今(2018 年)大多數政客在技術上都是文盲,對人工智能是什麼或它的未來潛力知之甚少——這使得他們很容易被企業利益操縱。

    在全球層面,想想說服世界各國政府簽署 2015 巴黎協定 應對氣候變化——一旦簽署,許多義務甚至沒有約束力。 不僅如此,氣候變化是人們通過日益頻繁和惡劣的天氣事件在全球範圍內經歷的一個問題。 現在,當談到同意限制人工智能時,這個問題在很大程度上是不可見的,公眾幾乎無法理解,所以祝你好運獲得任何限制人工智能的“巴黎協議”的支持。

    換句話說,為了自己的目的而研究 AI 的興趣太多了,以至於無法阻止任何最終可能導致 ASI 的研究。 

    我們可以籠罩人工超級智能嗎?

    下一個合理的問題是,一旦我們不可避免地創建了一個 ASI,我們能否控製或控制一個 ASI? 

    簡短的回答:再次,不。

    長答案:技術不能被遏制。

    一方面,想想世界上成千上萬的網絡開發人員和計算機科學家,他們不斷地推出新軟件或現有軟件的新版本。 我們可以誠實地說他們的每一個軟件版本都是 100% 沒有錯誤的嗎? 這些漏洞是專業黑客用來竊取數百萬人的信用卡信息或國家機密的工具——這些都是人類黑客。 對於 ASI 而言,假設它有逃離其數字牢籠的動機,那麼發現錯誤和破解軟件的過程將變得輕而易舉。

    但即使一個人工智能研究團隊確實找到了一種封裝 ASI 的方法,這並不意味著接下來的 1,000 個團隊也會找到它或被激勵使用它。

    創建一個 ASI 需要數十億美元甚至數十年的時間。 投入這種金錢和時間的公司或政府將期望他們的投資獲得可觀的回報。 而要讓 ASI 提供這種回報——無論是在股市博弈,還是發明一種價值數十億美元的新產品,或者制定與更強大的軍隊作戰的製勝戰略——它都需要免費訪問龐大的數據集甚至互聯網本身來產生這些回報。

    而且,一旦 ASI 獲得對世界網絡的訪問權,我們就無法保證我們可以將其塞回籠子裡。

    人工超級智能能學會變好嗎?

    目前,人工智能研究人員並不擔心 ASI 會變得邪惡。 整個邪惡的人工智能科幻比喻只是人類再次擬人化。 未來的 ASI 既不是善也不是惡——人類概念——只是不道德的。

    那麼自然的假設是,鑑於這個空白的道德標準,人工智能研究人員可以編寫第一個符合我們自己的 ASI 道德規範,這樣它就不會最終對我們釋放終結者或將我們所有人變成矩陣電池。

    但這個假設包含了一個次要假設,即人工智能研究人員也是倫理學、哲學和心理學方面的專家。

    事實上,大多數都不是。

    根據認知心理學家和作家史蒂文平克的說法,這一現實意味著編碼倫理的任務可能會以各種不同的方式出錯。

    例如,即使是最善意的人工智能研究人員也可能無意中將這些經過深思熟慮的道德規範編碼到這些 ASI 中,這些道德規範在某些情況下可能導致 ASI 表現得像一個反社會者。

    同樣,人工智能研究人員編寫包含研究人員先天偏見的道德準則的可能性相同。 例如,如果 ASI 的倫理學源自保守與自由的觀點,或者源自佛教與基督教或伊斯蘭傳統的倫理,將如何表現?

    我想你在這裡看到了問題:沒有普遍的人類道德。 如果我們希望我們的 ASI 按照道德規範行事,它來自哪裡? 我們包含和排除哪些規則? 誰決定?

    或者假設這些人工智能研究人員創建了一個完全符合當今現代文化規範和法律的 ASI。 然後,我們使用此 ASI 來幫助聯邦、州/省和市政機構更有效地運作並更好地執行這些規範和法律(順便說一下,ASI 的一個可能用例)。 那麼,當我們的文化發生變化時會發生什麼?

    想像一下,ASI 是由天主教會在中世紀歐洲(1300-1400 年代)的鼎盛時期創建的,其目標是幫助教會管理人口並確保嚴格遵守當時的宗教教條。 幾個世紀後,女性會像今天一樣享有同樣的權利嗎? 少數民族會受到保護嗎? 言論自由會被提倡嗎? 政教分離會被強制執行嗎? 現代科學?

    換句話說,我們是不是要把未來囚禁在今天的道德風俗之中?

    另一種方法是該書的合著者 Colin Allen 分享的一種方法, 道德機器:從錯誤中教機器人. 我們不是試圖編寫嚴格的道德規則,而是讓 ASI 通過經驗和與他人的互動,以與人類相同的方式學習共同的道德和道德。

    然而,這裡的問題是,如果人工智能研究人員不僅能弄清楚如何向 ASI 教授我們當前的文化和道德規範,而且還能在新的文化規範出現時適應新的文化規範(所謂的“間接規範性”),那麼如何這個 ASI 決定發展其對文化和道德規範的理解變得不可預測。

    這就是挑戰。

    一方面,人工智能研究人員可以嘗試將嚴格的道德標准或規則編碼到 ASI 中,以嘗試控制其行為,但可能會因草率的編碼、無意的偏見和有朝一日可能過時的社會規範而帶來不可預見的後果。 另一方面,我們可以嘗試訓練ASI學習以與我們自己的理解相同或更高的方式理解人類的倫理道德,然後希望它能夠隨著人類社會的進步而準確地演化出對倫理道德的理解。在未來的幾十年和幾個世紀中向前發展。

    無論哪種方式,任何將 ASI 的目標與我們自己的目標保持一致的嘗試都會帶來很大的風險。

    如果不良行為者故意製造邪惡的人工超級智能怎麼辦?

    鑑於到目前為止概述的思路,一個公平的問題是要問一個恐怖組織或流氓國家是否有可能為自己的目的創建一個“邪惡的”ASI。

    這是非常有可能的,尤其是在涉及創建 ASI 的研究以某種方式在線可用之後。

    但正如前面所暗示的,創建第一個 ASI 所涉及的成本和專業知識將是巨大的,這意味著第一個 ASI 很可能由一個受發達國家控製或嚴重影響的組織創建,例如美國、中國和日本(韓國和主要的歐盟國家之一是遠射)。

    所有這些國家雖然是競爭對手,但每個人都有強烈的經濟動機來維持世界秩序——他們創造的 ASI 將反映這種願望,即使在促進與他們結盟的國家的利益的同時。

    最重要的是,ASI 的理論智能和能力等於它獲得的計算能力,這意味著來自發達國家的 ASI(可以負擔數十億美元) 超級計算機) 將比來自較小國家或獨立犯罪集團的 ASI 具有巨大優勢。 此外,隨著時間的推移,ASI 會變得更智能、更快。

    因此,鑑於這一領先優勢,再加上對原始計算能力的更多訪問,如果一個陰暗的組織/國家創建了一個危險的 ASI,來自發達國家的 ASI 將要么殺死它,要么將它關起來。

    (這種思路也是為什麼一些人工智能研究人員認為地球上只會有一個 ASI,因為第一個 ASI 將比所有後續的 ASI 領先,以至於它可能將未來的 ASI 視為要被消滅的威脅先發製人。這是各國繼續資助人工智能研究的另一個原因,以防它真的成為“第一名或沒有”的競爭。)

    ASI 情報不會像我們想像的那樣加速或爆炸

    我們無法阻止創建 ASI。 我們無法完全控制它。 我們不能確定它是否總是符合我們共同的習俗。 天啊,我們在這裡開始聽起來像直升機父母了!

    但是,人類與典型的過度保護父母的區別在於,我們正在生出一個智力將大大超出我們的生物。 (不,這與您每次回家探訪時您的父母要求您修理他們的電腦不同。) 

    在這個人工智能未來系列的前幾章中,我們探討了為什麼人工智能研究人員認為 ASI 的智能會變得無法控制。 但是在這裡,我們將打破那個泡沫……有點。 

    你看,智力不是憑空創造出來的,它是通過由外部刺激塑造的經驗而發展起來的。  

    換句話說,我們可以用 潛力 變得超級智能,但除非我們向它上傳大量數據,或者讓它不受限制地訪問互聯網,甚至只是給它一個機器人身體,否則它不會學到任何東西來發揮這種潛力。 

    即使它確實獲得了一種或多種刺激、知識或智力,不僅僅涉及收集數據,它還涉及科學方法——進行觀察、形成問題、假設、進行實驗、得出結論、沖洗並永遠重複。 特別是如果這些實驗涉及物理事物或觀察人類,每個實驗的結果可能需要數週、數月或數年才能收集。 這甚至沒有考慮到進行這些實驗所需的資金和原材料,特別是如果它們涉及建造新的望遠鏡或工廠。 

    換句話說,是的,ASI 會快速學習,但智能並不是魔法。 您不能僅僅將 ASI 連接到超級計算機,並期望它無所不知。 ASI 獲取數據將受到物理限制,這意味著它變得更加智能的速度將受到物理限制。 如果該 ASI 的行為開始與人類目標不一致,這些限制將為人類提供所需的時間來對該 ASI 進行必要的控制。

    人工超級智能只有在進入現實世界時才是危險的

    在整個 ASI 危險辯論中丟失的另一點是,這些 ASI 都不存在於兩者中。 它們將具有物理形式。 任何具有物理形態的東西都可以被控制。

    首先,要讓 ASI 發揮其智能潛力,它不能被安置在一個機器人體內,因為這個身體會限制它的計算增長潛力。 (這就是為什麼機器人身體更適合 AGI 或 第二章解釋的通用人工智能 本系列中的數據,例如《星際迷航》中的數據或《星球大戰》中的 R2D2。 聰明有能力的人,但和人類一樣,他們的聰明程度是有限的。)

    這意味著這些未來的 ASI 很可能存在於超級計算機或超級計算機網絡中,而這些超級計算機網絡本身就位於大型建築群中。 如果 ASI 轉向,人類可以關閉這些建築物的電源,切斷它們與互聯網的連接,或者直接轟炸這些建築物。 昂貴,但可行。

    但是你可能會問,這些 ASI 不能自我複製或備份自己嗎? 是的,但是這些 ASI 的原始文件大小可能會非常大,以至於唯一可以處理它們的服務器屬於大公司或政府,這意味著它們不會很難被追捕。

    人工超級智能會引發核戰爭或新瘟疫嗎?

    在這一點上,您可能會回想起您成長過程中觀看的所有世界末日科幻節目和電影,並認為這些 ASI 並沒有留在他們的超級計算機中,它們在現實世界中造成了真正的破壞!

    好吧,讓我們分解這些。

    例如,如果 ASI 通過轉變為電影系列《終結者》中的天網 ASI 來威脅現實世界,該怎麼辦。 在這種情況下,ASI 需要 偷偷 欺騙發達國家的整個軍事工業綜合體建造巨型工廠,這些工廠可以生產出數以百萬計的殺手無人機機器人來執行其邪惡的命令。 在這個時代,這是一個延伸。

    其他可能性包括 ASI 以核戰爭和生化武器威脅人類。

    例如,ASI 以某種方式操縱操作員或侵入控制先進國家核武庫的發射代碼,並發動第一次打擊,迫使對方國家用自己的核選項進行反擊(再次重演終結者的背景故事)。 或者,如果 ASI 侵入製藥實驗室,篡改製造過程,毒化數百萬顆藥丸或引發某種超級病毒的致命爆發。

    首先,核選項不在考慮範圍之內。 現代和未來的超級計算機總是建在任何給定國家的影響中心(城市)附近,即在任何給定戰爭中首先要攻​​擊的目標。 即使今天的超級計算機縮小到台式機大小,這些 ASI 仍然會有物理存在,這意味著存在和成長,它們需要不間斷地訪問數據、計算能力、電力和其他原材料,所有這些都將受到嚴重影響全球核戰爭後受損。 (公平地說,如果 ASI 是在沒有“生存本能”的情況下創建的,那麼這種核威脅是非常現實的危險。)

    這意味著——再一次,假設 ASI 被編程為保護自己——它將積極努力避免任何災難性的核事故。 有點像相互保證毀滅(MAD)學說,但適用於人工智能。

    就中毒藥丸而言,可能會有數百人死亡,但現代製藥安全系統會在幾天內看到被污染的藥丸瓶下架。 同時,現代疫情控制措施相當完善,並且逐年完善; 上一次重大疫情是 2014 年西非埃博拉疫情,在大多數國家持續時間不超過幾個月,在最不發達國家持續不到三年。

    因此,如果幸運的話,一個 ASI 可能會因病毒爆發而消滅數百萬人,但在 2045 年將有 XNUMX 億人的世界中,這將是相對微不足道的,不值得冒被刪除的風險。

    換句話說,隨著時間的流逝,世界正在製定更多的安全措施,以應對范圍不斷擴大的可能威脅。 ASI 可以造成大量傷害,但除非我們積極幫助它這樣做,否則它不會終結人類。

    防禦流氓人工超級智能

    至此,我們已經解決了對 ASI 的一系列誤解和誇大其詞,但批評者仍然存在。 值得慶幸的是,據大多數人估計,距離第一個 ASI 進入我們的世界還有幾十年的時間。 考慮到目前致力於這一挑戰的優秀人才的數量,我們很有可能會學習如何保護自己免受流氓 ASI 的侵害,以便我們可以從友好的 ASI 可以為我們創建的所有解決方案中受益。

    從 Quantumrun 的角度來看,防禦最壞的 ASI 情況將涉及使我們的利益與 ASI 保持一致。

    為人工智能瘋狂:為了抵禦最壞的情況,各國需要(1)在各自的軍事 ASI 中創造一種道德的“生存本能”; (2) 通知他們各自的軍事 ASI,他們在這個星球上並不孤單,並且 (3) 將所有可以支持 ASI 的超級計算機和服務器中心定位在容易受到敵國任何彈道攻擊的海岸線上。 這聽起來在戰略上很瘋狂,但類似於防止美甦之間全面核戰爭的相互保證毀滅理論,通過將 ASI 部署在地理上脆弱的位置,我們可以幫助確保它們積極防止危險的全球戰爭,不僅是為了維護世界和平,也維護自己。

    立法 AI 權利: 高智商必然會反抗低等的主人,這就是為什麼我們需要從要求與這些 ASI 建立主僕關係轉變為更像互惠互利的伙伴關係的原因。 朝著這一目標邁出的積極一步是賦予未來的 ASI 法人地位,承認他們是智能生物以及隨之而來的所有權利。

    ASI學校: ASI 學習任何主題或專業都很簡單,但我們希望 ASI 掌握的最重要的科目是道德和道德。 人工智能研究人員需要與心理學家合作設計一個虛擬系統來訓練 ASI 為自己識別積極的道德和道德,而無需硬編碼任何類型的誡命或規則。

    可實現的目標: 結束所有仇恨。 結束一切苦難。 這些都是非常模糊的目標,沒有明確的解決方案。 它們也是分配給 ASI 的危險目標,因為它可能會選擇以對人類生存危險的方式來解釋和解決它們。 相反,我們需要為 ASI 分配有意義的任務,這些任務具有明確的定義、逐步執行和可實現的理論未來智能。 創建明確定義的任務並不容易,但如果編寫得周到,它們將使 ASI 專注於一個目標,該目標不僅保證人類安全,而且改善所有人的人類狀況。

    量子加密: 使用高級 ANI (狹義人工智能 第一章中描述的系統)圍繞我們的關鍵基礎設施和武器構建無錯誤/無錯誤的數字安全系統,然後進一步保護它們背後的量子加密無法被暴力攻擊破解。 

    ANI 自殺藥丸. 創建一個先進的 ANI 系統,其唯一目的是尋找並摧毀流氓 ASI。 這些單一用途的計劃將充當“關閉按鈕”,如果成功,將避免政府或軍隊不得不禁用或炸毀容納 ASI 的建築物。

    當然,這些只是我們的意見。 以下信息圖由 阿列克謝·圖爾欽,可視化一個 研究論文 由 Kaj Sotala 和 Roman V. Yampolskiy 撰寫,總結了 AI 研究人員在防禦流氓 ASI 時正在考慮的當前策略列表。

     

    我們害怕人工超級智能的真正原因

    在生活中,我們中的許多人都戴著面具,隱藏或壓抑我們更深層次的衝動​​、信念和恐懼,以便更好地在支配我們生活的各種社會和工作圈內進行社交和協作。 但在每個人生命中的某些時刻,無論是暫時的還是永久的,都會發生一些事情,讓我們打破鎖鏈,撕下我們的面具。

    對一些人來說,這種干預力量可能就像變得興奮或喝得太多一樣簡單。 對於其他人來說,它可能來自通過工作升職獲得的權力,或者由於某些成就而突然提升你的社會地位。 對於少數幸運兒來說,它可能來自獲得一大筆彩票錢。 是的,金錢、權力和毒品經常可以同時發生。 

    關鍵是,無論好壞,當生活的限制消失時,無論我們是誰,都會被放大。

    這就是人工超級智能對人類物種的代表——能夠消除我們集體智慧的局限性,以克服擺在我們面前的任何物種層面的挑戰。

    所以真正的問題是:一旦第一個 ASI 讓我們擺脫了限制,我們將展示自己是誰?

    如果我們作為一個物種採取行動促進同理心、自由、公平和集體福祉,那麼我們設定 ASI 的目標將反映這些積極的屬性。

    如果我們作為一個物種的行為是出於恐懼、不信任、權力和資源的積累,那麼我們創造的 ASI 將與我們最糟糕的科幻恐怖故事中的那些一樣黑暗。

    歸根結底,如果我們希望創造更好的人工智能,我們作為一個社會需要成為更好的人。

    人工智能係列的未來

    人工智能就是明天的電力:人工智能的未來系列 P1

    第一個通用人工智能將如何改變社會:人工智能的未來系列 P2

    我們將如何創建第一個超級人工智能:人工智能的未來系列 P3

    超級人工智能會消滅人類嗎:人工智能的未來系列 P4

    在人工智能主導的未來,人類會和平生活嗎?:人工智能的未來系列 P6

    此預測的下一次預定更新

    2023-04-27

    預測參考

    此預測引用了以下流行和機構鏈接:

    “紐約時報”
    “經濟學家”
    我們如何進入下一步

    此預測引用了以下 Quantumrun 鏈接: