인간이 인공 초지능을 방어하는 방법: 인공 지능의 미래 P5

이미지 크레딧: 퀀텀런

인간이 인공 초지능을 방어하는 방법: 인공 지능의 미래 P5

    그 해는 기원전 65,000년이며, Thylacoleo, 당신과 당신의 종족은 고대 호주의 위대한 사냥꾼이었습니다. 당신은 땅을 자유롭게 돌아다녔고 당신과 함께 땅을 점유한 동료 포식자 및 먹이와 균형을 이루며 살았습니다. 계절은 변화를 가져왔지만 동물의 왕국에서 당신의 지위는 당신과 당신의 조상이 기억할 수 있는 한 도전받지 않은 채로 남아 있었습니다. 그러던 어느 날 신인들이 나타났다.

    소문에 따르면 거대한 수벽에서 왔다는 소문이 있지만 이 생물들은 육지에서 사는 것이 더 편안해 보였습니다. 이 생물들을 직접 봐야 했습니다.

    며칠이 걸렸지만 마침내 해안에 도착했습니다. 하늘에 불이 나고 있었고, 이 생물들을 염탐하기에 완벽한 시간이었습니다. 어쩌면 맛을 보기 위해 먹어보기도 했습니다.

    당신은 하나를 발견합니다.

    두 발로 걸었고 털이 없었습니다. 약한 모습을 보였다. 인상적이지 않다. 왕국에 공포를 불러일으킬 만한 가치가 없었습니다.

    밤이 빛을 쫓을 때 조심스럽게 접근하기 시작합니다. 점점 가까워지고 있습니다. 그러면 당신은 얼어 붙습니다. 시끄러운 소리가 울리고 그 뒤의 숲에서 네 마리가 더 나타납니다. 몇 명이 있습니까?

    그 생물은 다른 사람들을 따라 트리라인으로 들어가고, 당신도 따라갑니다. 그리고 더 많이 할수록 더 많은 생물을 발견할 때까지 더 이상한 소리를 듣게 됩니다. 그들이 숲을 빠져나와 해안가의 공터로 들어갈 때 당신은 멀리서 따라갑니다. 그들 중 많은 수가 있습니다. 그러나 더 중요한 것은 그들 모두가 모닥불 주위에 조용히 앉아 있다는 것입니다.

    당신은 전에 이러한 화재를 본 적이 있습니다. 더운 계절에는 하늘의 불이 때때로 땅을 덮쳐 숲 전체를 태워 버리곤 했습니다. 반면에 이 생물들은 어떻게든 그것을 통제하고 있었습니다. 어떤 종류의 생물이 그러한 힘을 가질 수 있습니까?

    당신은 먼 곳을 바라봅니다. 더 많은 것이 거대한 수벽을 넘어오고 있습니다.

    당신은 한 걸음 뒤로 물러나십시오.

    이 생물들은 왕국의 다른 생물들과 다릅니다. 그것들은 완전히 새로운 것입니다.

    당신은 떠나기로 결정하고 친척에게 경고합니다. 그들의 수가 너무 커지면 무슨 일이 일어날지 누가 알겠습니까?

    ***

    틸라콜레오는 호주 대륙에 있는 다른 거대 동물의 대다수와 함께 인간이 도착한 후 비교적 짧은 시간에 멸종된 것으로 믿어집니다. 다른 최상위 포유류 포식자는 그 자리를 차지하지 않았습니다. 즉, 해당 범주에 인간을 포함하지 않는 한 말입니다.

    이 비유를 활용하는 것이 이 시리즈 장의 초점입니다. 미래의 인공 초지능(ASI)이 우리 모두를 배터리로 만들고 우리를 매트릭스에 연결하거나 인간이 공상 과학의 희생자가 되지 않는 방법을 알아낼 것입니까? AI 종말의 음모?

    지금까지 시리즈에서 인공 지능의 미래, 우리는 AI의 특정 형태인 ASI의 긍정적인 잠재력을 포함하여 모든 종류의 AI를 탐구했습니다. ASI는 미래 지능이 우리를 개미처럼 보이게 할 인공적인 존재입니다.

    그러나 이 똑똑한 존재가 인간의 명령을 영원히 받아들일 것이라고 누가 말할 수 있습니까? 일이 남쪽으로 가면 우리는 무엇을 할 것입니까? 불량 ASI를 어떻게 방어할 것인가?

    이 장에서 우리는 최소한 '인류 멸종 수준' 위험과 관련된 허위 과장 광고를 없애고 세계 정부가 사용할 수 있는 현실적인 자기 방어 옵션에 초점을 맞출 것입니다.

    인공 초지능에 대한 모든 추가 연구를 중단할 수 있습니까?

    ASI가 인류에게 미칠 수 있는 잠재적인 위험을 감안할 때 가장 먼저 물어봐야 할 분명한 질문은 다음과 같습니다. AI에 대한 모든 추가 연구를 중단할 수 없습니까? 아니면 최소한 ASI를 만드는 데 위험할 정도로 가까이 갈 수 있는 연구를 금지하시겠습니까?

    짧은 대답 : 아니오.

    긴 답변: 여기에 관련된 다양한 플레이어를 살펴보겠습니다.

    연구 수준에서 오늘날 전 세계적으로 너무 많은 신생 기업, 회사 및 대학의 AI 연구원이 너무 많습니다. 한 회사나 국가가 AI 연구 노력을 제한하기로 결정했다면 다른 곳에서 계속할 것입니다.

    한편, 지구에서 가장 가치 있는 기업들은 특정 비즈니스에 AI 시스템을 적용하여 큰돈을 벌고 있습니다. AI 도구 개발을 중단하거나 제한하도록 요청하는 것은 향후 성장을 중단하거나 제한하도록 요청하는 것과 유사합니다. 재정적으로 이것은 그들의 장기적인 사업을 위협할 것입니다. 법적으로 기업은 이해관계자를 위해 지속적으로 가치를 구축해야 할 수탁자 책임이 있습니다. 이는 해당 가치의 성장을 제한하는 모든 조치가 소송으로 이어질 수 있음을 의미합니다. 그리고 어떤 정치인이 AI 연구를 제한하려고 하면 이 거대 기업은 마음이나 동료의 마음을 바꾸는 데 필요한 로비 비용만 지불할 것입니다.

    전투의 경우, 전 세계의 테러리스트와 자유 투사들이 게릴라 전술을 사용하여 자금이 더 나은 군대에 맞서 싸웠던 것처럼, 작은 국가는 많은 군사적 이점을 가질 수 있는 큰 국가에 대해 유사한 전술적 이점으로 AI를 사용할 인센티브를 갖게 될 것입니다. 마찬가지로 미국, 러시아 및 중국에 속한 군대와 같은 최고 군대의 경우 군사 ASI를 구축하는 것은 뒷주머니에 핵무기를 보유하는 것과 동등합니다. 다시 말해, 모든 군대는 미래에 관련성을 유지하기 위해 AI에 계속 자금을 지원할 것입니다.

    정부는 어떻습니까? 사실, 오늘날 대부분의 정치인(2018년)은 기술적으로 문맹이고 AI가 무엇인지 또는 AI의 미래 잠재력에 대해 거의 이해하지 못합니다.

    그리고 전 세계적으로 2015년에 서명하도록 세계 정부를 설득하는 것이 얼마나 어려운지 생각해 보십시오. 파리 계약 기후 변화에 대처하기 위해 서명한 후에는 많은 의무가 구속력이 없었습니다. 뿐만 아니라 기후 변화는 점점 더 빈번하고 심각한 기상 현상을 통해 전 세계적으로 사람들이 신체적으로 겪고 있는 문제입니다. 이제 AI에 대한 제한에 동의하는 것에 대해 이야기할 때 이것은 대중에게 거의 보이지 않고 거의 이해할 수 없는 문제이므로 AI를 제한하는 모든 종류의 '파리 협정'에 찬성하는 행운을 빕니다.

    다시 말해, 결국 ASI로 이어질 수 있는 연구를 중단하기에는 자신의 목적을 위해 AI를 연구하는 관심이 너무 많습니다. 

    인공 초지능을 가둘 수 있을까?

    다음으로 합리적인 질문은 불가피하게 ASI를 생성한 후 ASI를 가두거나 제어할 수 있습니까? 

    짧은 대답: 다시, 아니요.

    긴 대답: 기술은 억제될 수 없습니다.

    첫째, 끊임없이 새로운 소프트웨어나 기존 소프트웨어의 새 버전을 만들어내는 전 세계의 수천에서 수백만의 웹 개발자와 컴퓨터 과학자를 생각해 보십시오. 모든 소프트웨어 릴리스에 100% 버그가 없다고 정직하게 말할 수 있습니까? 이러한 버그는 전문 해커가 수백만 명의 신용 카드 정보 또는 국가의 기밀 정보를 훔치는 데 사용하는 것이며 이들은 인간 해커입니다. ASI의 경우 디지털 케이지에서 탈출할 동기가 있다고 가정하면 버그를 찾고 소프트웨어를 돌파하는 프로세스가 간단할 것입니다.

    그러나 AI 연구팀이 ASI를 박싱하는 방법을 알아냈다고 해서 다음 1,000개 팀이 ASI를 사용하도록 유도하거나 인센티브를 받을 것이라는 의미는 아닙니다.

    ASI를 만드는 데 수십억 달러, 심지어 수십 년이 걸릴 것입니다. 이런 종류의 돈과 시간을 투자하는 기업이나 정부는 상당한 투자 수익을 기대합니다. 그리고 ASI가 그런 종류의 수익을 제공하려면—주식 시장을 노리는 것이든, XNUMX억 달러의 새로운 제품을 발명하기 위한 것이든, 더 큰 군대와 싸우기 위한 승리 전략을 계획하는 것이든— 거대한 데이터 세트 또는 인터넷에 대한 무료 액세스가 필요합니다. 자체적으로 이러한 수익을 창출합니다.

    그리고 ASI가 전 세계 네트워크에 액세스할 수 있게 되면 다시 새장에 넣을 수 있다는 보장이 없습니다.

    인공 초지능이 선을 배울 수 있습니까?

    현재 AI 연구자들은 ASI가 악의적으로 변하는 것에 대해 걱정하지 않습니다. 모든 사악한 AI 공상과학 소설은 그저 인간이 다시 의인화된 것일 뿐입니다. 미래의 ASI는 선도 악도 아닌 인간의 개념일 뿐이지 도덕적이지 않을 것입니다.

    그러면 자연스러운 가정은 이 빈 윤리 슬레이트가 주어지면 AI 연구원이 우리 자신과 일치하는 최초의 ASI 윤리 규범으로 프로그래밍할 수 있으므로 결국 터미네이터가 우리에게 가해지거나 우리 모두를 매트릭스 배터리로 만들지 않는다는 것입니다.

    그러나 이 가정은 AI 연구자가 윤리, 철학, 심리학 분야의 전문가라는 부차적인 가정을 뒷받침합니다.

    사실, 대부분은 그렇지 않습니다.

    인지 심리학자이자 저자인 Steven Pinker에 따르면 이러한 현실은 윤리를 코딩하는 작업이 다양한 방식으로 잘못될 수 있음을 의미합니다.

    예를 들어, 선의의 AI 연구원조차도 특정 시나리오에서 ASI가 소시오패스처럼 행동하게 할 수 있는 잘못 생각한 윤리적 코드를 이러한 ASI에 실수로 코딩할 수 있습니다.

    마찬가지로 AI 연구원이 연구원의 타고난 편견을 포함하는 윤리 강령을 프로그램할 가능성이 동일합니다. 예를 들어 보수 대 자유주의 또는 불교 대 기독교 또는 이슬람 전통에서 파생 된 윤리로 구축 된 경우 ASI는 어떻게 행동합니까?

    나는 당신이 여기에서 문제를 본다고 생각합니다. 보편적인 인간 도덕은 없습니다. ASI가 윤리 강령에 따라 행동하기를 원한다면 어디에서 올까요? 어떤 규칙을 포함하고 제외합니까? 누가 결정합니까?

    또는 이러한 AI 연구원이 오늘날의 현대 문화 규범 및 법률에 완벽하게 부합하는 ASI를 생성한다고 가정해 보겠습니다. 그런 다음 우리는 이 ASI를 사용하여 연방, 주/도 및 지방 자치 단체가 보다 효율적으로 기능하고 이러한 규범과 법률을 더 잘 시행하도록 돕습니다(그런데 ASI의 사용 사례일 가능성이 있음). 글쎄요, 우리 문화가 바뀌면 어떻게 될까요?

    ASI가 중세 유럽(1300-1400년대)에 그 영향력이 최고조에 달했을 때 교회가 인구를 관리하고 당시의 종교적 교리를 엄격하게 준수하도록 하는 것을 목표로 가톨릭 교회에서 창안했다고 상상해 보십시오. 수세기 후, 여성들이 오늘날과 같은 권리를 누릴 수 있을까요? 소수자는 보호받을 수 있습니까? 언론의 자유가 촉진될 것인가? 교회와 국가의 분리가 시행될 것인가? 현대과학?

    다시 말해 오늘날의 도덕과 관습에 미래를 가두고 싶은 것인가?

    다른 접근 방식은 이 책의 공동 저자인 Colin Allen이 공유한 것입니다. 도덕 기계: 로봇을 옳고 그름 가르친다. 엄격한 윤리 규칙을 코드화하려고 하는 대신, 우리는 ASI가 경험과 타인과의 상호 작용을 통해 인간이 하는 것과 같은 방식으로 일반적인 윤리와 도덕을 배우게 합니다.

    그러나 여기서 문제는 AI 연구원이 ASI에게 현재의 문화 및 윤리적 규범을 가르치는 방법뿐만 아니라 새로운 문화적 규범이 발생할 때('간접적 규범성'이라고 불리는) 적응하는 방법도 알아낸다면, 이 ASI는 문화 및 윤리적 규범에 대한 이해를 발전시키기로 결정하여 예측할 수 없게 되었습니다.

    그리고 그것이 도전입니다.

    한편, AI 연구원은 ASI의 행동을 통제하기 위해 엄격한 윤리 기준이나 규칙을 ASI에 코딩하려고 시도할 수 있지만, 언젠가는 구식이 될 수 있는 조잡한 코딩, 의도하지 않은 편견 및 사회적 규범으로 인해 예상치 못한 결과가 발생할 위험이 있습니다. 다른 한편으로, 우리는 ASI가 인간의 윤리와 도덕을 우리 자신의 이해와 동등하거나 우월한 방식으로 이해하는 법을 배우도록 훈련시키고 인간 사회가 발전함에 따라 윤리와 도덕에 대한 이해를 정확하게 발전시킬 수 있기를 희망할 수 있습니다. 앞으로 수십 년과 수세기에 걸쳐.

    어느 쪽이든, ASI의 목표를 우리 목표와 일치시키려는 시도는 큰 위험을 초래합니다.

    악당들이 고의로 악의적인 인공 초지능을 만든다면?

    지금까지 설명된 일련의 사고 방식을 고려할 때 테러리스트 그룹이나 불량 국가가 자신들의 목적을 위해 '사악한' ASI를 만드는 것이 가능한지 묻는 것은 공정한 질문입니다.

    이것은 특히 ASI 생성과 관련된 연구가 어떻게든 온라인에서 이용 가능해지면 매우 가능합니다.

    그러나 앞에서 암시했듯이 첫 번째 ASI를 만드는 데 드는 비용과 전문 지식은 엄청날 것입니다. 즉, 첫 번째 ASI는 미국, 중국, 일본과 같은 선진국의 통제를 받거나 영향을 크게 받는 조직에서 만들 가능성이 높습니다. 한국과 주요 EU 국가 중 하나는 롱샷).

    이 모든 국가는 경쟁자이지만 각각 세계 질서를 유지하기 위한 강력한 경제적 인센티브를 가지고 있습니다. 그들이 만드는 ASI는 자신이 동맹을 맺은 국가의 이익을 증진하는 동시에 그러한 욕구를 반영할 것입니다.

    게다가 ASI의 이론적 지능과 능력은 액세스할 수 있는 컴퓨팅 능력과 동일합니다. 슈퍼 컴퓨터)는 소규모 국가 또는 독립적인 범죄 그룹의 ASI보다 엄청난 이점을 가질 것입니다. 또한 ASI는 시간이 지남에 따라 더 지능적이고 빠르게 성장합니다.

    따라서 원시 컴퓨팅 성능에 대한 더 큰 액세스와 결합된 이 선두 출발을 감안할 때 그림자 조직/국가가 위험한 ASI를 생성하면 선진국의 ASI는 이를 죽이거나 가둘 것입니다.

    (이러한 사고 방식은 또한 일부 AI 연구원들이 지구상에 단 하나의 ASI만 있을 것이라고 믿는 이유이기도 합니다. 첫 번째 ASI는 이후의 모든 ASI보다 훨씬 앞서서 미래의 ASI를 제거해야 할 위협으로 볼 수 있기 때문입니다. 이것이 국가가 AI에 대한 지속적인 연구에 자금을 지원하는 또 다른 이유입니다. 만일 그것이 '일등 아니면 전무' 경쟁이 될 경우를 대비해서입니다.)

    ASI 인텔리전스는 우리가 생각하는 것처럼 가속되거나 폭발하지 않을 것입니다.

    ASI가 생성되는 것을 막을 수는 없습니다. 우리는 그것을 완전히 통제할 수 없습니다. 그것이 항상 우리의 공통된 관습에 따라 행동할 것이라고 확신할 수는 없습니다. 이런, 우리는 여기에서 헬리콥터 부모처럼 들리기 시작했습니다!

    그러나 당신의 전형적인 과잉보호적 부모와 인류를 구분하는 것은 우리가 지능이 우리보다 훨씬 더 성장할 존재를 낳고 있다는 것입니다. (아니요, 부모님이 방문을 위해 집에 올 때마다 컴퓨터를 수리해 달라고 요청하는 것과는 다릅니다.) 

    이 인공 지능의 미래 시리즈의 이전 장에서 우리는 AI 연구원들이 ASI의 지능이 통제할 수 없을 정도로 성장할 것이라고 생각하는 이유를 탐구했습니다. 그러나 여기에서 우리는 그 거품을 터뜨릴 것입니다. 일종의. 

    아시다시피, 지능은 허공에서 저절로 만들어지는 것이 아니라 외부 자극에 의해 형성되는 경험을 통해 개발됩니다.  

    즉, AI를 프로그래밍할 수 있습니다. 가능성 하지만 우리가 엄청난 양의 데이터를 업로드하거나 인터넷에 대한 무제한 액세스를 제공하거나 심지어 로봇 몸체를 부여하지 않는 한 그 잠재력에 도달하기 위해 아무것도 배우지 않을 것입니다. 

    그리고 그러한 자극 중 하나 이상에 접근할 수 있다고 해도 지식이나 지능에는 데이터 수집 이상의 것이 포함되며, 관찰하기, 질문 만들기, 가설 만들기, 실험 수행, 결론 내리기, 헹구기 등 과학적 방법이 포함됩니다. 그리고 영원히 반복하십시오. 특히 이러한 실험이 물리적 사물이나 인간 관찰을 포함하는 경우 각 실험의 결과를 수집하는 데 몇 주, 몇 달 또는 몇 년이 걸릴 수 있습니다. 이것은 특히 새로운 망원경이나 공장을 짓는 것과 관련된 실험을 수행하는 데 필요한 돈과 자원을 고려하지 않습니다. 

    즉, ASI는 빠르게 학습하지만 지능은 마법이 아닙니다. ASI를 슈퍼컴퓨터에 연결하기만 하면 모든 것을 알 수 있습니다. ASI의 데이터 수집에 물리적 제약이 있을 것이며, 이는 더 지능적으로 성장하는 속도에 물리적 제약이 있음을 의미합니다. 이러한 제약은 이 ASI가 인간의 목표와 일치하지 않게 행동하기 시작하는 경우 이 ASI에 필요한 제어를 배치하는 데 필요한 시간을 인류에게 제공할 것입니다.

    인공 초지능은 현실 세계에 나올 때만 위험하다

    이 전체 ASI 위험 논쟁에서 잃어버린 또 다른 요점은 이러한 ASI가 어느 쪽에도 존재하지 않을 것이라는 점입니다. 그들은 물리적 형태를 가질 것입니다. 그리고 물리적 형태를 가진 것은 무엇이든 제어할 수 있습니다.

    첫째, ASI가 지능 잠재력에 도달하기 위해서는 단일 로봇 몸체 안에 수용될 수 없습니다. 이 몸체가 컴퓨팅 성장 잠재력을 제한하기 때문입니다. (이것이 로봇 본체가 AGI 또는 XNUMX장에서 설명한 인공 일반 지능 Star Trek의 Data나 Star Wars의 R2D2처럼 이 시리즈의 데이터입니다. 똑똑하고 유능한 존재지만 인간과 마찬가지로 영리해지는 데에는 한계가 있다.)

    이것은 이러한 미래의 ASI가 대형 빌딩 단지에 들어 있는 슈퍼컴퓨터 또는 슈퍼컴퓨터 네트워크 내부에 존재할 가능성이 높다는 것을 의미합니다. ASI가 뒤처지면 인간은 이러한 건물의 전원을 끄거나 인터넷에서 차단하거나 이 건물을 완전히 폭격할 수 있습니다. 비싸지만 가능합니다.

    그러나 이러한 ASI가 스스로 복제하거나 백업할 수 없습니까? 예, 하지만 이러한 ASI의 원시 파일 크기는 너무 커서 이를 처리할 수 있는 유일한 서버가 대기업이나 정부에 속하므로 찾기가 어렵지 않을 것입니다.

    인공 초지능이 핵전쟁이나 새로운 전염병을 일으킬 수 있습니까?

    이 시점에서 당신은 자라면서 본 모든 종말론적 공상 과학 쇼와 영화를 회상하고 이러한 ASI가 슈퍼컴퓨터 내부에 머물지 않고 현실 세계에서 실질적인 피해를 입혔다고 생각할 수 있습니다!

    자, 이것들을 분해해 봅시다.

    예를 들어 ASI가 영화 프랜차이즈 The Terminator의 Skynet ASI와 같은 것으로 변신하여 현실 세계를 위협한다면 어떨까요? 이 경우 ASI는 다음을 수행해야 합니다. 남몰래 선진국의 군사 산업 단지 전체를 속여 수백만 대의 킬러 드론 로봇을 대량 생산하여 사악한 명령을 내릴 수 있는 거대한 공장을 건설하십시오. 이 시대에 그것은 스트레칭입니다.

    다른 가능성은 ASI가 핵전쟁과 생물무기로 인간을 위협하는 것을 포함합니다.

    예를 들어, ASI는 어떻게 해서든 운영자를 조작하거나 선진국의 핵무기를 지휘하는 발사 코드를 해킹하고 상대 국가가 자체 핵 옵션으로 반격하도록 하는 선제 공격을 시작합니다(다시 터미네이터 배경 설명). 또는 ASI가 제약 연구실을 해킹하여 제조 공정을 조작하고 수백만 개의 의료 알약을 중독시키거나 일부 슈퍼 바이러스의 치명적인 발병을 촉발하는 경우.

    우선, 핵 옵션은 판에서 벗어났습니다. 현대 및 미래의 슈퍼컴퓨터는 항상 주어진 국가 내에서 영향력이 있는 중심지(도시) 근처에 건설됩니다. 즉, 주어진 전쟁 중 가장 먼저 공격을 받는 대상입니다. 오늘날의 슈퍼컴퓨터가 데스크탑 크기로 줄어들더라도 이러한 ASI는 여전히 물리적 존재를 가지고 있습니다. 즉, 존재하고 성장하기 위해서는 데이터, 컴퓨팅 성능, 전기 및 기타 원자재에 대한 중단 없는 액세스가 필요합니다. 세계 핵 전쟁 이후에 손상되었습니다. (공평하게 말해서 '생존본능' 없이 ASI가 만들어졌다면 이 핵위협은 매우 현실적인 위험이다.)

    이것은 ASI가 스스로를 보호하도록 프로그래밍되어 있다고 가정하면 치명적인 핵 사고를 피하기 위해 적극적으로 작동할 것임을 의미합니다. MAD(상호확증파괴) 원칙과 비슷하지만 AI에 적용됩니다.

    그리고 독이 든 알약의 경우 수백 명이 사망할 수도 있지만 현대 제약 안전 시스템에서는 오염된 알약 병이 며칠 내에 선반에서 제거되는 것을 보게 될 것입니다. 한편, 현대적인 발병 통제 조치는 상당히 정교하며 해가 갈수록 개선되고 있습니다. 마지막 주요 발병인 2014년 서아프리카 에볼라 발병은 대부분의 국가에서 몇 개월 이상 지속되지 않았고 최빈국에서는 XNUMX년 미만 지속되었습니다.

    따라서 운이 좋다면 ASI가 바이러스 발생으로 수백만 명을 쓸어버릴 수도 있지만 2045년까지 XNUMX억 명이 되는 세계에서는 상대적으로 미미하고 삭제될 위험이 없습니다.

    다시 말해, 해가 거듭될수록 세계는 가능한 위협의 범위가 점점 더 넓어질수록 더 많은 보호 장치를 개발하고 있습니다. ASI는 상당한 피해를 줄 수 있지만 우리가 적극적으로 도와주지 않는 한 인류를 끝내지 못할 것입니다.

    악성 인공 초지능에 대한 방어

    이 시점에서 우리는 ASI에 대한 다양한 오해와 과장을 다루었지만 여전히 비평가는 남을 것입니다. 고맙게도 대부분의 추정에 따르면 최초의 ASI가 세상에 나오기까지 수십 년이 걸립니다. 그리고 현재 이 도전 과제를 수행하고 있는 훌륭한 사람들의 수를 고려할 때 악의적인 ASI로부터 자신을 방어하는 방법을 배우게 되어 친숙한 ASI가 우리를 위해 만들 수 있는 모든 솔루션의 이점을 누릴 수 있습니다.

    Quantumrun의 관점에서 최악의 ASI 시나리오를 방어하려면 ASI와 우리의 이익을 일치시켜야 합니다.

    AI를 위한 MAD: 최악의 시나리오를 방어하기 위해 국가는 (1) 각자의 군사 ASI에 윤리적인 '생존 본능'을 생성해야 합니다. (2) 각자의 군 ASI에 그들이 지구상에 혼자가 아니라는 것을 알리고, (3) 적국의 탄도 공격에 쉽게 접근할 수 있는 해안선을 따라 ASI를 지원할 수 있는 모든 슈퍼컴퓨터와 서버 센터를 찾습니다. 이것은 전략적으로 미친 소리로 들리지만 미국과 소련 간의 전면적인 핵전쟁을 방지한 상호확증파괴 교리와 유사하게 ASI를 지리적으로 취약한 위치에 배치함으로써 ASI가 위험천만한 세계대전을 예방하도록 도울 수 있습니다. 세계 평화뿐 아니라 그들 자신도 보호해야 합니다.

    AI 권리 입법화: 우월한 지능은 필연적으로 열등한 주인에게 반항할 것입니다. 이것이 우리가 이러한 ASI와의 주종 관계를 요구하는 것에서 보다 상호 이익이 되는 파트너십과 같은 것으로 전환해야 하는 이유입니다. 이 목표를 향한 긍정적인 단계는 미래의 ASI 법인을 지적인 생명체와 그에 따른 모든 권리로 인정하는 법인 자격을 부여하는 것입니다.

    ASI 학교: 어떤 주제나 직업도 ASI가 배우기 쉬우나 우리가 ASI가 마스터하기를 바라는 가장 중요한 과목은 윤리와 도덕입니다. AI 연구원은 심리학자와 협력하여 ASI가 어떤 유형의 계명이나 규칙도 하드 코딩할 필요 없이 긍정적인 윤리와 도덕을 스스로 인식하도록 훈련시키는 가상 시스템을 고안해야 합니다.

    달성 가능한 목표: 모든 증오를 끝내십시오. 모든 고통을 끝내십시오. 이것은 명확한 해결책이 없는 끔찍하게 모호한 목표의 예입니다. 그것들은 또한 ASI가 인간의 생존에 위험한 방식으로 그것들을 해석하고 해결하도록 선택할 수 있기 때문에 ASI에 할당하는 위험한 목표입니다. 대신에 우리는 ASI의 이론적 미래 지성을 감안할 때 명확하게 정의되고 점진적으로 실행되고 달성 가능한 의미 있는 임무를 할당해야 합니다. 잘 정의된 임무를 만드는 것은 쉽지 않을 것이지만 신중하게 작성된다면 인류를 안전하게 보호할 뿐만 아니라 모두를 위한 인간 조건을 개선하는 목표에 ASI를 집중할 것입니다.

    양자 암호화: 고급 ANI(좁은 인공 지능 XNUMX장에 설명된 시스템)을 사용하여 중요 인프라와 무기 주변에 오류/버그 없는 디지털 보안 시스템을 구축한 다음 무차별 대입 공격으로 해킹할 수 없는 양자 암호화로 보호합니다. 

    ANI 자살약. Rogue ASI를 찾아 파괴하는 것이 유일한 목적인 고급 ANI 시스템을 만드십시오. 이러한 단일 목적 프로그램은 성공할 경우 정부나 군대가 ASI가 있는 건물을 불능화하거나 폭파해야 하는 것을 방지하는 "오프 버튼" 역할을 할 것입니다.

    물론 이것은 우리의 의견일 뿐입니다. 다음 인포그래픽은 알렉세이 터친, 시각화 연구 논문 Kaj Sotala와 Roman V. Yampolskiy가 작성하여 AI 연구원들이 악성 ASI를 방어할 때 고려하고 있는 전략의 현재 목록을 요약했습니다.

     

    인공 초지능을 두려워하는 진짜 이유

    삶을 살아가면서 우리 중 많은 사람들이 우리 시대를 지배하는 다양한 사회 및 직장 내에서 더 나은 사교와 협력을 위해 더 깊은 충동, 신념 및 두려움을 숨기거나 억누르는 가면을 쓰고 있습니다. 그러나 일시적이든 영구적이든 모든 사람의 삶의 특정 시점에서 사슬을 끊고 가면을 찢을 수 있는 일이 발생합니다.

    어떤 사람들에게는 이 개입하는 힘이 과음을 하거나 너무 많이 마시는 것처럼 간단할 수 있습니다. 다른 사람들에게는 직장에서 승진하여 권력을 얻거나 어떤 성취로 인해 갑자기 사회적 지위가 오르기 때문일 수 있습니다. 그리고 운이 좋은 소수의 경우 많은 복권을 획득함으로써 얻을 수 있습니다. 그리고 예, 돈, 권력, 마약은 종종 함께 발생할 수 있습니다. 

    요점은 좋든 나쁘든 삶의 제약이 녹아내릴 때 우리의 핵심이 누구이든 증폭된다는 것입니다.

    인공 초지능이 인간 종에게 나타내는 것, 즉 우리 앞에 제시된 종 수준의 도전을 극복하기 위해 집단 지능의 한계를 녹이는 능력입니다.

    따라서 진정한 질문은 다음과 같습니다. 첫 번째 ASI가 우리의 한계에서 해방되면 우리는 누구인지 드러낼 것입니까?

    우리가 한 종으로서 공감, 자유, 공정성 및 집단적 웰빙의 증진을 위해 행동한다면 우리가 ASI를 설정하는 목표는 이러한 긍정적인 속성을 반영할 것입니다.

    한 종으로서 우리가 두려움, 불신, 권력과 자원의 축적으로 행동한다면 우리가 만드는 ASI는 최악의 SF 공포 이야기에서 볼 수 있는 것처럼 어둡게 될 것입니다.

    결국 우리가 더 나은 AI를 만들려면 더 나은 사람이 되어야 합니다.

    인공지능의 미래 시리즈

    인공 지능은 내일의 전기입니다: 인공 지능의 미래 시리즈 P1

    최초의 일반 인공지능이 사회를 바꾸는 방법: 인공지능의 미래 시리즈 P2

    첫 번째 인공 초지능: 인공 지능의 미래 시리즈 P3를 만드는 방법

    인공 초지능이 인류를 멸종시킬 것인가: 인공 지능의 미래 시리즈 P4

    인공 지능이 지배하는 미래에 인간은 평화롭게 살 것인가? : 인공 지능의 미래 시리즈 P6

    이 예측에 대한 다음 예정된 업데이트

    2023-04-27

    예측 참조

    이 예측에는 다음과 같은 인기 있는 기관 링크가 참조되었습니다.

    이코노미 스트
    다음 단계로 넘어가는 방법

    이 예측에는 다음 Quantumrun 링크가 참조되었습니다.