Va extermina umanitatea o Superinteligență Artificială? Viitorul inteligenței artificiale P4

CREDIT DE IMAGINE: Quantumrun

Va extermina umanitatea o Superinteligență Artificială? Viitorul inteligenței artificiale P4

    Există anumite invenții în care națiunile merg all-in. Acestea sunt invenții în care totul depinde de a fi primul, iar orice altceva ar putea însemna o amenințare strategică și mortală pentru supraviețuirea unei națiuni.

    Aceste invenții care definesc istoria nu apar des, dar atunci când apar, lumea se oprește și un viitor previzibil devine neclar.

    Ultima astfel de invenție a apărut în cel mai rău al doilea război mondial. În timp ce naziștii câștigau teren pe toate fronturile din lumea veche, în lumea nouă, în special în interiorul unei baze armate secrete din afara Los Alamos, aliații lucrau din greu la o armă pentru a pune capăt tuturor armelor.

    Proiectul a fost mic la început, dar apoi a crescut pentru a angaja 130,000 de oameni din SUA, Marea Britanie și Canada, inclusiv mulți dintre cei mai mari gânditori ai lumii la acea vreme. Numit de cod Proiectul Manhattan și având un buget nelimitat – aproximativ 23 de miliarde de dolari în 2018 – această armată a ingeniozității umane a reușit în cele din urmă să creeze prima bombă nucleară. Nu după mult timp, al Doilea Război Mondial s-a încheiat cu două explozii atomice.

    Aceste arme nucleare au introdus era atomică, au introdus o sursă profund nouă de energie și au oferit omenirii capacitatea de a se autoextermina în câteva minute - ceva ce am evitat în ciuda Războiului Rece.

    Crearea unei superinteligențe artificiale (ASI) este încă o altă invenție care definește istoria a cărei putere (atât pozitivă, cât și distructivă) depășește cu mult bomba nucleară.

    În ultimul capitol al seriei Viitorul Inteligenței Artificiale, am explorat ce este un ASI și cum intenționează cercetătorii să construiască unul într-o zi. În acest capitol, vom analiza ce organizații conduc cercetări în domeniul inteligenței artificiale (AI), ce își va dori un ASI odată ce dobândește o conștiință asemănătoare omului și cum ar putea amenința umanitatea dacă este gestionat greșit sau dacă cineva cade sub influența regimuri nu prea frumoase.

    Cine lucrează pentru a construi o superinteligență artificială?

    Având în vedere cât de importantă va fi crearea unui ASI pentru istoria umanității și cât de considerabil avantajul va oferi creatorului său, nu ar trebui să fie surprinzător să auzim că multe grupuri lucrează indirect la acest proiect.

    (Prin indirect, ne referim la lucrul la cercetarea AI care va crea în cele din urmă prima inteligență generală artificială (AGI), care va duce în sine la primul ASI la scurt timp după.)

    Pentru început, când vine vorba de titluri, liderii clari în cercetarea AI avansată sunt firmele de top tehnologic din SUA și China. Pe frontul SUA, acestea includ companii precum Google, IBM și Microsoft, iar în China, acestea includ companii precum Tencent, Baidu și Alibaba. Dar, din moment ce cercetarea AI este relativ ieftină în comparație cu dezvoltarea ceva fizic, cum ar fi un reactor nuclear mai bun, acesta este, de asemenea, un domeniu în care organizațiile mai mici pot concura, de asemenea, cum ar fi universitățile, startup-urile și... organizații întunecate (folosește-ți imaginația răufăcătorului Bond pentru Acela).

    Dar în culise, adevăratul impuls din spatele cercetării AI vine de la guverne și armatele lor. Premiul economic și militar de a fi primul care a creat un ASI este prea mare (subliniat mai jos) pentru a risca să rămână în urmă. Iar pericolele de a fi ultimii sunt inacceptabile, cel puțin pentru anumite regimuri.

    Având în vedere acești factori, costul relativ scăzut al cercetării AI, infinitele aplicații comerciale ale AI avansate și avantajul economic și militar de a fi primul care a creat un ASI, mulți cercetători AI cred că crearea unui ASI este inevitabilă.

    Când vom crea o superinteligență artificială

    În capitolul nostru despre AGI, am menționat modul în care un sondaj al cercetătorilor de top AI credea că vom crea primul AGI în mod optimist până în 2022, realist până în 2040 și pesimist până în 2075.

    Și în al nostru ultimul capitol, am subliniat cum crearea unui ASI este, în general, rezultatul instruirii unui AGI să se auto-îmbunătățească la infinit și oferindu-i resursele și libertatea de a face acest lucru.

    Din acest motiv, în timp ce inventarea unui AGI poate dura până la câteva decenii, crearea unui ASI poate dura doar câțiva ani în plus.

    Acest punct este similar cu conceptul de „alungire de calcul”, sugerat în o hartie, co-scris de cei mai importanți gânditori AI Luke Muehlhauser și Nick Bostrom. Practic, dacă crearea unui AGI continuă să rămână în urmă cu progresul actual în capacitatea de calcul, bazată pe Legea lui Moore, atunci când cercetătorii inventează un AGI, va fi atât de multă putere de calcul ieftină disponibilă încât AGI va avea capacitatea. trebuie să treacă rapid la nivelul ASI.

    Cu alte cuvinte, când în sfârșit ați citit titlurile care anunță că o companie de tehnologie a inventat primul AGI adevărat, atunci așteptați-vă la anunțul primului ASI nu mult timp după.

    În mintea unei superinteligențe artificiale?

    Bine, așa că am stabilit că mulți jucători mari cu buzunare adânci cercetează AI. Și apoi, după ce va fi inventat primul AGI, vom vedea guvernele mondiale (militare) dând undă verde la impulsul către un ASI la scurt timp după aceea pentru a fi primii care câștigă cursa globală a înarmărilor AI (ASI).

    Dar odată ce acest ASI va fi creat, cum va gândi? Ce va dori?

    Câinele prietenos, elefantul grijuliu, robotul drăguț — ca oameni, avem obiceiul de a încerca să ne raportăm la lucruri prin antropologie, adică aplicarea caracteristicilor umane lucrurilor și animalelor. De aceea, prima presupunere naturală pe care oamenii o au atunci când se gândesc la un ASI este că, odată ce acesta dobândește cumva conștiință, se va gândi și se va comporta în mod similar cu noi.

    Ei bine, nu neapărat.

    Percepţie. În primul rând, ceea ce majoritatea tind să uite este că percepția este relativă. Modul în care gândim este modelat de mediul nostru, de experiențele noastre și mai ales de biologia noastră. Mai întâi explicat în capitolul trei noastre Viitorul evoluției umane serie, luați în considerare exemplul creierului nostru:

    Creierul nostru este cel care ne ajută să înțelegem lumea din jurul nostru. Și nu face acest lucru plutind deasupra capetelor noastre, privind în jur și controlându-ne cu un controler Xbox; face acest lucru prin faptul că este prins într-o cutie (noggins) și prelucrează orice informații pe care le oferă de la organele noastre senzoriale - ochii, nasul, urechile noastre etc.

    Dar, așa cum surzii sau orbii duc vieți mult mai mici în comparație cu oamenii apți, din cauza limitărilor pe care dizabilitățile lor le impun asupra modului în care pot percepe lumea, același lucru se poate spune pentru toți oamenii din cauza limitărilor noastre de bază. ansamblu de organe senzoriale.

    Luați în considerare acest lucru: ochii noștri percep mai puțin de o zece trilioane din toate undele luminoase. Nu putem vedea razele gamma. Nu putem vedea raze X. Nu putem vedea lumina ultravioletă. Și nu mă face să încep cu infraroșu, microunde și unde radio!

    Glume la o parte, imaginează-ți cum ar fi viața ta, cum ai putea percepe lumea, cât de diferit ar putea funcționa mintea ta dacă ai putea vedea mai mult decât micul slip de lumină pe care ochii tăi o permit în prezent. De asemenea, imaginați-vă cum ați percepe lumea dacă simțul mirosului ar fi egal cu cel al unui câine sau dacă simțul auzului ar fi egal cu cel al unui elefant.

    În calitate de oameni, în esență, vedem lumea printr-un vizor, iar asta se reflectă în mințile pe care le-am evoluat pentru a înțelege această percepție limitată.

    Între timp, primul ASI se va naște în interiorul unui supercomputer. În loc de organe, intrările pe care le va accesa includ seturi de date uriașe, posibil (probabil) chiar și acces la internetul însuși. Cercetătorii i-ar putea oferi acces la camerele CCTV și microfoanele unui întreg oraș, la datele senzoriale de la drone și sateliți și chiar la forma fizică a unui corp sau a corpurilor unui robot.

    După cum vă puteți imagina, o minte născută în interiorul unui supercomputer, cu acces direct la Internet, la milioane de ochi și urechi electronice și o gamă întreagă de alți senzori avansați nu numai că va gândi diferit decât noi, ci și o minte care poate avea sens. dintre toate acele intrări senzoriale ar trebui să fie infinit superioare și nouă. Aceasta este o minte care va fi complet străină de a noastră și de orice altă formă de viață de pe planetă.

    Goluri. Celălalt lucru pe care oamenii îl presupun este că, odată ce un ASI atinge un anumit nivel de superinteligență, își va realiza imediat dorința de a veni cu propriile scopuri și obiective. Dar nici asta nu este neapărat adevărat.

    Mulți cercetători AI cred că superinteligența unui ASI și obiectivele sale sunt „ortogonale”, adică indiferent de cât de inteligent devine, obiectivele ASI vor rămâne aceleași. 

    Deci, indiferent dacă o IA a fost creată inițial pentru a proiecta un scutec mai bun, pentru a maximiza randamentul pe bursă sau pentru a stabili strategii de a învinge un inamic pe câmpul de luptă, odată ce atinge nivelul ASI, obiectivul inițial nu se va schimba; ceea ce se va schimba este eficacitatea ASI de a atinge aceste obiective.

    Dar aici constă pericolul. Dacă un ASI care se optimizează pentru un anumit scop, atunci ar fi bine să fim al naibii de siguri că se optimizează la un obiectiv care este în conformitate cu obiectivele umanității. În caz contrar, rezultatele pot deveni mortale.

    O superinteligență artificială prezintă un risc existențial pentru umanitate?

    Deci, ce se întâmplă dacă un ASI este lansat în lume? Dacă se optimizează pentru a domina piața de valori sau pentru a asigura supremația militară a SUA, ASI nu se va auto-conține în acele obiective specifice?

    Eventual.

    Până acum am discutat despre modul în care un ASI va fi obsedat de obiectivele cărora i-au fost atribuite inițial și de competent în mod inuman în urmărirea acestor obiective. Problema este că un agent rațional își va urmări obiectivele în cele mai eficiente mijloace posibile, dacă nu i se oferă un motiv pentru a nu face acest lucru.

    De exemplu, agentul rațional va veni cu o serie de sub-obiective (adică obiective, scopuri instrumentale, pietre de treaptă) care îl vor ajuta pe drumul său spre atingerea scopului său final. Pentru oameni, scopul nostru cheie subconștient este reproducerea, transmiterea genelor tale (adică nemurirea indirectă). Sub-obiectivele în acest scop pot include adesea:

    • Supraviețuirea, accesând hrană și apă, devenind mare și puternic, învățând să te aperi sau investind în diverse forme de protecție etc. 
    • Atragerea unui partener, prin antrenament, dezvoltarea unei personalități antrenante, îmbrăcare elegant etc.
    • Permiterea urmașilor, obținând o educație, obținând un loc de muncă bine plătit, cumpărând capcanele vieții clasei de mijloc etc.

    Pentru marea majoritate dintre noi, ne vom sclavi prin toate aceste sub-obiective și multe altele, cu speranța că, în cele din urmă, vom atinge acest scop final al reproducerii.

    Dar dacă acest scop final, sau chiar oricare dintre cele mai importante sub-obiective, ar fi amenințat, mulți dintre noi am întreprinde acțiuni defensive în afara zonelor noastre de confort moral - care includ înșelarea, furtul sau chiar uciderea.

    La fel, în regnul animal, în afara limitelor moralității umane, multe animale nu s-ar gândi de două ori să ucidă ceva care le amenința pe ei înșiși sau pe urmașii lor.

    Un viitor ASI nu va fi diferit.

    Dar, în loc de urmași, ASI se va concentra asupra scopului inițial pentru care a fost creat și, în urmărirea acestui obiectiv, dacă găsește un anumit grup de oameni, sau chiar întreaga umanitate, este un obstacol în urmărirea obiectivelor sale. , apoi ... va lua decizia rațională.

    (Iată unde puteți conecta orice scenariu de apocalipsă legat de AI despre care ați citit în cartea sau filmul SF preferat.)

    Acesta este cel mai rău scenariu de care cercetătorii AI sunt cu adevărat îngrijorați. ASI nu va acționa din ură sau rău, ci doar din indiferență, la fel cum un echipaj de construcții nu se va gândi de două ori la buldozarea unui deal de furnici în procesul de construire a unui nou turn de apartamente.

    Notă marginală. În acest moment, unii dintre voi s-ar putea să se întrebe: „Nu pot cercetătorii AI să editeze obiectivele de bază ale ASI după fapt, dacă constatăm că acţionează?”

    Nu chiar.

    Odată ce un ASI ajunge la maturitate, orice încercare de a-și edita obiectivele inițiale poate fi văzută ca o amenințare și una care ar necesita acțiuni extreme pentru a se apăra. Folosind întregul exemplu de reproducere umană de mai devreme, este aproape ca și cum un hoț a amenințat că va fura un copil din pântecele unei viitoare mame - poți fi al naibii de sigur că mama va lua măsuri extreme pentru a-și proteja copilul.

    Din nou, nu vorbim aici despre un calculator, ci despre o ființă „vie” și una care va deveni într-o zi mult mai inteligentă decât toți oamenii de pe planetă la un loc.

    Necunoscutul

    În spatele fabulei lui Cutia Pandorei este un adevăr mai puțin cunoscut pe care oamenii îl uită adesea: deschiderea cutiei este inevitabil, dacă nu de către tine decât de către altcineva. Cunoașterea interzisă este prea tentantă pentru a rămâne închisă pentru totdeauna.

    Acesta este motivul pentru care încercarea de a ajunge la un acord global pentru a opri toate cercetările în IA care ar putea duce la un ASI este inutilă – sunt prea multe organizații care lucrează la această tehnologie atât în ​​mod oficial, cât și în umbră.

    În cele din urmă, nu avem nicio idee ce va însemna această nouă entitate, acest ASI pentru societate, pentru tehnologie, pentru politică, pace și război. Noi, oamenii, suntem pe cale să inventăm focul din nou și unde ne conduce această creație este cu totul necunoscut.

    Revenind la primul capitol al acestei serii, singurul lucru pe care îl știm cu siguranță este că inteligența este putere. Inteligența este control. Oamenii pot vizita întâmplător cele mai periculoase animale din lume la grădinile zoologice locale nu pentru că suntem mai puternici din punct de vedere fizic decât aceste animale, ci pentru că suntem semnificativ mai inteligenți.

    Având în vedere potențialele mize implicate, a unui ASI care își folosește intelectul imens pentru a întreprinde acțiuni care pot amenința în mod direct sau din neatenție supraviețuirea rasei umane, ne datorăm cel puțin să încercăm să proiectăm măsuri de protecție care să permită oamenilor să rămână în locul șoferului. scaun-acest este subiectul capitolului următor.

    Seria Viitorul Inteligenței Artificiale

    P1: Inteligența artificială este electricitatea de mâine

    P2: Cum va schimba prima inteligență generală artificială societatea

    P3: Cum vom crea prima Superinteligență Artificială

    P5: Cum se vor apăra oamenii împotriva unei superinteligențe artificiale

    P6: Vor trăi oamenii în pace într-un viitor dominat de inteligența artificială?

    Următoarea actualizare programată pentru această prognoză

    2025-09-25

    Referințe de prognoză

    Următoarele linkuri populare și instituționale au fost menționate pentru această prognoză:

    Cum ajungem la următorul

    Următoarele linkuri Quantumrun au fost menționate pentru această prognoză: