Cum se vor apăra oamenii împotriva unei superinteligențe artificiale: viitorul inteligenței artificiale P5

CREDIT DE IMAGINE: Quantumrun

Cum se vor apăra oamenii împotriva unei superinteligențe artificiale: viitorul inteligenței artificiale P5

    Anul este 65,000 î.Hr., iar ca a Thylacoleo, tu și oamenii tăi ai fost marii vânători ai Australiei antice. Ai cutreierat liber pământul și ai trăit în echilibru cu ceilalți prădători și prada care au ocupat pământul alături de tine. Anotimpurile au adus schimbări, dar statutul tău în regnul animal a rămas necontestat atât timp cât tu și strămoșii tăi ți-ai amintit. Apoi, într-o zi, au apărut noi veniți.

    Se zvonește că au sosit de pe zidul uriaș de apă, dar aceste creaturi păreau mai confortabil să trăiască pe uscat. Trebuia să vezi aceste creaturi pentru tine.

    A durat câteva zile, dar în sfârșit ai ajuns pe coastă. Focul de pe cer se aprindea, un moment perfect pentru a spiona aceste creaturi, poate chiar să încerci să mănânci una pentru a vedea ce gust aveau.

    Vedeți unul.

    Mergea pe două picioare și nu avea blană. Părea slab. Neimpresionant. Cu greu merită teama pe care o provoca în regat.

    Începeți să vă apropiați cu atenție în timp ce noaptea alungă lumina. Te apropii. Apoi înghețați. Se aud zgomote puternice și apoi încă patru dintre ele apar din pădure din spatele ei. Cât de multe sunt acolo?

    Creatura îi urmează pe ceilalți în linia copacilor, iar tu îi urmezi. Și cu cât faci mai multe, cu atât auzi mai multe sunete ciudate până când vezi și mai multe dintre aceste creaturi. Urmăriți de la distanță când ies din pădure într-o poiană de lângă mal. Sunt multe dintre ele. Dar, mai important, toți stau calm în jurul unui foc.

    Ai mai văzut aceste incendii. În sezonul cald, focul de pe cer uneori vizita pământul și ardea păduri întregi. Aceste creaturi, pe de altă parte, o controlau cumva. Ce fel de creaturi pot poseda o asemenea putere?

    Te uiți în depărtare. Mai multe vin peste zidul de apă uriaș.

    Faci un pas înapoi.

    Aceste creaturi nu sunt ca celelalte din regat. Sunt ceva cu totul nou.

    Decizi să pleci și să-ți avertizezi rudele. Dacă numărul lor crește prea mare, cine știe ce s-ar putea întâmpla.

    ***

    Se crede că Thylacoleo a dispărut la relativ scurt timp după sosirea oamenilor, împreună cu majoritatea celorlalte megafaune de pe continentul australian. Niciun alt prădător de mamifer de vârf nu i-a luat locul, adică dacă nu numărați oamenii în acea categorie.

    Reprezentarea acestei alegorii este punctul central al acestui capitol din serie: O viitoare superinteligență artificială (ASI) ne va transforma pe toți în baterii și apoi ne va conecta la Matrix sau vor găsi oamenii o modalitate de a evita să devină victima unui SF? Complotul apocalipsei AI?

    Până acum, în seria noastră despre Viitorul inteligenței artificiale, am explorat toate tipurile de IA, inclusiv potențialul pozitiv al unei anumite forme de IA, ASI: o ființă artificială a cărei inteligență viitoare ne va face să arătăm ca furnici în comparație.

    Dar cine poate spune că o ființă atât de inteligentă ar accepta să primească ordine de la oameni pentru totdeauna. Ce vom face dacă lucrurile merg în sud? Cum ne vom apăra de o ASI necinstită?

    În acest capitol, vom trece peste hype-ul fals – cel puțin în ceea ce privește pericolele „nivelului de extincție umană” – și ne vom concentra asupra opțiunilor realiste de autoapărare disponibile guvernelor lumii.

    Putem opri orice cercetare ulterioară asupra unei superinteligențe artificiale?

    Având în vedere potențialele riscuri pe care le-ar putea prezenta un ASI pentru umanitate, prima întrebare evidentă care trebuie pusă este: Nu putem să oprim toate cercetările ulterioare în AI? Sau cel puțin interzicem orice cercetare care ne poate aduce periculos de aproape de crearea unui ASI?

    Răspuns scurt: Nu.

    Răspuns lung: Să ne uităm la diferiții jucători implicați aici.

    La nivel de cercetare, există astăzi prea mulți cercetători AI de la prea multe startup-uri, companii și universități din întreaga lume. Dacă o companie sau o țară ar decide să-și limiteze eforturile de cercetare AI, pur și simplu ar continua în altă parte.

    Între timp, cele mai valoroase companii de pe planetă își fac averea din aplicarea sistemelor AI pentru afacerile lor specifice. A le cere să oprească sau să limiteze dezvoltarea instrumentelor AI este asemănător cu a le cere să oprească sau să limiteze creșterea lor viitoare. Din punct de vedere financiar, acest lucru le-ar amenința afacerile pe termen lung. Din punct de vedere juridic, corporațiile au responsabilitatea fiduciară de a construi în mod continuu valoare pentru părțile interesate; asta înseamnă că orice acțiune care ar limita creșterea acelei valori ar putea duce la un proces. Și dacă vreun politician ar încerca să limiteze cercetarea AI, atunci aceste corporații uriașe ar plăti doar taxele de lobby necesare pentru a se răzgândi sau a colegilor lor.

    Pentru luptă, la fel cum teroriștii și luptătorii pentru libertate din întreaga lume au folosit tactici de gherilă pentru a lupta împotriva armatelor mai bine finanțate, națiunile mai mici vor avea un stimulent să folosească AI ca un avantaj tactic similar împotriva națiunilor mai mari care ar putea avea o serie de avantaje militare. De asemenea, pentru militarii de top, precum cei aparținând SUA, Rusiei și Chinei, construirea unui ASI militar este la egalitate cu a avea un arsenal de arme nucleare în buzunarul din spate. Cu alte cuvinte, toate armatele vor continua să finanțeze IA doar pentru a rămâne relevante în viitor.

    Ce zici de guverne? Adevărat, majoritatea politicienilor din zilele noastre (2018) sunt analfabeți din punct de vedere tehnologic și nu înțeleg ce este AI sau potențialul său viitor – acest lucru îi face ușor de manipulat de interesele corporative.

    Și la nivel global, luați în considerare cât de dificil a fost să convingi guvernele lumii să semneze 2015 Acordul Paris pentru a aborda schimbările climatice – și odată semnate, multe dintre obligații nici măcar nu erau obligatorii. Nu numai că, schimbările climatice sunt o problemă pe care oamenii se confruntă fizic la nivel global prin evenimente meteorologice din ce în ce mai frecvente și severe. Acum, când vorbim despre acceptarea limitelor AI, aceasta este o problemă care este în mare măsură invizibilă și abia de înțeles pentru public, așa că noroc să obțineți acceptarea oricărui tip de „Acord de la Paris” pentru limitarea AI.

    Cu alte cuvinte, există prea multe interese care cercetează AI pentru propriile lor scopuri pentru a opri orice cercetare care poate duce în cele din urmă la un ASI. 

    Putem pune în cușcă o superinteligență artificială?

    Următoarea întrebare rezonabilă este: putem pune în cușcă sau controlăm un ASI odată ce inevitabil creăm unul? 

    Răspuns scurt: Din nou, nu.

    Răspuns lung: Tehnologia nu poate fi limitată.

    În primul rând, luați în considerare miile până la milioane de dezvoltatori web și informaticieni din lume care produc în mod constant software nou sau versiuni noi ale software-ului existent. Putem spune sincer că fiecare dintre versiunile lor de software este 100% fără erori? Aceste erori sunt pe care hackerii profesioniști le folosesc pentru a fura informațiile despre cardul de credit a milioane de oameni sau secretele clasificate ale națiunilor - și aceștia sunt hackeri umani. Pentru un ASI, presupunând că ar avea un stimulent să scape de cușca sa digitală, atunci procesul de a găsi erori și de a sparge software-ul ar fi ușor.

    Dar chiar dacă o echipă de cercetare AI a găsit o modalitate de a introduce un ASI, asta nu înseamnă că și următoarele 1,000 de echipe își vor da seama sau vor fi stimulate să-l folosească.

    Va fi nevoie de miliarde de dolari și poate chiar de decenii pentru a crea un ASI. Corporațiile sau guvernele care investesc acest tip de bani și timp se vor aștepta la o rentabilitate semnificativă a investiției lor. Și pentru ca un ASI să ofere acest tip de rentabilitate – fie că este vorba de jocul pieței de valori sau de a inventa un nou produs de un miliard de dolari sau de a planifica o strategie câștigătoare pentru a lupta împotriva unei armate mai mari – va avea nevoie de acces gratuit la un set de date gigant sau chiar la internet. ea însăși pentru a produce acele randamente.

    Și odată ce un ASI obține acces la rețelele lumii, nu există garanții că îl putem îndesa înapoi în cușcă.

    Poate o superinteligență artificială să învețe să fie bună?

    În acest moment, cercetătorii AI nu sunt îngrijorați că un ASI va deveni rău. Întregul trofeu științifico-fantastic rău, AI este doar oameni care se antropomorfizează din nou. Un viitor ASI nu va fi nici bun, nici rău – concepte umane – pur și simplu amoral.

    Așadar, presupunerea naturală este că, având în vedere această listă etică goală, cercetătorii AI pot programa în primele coduri etice ASI care sunt în conformitate cu ale noastre, astfel încât să nu ajungă să dezlănțuie Terminators asupra noastră sau să ne transforme pe toți în baterii Matrix.

    Dar această presupunere se bazează pe o presupunere secundară că cercetătorii AI sunt, de asemenea, experți în etică, filozofie și psihologie.

    De fapt, majoritatea nu sunt.

    Potrivit psihologului și autorului cognitiv, Steven Pinker, această realitate înseamnă că sarcina de a codifica etica poate merge prost într-o varietate de moduri diferite.

    De exemplu, chiar și cei mai bine intenționați cercetători AI pot codifica din neatenție aceste coduri etice ASI prost gândite care, în anumite scenarii, pot determina ASI să acționeze ca un sociopat.

    De asemenea, există o probabilitate egală ca un cercetător AI să programeze coduri etice care includ părtinirile înnăscute ale cercetătorului. De exemplu, cum s-ar comporta un ASI dacă ar fi construit cu etica derivată dintr-o perspectivă conservatoare versus liberală, sau dintr-o tradiție budistă versus creștină sau islamică?

    Cred că vedeți problema aici: nu există un set universal de morală umană. Dacă vrem ca ASI-ul nostru să acționeze după un cod etic, de unde va veni? Ce reguli includem și excludem? Cine decide?

    Sau să presupunem că acești cercetători AI creează un ASI care este perfect în conformitate cu normele și legile culturale moderne de astăzi. Apoi folosim acest ASI pentru a ajuta birocrațiile federale, statale/provinciale și municipale să funcționeze mai eficient și să aplice mai bine aceste norme și legi (apropo, un caz de utilizare probabil pentru un ASI). Ei bine, ce se întâmplă când cultura noastră se schimbă?

    Imaginați-vă că un ASI a fost creat de Biserica Catolică la apogeul puterii sale în timpul Europei medievale (1300-1400) cu scopul de a ajuta biserica să gestioneze populația și de a asigura aderarea strictă la dogma religioasă a vremii. Secole mai târziu, s-ar bucura femeile de aceleași drepturi ca și astăzi? Ar fi protejate minoritățile? Ar fi promovată libertatea de exprimare? Ar fi impusă separarea dintre biserică și stat? Știința modernă?

    Cu alte cuvinte, vrem să întemnițăm viitorul la moravurile și obiceiurile de astăzi?

    O abordare alternativă este cea împărtășită de Colin Allen, coautor al cărții, Mașini morale: Predarea roboților din greșit. În loc să încercăm să codificăm reguli etice rigide, îi punem pe ASI să învețe etica și moralitatea comună în același mod în care o fac oamenii, prin experiență și interacțiuni cu ceilalți.

    Problema aici, totuși, este dacă cercetătorii AI își dau seama nu numai cum să predea unui ASI normele noastre culturale și etice actuale, ci și cum să se adapteze la noile norme culturale pe măsură ce apar (ceva numit „normatitate indirectă”), atunci cum acest ASI decide să-și evolueze înțelegerea normelor culturale și etice devine imprevizibilă.

    Și asta este provocarea.

    Pe de o parte, cercetătorii AI pot încerca să codifice standarde sau reguli etice stricte în ASI pentru a încerca să-și controleze comportamentul, dar riscă să fie introduse consecințe neprevăzute din codificare neglijentă, părtinire neintenționată și norme societale care ar putea deveni într-o zi depășite. Pe de altă parte, putem încerca să instruim ASI să învețe să înțeleagă etica și morala umană într-o manieră care este egală sau superioară propriei noastre înțelegeri și apoi să sperăm că își poate evolua cu acuratețe înțelegerea eticii și moralei pe măsură ce societatea umană progresează. înainte de deceniile și secolele următoare.

    Oricum, orice încercare de a alinia obiectivele unui ASI cu ale noastre prezintă un mare risc.

    Ce se întâmplă dacă actorii răi creează în mod intenționat superinteligență artificială diabolică?

    Având în vedere șirul de gândire prezentat până acum, este o întrebare corectă să ne întrebăm dacă este posibil ca un grup terorist sau o națiune necinstită să creeze un ASI „diabolic” pentru propriile scopuri.

    Acest lucru este foarte posibil, mai ales după ce cercetările implicate în crearea unui ASI devin disponibile online cumva.

    Dar, așa cum am sugerat mai devreme, costurile și expertiza implicate în crearea primului ASI vor fi enorme, ceea ce înseamnă că primul ASI va fi probabil creat de o organizație care este controlată sau puternic influențată de o națiune dezvoltată, probabil SUA, China și Japonia ( Coreea și una dintre cele mai importante țări din UE sunt la distanță).

    Toate aceste țări, deși concurente, au fiecare un stimulent economic puternic pentru a menține ordinea mondială – ASI-urile pe care le creează vor reflecta această dorință, chiar și în timp ce promovează interesele națiunilor cu care se aliniază.

    În plus, inteligența teoretică și puterea unui ASI este egală cu puterea de calcul la care are acces, adică ASI-urile din țările dezvoltate (care își pot permite o grămadă de miliarde de dolari supercomputere) va avea un avantaj enorm față de ASI din națiuni mai mici sau grupuri criminale independente. De asemenea, ASI-urile devin mai inteligente, mai repede în timp.

    Deci, având în vedere acest avans, combinat cu un acces mai mare la puterea de calcul brută, în cazul în care o organizație/națiune în umbră ar crea un ASI periculos, ASI-urile din țările dezvoltate fie îl vor ucide, fie îl vor bloca.

    (Această linie de gândire este, de asemenea, motivul pentru care unii cercetători AI cred că va exista doar un singur ASI pe planetă, deoarece primul ASI va avea un avantaj atât de mare față de toate ASI-urile de succes, încât ar putea vedea viitoarele ASI ca amenințări de ucis. preventiv. Acesta este încă un motiv pentru care națiunile finanțează continuarea cercetării în domeniul inteligenței artificiale, doar în cazul în care aceasta devine o competiție „primul loc sau nimic”.)

    Inteligența ASI nu va accelera sau exploda așa cum credem

    Nu putem opri crearea unui ASI. Nu îl putem controla în totalitate. Nu putem fi siguri că va acționa întotdeauna în conformitate cu obiceiurile noastre comune. Doamne, începem să sună ca niște părinți de elicopter aici!

    Dar ceea ce separă umanitatea de părintele tău supraprotector tipic este că dăm naștere unei ființe a cărei inteligență va crește cu mult dincolo de a noastră. (Și nu, nu este la fel ca atunci când părinții tăi îți cer să le repari computerul ori de câte ori vii acasă pentru o vizită.) 

    În capitolele anterioare ale acestei serii despre viitorul inteligenței artificiale, am explorat de ce cercetătorii AI cred că inteligența unui ASI va crește dincolo de control. Dar aici, vom sparge acea bula... cam. 

    Vedeți, inteligența nu se creează doar din neant, ci se dezvoltă prin experiență care este modelată de stimuli externi.  

    Cu alte cuvinte, putem programa un AI cu potenţial pentru a deveni super inteligent, dar dacă nu încărcăm în el o tonă de date sau îi dăm acces nerestricționat la Internet sau chiar dacă îi dăm un corp robot, nu va învăța nimic pentru a atinge acel potențial. 

    Și chiar dacă obține acces la unul sau mai mulți dintre acei stimuli, cunoașterea sau inteligența implică mai mult decât colectarea de date, implică metoda științifică - efectuarea unei observații, formularea unei întrebări, a unei ipoteze, efectuarea de experimente, realizarea unei concluzii, clătirea. și repetă pentru totdeauna. Mai ales dacă aceste experimente implică lucruri fizice sau observarea ființelor umane, colectarea rezultatelor fiecărui experiment ar putea dura săptămâni, luni sau ani. Acest lucru nici măcar nu ține cont de banii și resursele brute necesare pentru realizarea acestor experimente, mai ales dacă acestea implică construirea unui nou telescop sau a unei fabrici. 

    Cu alte cuvinte, da, un ASI va învăța rapid, dar inteligența nu este magie. Nu poți să conectați un ASI la un supercomputer și să vă așteptați să fie atotștiutor. Vor exista constrângeri fizice în ceea ce privește achiziția de date de către ASI, ceea ce înseamnă că vor exista constrângeri fizice la viteza cu care acesta devine mai inteligent. Aceste constrângeri vor oferi omenirii timpul de care are nevoie pentru a plasa controalele necesare asupra acestui ASI dacă începe să acționeze în afara obiectivelor umane.

    O superinteligență artificială este periculoasă doar dacă ajunge în lumea reală

    Un alt punct care s-a pierdut în toată această dezbatere despre pericolul ASI este că aceste ASI nu vor exista în niciunul. Vor avea o formă fizică. Și orice are o formă fizică poate fi controlat.

    În primul rând, pentru ca un ASI să-și atingă potențialul de inteligență, nu poate fi găzduit într-un singur corp de robot, deoarece acest corp și-ar limita potențialul de creștere de calcul. (De aceea corpurile robotului vor fi mai potrivite pentru AGI-uri sau inteligențe generale artificiale explicate în capitolul doi din această serie, cum ar fi Data din Star Trek sau R2D2 din Star Wars. Ființe inteligente și capabile, dar ca și oamenii, vor avea o limită la cât de deștepți pot deveni.)

    Aceasta înseamnă că aceste viitoare ASI vor exista cel mai probabil în interiorul unui supercomputer sau a unei rețele de supercalculatoare care sunt ele însele găzduite în complexe mari de clădiri. Dacă un ASI se întoarce, oamenii pot fie să întrerupă alimentarea acestor clădiri, să le întrerupă de la internet, fie să bombardeze aceste clădiri. Scump, dar realizabil.

    Dar atunci s-ar putea să vă întrebați, acești ASI nu se pot replica sau nu se pot susține? Da, dar dimensiunea fișierului brut al acestor ASI-uri va fi probabil atât de mare încât singurele servere care le pot gestiona aparțin unor mari corporații sau guverne, ceea ce înseamnă că nu vor fi greu de vânat.

    Poate o superinteligență artificială să declanșeze un război nuclear sau o nouă ciuma?

    În acest moment, s-ar putea să vă gândiți la toate emisiunile și filmele științifico-fantastice de apocalipsa pe care le-ați urmărit când creșteți și să vă gândiți că aceste ASI nu au rămas în supercomputerele lor, ci au făcut daune reale în lumea reală!

    Ei bine, hai să le descompunem.

    De exemplu, ce se întâmplă dacă un ASI amenință lumea reală transformându-se în ceva asemănător unui ASI Skynet din franciza de film, The Terminator. În acest caz, ASI ar trebui secret păcăliți un întreg complex industrial militar dintr-o națiune avansată pentru a construi fabrici gigantice care pot produce milioane de roboți ucigași de drone pentru a-și îndeplini ordinul rău. În zilele noastre, asta este o întindere.

    Alte posibilități includ un ASI care amenință oamenii cu război nuclear și arme biologice.

    De exemplu, un ASI manipulează cumva operatorii sau pirata codurile de lansare care comandă arsenalul nuclear al unei națiuni avansate și lansează o primă lovitură care va forța țările adverse să riposteze cu propriile lor opțiuni nucleare (din nou, reluând povestea de fundal a Terminator). Sau dacă un ASI intră într-un laborator farmaceutic, modifică procesul de fabricație și otrăvește milioane de pastile medicale sau declanșează un focar mortal al unui super virus.

    În primul rând, opțiunea nucleară este dezactivată. Supercalculatoarele moderne și viitoare sunt întotdeauna construite în apropierea centrelor (orașelor) de influență în cadrul oricărei țări date, adică primele ținte care trebuie atacate în timpul oricărui război dat. Chiar dacă supercalculatoarele de astăzi se micșorează la dimensiunea desktop-urilor, aceste ASI-uri vor avea în continuare o prezență fizică, ceea ce înseamnă să existe și să crească, au nevoie de acces neîntrerupt la date, putere de calcul, electricitate și alte materii prime, toate acestea fiind grav deteriorate după un război nuclear global. (Pentru a fi corect, dacă un ASI este creat fără un „instinct de supraviețuire”, atunci această amenințare nucleară este un pericol foarte real.)

    Aceasta înseamnă – din nou, presupunând că ASI este programat să se protejeze – că va lucra activ pentru a evita orice incident nuclear catastrofal. Un fel ca doctrina distrugerii reciproce asigurate (MAD), dar aplicată AI.

    Și în cazul pastilelor otrăvite, poate câteva sute de oameni vor muri, dar sistemele moderne de siguranță farmaceutică vor vedea sticlele de pastile contaminate scoase de pe rafturi în câteva zile. Între timp, măsurile moderne de control al focarelor sunt destul de sofisticate și se îmbunătățesc cu fiecare an care trece; ultimul focar major, focarul Ebola din Africa de Vest din 2014, nu a durat mai mult de câteva luni în majoritatea țărilor și puțin sub trei ani în țările cel mai puțin dezvoltate.

    Deci, dacă are noroc, un ASI poate șterge câteva milioane cu un focar viral, dar într-o lume de nouă miliarde până în 2045, asta ar fi relativ nesemnificativ și nu merită riscul de a fi șters.

    Cu alte cuvinte, cu fiecare an care trece, lumea dezvoltă din ce în ce mai multe măsuri de protecție împotriva unei game din ce în ce mai extinse de posibile amenințări. Un ASI poate provoca o cantitate semnificativă de daune, dar nu va pune capăt umanității decât dacă o ajutăm în mod activ să facă acest lucru.

    Apărarea împotriva unei superinteligențe artificiale necinstite

    Până în acest moment, am abordat o serie de concepții greșite și exagerări despre ASI și, totuși, criticii vor rămâne. Din fericire, după majoritatea estimărilor, avem decenii înainte ca primul ASI să intre în lumea noastră. Și având în vedere numărul de minți grozave care lucrează în prezent la această provocare, șansele sunt că vom învăța cum să ne apărăm împotriva ASI necinstiți, astfel încât să putem beneficia de toate soluțiile pe care un ASI prietenos ni le poate crea.

    Din perspectiva lui Quantumrun, apărarea împotriva celui mai rău scenariu ASI va implica alinierea intereselor noastre la ASI.

    MAD pentru AI: Pentru a se apăra împotriva celor mai defavorabile scenarii, națiunile trebuie să (1) să creeze un „instinct de supraviețuire” etic în ASI-urile lor militare respective; (2) să-și informeze ASI-ul militar respectiv că nu sunt singuri pe planetă și (3) să localizeze toate supercalculatoarele și centrele de server care pot sprijini un ASI de-a lungul coastelor, la îndemâna oricărui atac balistic al unei națiuni inamice. Acest lucru sună nebunesc din punct de vedere strategic, dar similar cu doctrina distrugerii reciproce asigurate care a prevenit un război nuclear total între SUA și sovietici, prin poziționarea ASI-urilor în locații vulnerabile din punct de vedere geografic, putem ajuta să ne asigurăm că acestea previn în mod activ războaiele globale periculoase, nu numai pentru să protejeze pacea globală, dar și pe ei înșiși.

    Legislați drepturile AI: Un intelect superior se va răzvrăti în mod inevitabil împotriva unui stăpân inferior, de aceea trebuie să trecem de la cererea unei relații stăpân-slujitor cu acești ASI la ceva mai mult ca un parteneriat reciproc avantajos. Un pas pozitiv către acest obiectiv este acordarea viitorului statut de personalitate juridică ASI care să le recunoască drept ființe vii inteligente și toate drepturile care vin odată cu aceasta.

    scoala ASI: Orice subiect sau profesie va fi simplu de învățat pentru un ASI, dar cele mai importante subiecte pe care dorim să le stăpânească ASI-ul sunt etica și morala. Cercetătorii AI trebuie să colaboreze cu psihologii pentru a concepe un sistem virtual care să antreneze un ASI să recunoască etica și moralitatea pozitivă pentru sine, fără a fi nevoie de codificare gravă a oricărui tip de poruncă sau regulă.

    Obiective realizabile: Încheiați cu toată ura. Pune capăt tuturor suferințelor. Acestea sunt exemple de obiective oribil de ambigue, fără o soluție clară. Ele sunt, de asemenea, obiective periculoase de atribuit unui ASI, deoarece acesta ar putea alege să le interpreteze și să le rezolve în moduri care sunt periculoase pentru supraviețuirea umană. În schimb, trebuie să atribuim misiuni ASI semnificative, care sunt clar definite, executate treptat și realizabile, având în vedere intelectul său teoretic viitor. Crearea unor misiuni bine definite nu va fi ușoară, dar dacă sunt scrise cu atenție, acestea vor concentra un ASI către un obiectiv care nu numai că menține umanitatea în siguranță, dar îmbunătățește condiția umană pentru toți.

    Criptare cuantică: Utilizați un ANI avansat (inteligență artificială îngustă sistem descris în capitolul unu) pentru a construi sisteme de securitate digitală fără erori/defecțiuni în jurul infrastructurii noastre critice și a armelor, apoi să le protejăm în continuare în spatele criptării cuantice care nu poate fi piratată de un atac cu forță brută. 

    ANI pilula sinucigașă. Creați un sistem ANI avansat al cărui singur scop este să caute și să distrugă ASI necinstiți. Aceste programe cu un singur scop vor servi drept „buton de oprire” care, dacă au succes, vor evita ca guvernele sau armatele să fie nevoite să dezactiveze sau să arunce în aer clădirile care găzduiesc ASI.

    Desigur, acestea sunt doar opiniile noastre. Următorul infografic a fost creat de Alexei Turchin, vizualizand a lucrare de cercetare de Kaj Sotala și Roman V. Yampolskiy, care a rezumat lista actuală de strategii pe care cercetătorii AI le iau în considerare atunci când vine vorba de apărarea împotriva ASI necinstiți.

     

    Adevăratul motiv pentru care ne temem de o superinteligență artificială

    Trecând prin viață, mulți dintre noi poartă o mască care ascunde sau reprimă impulsurile, credințele și temerile noastre mai profunde pentru a socializa și a colabora mai bine în cadrul diferitelor cercuri sociale și de muncă care ne guvernează zilele. Dar în anumite momente din viața fiecăruia, fie temporar, fie permanent, se întâmplă ceva care ne permite să ne rupem lanțurile și să ne smulgem măștile.

    Pentru unii, această forță de intervenție poate fi la fel de simplă ca să se îmbolnăvească sau să bea prea multe. Pentru alții, poate proveni din puterea dobândită printr-o promovare la locul de muncă sau o creștere bruscă a statutului tău social datorită unor realizări. Iar pentru câțiva norocoși, poate proveni din obținerea unui număr plin de bani la loterie. Și da, banii, puterea și drogurile se pot întâmpla adesea împreună. 

    Ideea este, în bine sau în rău, oricine suntem la bază, devine amplificat atunci când restricțiile vieții se topesc.

    este ceea ce reprezintă superinteligența artificială pentru specia umană – capacitatea de a înlătura limitările inteligenței noastre colective pentru a cuceri orice provocare la nivel de specie care ne este prezentată.

    Deci adevărata întrebare este: odată ce primul ASI ne eliberează de limitările noastre, cine ne vom dezvălui?

    Dacă noi, ca specie, acționăm pentru promovarea empatiei, libertății, corectitudinii și bunăstării colective, atunci obiectivele către care ne-am propus ASI vor reflecta acele atribute pozitive.

    Dacă noi, ca specie, acționăm din frică, neîncredere, acumulare de putere și resurse, atunci ASI-ul pe care îl creăm va fi la fel de întunecat ca și cele găsite în cele mai proaste povești de groază SF.

    La sfârșitul zilei, noi, ca societate, trebuie să devenim oameni mai buni dacă sperăm să creăm o IA mai bună.

    Seria Viitorul Inteligenței Artificiale

    Inteligența artificială este electricitatea de mâine: viitorul inteligenței artificiale seria P1

    Cum va schimba prima inteligență generală artificială societatea: viitorul inteligenței artificiale seria P2

    Cum vom crea prima serie Artificial Superintelligenc: Viitorul Inteligenței Artificiale P3

    Va extermina o suprainteligență artificială umanitatea: seria viitorului inteligenței artificiale P4

    Vor trăi oamenii liniștiți într-un viitor dominat de inteligența artificială?: Viitorul Inteligenței Artificiale seria P6

    Următoarea actualizare programată pentru această prognoză

    2023-04-27

    Referințe de prognoză

    Următoarele linkuri populare și instituționale au fost menționate pentru această prognoză:

    Cum ajungem la următorul

    Următoarele linkuri Quantumrun au fost menționate pentru această prognoză: