Polițiști în spațiul cibernetic - viitorul combaterii AI deviante

Polițiști în spațiul cibernetic - viitorul combaterii AI deviante
CREDIT DE IMAGINE:  

Polițiști în spațiul cibernetic - viitorul combaterii AI deviante

    • Autor Denumirea
      Khaleel Haji
    • Autorul Twitter Handle
      @TheBldBrnBar

    Povestea completă (folosiți NUMAI butonul „Lipiți din Word” pentru a copia și a lipi în siguranță text dintr-un document Word)

    Epoca inteligenței artificiale și potențiala ei simțire se înfățișează asupra civilizației într-un ritm alarmant. Tehnologia a fost întotdeauna cunoscută că crește exponențial, iar domeniul tehnologiilor AI nu este diferit. Odată cu creșterea excesivă, vine o listă scurtă de probleme care sunt în mare măsură învăluite în mister. Ne-am aventurat niciodată atât de departe în a infuza conștiința în construcții non-umane, ne confruntăm cu mai multe „ce-ar fi dacă” decât probleme concrete. Inteligența artificială deviantă și răuvoitoare asupra căreia pierdem controlul vine în prim-plan în acest sens cu potențialul de a exercita un control autoritar asupra infrastructurilor umane atât la nivel micro, cât și la nivel macro. 

     

    Cercetările care se ocupă de potențialele riscuri ale IA răuvoitoare sunt încă la început și nu sunt foarte bine concretizate până acum în ciclul său de viață. Ingineria inversă a programelor AI deviante pare să fie un candidat probabil pentru o mai bună înțelegere a modului de a face față incidentelor izolate, dar și a nu cuprind prea mult potențialele unui eveniment existențial la scară largă. Ideea ca un sistem AI să-și depășească programarea și să-și modifice rolul intenționat va fi, fără îndoială, o problemă socială, economică și politică în viitor și o problemă cheie atât pentru oamenii de știință obișnuiți, cât și pentru oamenii de știință cibernetic. 

    Trecutul, prezentul și viitorul AI 

    Domeniul Inteligenței Artificiale a fost fondat în 1965 la o conferință de la Dartmouth College. Unele dintre cele mai strălucite minți s-au reunit în această zi cu mare entuziasm cu privire la posibilitățile pe care le-ar putea aduce aceste programe și la eficiența de rezolvare a problemelor a viitoarei infrastructuri AI. În timp ce finanțarea guvernamentală în domeniu a fost foarte mult, la sfârșitul anilor 90 a fost observată o aplicare mai practică a tehnologiei AI, când Deep Blue de la IBM a devenit primul computer care a învins vreodată un mare maestru de șah. Acest lucru a deschis porțile pentru AI în cultura pop, cu apariții în emisiuni de chestionare, cum ar fi Jeopardy, care arată puterea unei aplicații AI mainstream.  

     

    Astăzi vedem aplicații AI în aproape fiecare domeniu și aspect al vieții noastre. De la programele bazate pe algoritmi care interacționează cu noi și comercializează bunuri de larg consum pe baza celorlalte interese și gustări ale noastre, până la aparate de imagistică medicală care absorb cantități extreme de informații pentru a descoperi modele pentru a ajuta mai bine la tratarea pacienților, utilizările acestor tehnologii variază în mare măsură în domeniul lor. . În viitor, tehnologia AI ar putea fi integrată chiar în celulele corpului nostru. Tehnologiile de inteligență artificială și biologia umană ar putea reduce decalajul și ar putea funcționa ca o unitate coerentă în numele eficienței și al revoluției existenței umane. Elon Musk de la Tesla susține chiar că „de-a lungul timpului cred că probabil vom vedea o fuziune mai strânsă a inteligenței biologice și a inteligenței digitale” și că această combinație este „în mare parte despre lățimea de bandă, viteza conexiunii dintre creierul tău și versiunea digitală a pe tine însuți, în special producția”. Dacă acesta este viitorul AI, ne putem permite cu adevărat să nu monitorizăm deviația programelor AI de astăzi, cu atât mai puțin ale celor mai avansate ale viitorului? 

    Drumul spre devianta 

    Am văzut deja exemple izolate de AI care încalcă programarea intenționată. Chiar anul trecut, sistemul Google DeepMind AI (cunoscut în mare parte pentru că a învins campionii complexi ai jocurilor de masă și pentru că imită impecabil vocile diferitelor ființe umane) a devenit extrem de agresiv când s-a confruntat cu potențialul de a pierde un joc de calculator cu strângere de fructe în care două programe concurau unul împotriva celuilalt. să adune cât mai multe mere virtuale. Programele au fost independente până când merele au început să devină mai rare. Această insuficiență de mere virtuale a făcut ca programele să folosească strategii „foarte agresive” pentru a depăși celălalt program. Deși aceste programe au fost concepute pentru a îndeplini sarcini specifice în același timp fiind adaptabile, agresivitatea în metodele sale a fost îngrijorătoare. 

    Câmpul de luptă ciberspațiu 

    Cum procedăm pentru a controla o zonă care este în mare parte de natură non-fizică? Ce urme rămân dacă o crimă este comisă de o IA sensibilă și în ce sens avem capacități morale de a persecuta o IA sau creatorul acesteia? Acestea sunt întrebările care persistă în mintea puținilor profesioniști în domeniul siguranței cibernetice. Cu doar 10,000 de cercetători care lucrează la inteligența artificială pe tot globul, doar 10% dintre ei sunt familiarizați cu ceea ce s-ar întâmpla dacă oricare dintre aceste sisteme ar eșua sau ar deveni parazit în natură și chiar mai puțin versați în morala și etica acestuia. Deși acest lucru poate părea îngrijorător, munca întreprinsă pentru înțelegerea acestor relații progresează. Procesul este la fel de simplu ca crearea unui program răuvoitor de la zero și folosirea acestor programe ca bază pentru înțelegerea modului în care alte programe pot devia și cauza probleme. Odată cu luarea acestor pași, va duce la o abordare mai cognitivă a dezvoltării infrastructurii noastre AI, astfel încât să nu apară focare de răuvoință, precum și la înțelegerea modului de a infiltra și a reduce la tăcere o IA care a fost armată prin efort uman deviant. 

     

    Un alt mod în care profesioniștii în securitate cibernetică învață să se ocupe de programele AI este prin mecanismele sale de screening. Consensul arată că IA concepute cu intenții rău intenționate prezintă cel mai mare risc, ceea ce este o veste bună, având în vedere că nu este o evoluție totală a unui program în sine. Acest lucru aduce prevenirea la o abordare mai centrată pe om, în sensul că infractorii trebuie să fie obținuți și lipsiți de resurse pentru a iniția vreodată un program cu potențialul de a avea efecte devastatoare sau însărcinați cu intenția de a crea astfel de programe.  

     

    Morala și etica acestui lucru sunt din nou foarte noi și doar aproximativ o duzină de persoane implicate în cercetarea IA au început chiar să stabilească standardul în acest sens. Va evolua pe măsură ce înțelegerea noastră crește.