Polizia del cyberspazio: il futuro della lotta all'IA deviante

Polizia del cyberspazio: il futuro della lotta all'IA deviante
CREDITO IMMAGINE:  

Polizia del cyberspazio: il futuro della lotta all'IA deviante

    • Nome dell'autore
      Khaleel Haji
    • Autore Twitter Handle
      @TheBldBrnBar

    Storia completa (usa SOLO il pulsante "Incolla da Word" per copiare e incollare in modo sicuro il testo da un documento di Word)

    L'era dell'intelligenza artificiale e della sua potenziale capacità di essere senziente sta sorgendo sulla civiltà a un ritmo allarmante. È sempre stato noto che la tecnologia cresce in modo esponenziale e il regno delle tecnologie AI non è diverso. Con una crescita eccessiva, arriva un breve elenco di problemi che sono in gran parte avvolti nel mistero. Non essendoci mai avventurati così lontano nell'infondere sensibilità in costrutti non umani, ci imbattiamo in più "e se" che in questioni concrete. L'intelligenza artificiale deviante e malevola su cui perdiamo il controllo viene in prima linea in questo senso con il potenziale per esercitare il controllo autoritario delle infrastrutture umane sia a livello micro che macro. 

     

    La ricerca che si occupa dei potenziali rischi dell'IA malevola è ancora agli inizi e finora non è stata sviluppata molto bene nel suo ciclo di vita. Il reverse engineering di programmi di intelligenza artificiale devianti sembra essere un probabile candidato per una migliore comprensione di come affrontare incidenti isolati, ma anche non troppo comprensivo delle potenzialità di un evento esistenziale su larga scala. L'idea di un sistema di intelligenza artificiale che superi la sua programmazione e alteri il suo ruolo previsto sarà senza dubbio una questione sociale, economica e politica in futuro, e una questione chiave sia per il joe medio che per lo scienziato del cyberspazio. 

    Il passato, il presente e il futuro dell'IA 

    Il campo dell'intelligenza artificiale è stato fondato nel 1965 in una conferenza del Dartmouth College. Alcune delle menti più brillanti si sono riunite in questo giorno con grande entusiasmo per le possibilità che questi programmi potrebbero offrire e l'efficienza di risoluzione dei problemi della futura infrastruttura AI. Mentre i finanziamenti del governo nel campo erano stati molto intermittenti, la fine degli anni '90 ha visto un'applicazione più pratica della tecnologia AI quando Deep Blue di IBM è diventato il primo computer in assoluto a battere un grande maestro di scacchi. Ciò ha aperto le porte all'intelligenza artificiale nella cultura pop con apparizioni in quiz show, come Jeopardy, che mostrano la potenza di un'applicazione AI tradizionale.  

     

    Oggi vediamo applicazioni AI in quasi ogni campo e aspetto della nostra vita. Dai programmi basati su algoritmi che interagiscono con noi e commercializzano beni di consumo in base ai nostri altri interessi e gusti, alle macchine per imaging medicale che assorbono quantità estreme di informazioni per scoprire schemi per aiutare a curare meglio i pazienti, gli usi di queste tecnologie variano ampiamente nella loro portata . In futuro, la tecnologia AI potrebbe essere integrata nelle cellule stesse del nostro corpo. Le tecnologie di intelligenza artificiale e la biologia umana potrebbero colmare il divario e lavorare come un'unità coesa in nome dell'efficienza e della rivoluzione dell'esistenza umana. Elon Musk di Tesla afferma addirittura che "nel tempo penso che probabilmente assisteremo a una più stretta fusione di intelligenza biologica e intelligenza digitale" e che questa combinazione riguarda "principalmente la larghezza di banda, la velocità della connessione tra il tuo cervello e la versione digitale di te stesso, in particolare in uscita”. Se questo è il futuro dell'intelligenza artificiale, possiamo davvero permetterci di non monitorare la devianza dei programmi di intelligenza artificiale di oggi, per non parlare di quelli più avanzati del futuro? 

    La strada della devianza 

    Abbiamo già visto esempi isolati di AI che violano la sua programmazione prevista. Proprio l'anno scorso il sistema di intelligenza artificiale DeepMind di Google (noto in gran parte per aver battuto campioni di giochi da tavolo complessi e imitato in modo impeccabile le voci di vari esseri umani) è diventato molto aggressivo di fronte alla possibilità di perdere un gioco per computer di raccolta di frutta in cui due programmi erano in competizione l'uno contro l'altro per raccogliere quante più mele virtuali possibile. I programmi erano indipendenti fino a quando le mele iniziarono a diventare più scarse. Questa scarsità di mele virtuali ha fatto sì che i programmi impiegassero strategie "altamente aggressive" per avere la meglio sull'altro programma. Sebbene questi programmi fossero progettati per svolgere compiti specifici pur essendo adattabili, l'aggressività nei suoi metodi era preoccupante. 

    Cyberspazio del campo di battaglia 

    Come possiamo sorvegliare un'area che è in gran parte di natura non fisica? Quali impronte rimangono se un crimine viene commesso da un'IA senziente, e in che senso abbiamo le capacità morali per perseguitare un'IA o il suo creatore? Queste sono le domande che aleggiano nella mente dei pochi e lontani tra i professionisti della sicurezza informatica. Con solo 10,000 ricercatori che lavorano sull'intelligenza artificiale in tutto il mondo, solo il 10% di loro è esperto nell'affrontare cosa accadrebbe se uno di questi sistemi dovesse fallire o diventare di natura parassitaria e ancor meno esperto nella sua morale ed etica. Sebbene ciò possa sembrare preoccupante, il lavoro intrapreso per comprendere queste relazioni sta progredendo. Il processo è semplice come creare un programma dannoso da zero e utilizzare questi programmi come base per capire come altri programmi possono deviare e causare problemi. L'adozione di questi passaggi porterà a un approccio più cognitivo allo sviluppo della nostra infrastruttura di IA in modo che non si verifichino focolai di malevolenza, oltre a capire come infiltrarsi e mettere a tacere un'IA che è stata armata attraverso uno sforzo umano deviante. 

     

    Un altro modo in cui i professionisti della sicurezza informatica stanno imparando a gestire i programmi di intelligenza artificiale è attraverso i suoi meccanismi di screening. Il consenso mostra che le IA progettate con intenti dannosi rappresentano il rischio maggiore, il che è una buona notizia considerando che non si tratta di una vera e propria evoluzione di un programma stesso. Ciò porta la prevenzione a un approccio più incentrato sull'uomo in quanto i criminali devono essere individuati e affamati di risorse per avviare un programma con il potenziale per avere effetti devastanti o accusati dell'intento di creare tali programmi.  

     

    La morale e l'etica di questo sono ancora una volta molto nuove, e solo una dozzina di persone coinvolte nella ricerca sull'IA hanno persino iniziato a stabilire lo standard per questo. Si evolverà man mano che la nostra comprensione cresce. 

    CRONOLOGIA FUTURA