Franken-Algorithms: algoritmi impazziti

CREDITO IMMAGINE:
Immagine di credito
iStock

Franken-Algorithms: algoritmi impazziti

Franken-Algorithms: algoritmi impazziti

Testo del sottotitolo
Con gli sviluppi dell'intelligenza artificiale, gli algoritmi si stanno evolvendo più velocemente di quanto previsto dagli umani.
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • 12 aprile 2023

    Man mano che gli algoritmi di machine learning (ML) diventano più avanzati, sono in grado di apprendere e adattarsi autonomamente ai modelli in grandi set di dati. Questo processo, noto come "apprendimento autonomo", può portare l'algoritmo a generare il proprio codice o regole per prendere decisioni. Il problema con questo è che il codice generato dall'algoritmo può essere difficile o impossibile da comprendere per gli esseri umani, rendendo difficile individuare i pregiudizi. 

    Contesto Franken-Algoritmi

    I Franken-Algoritmi si riferiscono ad algoritmi (le regole che i computer seguono quando elaborano i dati e rispondono ai comandi) che sono diventati così complessi e intrecciati che gli esseri umani non possono più decifrarli. Il termine è un cenno alla fantascienza di Mary Shelley su un "mostro" creato dallo scienziato pazzo Dr. Frankenstein. Mentre algoritmi e codici sono gli elementi costitutivi della grande tecnologia e hanno permesso a Facebook e Google di essere le aziende influenti che sono ora, c'è ancora così tanto sulla tecnologia che gli umani non sanno. 

    Quando i programmatori creano codici e li eseguono tramite software, il machine learning consente ai computer di comprendere e prevedere schemi. Mentre la grande tecnologia afferma che gli algoritmi sono oggettivi perché le emozioni umane e l'imprevedibilità non li influenzano, questi algoritmi possono evolversi e scrivere le proprie regole, portando a risultati disastrosi. Il codice generato da questi algoritmi è spesso complesso e opaco, rendendo difficile per ricercatori o professionisti interpretare le decisioni dell'algoritmo o identificare eventuali pregiudizi che possono essere presenti nel processo decisionale dell'algoritmo. Questo ostacolo può creare sfide significative per le aziende che si affidano a questi algoritmi per prendere decisioni, poiché potrebbero non essere in grado di comprendere o spiegare il ragionamento alla base di tali decisioni.

    Impatto dirompente

    Quando i Franken-Algorithms diventano canaglia, può essere una questione di vita o di morte. Un esempio è stato un incidente nel 2018, quando un'auto a guida autonoma in Arizona ha investito e ucciso una donna in sella a una bicicletta. Gli algoritmi dell'auto non sono stati in grado di identificarla correttamente come essere umano. Gli esperti erano lacerati sulla causa principale dell'incidente: l'auto era stata programmata in modo improprio e l'algoritmo era diventato troppo complesso per il suo bene? Ciò su cui i programmatori possono concordare, tuttavia, è che è necessario un sistema di supervisione per le società di software: un codice etico. 

    Tuttavia, questo codice etico arriva con qualche respingimento da parte delle grandi tecnologie perché si occupano della vendita di dati e algoritmi e non possono permettersi di essere regolamentate o obbligate a essere trasparenti. Inoltre, un recente sviluppo che ha destato preoccupazione per i grandi dipendenti della tecnologia è il crescente utilizzo di algoritmi all'interno delle forze armate, come la partnership di Google con il Dipartimento della Difesa degli Stati Uniti per incorporare algoritmi nella tecnologia militare, come i droni autonomi. Questa applicazione ha portato alle dimissioni di alcuni dipendenti e gli esperti hanno espresso la preoccupazione che gli algoritmi siano ancora troppo imprevedibili per essere usati come macchine per uccidere. 

    Un'altra preoccupazione è che i Franken-Algorithms possano perpetuare e persino amplificare i pregiudizi a causa dei set di dati su cui sono addestrati. Questo processo può portare a vari problemi sociali, tra cui discriminazione, disuguaglianza e arresti illeciti. A causa di questi maggiori rischi, molte aziende tecnologiche stanno iniziando a pubblicare le loro linee guida etiche sull'IA per essere trasparenti su come sviluppano, utilizzano e monitorano i loro algoritmi.

    Implicazioni più ampie per Franken-Algorithms

    Le potenziali implicazioni per gli algoritmi Franken possono includere:

    • Sviluppo di sistemi autonomi in grado di prendere decisioni e intraprendere azioni senza la supervisione umana, sollevando preoccupazioni sulla responsabilità e sulla sicurezza. Tuttavia, tali algoritmi possono ridurre i costi di sviluppo di software e robotica in grado di automatizzare il lavoro umano nella maggior parte dei settori. 
    • Più controllo su come gli algoritmi possono automatizzare la tecnologia militare e supportare armi e veicoli autonomi.
    • Aumento della pressione affinché i governi e i leader del settore implementino un codice di algoritmo etico e regolamentare.
    • Franken-Algoritmi che hanno un impatto sproporzionato su determinati gruppi demografici, come le comunità a basso reddito o le minoranze.
    • Franken-Algorithms potrebbe perpetuare e amplificare la discriminazione e il pregiudizio nel processo decisionale, come le decisioni di assunzione e prestito.
    • Questi algoritmi vengono utilizzati dai criminali informatici per monitorare e sfruttare i punti deboli nei sistemi, in particolare nelle istituzioni finanziarie.
    • Attori politici che utilizzano algoritmi canaglia per automatizzare le campagne di marketing utilizzando sistemi di intelligenza artificiale generativa in modi che possono influenzare l'opinione pubblica e influenzare le elezioni.

    Domande da considerare

    • Come pensi che gli algoritmi si svilupperanno ulteriormente in futuro?
    • Cosa possono fare i governi e le aziende per controllare i Franken-Algorithms?

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione: