Allineamentu AI: L'ughjettivi di l'intelligenza artificiale currispondenu à i valori umani

CREDITU IMAGE:
Image credit
iStock

Allineamentu AI: L'ughjettivi di l'intelligenza artificiale currispondenu à i valori umani

Allineamentu AI: L'ughjettivi di l'intelligenza artificiale currispondenu à i valori umani

Testu di sottotitulu
Certi circadori credi chì e misure devenu esse implementate per assicurà chì l'intelligenza artificiale ùn dannu micca a sucità.
    • Author:
    • Nome di l'autore
      Quantumrun Foresight
    • Ghjennaghju 25, 2023

    L'allineamentu di l'intelligenza artificiale (AI) hè quandu i scopi di un sistema AI currispondenu à i valori umani. Cumpagnia cum'è OpenAI, DeepMind è Anthropic anu squadre di circadori chì l'unicu focusu hè di studià guardrails per diversi scenarii in quale questu puderia accade.

    Cuntestu di allineamentu AI

    Sicondu un studiu di ricerca di l'Università di Cornell in 2021, parechji studii anu dimustratu chì l'arnesi o mudelli creati da l'algoritmi mostranu preghjudizii provenienti da e dati chì sò stati furmatu. Per esempiu, in l'elaborazione di a lingua naturale (NLP), selezziunà mudelli NLP furmati nantu à setti di dati limitati sò stati documentati chì facenu predizioni basate nantu à stereotipi di genere dannosi contr'à e donne. In listessu modu, altri studii anu truvatu chì l'algoritmi furmati nantu à un set di dati manipulati anu risultatu in raccomandazioni razziali, in particulare in a polizia.

    Ci sò assai esempi in quale i sistemi di apprendimentu di macchina anu fattu peghju per e minurità o gruppi chì soffrenu di parechji svantaghji. In particulare, l'analisi faciale automatizata è i diagnostichi di a salute ùn sò micca travagliatu assai bè per e donne è e persone di culore. Quandu i sistemi critichi chì devenu esse basati nantu à fatti è logica invece di emozioni sò usati in cuntesti cum'è l'assignazione di l'assistenza sanitaria o l'educazione, ponu fà più danni rendendu più difficiuli di identificà u ragiunamentu daretu à queste raccomandazioni.

    In u risultatu, l'imprese tecnologiche creanu squadre di allineamentu AI per fucalizza nantu à mantene l'algoritmi ghjusti è umani. A ricerca hè essenziale per capisce a direzzione di i sistemi avanzati di IA, è ancu e sfide chì pudemu affruntà cum'è e capacità di AI cresce.

    Impact disruptive

    Sicondu Jan Leike, capu di l'allineamentu AI in OpenAI (2021), datu chì i sistemi AI sò diventati capaci solu in l'anni 2010, hè comprensibile chì a maiò parte di a ricerca di l'allineamentu AI hè stata teoricamente pesante. Quandu i sistemi AI immensamente putenti sò allineati, una di e sfide chì l'omu affruntà hè chì queste macchine puderanu creà suluzioni chì sò troppu complicate per rivisione è valutà s'ellu anu sensu eticamente.

    Leike hà ideatu una strategia di modellazione di ricumpensa recursiva (RRM) per risolve stu prublema. Cù RRM, parechji AI "helper" sò insignati per aiutà un umanu à valutà quantu un AI più cumplessu funziona. Hè ottimista nantu à a pussibilità di creà qualcosa chì si riferisce à un "MVP d'allineamentu". In termini di startup, un MVP (o pruduttu minimu viable) hè u pruduttu più simplice pussibule chì una cumpagnia pò custruisce per pruvà una idea. A speranza hè chì un ghjornu, l'IA currisponde à u rendiment umanu in a ricerca di l'AI è u so allinamentu cù i valori mentre esse ancu funziunale.

    Mentre chì l'aumentu di l'interessu per l'allineamentu di l'AI hè un nettu pusitivu, parechji analisti in u campu pensanu chì a maiò parte di u travagliu "eticu" in i principali laboratori di AI hè solu relazioni publiche pensate per fà chì e cumpagnie tecnologiche parenu bè è evità a publicità negativa. Questi individui ùn aspettanu micca chì e pratiche di sviluppu eticu diventenu una priorità per queste cumpagnie in ogni mumentu prestu.

    Queste osservazioni mette in risaltu l'impurtanza di approcci interdisciplinari per i sforzi di allinamentu di u valore, postu chì questu hè un spaziu relativamente novu di indagine murale è tecnica. Diversi rami di cunniscenza duveranu esse parte di un agenda di ricerca inclusiva. Questa iniziativa indica ancu a necessità per i tecnulugichi è i decisori pulitichi di mantene a cuscenza di u so cuntestu suciale è di i parti interessate, ancu quandu i sistemi AI diventanu più avanzati.

    Implicazioni di l'allineamentu AI

    Implicazioni più larghe di l'allineamentu AI ponu include: 

    • I laboratori di intelligenza artificiale impieganu diverse commissioni d'etica per surveglià i prughjetti è cumpiendu e linee etiche di IA. 
    • I guverni chì creanu liggi chì imponenu à e cumpagnie di presentà u so quadru AI rispunsevule è cumu pensanu à sviluppà ulteriormente i so prughjetti AI.
    • Aumentate polemiche nantu à l'usu di l'algoritmi in u reclutamentu, a vigilazione publica è l'applicazione di a lege.
    • I ricercatori sò stati licenziati da i grandi laboratori di IA per via di cunflitti d'interessu trà etica è scopi corporativi.
    • Più pressione per i guverni per regulà i sistemi avanzati di IA chì sò tramindui incredibbilmente putenti, ma ponu potenzialmente violà i diritti umani.

    Dumande per cummentà

    • Cumu l'imprese ponu esse rispunsevuli di i sistemi AI chì creanu?
    • Chì sò l'altri periculi potenziali s'ellu ci hè un misalignamentu AI?

    Referenze insight

    I seguenti ligami populari è istituzionali sò stati riferiti per questa intuizione: