Alinierea AI: potrivirea obiectivelor de inteligență artificială se potrivește cu valorile umane

CREDIT DE IMAGINE:
Imagine de credit
iStock

Alinierea AI: potrivirea obiectivelor de inteligență artificială se potrivește cu valorile umane

Alinierea AI: potrivirea obiectivelor de inteligență artificială se potrivește cu valorile umane

Textul subtitlului
Unii cercetători consideră că ar trebui implementate măsuri pentru a se asigura că inteligența artificială nu dăunează societății.
    • Autor:
    • Numele autorului
      Previziune Quantumrun
    • Ianuarie 25, 2023

    Alinierea inteligenței artificiale (AI) este atunci când obiectivele unui sistem AI se potrivesc cu valorile umane. Companii precum OpenAI, DeepMind și Anthropic au echipe de cercetători al căror singur obiectiv este studierea balustradelor pentru diferite scenarii în care acest lucru s-ar putea întâmpla.

    Context de aliniere AI

    Potrivit unui studiu de cercetare din 2021 al Universității din Cornell, mai multe studii au arătat că instrumentele sau modelele create de algoritmi afișează părtiniri provenite din datele pe care au fost instruiți. De exemplu, în procesarea limbajului natural (NLP), anumite modele NLP instruite pe seturi limitate de date au fost documentate care fac predicții bazate pe stereotipuri de gen dăunătoare împotriva femeilor. În mod similar, alte studii au descoperit că algoritmii antrenați pe seturi de date falsificate au dus la recomandări părtinitoare din punct de vedere rasial, în special în domeniul poliției.

    Există o mulțime de exemple în care sistemele de învățare automată au funcționat mai rău pentru minorități sau grupuri care suferă de multiple dezavantaje. În special, analiza facială automată și diagnosticarea asistenței medicale, de obicei, nu funcționează foarte bine pentru femei și persoanele de culoare. Atunci când sistemele critice care ar trebui să se bazeze pe fapte și logică în loc de emoție sunt utilizate în contexte precum alocarea asistenței medicale sau educației, ele pot produce mai multe daune, îngreunând identificarea raționamentului din spatele acestor recomandări.

    Drept urmare, firmele de tehnologie creează echipe de aliniere AI pentru a se concentra pe menținerea algoritmilor echitabili și umani. Cercetarea este esențială pentru înțelegerea direcției sistemelor AI avansate, precum și a provocărilor cu care ne-am putea confrunta pe măsură ce capacitățile AI cresc.

    Impact perturbator

    Potrivit lui Jan Leike, șeful de aliniere AI la OpenAI (2021), având în vedere că sistemele AI au devenit capabile abia în anii 2010, este de înțeles că majoritatea cercetărilor privind alinierea AI au fost teoretice grele. Când sistemele AI extrem de puternice sunt aliniate, una dintre provocările cu care se confruntă oamenii este că aceste mașini ar putea crea soluții prea complicate pentru a fi revizuite și evaluate dacă au sens etic.

    Leike a conceput o strategie recursive de modelare a recompensei (RRM) pentru a rezolva această problemă. Cu RRM, mai multe IA „ajutoare” sunt învățate să ajute un om să evalueze cât de bine funcționează o IA mai complexă. El este optimist cu privire la posibilitatea de a crea ceva la care se referă ca un „MVP de aliniere”. În termeni de pornire, un MVP (sau un produs minim viabil) este cel mai simplu produs posibil pe care o companie îl poate construi pentru a testa o idee. Speranța este ca într-o zi, AI să se potrivească cu performanța umană în cercetarea AI și a alinierii acesteia cu valorile, fiind în același timp funcțională.

    În timp ce interesul crescând pentru alinierea AI este un pozitiv net, mulți analiști din domeniu cred că o mare parte din munca „etică” la laboratoarele de AI de vârf este doar relații publice menite să facă companiile de tehnologie să arate bine și să evite publicitatea negativă. Acești indivizi nu se așteaptă ca practicile de dezvoltare etică să devină o prioritate pentru aceste companii în curând.

    Aceste observații evidențiază importanța abordărilor interdisciplinare pentru eforturile de aliniere a valorilor, deoarece aceasta este o zonă relativ nouă de anchetă morală și tehnică. Diferitele ramuri ale cunoașterii ar trebui să facă parte dintr-o agendă de cercetare incluzivă. Această inițiativă subliniază, de asemenea, necesitatea ca tehnologii și factorii de decizie să rămână conștienți de contextul lor social și de părțile interesate, chiar dacă sistemele AI devin mai avansate.

    Implicațiile alinierii AI

    Implicațiile mai largi ale alinierii AI pot include: 

    • Laboratoare de inteligență artificială care angajează diverse comitete de etică pentru a supraveghea proiecte și pentru a îndeplini liniile directoare etice AI. 
    • Guvernele creează legi care impun companiilor să își prezinte cadrul responsabil de IA și modul în care intenționează să-și dezvolte în continuare proiectele de IA.
    • Controverse sporite cu privire la utilizarea algoritmilor în recrutare, supraveghere publică și aplicarea legii.
    • Cercetătorii sunt concediați din laboratoarele mari de inteligență artificială din cauza conflictelor de interese dintre etică și obiectivele corporative.
    • Mai multă presiune pentru guverne pentru a reglementa sistemele AI avansate, care sunt ambele incredibil de puternice, dar care pot încălca drepturile omului.

    Întrebări de comentat

    • Cum pot firmele să devină responsabile pentru sistemele AI pe care le creează?
    • Care sunt celelalte pericole potențiale dacă există o nealiniere a AI?

    Referințe de perspectivă

    Următoarele linkuri populare și instituționale au fost menționate pentru această perspectivă: