Alineació de la IA: la concordança dels objectius d'intel·ligència artificial coincideix amb els valors humans

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Alineació de la IA: la concordança dels objectius d'intel·ligència artificial coincideix amb els valors humans

Alineació de la IA: la concordança dels objectius d'intel·ligència artificial coincideix amb els valors humans

Text del subtítol
Alguns investigadors creuen que s'han d'implementar mesures per garantir que la intel·ligència artificial no perjudiqui la societat.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Gener 25, 2023

    L'alineació de la intel·ligència artificial (IA) és quan els objectius d'un sistema d'IA coincideixen amb els valors humans. Empreses com OpenAI, DeepMind i Anthropic tenen equips d'investigadors l'únic objectiu dels quals és estudiar les baranes per a diferents escenaris en què això podria passar.

    Context d'alineació de l'IA

    Segons un estudi d'investigació de la Universitat de Cornell del 2021, diversos estudis han demostrat que les eines o models creats per algorismes mostren biaix procedents de les dades en què es van formar. Per exemple, en el processament del llenguatge natural (PNL), s'han documentat models de PNL seleccionats entrenats en conjunts de dades limitats fent prediccions basades en estereotips de gènere nocius contra les dones. De la mateixa manera, altres estudis van trobar que els algorismes entrenats en conjunts de dades manipulats van donar lloc a recomanacions esbiaixades racialment, especialment en la policia.

    Hi ha molts exemples en què els sistemes d'aprenentatge automàtic han anat pitjor per a minories o grups que pateixen múltiples desavantatges. En particular, l'anàlisi facial automatitzat i el diagnòstic sanitari normalment no funcionen molt bé per a dones i persones de color. Quan s'utilitzen sistemes crítics que s'haurien de basar en fets i lògica en comptes d'emocions en contextos com l'assignació de l'assistència sanitària o l'educació, poden fer més danys en dificultar la identificació del raonament d'aquestes recomanacions.

    Com a resultat, les empreses tecnològiques estan creant equips d'alineació d'IA per centrar-se a mantenir els algorismes justos i humans. La investigació és essencial per entendre la direcció dels sistemes d'IA avançats, així com els reptes que podríem enfrontar a mesura que les capacitats d'IA creixen.

    Impacte disruptiu

    Segons Jan Leike, cap d'alineació d'IA a OpenAI (2021), atès que els sistemes d'IA només han esdevingut capaços a la dècada de 2010, és comprensible que la majoria de les investigacions d'alineació d'IA hagin estat teòriques. Quan s'alineen sistemes d'IA immensament potents, un dels reptes als quals s'enfronten els humans és que aquestes màquines poden crear solucions massa complicades per revisar-les i avaluar si tenen sentit èticament.

    Leike va idear una estratègia de modelització recursiva de recompenses (RRM) per solucionar aquest problema. Amb RRM, s'ensenyen diverses IA "auxiliars" per ajudar un humà a avaluar el rendiment d'una IA més complexa. És optimista sobre la possibilitat de crear una cosa que es refereix com a "MVP d'alineació". En termes d'inici, un MVP (o producte mínim viable) és el producte més senzill possible que una empresa pot construir per provar una idea. L'esperança és que algun dia, la IA coincideixi amb el rendiment humà en la investigació de la IA i la seva alineació amb els valors alhora que sigui funcional.

    Tot i que l'augment de l'interès per l'alineació de la IA és un positiu net, molts analistes del camp pensen que gran part del treball "ètica" als principals laboratoris d'IA és només relacions públiques dissenyades per fer que les empreses tecnològiques es vegin bé i evitar la publicitat negativa. Aquests individus no esperen que les pràctiques de desenvolupament ètic es converteixin en una prioritat per a aquestes empreses en el termini breu.

    Aquestes observacions posen de manifest la importància dels enfocaments interdisciplinaris per als esforços d'alineació de valors, ja que es tracta d'una àrea relativament nova d'investigació moral i tècnica. Les diferents branques del coneixement haurien de formar part d'una agenda de recerca inclusiva. Aquesta iniciativa també assenyala la necessitat que els tecnòlegs i els responsables polítics siguin conscients del seu context social i de les parts interessades, encara que els sistemes d'IA siguin més avançats.

    Implicacions de l'alineació de la IA

    Les implicacions més àmplies de l'alineació de la IA poden incloure: 

    • Laboratoris d'intel·ligència artificial que contracten diversos consells d'ètica per supervisar projectes i complir les directrius ètiques d'IA. 
    • Els governs creen lleis que obliguen a les empreses a presentar el seu marc d'IA responsable i com tenen previst desenvolupar els seus projectes d'IA.
    • Augment de les controvèrsies sobre l'ús d'algoritmes en la contractació, la vigilància pública i l'aplicació de la llei.
    • Els investigadors són acomiadats de grans laboratoris d'IA a causa de conflictes d'interessos entre l'ètica i els objectius corporatius.
    • Més pressió sobre els governs perquè regulin sistemes d'IA avançats que són increïblement poderosos però que poden violar els drets humans.

    Preguntes per comentar

    • Com es pot fer que les empreses siguin responsables dels sistemes d'IA que creen?
    • Quins són els altres perills potencials si hi ha una desalineació de la IA?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: