Alineado de AI: Kongruaj celoj de artefarita inteligenteco kongruas kun homaj valoroj

BILDA KREDITO:
Bildo kredito
iStock

Alineado de AI: Kongruaj celoj de artefarita inteligenteco kongruas kun homaj valoroj

Alineado de AI: Kongruaj celoj de artefarita inteligenteco kongruas kun homaj valoroj

Subtitolo teksto
Iuj esploristoj opinias, ke mezuroj devus esti efektivigitaj por certigi ke artefarita inteligenteco ne damaĝu la socion.
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Januaro 25, 2023

    Artefarita inteligenteco (AI) paraleligo estas kiam la celoj de AI-sistemo kongruas kun homaj valoroj. Firmaoj kiel OpenAI, DeepMind kaj Anthropic havas teamojn de esploristoj, kies sola fokuso estas studi barilbarojn por malsamaj scenaroj en kiuj tio povus okazi.

    AI-vicigo kunteksto

    Laŭ esplorstudo de la Universitato de Cornell en 2021, pluraj studoj montris, ke iloj aŭ modeloj kreitaj per algoritmoj montras biason fontitan de la datumoj, sur kiuj ili estis trejnitaj. Ekzemple, en naturlingva prilaborado (NLP), fajnaj NLP-modeloj trejnitaj sur limigitaj datumserioj estis dokumentitaj farante prognozojn bazitajn sur damaĝaj seksaj stereotipoj kontraŭ virinoj. Simile, aliaj studoj trovis ke algoritmoj trejnitaj sur mistraktita datumaro rezultigis rase partiajn rekomendojn, precipe en policado.

    Estas multaj ekzemploj en kiuj maŝinlernado-sistemoj pli malbonas por minoritatoj aŭ grupoj suferantaj de multoblaj malavantaĝoj. Aparte, aŭtomatigita vizaĝa analizo kaj sandiagnozo kutime ne tre bone funkcias por virinoj kaj koloraj homoj. Kiam kritikaj sistemoj, kiuj devus baziĝi sur faktoj kaj logiko anstataŭ emocio, estas uzataj en kuntekstoj kiel asigni sanservon aŭ edukadon, ili povas fari pli da damaĝo malfaciligante identigi la rezonadon malantaŭ ĉi tiuj rekomendoj.

    Kiel rezulto, teknikaj firmaoj kreas AI-vicigteamojn por koncentriĝi pri konservado de algoritmoj justaj kaj humanaj. Esplorado estas esenca por kompreni la direkton de altnivelaj AI-sistemoj, same kiel la defiojn, kiujn ni povus alfronti dum AI-kapabloj kreskas.

    Disrompa efiko

    Laŭ Jan Leike, estro de AI-alineado ĉe OpenAI (2021), pro tio, ke AI-sistemoj fariĝis kapablaj nur en la 2010-aj jaroj, estas kompreneble, ke la plej multaj esploroj pri AI-paraleligo estis teori-peza. Kiam ege potencaj AI-sistemoj estas vicigitaj, unu el la defioj, kiujn homoj alfrontas, estas, ke ĉi tiuj maŝinoj povus krei solvojn tro komplikajn por revizii kaj taksi ĉu ili havas sencon etike.

    Leike elpensis rekursivan rekompencan modeligadon (RRM) strategion por ripari ĉi tiun problemon. Kun RRM, pluraj "helpantaj" AI estas instruitaj por helpi homon taksi kiom bone pli kompleksa AI rezultas. Li estas optimisma pri la ebleco krei ion, kion li nomas "vicigo MVP". En komencaj terminoj, MVP (aŭ minimuma realigebla produkto) estas la plej simpla ebla produkto, kiun kompanio povas konstrui por elprovi ideon. La espero estas, ke iam, AI kongruas homan agadon en esplorado de AI kaj ĝia akordigo kun valoroj samtempe estante funkcia.

    Dum kreskanta intereso pri AI-alineado estas neta pozitivo, multaj analizistoj en la kampo opinias, ke multe de la "etika" laboro ĉe gvidaj AI-laboratorioj estas nur publikaj rilatoj desegnitaj por ke teknologiaj kompanioj aspektu bone kaj eviti negativan reklamadon. Ĉi tiuj individuoj ne atendas, ke etikaj evoluaj praktikoj fariĝos prioritato por ĉi tiuj kompanioj baldaŭ.

    Tiuj observaĵoj elstarigas la gravecon de interfakaj aliroj por valorparaleligiklopodoj, ĉar tio estas relative nova areo de morala kaj teknika enketo. Malsamaj branĉoj de scio devus esti parto de inkluziva esplora tagordo. Ĉi tiu iniciato ankaŭ montras la bezonon de teknologoj kaj politikofaristoj resti konsciaj pri sia socia kunteksto kaj koncernatoj, eĉ kiam AI-sistemoj fariĝas pli progresintaj.

    Implicoj de AI-vicigo

    Pli larĝaj implicoj de AI-paraleligo povas inkludi: 

    • Laboratorioj pri artefarita inteligenteco dungas diversajn etikajn estrarojn por kontroli projektojn kaj plenumi etikajn gvidliniojn pri AI. 
    • Registaroj kreantaj leĝojn, kiuj postulas kompaniojn prezenti sian respondecan AI-kadron kaj kiel ili planas pluevoluigi siajn AI-projektojn.
    • Pliigitaj konfliktoj pri la uzo de algoritmoj en rekrutado, publika gvatado kaj policoj.
    • Esploristoj maldungitaj el grandaj AI-laboratorioj pro konfliktoj de intereso inter etiko kaj kompaniaj celoj.
    • Pli da premo por registaroj reguligi progresintajn AI-sistemojn kiuj estas ambaŭ nekredeble potencaj sed eble povas malobservi homajn rajtojn.

    Demandoj por komenti

    • Kiel firmaoj povas esti respondecaj pri la AI-sistemoj, kiujn ili kreas?
    • Kio estas la aliaj eblaj danĝeroj se estas misaligniĝo de AI?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno: