Përafrimi i AI: Përputhja e qëllimeve të inteligjencës artificiale përputhet me vlerat njerëzore

KREDI I IMAZHIT:
Kredia Image
iStock

Përafrimi i AI: Përputhja e qëllimeve të inteligjencës artificiale përputhet me vlerat njerëzore

Përafrimi i AI: Përputhja e qëllimeve të inteligjencës artificiale përputhet me vlerat njerëzore

Teksti i nëntitullit
Disa studiues besojnë se duhet të zbatohen masa për të siguruar që inteligjenca artificiale të mos dëmtojë shoqërinë.
    • Author:
    • Emri i autorit
      Parashikimi Kuantumrun
    • Janar 25, 2023

    Përafrimi i inteligjencës artificiale (AI) është kur qëllimet e një sistemi AI përputhen me vlerat njerëzore. Kompanitë si OpenAI, DeepMind dhe Anthropic kanë ekipe studiuesish, fokusi i vetëm i të cilëve është të studiojnë parmakët për skenarë të ndryshëm në të cilët kjo mund të ndodhë.

    Konteksti i shtrirjes së AI

    Sipas një studimi kërkimor të Universitetit të Cornell të vitit 2021, disa studime kanë treguar se mjetet ose modelet e krijuara nga algoritmet shfaqin paragjykime me burim nga të dhënat mbi të cilat janë trajnuar. Për shembull, në përpunimin e gjuhës natyrore (NLP), modele të përzgjedhura NLP të trajnuara mbi grupe të kufizuara të dhënash janë dokumentuar duke bërë parashikime të bazuara në stereotipe të dëmshme gjinore ndaj grave. Në mënyrë të ngjashme, studime të tjera zbuluan se algoritmet e trajnuar mbi grupin e të dhënave të manipuluara rezultuan në rekomandime të njëanshme racore, veçanërisht në polici.

    Ka shumë shembuj në të cilët sistemet e mësimit të makinerive kanë bërë më keq për pakicat ose grupet që vuajnë nga disavantazhe të shumta. Në veçanti, analiza e automatizuar e fytyrës dhe diagnostikimi i kujdesit shëndetësor zakonisht nuk funksionojnë shumë mirë për gratë dhe njerëzit me ngjyrë. Kur sistemet kritike që duhet të bazohen në fakte dhe logjikë në vend të emocioneve përdoren në kontekste si shpërndarja e kujdesit shëndetësor ose arsimit, ato mund të bëjnë më shumë dëme duke e bërë më të vështirë identifikimin e arsyetimit pas këtyre rekomandimeve.

    Si rezultat, firmat e teknologjisë po krijojnë ekipe të shtrirjes së AI për t'u fokusuar në mbajtjen e algoritmeve të drejta dhe humane. Hulumtimi është thelbësor për të kuptuar drejtimin e sistemeve të avancuara të AI, si dhe sfidat me të cilat mund të përballemi ndërsa aftësitë e AI rriten.

    Ndikim shkatërrues

    Sipas Jan Leike, kreu i shtrirjes së AI në OpenAI (2021), duke pasur parasysh se sistemet e AI janë bërë të afta vetëm në vitet 2010, është e kuptueshme që shumica e kërkimeve për shtrirjen e AI kanë qenë të rënda teorike. Kur sistemet jashtëzakonisht të fuqishme të AI janë në linjë, një nga sfidat me të cilat përballen njerëzit është se këto makina mund të krijojnë zgjidhje që janë shumë të ndërlikuara për t'u rishikuar dhe vlerësuar nëse ato kanë kuptim nga ana etike.

    Leike krijoi një strategji të modelimit të shpërblimit rekursiv (RRM) për të rregulluar këtë problem. Me RRM, disa AI "ndihmëse" mësohen për të ndihmuar një njeri të vlerësojë se sa mirë funksionon një AI më komplekse. Ai është optimist për mundësinë e krijimit të diçkaje të cilës i referohet si "MVP i rreshtimit". Në terma startup, një MVP (ose produkt minimal i zbatueshëm) është produkti më i thjeshtë i mundshëm që një kompani mund të ndërtojë për të provuar një ide. Shpresa është që një ditë, AI të përputhet me performancën njerëzore në kërkimin e AI dhe përafrimin e saj me vlerat duke qenë gjithashtu funksionale.

    Ndërsa rritja e interesit për shtrirjen e AI është një pozitiv neto, shumë analistë në këtë fushë mendojnë se pjesa më e madhe e punës "etike" në laboratorët kryesorë të AI janë thjesht marrëdhënie me publikun e krijuar për t'i bërë kompanitë e teknologjisë të duken mirë dhe për të shmangur publicitetin negativ. Këta individë nuk presin që praktikat e zhvillimit etik të bëhen prioritet për këto kompani së shpejti.

    Këto vëzhgime theksojnë rëndësinë e qasjeve ndërdisiplinore për përpjekjet për përafrimin e vlerave, pasi kjo është një fushë relativisht e re e kërkimit moral dhe teknik. Degë të ndryshme të njohurive duhet të jenë pjesë e një axhende kërkimore gjithëpërfshirëse. Kjo nismë tregon gjithashtu nevojën që teknologët dhe politikëbërësit të qëndrojnë të vetëdijshëm për kontekstin e tyre social dhe palët e interesuara, edhe pse sistemet e AI bëhen më të avancuara.

    Implikimet e shtrirjes së AI

    Implikimet më të gjera të shtrirjes së AI mund të përfshijnë: 

    • Laboratorët e inteligjencës artificiale punësojnë borde të ndryshme etike për të mbikëqyrur projektet dhe për të përmbushur udhëzimet etike të AI. 
    • Qeveritë krijojnë ligje që kërkojnë që kompanitë të paraqesin kornizën e tyre të përgjegjshme të AI dhe se si planifikojnë të zhvillojnë më tej projektet e tyre të AI.
    • Rritja e polemikave mbi përdorimin e algoritmeve në rekrutim, mbikëqyrje publike dhe zbatim të ligjit.
    • Studiuesit po pushohen nga laboratorët e mëdhenj të AI për shkak të konfliktit të interesit midis etikës dhe qëllimeve të korporatës.
    • Më shumë presion për qeveritë për të rregulluar sistemet e avancuara të AI që janë të dyja tepër të fuqishme, por potencialisht mund të shkelin të drejtat e njeriut.

    Pyetje për të komentuar

    • Si mund të bëhen të përgjegjshme firmat për sistemet e AI që krijojnë?
    • Cilat janë rreziqet e tjera të mundshme nëse ka mospërputhje të AI?

    Referencat e njohurive

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë pasqyrë: