AI alignment: Ang pagtutugma ng mga layunin ng artificial intelligence ay tumutugma sa mga halaga ng tao

CREDIT NG LARAWAN:
Image credit
iStock

AI alignment: Ang pagtutugma ng mga layunin ng artificial intelligence ay tumutugma sa mga halaga ng tao

AI alignment: Ang pagtutugma ng mga layunin ng artificial intelligence ay tumutugma sa mga halaga ng tao

Teksto ng subheading
Ang ilang mga mananaliksik ay naniniwala na ang mga hakbang ay dapat na ipatupad upang matiyak na ang artificial intelligence ay hindi makapinsala sa lipunan.
    • May-akda:
    • pangalan Author
      Quantumrun Foresight
    • Enero 25, 2023

    Ang pag-align ng artificial intelligence (AI) ay kapag ang mga layunin ng AI system ay tumutugma sa mga halaga ng tao. Ang mga kumpanya tulad ng OpenAI, DeepMind, at Anthropic ay may mga pangkat ng mga mananaliksik na ang tanging pokus ay pag-aralan ang mga guardrail para sa iba't ibang mga sitwasyon kung saan ito maaaring mangyari.

    Konteksto ng pagkakahanay ng AI

    Ayon sa isang pag-aaral sa pananaliksik sa University of Cornell noong 2021, ipinakita ng ilang pag-aaral na ang mga tool o modelong ginawa ng mga algorithm ay nagpapakita ng bias na nagmula sa data kung saan sila sinanay. Halimbawa, sa natural language processing (NLP), ang mga piling modelo ng NLP na sinanay sa mga limitadong set ng data ay naidokumento sa paggawa ng mga hula batay sa mga nakakapinsalang stereotype ng kasarian laban sa mga kababaihan. Katulad nito, natuklasan ng iba pang pag-aaral na ang mga algorithm na sinanay sa na-tamper na set ng data ay nagresulta sa mga rekomendasyong may kinikilingan sa lahi, partikular sa pagpupulis.

    Maraming mga halimbawa kung saan ang mga machine learning system ay gumawa ng mas masahol pa para sa mga minorya o grupong dumaranas ng maraming disadvantages. Sa partikular, ang awtomatikong pagsusuri sa mukha at mga diagnostic sa pangangalagang pangkalusugan ay karaniwang hindi gumagana nang maayos para sa mga kababaihan at taong may kulay. Kapag ang mga kritikal na sistema na dapat ay nakabatay sa mga katotohanan at lohika sa halip na emosyon ay ginagamit sa mga konteksto tulad ng paglalaan ng pangangalagang pangkalusugan o edukasyon, maaari silang gumawa ng higit na pinsala sa pamamagitan ng pagpapahirap sa pagtukoy sa pangangatwiran sa likod ng mga rekomendasyong ito.

    Bilang resulta, ang mga tech firm ay gumagawa ng mga AI alignment team para tumuon sa pagpapanatiling patas at makatao ang mga algorithm. Mahalaga ang pananaliksik sa pag-unawa sa direksyon ng mga advanced na AI system, gayundin sa mga hamon na maaari nating harapin habang lumalaki ang mga kakayahan ng AI.

    Nakakagambalang epekto

    Ayon kay Jan Leike, pinuno ng AI alignment sa OpenAI (2021), dahil ang mga AI system ay naging may kakayahan lamang noong 2010s, maliwanag na ang karamihan sa AI alignment research ay naging mabigat sa teorya. Kapag nakahanay ang napakalakas na mga AI system, isa sa mga hamon na kinakaharap ng mga tao ay ang mga machine na ito ay maaaring lumikha ng mga solusyon na masyadong kumplikado upang suriin at masuri kung may kabuluhan ang mga ito sa etika.

    Gumawa si Leike ng diskarte sa recursive reward modeling (RRM) para ayusin ang problemang ito. Sa RRM, itinuro ang ilang "helper" AI upang tulungan ang isang tao na suriin kung gaano kahusay ang pagganap ng isang mas kumplikadong AI. Siya ay optimistiko tungkol sa posibilidad na lumikha ng isang bagay na tinutukoy niya bilang isang "alignment MVP." Sa mga termino ng pagsisimula, ang isang MVP (o pinakamababang mabubuhay na produkto) ay ang pinakasimpleng posibleng produkto na maaaring itayo ng isang kumpanya upang subukan ang isang ideya. Ang pag-asa ay na balang araw, tumutugma ang AI sa pagganap ng tao sa pagsasaliksik ng AI at ang pagkakahanay nito sa mga halaga habang gumagana din.

    Bagama't ang pagtaas ng interes sa AI alignment ay isang netong positibo, maraming mga analyst sa larangan ang nag-iisip na ang karamihan sa "etika" na gawain sa mga nangungunang AI lab ay mga relasyon sa publiko lamang na idinisenyo upang gawing maganda ang mga tech na kumpanya at maiwasan ang negatibong publisidad. Hindi inaasahan ng mga indibidwal na ito na magiging priyoridad ng mga kumpanyang ito ang mga kasanayan sa pagpapaunlad ng etika sa lalong madaling panahon.

    Itinatampok ng mga obserbasyong ito ang kahalagahan ng mga interdisciplinary approach para sa mga pagsusumikap sa pag-align ng halaga, dahil ito ay medyo bagong lugar ng moral at teknikal na pagtatanong. Ang iba't ibang sangay ng kaalaman ay dapat maging bahagi ng isang inklusibong agenda ng pananaliksik. Itinuturo din ng inisyatibong ito ang pangangailangan para sa mga technologist at gumagawa ng patakaran na manatiling may kamalayan sa kanilang konteksto sa lipunan at mga stakeholder, kahit na ang mga sistema ng AI ay nagiging mas advanced.

    Mga implikasyon ng AI alignment

    Maaaring kabilang sa mas malawak na implikasyon ng AI alignment ang: 

    • Ang mga artificial intelligence lab ay kumukuha ng magkakaibang ethics board para pangasiwaan ang mga proyekto at tuparin ang mga alituntunin sa etikal na AI. 
    • Mga pamahalaan na gumagawa ng mga batas na nangangailangan ng mga kumpanya na isumite ang kanilang responsableng AI framework at kung paano nila pinaplano na higit pang bumuo ng kanilang mga proyekto sa AI.
    • Dumami ang mga kontrobersya sa paggamit ng mga algorithm sa recruitment, pampublikong pagsubaybay, at pagpapatupad ng batas.
    • Ang mga mananaliksik ay tinanggal mula sa malalaking AI lab dahil sa mga salungatan ng interes sa pagitan ng etika at mga layunin ng kumpanya.
    • Higit pang panggigipit para sa mga pamahalaan na i-regulate ang mga advanced na AI system na parehong napakalakas ngunit posibleng lumabag sa mga karapatang pantao.

    Mga tanong na ikokomento

    • Paano mapapanagot ang mga kumpanya para sa mga AI system na kanilang nilikha?
    • Ano ang iba pang potensyal na panganib kung mayroong maling pagkakahanay ng AI?

    Mga sanggunian ng insight

    Ang mga sumusunod na sikat at institusyonal na link ay isinangguni para sa pananaw na ito: