AI suderinimas: dirbtinio intelekto tikslai atitinka žmogaus vertybes

VAIZDO KREDITAS:
Paveikslėlio kredito
iStock

AI suderinimas: dirbtinio intelekto tikslai atitinka žmogaus vertybes

AI suderinimas: dirbtinio intelekto tikslai atitinka žmogaus vertybes

Paantraštės tekstas
Kai kurie mokslininkai mano, kad reikėtų įgyvendinti priemones, užtikrinančias, kad dirbtinis intelektas nepakenktų visuomenei.
    • Autorius:
    • autoriaus vardas
      Quantumrun Foresight
    • Sausis 25, 2023

    Dirbtinio intelekto (AI) derinimas yra tada, kai AI sistemos tikslai atitinka žmogaus vertybes. Tokios įmonės kaip „OpenAI“, „DeepMind“ ir „Anthropic“ turi tyrėjų komandas, kurių vienintelis tikslas yra ištirti apsauginius turėklus, skirtus įvairiems scenarijams, kai tai gali atsitikti.

    AI derinimo kontekstas

    Remiantis 2021 m. Kornelio universiteto tyrimo duomenimis, keli tyrimai parodė, kad algoritmų sukurti įrankiai ar modeliai rodo šališkumą, gautą iš duomenų, kuriais jie buvo mokomi. Pavyzdžiui, natūralios kalbos apdorojimo (NLP) atveju buvo užfiksuoti tam tikri NLP modeliai, parengti remiantis ribotais duomenų rinkiniais, numatant žalingus lyčių stereotipus prieš moteris. Panašiai, kituose tyrimuose nustatyta, kad algoritmai, parengti naudojant sugadintų duomenų rinkinį, lėmė rasistiškai šališkas rekomendacijas, ypač policijos srityje.

    Yra daug pavyzdžių, kai mašininio mokymosi sistemoms blogiau pasisekė mažumoms ar grupėms, kenčiančioms nuo daugelio trūkumų. Visų pirma, automatizuota veido analizė ir sveikatos priežiūros diagnostika paprastai neveikia labai gerai moterims ir spalvotiems žmonėms. Kai svarbios sistemos, kurios turėtų būti pagrįstos faktais ir logika, o ne emocijomis, naudojamos tokiose situacijose kaip sveikatos priežiūros ar švietimo skyrimas, jos gali padaryti daugiau žalos, nes bus sunkiau nustatyti šių rekomendacijų motyvus.

    Todėl technologijų įmonės kuria dirbtinio intelekto derinimo komandas, siekdamos sutelkti dėmesį į tai, kad algoritmai būtų sąžiningi ir humaniški. Tyrimai yra būtini norint suprasti pažangių AI sistemų kryptį ir iššūkius, su kuriais galime susidurti augant AI galimybėms.

    Trikdantis poveikis

    Anot Jan Leike, OpenAI DI derinimo skyriaus vadovo (2021), atsižvelgiant į tai, kad dirbtinio intelekto sistemos tapo tinkamos tik 2010 m., Suprantama, kad dauguma AI derinimo tyrimų buvo teoriškai svarbūs. Kai suderinamos nepaprastai galingos AI sistemos, vienas iš iššūkių, su kuriuo susiduria žmonės, yra tai, kad šios mašinos gali sukurti sprendimus, kuriuos būtų per daug sudėtinga peržiūrėti ir įvertinti, ar jie yra prasmingi etiškai.

    Leike sukūrė rekursinio atlygio modeliavimo (RRM) strategiją, kad išspręstų šią problemą. Naudojant RRM, mokomi keli „pagalbiniai“ AI, padedantys žmogui įvertinti, kaip gerai veikia sudėtingesnis AI. Jis optimistiškai žiūri į galimybę sukurti kažką, ką jis vadina „išlyginimo MVP“. Pradedantiesiems, MVP (arba minimalus gyvybingas produktas) yra paprasčiausias įmanomas produktas, kurį įmonė gali sukurti, kad išbandytų idėją. Tikimasi, kad kada nors dirbtinis intelektas atitiks žmogaus veiklą tiriant AI ir jo derinimą su vertybėmis, kartu būdamas funkcionalus.

    Nors didėjantis susidomėjimas dirbtinio intelekto suderinimu yra teigiamas dalykas, daugelis šios srities analitikų mano, kad didžioji dalis „etikos“ darbo pirmaujančiose AI laboratorijose yra tik viešieji ryšiai, skirti technologijų įmonėms atrodyti gerai ir išvengti neigiamos reklamos. Šie asmenys nesitiki, kad etikos plėtros praktika greitai taps šių įmonių prioritetu.

    Šios pastabos pabrėžia tarpdisciplininių požiūrių svarbą vertybių derinimo pastangoms, nes tai gana nauja moralinių ir techninių tyrimų sritis. Įvairios žinių šakos turėtų būti įtraukiosios mokslinių tyrimų darbotvarkės dalis. Ši iniciatyva taip pat rodo, kad technologai ir politikos formuotojai turi žinoti savo socialinį kontekstą ir suinteresuotąsias šalis, net kai dirbtinio intelekto sistemos tampa vis tobulesnės.

    AI derinimo pasekmės

    Platesnės AI derinimo pasekmės gali apimti: 

    • Dirbtinio intelekto laboratorijos, samdančios įvairias etikos tarybas projektams prižiūrėti ir etikos AI gairių vykdymui. 
    • Vyriausybės kuria įstatymus, reikalaujančius, kad įmonės pateiktų savo atsakingą dirbtinio intelekto sistemą ir kaip jos planuoja toliau plėtoti savo AI projektus.
    • Padaugėjo prieštaravimų dėl algoritmų naudojimo įdarbinant, stebint visuomenę ir vykdant teisėsaugą.
    • Tyrėjai atleisti iš didelių AI laboratorijų dėl interesų konflikto tarp etikos ir įmonės tikslų.
    • Didesnis spaudimas vyriausybėms reguliuoti pažangias AI sistemas, kurios yra neįtikėtinai galingos, tačiau gali pažeisti žmogaus teises.

    Klausimai komentuoti

    • Kaip įmonės gali būti atsakingos už sukurtas dirbtinio intelekto sistemas?
    • Kokie kiti galimi pavojai, jei AI nesutampa?

    Įžvalgos nuorodos

    Šioje įžvalgoje buvo nurodytos šios populiarios ir institucinės nuorodos: