Süni intellektin uyğunlaşdırılması: Süni intellekt məqsədlərinin uyğunluğu insan dəyərlərinə uyğundur

ŞƏKİL KREDİTİ:
Şəkil krediti
iStock

Süni intellektin uyğunlaşdırılması: Süni intellekt məqsədlərinin uyğunluğu insan dəyərlərinə uyğundur

Süni intellektin uyğunlaşdırılması: Süni intellekt məqsədlərinin uyğunluğu insan dəyərlərinə uyğundur

Alt başlıq mətni
Bəzi tədqiqatçılar hesab edirlər ki, süni intellektin cəmiyyətə zərər verməməsi üçün tədbirlər həyata keçirilməlidir.
    • Author:
    • Author adı
      Quantumrun Uzaqgörməsi
    • Yanvar 25, 2023

    Süni intellektin (AI) uyğunlaşdırılması süni intellekt sisteminin məqsədlərinin insan dəyərlərinə uyğun olmasıdır. OpenAI, DeepMind və Anthropic kimi şirkətlərin tədqiqatçı qrupları var ki, onların yeganə diqqəti bunun baş verə biləcəyi müxtəlif ssenarilər üçün qoruyucu barmaqlıqları öyrənməkdir.

    AI uyğunlaşdırma konteksti

    2021-ci ildə Cornell Universitetinin araşdırmasına görə, bir neçə tədqiqat alqoritmlər tərəfindən yaradılan alətlər və ya modellərin öyrədildikləri məlumatlardan qaynaqlanan qərəzliliyi nümayiş etdirdiyini göstərdi. Məsələn, təbii dil emalında (NLP), məhdud məlumat dəstləri üzərində təlim keçmiş seçilmiş NLP modellərinin qadınlara qarşı zərərli gender stereotipləri əsasında proqnozlar verməsi sənədləşdirilmişdir. Eynilə, digər tədqiqatlar müəyyən etdi ki, dəyişdirilmiş məlumat dəsti üzərində öyrədilmiş alqoritmlər, xüsusən də polis işində irqi qərəzli tövsiyələrlə nəticələnir.

    Maşın öyrənmə sistemlərinin çoxlu çatışmazlıqlardan əziyyət çəkən azlıqlar və ya qruplar üçün daha pis iş gördüyünə dair çoxlu nümunələr var. Xüsusilə, avtomatlaşdırılmış üz analizi və səhiyyə diaqnostikası adətən qadınlar və rəngli insanlar üçün çox yaxşı işləmir. Emosiya əvəzinə faktlara və məntiqə əsaslanmalı olan kritik sistemlər səhiyyə və ya təhsilin ayrılması kimi kontekstlərdə istifadə edildikdə, bu tövsiyələrin arxasında duran əsasları müəyyən etməyi çətinləşdirərək daha çox zərər verə bilər.

    Nəticədə, texnoloji firmalar alqoritmləri ədalətli və humanist saxlamağa diqqət yetirmək üçün AI uyğunlaşdırma qrupları yaradırlar. Tədqiqat qabaqcıl AI sistemlərinin istiqamətini, eləcə də AI imkanları artdıqca qarşılaşa biləcəyimiz problemləri anlamaq üçün vacibdir.

    Dağıdıcı təsir

    OpenAI-də (2021) süni intellektlə uyğunlaşdırma şöbəsinin rəhbəri Jan Leikenin sözlərinə görə, süni intellekt sistemlərinin yalnız 2010-cu illərdə qabiliyyətə malik olduğunu nəzərə alsaq, süni intellektlə uyğunlaşdırma tədqiqatlarının əksəriyyətinin nəzəriyyə baxımından ağır olduğunu başa düşmək olar. Çox güclü süni intellekt sistemləri uyğunlaşdırıldıqda, insanların qarşılaşdığı problemlərdən biri də odur ki, bu maşınlar etik baxımdan mənalı olub-olmadığını nəzərdən keçirmək və qiymətləndirmək üçün çox mürəkkəb həllər yarada bilər.

    Leike bu problemi həll etmək üçün rekursiv mükafat modelləşdirmə (RRM) strategiyası hazırladı. RRM ilə bir neçə "köməkçi" süni intellekt öyrədilir ki, insana daha mürəkkəb süni intellektin nə qədər yaxşı performans göstərdiyini qiymətləndirməyə kömək etsin. O, "düzgünlük MVP" kimi istinad etdiyi bir şey yaratmaq ehtimalı ilə bağlı optimistdir. Başlanğıc baxımından MVP (və ya minimum məhsuldar məhsul) bir şirkətin ideyanı sınaqdan keçirmək üçün qura biləcəyi ən sadə məhsuldur. Ümid odur ki, bir gün süni intellekt süni intellekt və onun dəyərlərlə uyğunlaşdırılmasında insan performansına uyğun gəlir, eyni zamanda funksionaldır.

    Süni intellektlə uyğunlaşmaya marağın artması müsbət hal olsa da, bu sahədə bir çox analitiklər düşünürlər ki, aparıcı süni intellekt laboratoriyalarında “etika” işinin çox hissəsi texnoloji şirkətlərin yaxşı görünməsi və mənfi təbliğatın qarşısını almaq üçün hazırlanmış ictimai əlaqələrdir. Bu şəxslər etik inkişaf təcrübələrinin tezliklə bu şirkətlər üçün prioritet olacağını gözləmirlər.

    Bu müşahidələr dəyərlərin uyğunlaşdırılması səyləri üçün fənlərarası yanaşmaların vacibliyini vurğulayır, çünki bu, mənəvi və texniki araşdırmanın nisbətən yeni sahəsidir. Müxtəlif bilik sahələri inklüziv tədqiqat gündəliyinin bir hissəsi olmalıdır. Bu təşəbbüs eyni zamanda texnoloqların və siyasətçilərin süni intellekt sistemləri daha da təkmilləşdikcə öz sosial kontekstindən və maraqlı tərəflərindən xəbərdar olmalarının vacibliyinə işarə edir.

    AI uyğunlaşdırılmasının nəticələri

    AI uyğunlaşmasının daha geniş təsirləri aşağıdakıları əhatə edə bilər: 

    • Süni intellekt laboratoriyaları layihələrə nəzarət etmək və etik süni intellekt qaydalarına əməl etmək üçün müxtəlif etik şuraları işə götürür. 
    • Hökumətlər şirkətlərdən öz məsuliyyətli AI çərçivələrini təqdim etmələrini və AI layihələrini daha da inkişaf etdirməyi planlaşdırdıqlarını tələb edən qanunlar yaradır.
    • İşə qəbul, ictimai nəzarət və hüquq-mühafizə orqanlarında alqoritmlərin istifadəsi ilə bağlı mübahisələrin artması.
    • Etika və korporativ məqsədlər arasında maraqların toqquşması səbəbindən tədqiqatçılar böyük süni intellekt laboratoriyalarından qovulurlar.
    • Həm inanılmaz dərəcədə güclü, lakin potensial olaraq insan hüquqlarını poza bilən qabaqcıl AI sistemlərini tənzimləmək üçün hökumətlərə daha çox təzyiq.

    Şərh etmək üçün suallar

    • Firmalar yaratdıqları AI sistemlərinə görə necə cavabdeh ola bilərlər?
    • Süni intellektdə yanlış hizalanma olarsa, digər potensial təhlükələr nələrdir?

    Anlayış istinadları

    Bu fikir üçün aşağıdakı məşhur və institusional bağlantılara istinad edilmişdir: