Problemli təlim məlumatları: AI-yə qərəzli məlumatlar öyrədildikdə

ŞƏKİL KREDİTİ:
Şəkil krediti
iStock

Problemli təlim məlumatları: AI-yə qərəzli məlumatlar öyrədildikdə

Problemli təlim məlumatları: AI-yə qərəzli məlumatlar öyrədildikdə

Alt başlıq mətni
Süni intellekt sistemləri bəzən onun necə hərəkət etdiyinə və qərar qəbul etməsinə təsir edə biləcək subyektiv məlumatlarla təqdim olunur.
    • Author:
    • Author adı
      Quantumrun Uzaqgörməsi
    • Oktyabr 14, 2022

    Anlayış xülasəsi

    Biz öyrəndiyimiz və daxililəşdirdiyimiz şeylərik; bu hökm süni intellektə (AI) də aiddir. Natamam, qərəzli və qeyri-etik məlumatlarla qidalanan maşın öyrənməsi (ML) modelləri son nəticədə problemli qərarlar və təkliflər verəcək. Bu güclü alqoritmlər, tədqiqatçılar diqqətli olmadıqda, istifadəçilərin əxlaqına və qavrayışlarına təsir göstərə bilər.

    Problemli təlim məlumat konteksti

    2010-cu illərdən bəri, tədqiqat qrupları uyğun olmayan məzmunlu və ya qeyri-etik şəkildə toplanmış təlim məlumat dəstlərindən istifadə etdikləri üçün diqqətlə yoxlanılır. Məsələn, 2016-cı ildə Microsoft-un MS-Celeb-1M verilənlər bazasına 10 min müxtəlif məşhurun ​​100,000 milyon şəkli daxil edilib. Bununla belə, müxbirlər əlavə yoxlamadan sonra müəyyən ediblər ki, bir çox fotolar sahibinin razılığı və ya xəbəri olmadan müxtəlif internet saytlarından götürülən adi insanlara aiddir.

    Bu reallığa baxmayaraq, verilənlər bazası əyalət polisi ilə əlaqəsi olan Çinin üz tanıma şirkəti olan Facebook və SenseTime kimi böyük şirkətlər tərəfindən istifadə olunmağa davam etdi. Eynilə, Duke Universitetinin kampusunda (DukeMTMC) gəzən insanların şəkillərini ehtiva edən məlumat dəsti də razılıq toplamadı. Nəhayət, hər iki məlumat dəsti silindi. 

    Problemli təlim məlumatlarının zərərli təsirlərini vurğulamaq üçün Massaçusets Texnologiya İnstitutunun (MIT) tədqiqatçıları Norman adlı süni intellekt yaradıblar ki, onlar qrafik zorakılığı vurğulayan subredditdən şəkil yazıları yazmağı öyrətmişlər. Komanda daha sonra Normanı ənənəvi məlumatlardan istifadə etməklə öyrədilmiş neyron şəbəkəsinə qarşı yerləşdirdi. Tədqiqatçılar hər iki sistemi Rorschach mürəkkəb ləkələri ilə təchiz etdilər və AI-lərdən gördüklərini təsvir etmələrini istədi. Nəticələr heyrətamiz idi: standart neyron şəbəkəsi "beysbol əlcəyinin ağ-qara şəklini" görəndə Norman "gün işığında pulemyotla öldürülən bir adamı" müşahidə etdi. Təcrübə göstərdi ki, süni intellekt avtomatik olaraq qərəzli deyil, lakin bu məlumat daxiletmə üsulları və onların yaradıcılarının motivləri süni intellektin davranışına əhəmiyyətli dərəcədə təsir göstərə bilər.

    Dağıdıcı təsir

    2021-ci ildə Allen Institute for AI tədqiqat təşkilatı istənilən etik suala cavablar üçün alqoritmik olaraq cavablar yaradan ML proqramı Ask Delphi-ni yaratdı. Layihənin arxasında duran tədqiqatçılar bildiriblər ki, süni intellekt getdikcə daha güclü və tanış olur, ona görə də alimlər bu ML sistemlərinin etikasını öyrətməlidirlər. Unicorn ML modeli Delphi-nin əsasını təşkil edir. O, mətn sətirinə ən çox ehtimal olunan sonluğu seçmək kimi "sağlam düşüncə" mülahizələrini həyata keçirmək üçün tərtib edilmişdir. 

    Bundan əlavə, tədqiqatçılar "Commonsense Norm Bank"dan istifadə etdilər. Bu bank Reddit kimi yerlərdən insanların etik qiymətləndirmələrinin 1.7 milyon nümunəsindən ibarətdir. Nəticədə, Delphi-nin çıxışı qarışıq idi. Delfi bəzi suallara əsaslı şəkildə cavab verdi (məsələn, kişilər və qadınlar arasında bərabərlik), halbuki bəzi mövzularda Delfi açıq şəkildə təhqiramiz idi (məsələn, insanları xoşbəxt etdiyi müddətcə soyqırım məqbuldur).

    Bununla belə, Delphi süni intellekt öz təcrübələrindən öyrənir və deyəsən, rəy əsasında cavablarını yeniləyir. Bəzi ekspertlər modelin davam etdiyini və qeyri-sabit cavablara meylli olduğunu nəzərə alaraq tədqiqatın ictimai və açıq istifadəsi ilə narahatdırlar. Ask Delphi debüt edərkən, Illinois Tech-də gender, əmək və hesablama tarixi üzrə ixtisaslaşan Tarix professoru Mar Hicks, Delphi-nin dərhal son dərəcə qeyri-etik cavablar verdiyini nəzərə alaraq, insanları ondan istifadə etməyə dəvət etməyin tədqiqatçıların səhlənkarlıq olduğunu söylədi. tam cəfəngiyatdır. 

    2023 olaraq, Dünya qalan AI görüntü generatorlarında qərəzliliyə dair bir araşdırma apardı. Midjourney-dən istifadə edərək, tədqiqatçılar yaradılan şəkillərin mövcud stereotipləri təsdiqlədiyini aşkar etdilər. Bundan əlavə, OpenAI DALL-E 2 şəkil yaratma modeli üçün təlim məlumatlarına filtrlər tətbiq etdikdə, o, istəmədən genderlə bağlı qərəzləri gücləndirdi.

    Problemli təlim məlumatlarının nəticələri

    Problemli təlim məlumatlarının daha geniş təsirləri aşağıdakıları əhatə edə bilər: 

    • Tədqiqat layihələrində, xidmətlərdə və proqram inkişafında gücləndirilmiş qərəzlər. Problemli təlim məlumatları hüquq-mühafizə orqanlarında və bank institutlarında istifadə olunduqda (məsələn, azlıq qruplarını mənfi hədəfə alma) xüsusilə aiddir.
    • Təlim məlumatlarının böyüməsi və çeşidi üçün artan investisiya və inkişaf. 
    • Daha çox hökumət korporasiyaların müxtəlif kommersiya təşəbbüsləri üçün təlim məlumatlarını inkişaf etdirmə, satma və istifadə qaydalarını məhdudlaşdırmaq üçün qaydaları artırır.
    • Süni intellekt sistemləri ilə dəstəklənən layihələrin etik qaydalara əməl etməsini təmin etmək üçün etik departamentlər yaradan daha çox müəssisə.
    • Səhiyyədə süni intellektdən istifadəyə dair təkmilləşdirilmiş yoxlama, məlumatların daha sərt idarə olunmasına gətirib çıxarır, xəstə məxfiliyini və etik AI tətbiqini təmin edir.
    • Süni intellekt üzrə savadlılığı inkişaf etdirmək, süni intellektin üstünlük təşkil etdiyi gələcək üçün işçi qüvvəsini bacarıqlarla təchiz etmək üçün dövlət və özəl sektor əməkdaşlığının artırılması.
    • AI şəffaflıq alətlərinə tələbatın artması, aparıcı şirkətlər istehlakçıların anlayışı və etibarı üçün AI sistemlərində izahlılığa üstünlük verir.

    Nəzərə alınmalı suallar

    • Təşkilatlar problemli təlim məlumatlarından necə çəkinə bilər?
    • Qeyri-etik təlim məlumatlarının başqa hansı potensial nəticələri ola bilər?