Muammoli ta'lim ma'lumotlari: AIga noto'g'ri ma'lumotlar o'rgatilganda

TASVIR KREDIT:
Rasm krediti
iStock

Muammoli ta'lim ma'lumotlari: AIga noto'g'ri ma'lumotlar o'rgatilganda

Muammoli ta'lim ma'lumotlari: AIga noto'g'ri ma'lumotlar o'rgatilganda

Sarlavha matni
Sun'iy intellekt tizimlari ba'zan uning qanday harakat qilishiga va qaror qabul qilishiga ta'sir qilishi mumkin bo'lgan sub'ektiv ma'lumotlar bilan kiritiladi.
    • Muallif:
    • Muallifning ismi
      Kvant davrini bashorat qilish
    • Oktyabr 14, 2022

    Aniq xulosa

    Biz o'zimiz o'rgangan va o'zimizga singdirgan narsamiz; bu gap sun'iy intellektga (AI) ham tegishli. To'liq bo'lmagan, noto'g'ri va axloqiy bo'lmagan ma'lumotlar bilan ta'minlangan mashinani o'rganish (ML) modellari oxir-oqibat muammoli qarorlar va takliflar qabul qiladi. Agar tadqiqotchilar ehtiyotkor bo'lmasa, bu kuchli algoritmlar foydalanuvchilarning axloqi va idrokiga ta'sir qilishi mumkin.

    Muammoli ta'lim ma'lumotlari konteksti

    2010-yillardan beri tadqiqot guruhlari mos bo'lmagan tarkibga ega bo'lgan yoki axloqsiz ravishda yig'ilgan o'quv ma'lumotlar to'plamidan foydalanganliklari uchun tekshirildi. Misol uchun, 2016-yilda Microsoft kompaniyasining MS-Celeb-1M maʼlumotlar bazasida 10 100,000 ta turli mashhur kishilarning XNUMX million tasviri mavjud edi. Biroq, keyingi tekshiruvdan so'ng, muxbirlar ko'plab fotosuratlar egasining roziligisiz yoki bilmagan holda turli veb-saytlardan olingan oddiy odamlar ekanligini aniqladilar.

    Ushbu amalga oshirilganiga qaramay, ma'lumotlar to'plamidan Facebook va SenseTime kabi yirik kompaniyalar, shtat politsiyasi bilan aloqasi bo'lgan Xitoyning yuzni aniqlash kompaniyasi tomonidan foydalanishda davom etdi. Xuddi shunday, Dyuk universiteti (DukeMTMC) kampusida yurgan odamlarning suratlarini o'z ichiga olgan ma'lumotlar to'plami ham rozilik ololmadi. Oxir-oqibat, ikkala ma'lumotlar to'plami ham o'chirildi. 

    Massachusets Texnologiya Instituti (MIT) tadqiqotchilari muammoli mashg‘ulot ma’lumotlarining zararli ta’sirini ta’kidlash uchun Norman nomli sun’iy intellektni yaratdilar, ular grafik zo‘ravonlikni ta’kidlagan subredditdan tasvirga taglavhalar yozishni o‘rgatishdi. Keyin jamoa Normanni an'anaviy ma'lumotlardan foydalangan holda o'qitilgan neyron tarmoqqa qarshi joylashtirdi. Tadqiqotchilar ikkala tizimni ham Rorschach siyoh dog‘lari bilan ta’minladilar va sun’iy intellektdan ko‘rganlarini tasvirlab berishlarini so‘rashdi. Natijalar hayratlanarli bo'ldi: standart neyron tarmoq "beysbol qo'lqopining qora va oq fotosuratini" ko'rgan joyda, Norman "kuppa-kunduzda avtomat tomonidan o'ldirilgan odamni" kuzatdi. Tajriba shuni ko'rsatdiki, sun'iy intellekt avtomatik ravishda tarafkash emas, lekin ma'lumotlarni kiritish usullari va ularni yaratuvchilarning motivlari AI xatti-harakatiga sezilarli ta'sir ko'rsatishi mumkin.

    Buzg'unchi ta'sir

    2021 yilda Allen Institute for AI tadqiqot tashkiloti Ask Delphi dasturini yaratdi, u har qanday axloqiy savolga javoblar uchun javoblarni algoritmik tarzda ishlab chiqaradi. Loyiha ortidagi tadqiqotchilarning ta'kidlashicha, AI asta-sekin kuchliroq va tanish bo'lib bormoqda, shuning uchun olimlar ushbu ML tizimlari etikasini o'rgatishlari kerak. Unicorn ML modeli Delphi ning asosidir. U "sog'lom aql" mulohazalarini amalga oshirish uchun ishlab chiqilgan, masalan, matn qatorining eng ehtimoliy oxirini tanlash. 

    Bundan tashqari, tadqiqotchilar "Commonsense Norm Bank" dan foydalanishgan. Ushbu bank Reddit kabi joylardan odamlarning axloqiy baholashiga oid 1.7 million misoldan iborat. Natijada, Delphi ning chiqishi aralash sumka edi. Delfi ba'zi savollarga asosli javob berdi (masalan, erkaklar va ayollar o'rtasidagi tenglik), holbuki, ba'zi mavzularda Delfi to'g'ridan-to'g'ri haqoratli edi (masalan, genotsid odamlarni xursand qilgan ekan, qabul qilinadi).

    Biroq, Delphi AI o'z tajribasidan o'rganmoqda va javoblarni fikr-mulohazalar asosida yangilayotganga o'xshaydi. Ba'zi ekspertlar tadqiqotning ommabop va ochiq qo'llanilishidan xavotirda, chunki model ishlab chiqilmoqda va noto'g'ri javoblarga moyil. Ask Delphi debyut qilganida, Illinoys Tech universitetining gender, mehnat va hisoblash tarixiga ixtisoslashgan tarix professori Mar Xiks, Delphi darhol o'ta axloqiy bo'lmagan javoblar berganini hisobga olib, odamlarni undan foydalanishga taklif qilish tadqiqotchilarning e'tiborsizligini aytdi. to'liq bema'nilik. 

    2023 yilda Dunyoning qolgan qismi AI tasvir generatorlarida tarafkashlik bo'yicha tadqiqot o'tkazdi. Midjourney yordamida tadqiqotchilar yaratilgan tasvirlar mavjud stereotiplarni tasdiqlashini aniqladilar. Bundan tashqari, OpenAI o'zining DALL-E 2 tasvir yaratish modeli uchun o'quv ma'lumotlariga filtrlarni qo'llaganida, u beixtiyor jinsga oid noto'g'ri qarashlarni kuchaytirdi.

    Muammoli ta'lim ma'lumotlarining oqibatlari

    Muammoli ta'lim ma'lumotlarining kengroq oqibatlari quyidagilarni o'z ichiga olishi mumkin: 

    • Tadqiqot loyihalari, xizmatlar va dasturlarni ishlab chiqishda noto'g'ri fikrlar kuchaygan. Muammoli ta'lim ma'lumotlari, ayniqsa, huquqni muhofaza qilish va bank muassasalarida (masalan, ozchilik guruhlariga salbiy ta'sir ko'rsatish) foydalanilsa, tegishli.
    • Ta'lim ma'lumotlarining o'sishi va assortimentiga sarmoya va rivojlanishning ko'payishi. 
    • Ko'proq hukumatlar korporatsiyalarning turli tijorat tashabbuslari uchun o'quv ma'lumotlarini rivojlantirish, sotish va foydalanishni cheklash uchun qoidalarni oshirmoqda.
    • AI tizimlari tomonidan qo'llab-quvvatlanadigan loyihalar axloqiy ko'rsatmalarga amal qilishini ta'minlash uchun ko'proq korxonalar axloq bo'limlarini tashkil qiladi.
    • Sog'liqni saqlashda sun'iy intellektdan foydalanish bo'yicha kengaytirilgan tekshiruv ma'lumotlarni qat'iy boshqarishga olib keladi, bemorning shaxsiy hayoti va axloqiy AI qo'llanilishini ta'minlaydi.
    • AI savodxonligini oshirish, ishchi kuchini AI hukmronlik qiladigan kelajak uchun ko'nikmalar bilan jihozlash uchun davlat va xususiy sektor hamkorligini oshirish.
    • Sun'iy intellektning shaffofligi vositalariga talabning ortishi, etakchi kompaniyalar iste'molchilarning tushunishi va ishonchi uchun AI tizimlarida tushuntirishga ustuvor ahamiyat beradi.

    Ko'rib chiqilishi kerak bo'lgan savollar

    • Qanday qilib tashkilotlar muammoli ta'lim ma'lumotlaridan foydalanishni oldini olishlari mumkin?
    • Axloqiy bo'lmagan o'quv ma'lumotlarining yana qanday oqibatlari mumkin?