Franken-Algoritmlari: Algoritmlar noto'g'ri bo'lib ketdi

TASVIR KREDIT:
Rasm krediti
iStock

Franken-Algoritmlari: Algoritmlar noto'g'ri bo'lib ketdi

Franken-Algoritmlari: Algoritmlar noto'g'ri bo'lib ketdi

Sarlavha matni
Sun'iy intellektning rivojlanishi bilan algoritmlar odamlar kutganidan tezroq rivojlanmoqda.
    • Muallif:
    • Muallifning ismi
      Kvant davrini bashorat qilish
    • Aprel 12, 2023

    Mashinani o'rganish (ML) algoritmlari yanada rivojlangani sayin, ular katta ma'lumotlar to'plamidagi naqshlarni mustaqil ravishda o'rganish va moslashtira oladi. "Avtonom o'rganish" deb nomlanuvchi bu jarayon algoritmni qaror qabul qilish uchun o'z kodini yoki qoidalarini yaratishga olib kelishi mumkin. Muammo shundaki, algoritm tomonidan yaratilgan kod odamlar uchun tushunish qiyin yoki imkonsiz bo'lishi mumkin, bu esa noto'g'ri fikrlarni aniqlashni qiyinlashtiradi. 

    Franken-Algoritmlar konteksti

    Franken-algoritmlar algoritmlari (kompyuterlar ma'lumotlarni qayta ishlash va buyruqlarga javob berishda amal qiladigan qoidalar) shunchalik murakkab va bir-biriga bog'langanki, odamlar ularni endi shifrlay olmaydilar. Bu atama Meri Shellining aqldan ozgan olim doktor Frankenshteyn tomonidan yaratilgan “yirtqich hayvon” haqidagi ilmiy-fantastik asariga bosh qo‘yadi. Algoritmlar va kodlar katta texnologiyalarning qurilish bloklari bo'lib, Facebook va Googlega hozirda nufuzli kompaniyalar bo'lishga imkon bergan bo'lsa-da, odamlar bilmagan texnologiya haqida hali ko'p narsalar mavjud. 

    Dasturchilar kodlarni yaratib, ularni dasturiy ta'minot orqali ishga tushirganda, ML kompyuterlarga naqshlarni tushunish va bashorat qilish imkonini beradi. Katta texnologiyalar algoritmlarning ob'ektiv ekanligini ta'kidlasa-da, insonning his-tuyg'ulari va oldindan aytib bo'lmaydiganligi ularga ta'sir qilmaydi, bu algoritmlar o'z qoidalarini rivojlanishi va yozishi mumkin, bu esa halokatli natijalarga olib keladi. Ushbu algoritmlar tomonidan yaratilgan kod ko'pincha murakkab va noaniq bo'lib, tadqiqotchilar yoki amaliyotchilarga algoritm qarorlarini sharhlashni yoki algoritm qarorlarini qabul qilish jarayonida mavjud bo'lishi mumkin bo'lgan har qanday noaniqlikni aniqlashni qiyinlashtiradi. Ushbu to'siq qaror qabul qilishda ushbu algoritmlarga tayanadigan korxonalar uchun jiddiy qiyinchiliklarni keltirib chiqarishi mumkin, chunki ular bu qarorlar ortidagi sabablarni tushuna olmasligi yoki tushuntira olmasligi mumkin.

    Buzg'unchi ta'sir

    Franken-Algoritmlari yolg'onga ketganda, bu hayot va o'lim masalasi bo'lishi mumkin. Misol tariqasida, 2018 yilda Arizona shtatida o'zini o'zi boshqaradigan avtomashina velosipedda ketayotgan ayolni urib yuborgan voqea sodir bo'lgan. Mashinaning algoritmlari uning inson ekanligini to'g'ri aniqlay olmadi. Mutaxassislar baxtsiz hodisaning asosiy sababini tushunishdi - mashina noto'g'ri dasturlashtirilganmi va algoritm o'z foydasi uchun juda murakkab bo'lib qoldimi? Biroq, dasturchilar kelishib olishlari mumkin bo'lgan narsa shundaki, dasturiy ta'minot kompaniyalari uchun nazorat tizimi - axloq kodeksi bo'lishi kerak. 

    Biroq, bu axloq kodeksi katta texnologiyalardan biroz orqaga chekinish bilan birga keladi, chunki ular ma'lumotlar va algoritmlarni sotish bilan shug'ullanadilar va tartibga solinishi yoki shaffof bo'lishini talab qila olmaydi. Bundan tashqari, yaqinda yirik texnologiya xodimlarini xavotirga solgan voqea - bu, Google va AQSh Mudofaa vazirligi bilan hamkorlikda algoritmlarni, masalan, avtonom dronlar kabi harbiy texnologiyalarga kiritish uchun armiyada algoritmlardan foydalanishning ko'payishi. Ushbu dastur ba'zi xodimlarning iste'foga chiqishiga olib keldi va mutaxassislar algoritmlarni hali ham o'ldirish mashinasi sifatida ishlatish uchun oldindan aytib bo'lmaydigan darajada ekanligidan xavotir bildirishdi. 

    Yana bir tashvish shundaki, Franken-Algoritmlari o'qitilgan ma'lumotlar to'plami tufayli noto'g'ri qarashlarni davom ettirishi va hatto kuchaytirishi mumkin. Bu jarayon turli xil ijtimoiy muammolarga, jumladan, kamsitish, tengsizlik va noqonuniy hibsga olishlarga olib kelishi mumkin. Ushbu ortib borayotgan xavflar tufayli ko'plab texnologiya kompaniyalari o'zlarining algoritmlarini ishlab chiqish, foydalanish va monitoring qilish bo'yicha shaffof bo'lish uchun o'zlarining axloqiy AI ko'rsatmalarini nashr eta boshlaydilar.

    Franken-algoritmlari uchun kengroq ta'sirlar

    Franken-algoritmlari uchun potentsial ta'sirlar quyidagilarni o'z ichiga olishi mumkin:

    • Inson nazoratisiz qarorlar qabul qiladigan va harakatlarni amalga oshiradigan avtonom tizimlarni ishlab chiqish, javobgarlik va xavfsizlikka oid xavotirlarni keltirib chiqaradi. Biroq, bunday algoritmlar ko'pgina sohalarda inson mehnatini avtomatlashtiradigan dasturiy ta'minot va robototexnika ishlab chiqish xarajatlarini kamaytirishi mumkin. 
    • Algoritmlar harbiy texnologiyalarni qanday avtomatlashtirishi va avtonom qurollar va transport vositalarini qo'llab-quvvatlashi haqida ko'proq o'rganish.
    • Hukumatlar va sanoat rahbarlariga algoritm kodini axloq va qoidalarni amalga oshirish uchun bosim kuchaygan.
    • Franken-algoritmlari ma'lum demografik guruhlarga, masalan, kam daromadli jamoalar yoki ozchiliklar aholisiga nomutanosib ravishda ta'sir qiladi.
    • Franken-algoritmlari qarorlar qabul qilishda, masalan, ishga yollash va qarz berishda kamsitish va noxolislikni davom ettirishi va kuchaytirishi mumkin.
    • Ushbu algoritmlar kiberjinoyatchilar tomonidan tizimlardagi, ayniqsa moliya institutlarining zaif tomonlarini kuzatish va ulardan foydalanish uchun foydalaniladi.
    • Siyosiy aktyorlar generativ AI tizimlaridan foydalangan holda marketing kampaniyalarini avtomatlashtirish uchun noto'g'ri algoritmlardan foydalanadilar, bu esa jamoatchilik fikriga ta'sir qilishi va saylovlarga ta'sir qilishi mumkin.

    Ko'rib chiqilishi kerak bo'lgan savollar

    • Sizningcha, algoritmlar kelajakda qanday rivojlanadi?
    • Hukumatlar va kompaniyalar Franken-Algoritmlarini boshqarish uchun nima qilishlari mumkin?

    Insight havolalari

    Ushbu tushuncha uchun quyidagi mashhur va institutsional havolalarga havola qilingan: