Franken-Alqoritmləri: Alqoritmlər fırıldaqçı oldu

ŞƏKİL KREDİTİ:
Şəkil krediti
iStock

Franken-Alqoritmləri: Alqoritmlər fırıldaqçı oldu

Franken-Alqoritmləri: Alqoritmlər fırıldaqçı oldu

Alt başlıq mətni
Süni intellektin inkişafı ilə alqoritmlər insanların gözlədiyindən daha sürətlə inkişaf edir.
    • Author:
    • Author adı
      Quantumrun Uzaqgörməsi
    • April 12, 2023

    Maşın öyrənməsi (ML) alqoritmləri daha da təkmilləşdikcə, onlar özləri böyük verilənlər toplusunda nümunələri öyrənə və uyğunlaşa bilirlər. “Avtonom öyrənmə” kimi tanınan bu proses qərar qəbul etmək üçün öz kodunu və ya qaydalarını yaradan alqoritmlə nəticələnə bilər. Bununla bağlı problem odur ki, alqoritm tərəfindən yaradılan kodun insanlar üçün başa düşülməsi çətin və ya qeyri-mümkün ola bilər və bu, qərəzləri dəqiq müəyyənləşdirməyi çətinləşdirir. 

    Franken-Alqoritmlər konteksti

    Franken-Alqoritmlər o qədər mürəkkəb və bir-birinə qarışan alqoritmlərə (kompüterlərin verilənləri emal edərkən və əmrlərə cavab verərkən əməl etdiyi qaydalara) istinad edir ki, insanlar artıq onları deşifrə edə bilmirlər. Termin Meri Şellinin çılğın alim Dr.Frankenstein tərəfindən yaradılmış "canavar" haqqında elmi fantastikasına işarədir. Alqoritmlər və kodlar böyük texnologiyanın tikinti blokları olsa da və Facebook və Google-a indiki nüfuzlu şirkətlər olmağa imkan versə də, hələ də insanların bilmədiyi texnologiya haqqında çox şey var. 

    Proqramçılar kodlar qurduqda və onları proqram təminatı vasitəsilə işlədəndə, ML kompüterlərə nümunələri başa düşməyə və proqnozlaşdırmağa imkan verir. Böyük texnologiya alqoritmlərin obyektiv olduğunu iddia etsə də, insan emosiyaları və gözlənilməzlik onlara təsir göstərmir, bu alqoritmlər təkamül edə və öz qaydalarını yaza bilər ki, bu da fəlakətli nəticələrə gətirib çıxarır. Bu alqoritmlər tərəfindən yaradılan kod çox vaxt mürəkkəb və qeyri-şəffaf olur, bu da tədqiqatçılar və ya praktiklər üçün alqoritmin qərarlarını şərh etməyi və ya alqoritmin qərar qəbul etmə prosesində mövcud ola biləcək hər hansı qərəzliyi müəyyən etməyi çətinləşdirir. Bu maneə qərar qəbul etmək üçün bu alqoritmlərə güvənən bizneslər üçün əhəmiyyətli çətinliklər yarada bilər, çünki onlar bu qərarların arxasında duran səbəbləri başa düşə və ya izah edə bilməyəcəklər.

    Dağıdıcı təsir

    Franken-Alqoritmləri fırıldaqçı olduqda, bu, ölüm-dirim məsələsi ola bilər. Məsələn, 2018-ci ildə Arizona ştatında özünü idarə edən avtomobilin velosiped sürən qadını vuraraq öldürdüyü qəza oldu. Avtomobilin alqoritmləri onun insan olduğunu düzgün müəyyən edə bilmədi. Mütəxəssislər qəzanın əsas səbəbini başa düşmüşdülər - avtomobil düzgün proqramlaşdırılmamışdı və alqoritm öz xeyrinə çox mürəkkəbləşibmi? Bununla belə, proqramçıların razılaşa biləcəyi şey proqram şirkətləri üçün bir nəzarət sisteminin - etik kodeksin olması lazımdır. 

    Bununla belə, bu etik kod böyük texnologiyadan bir qədər geri çəkilir, çünki onlar məlumat və alqoritmlərin satışı ilə məşğuldurlar və tənzimlənməyi və ya şəffaf olmasını tələb edə bilmirlər. Bundan əlavə, böyük texnoloji işçilərin narahatlığına səbəb olan son inkişaf, avtonom dronlar kimi hərbi texnologiyaya alqoritmləri daxil etmək üçün Google-un ABŞ Müdafiə Departamenti ilə ortaqlığı kimi orduda alqoritmlərdən istifadənin artmasıdır. Bu proqram bəzi işçilərin istefaya getməsinə səbəb oldu və mütəxəssislər alqoritmlərin hələ də öldürmə maşınları kimi istifadə oluna bilməyəcək qədər gözlənilməz olduğuna dair narahatlıqlarını dilə gətirdilər. 

    Başqa bir narahatlıq, Franken-Alqoritmlərinin öyrədildiyi verilənlər bazası səbəbindən qərəzləri davam etdirə və hətta gücləndirə bilməsidir. Bu proses ayrı-seçkilik, bərabərsizlik və qanunsuz həbslər də daxil olmaqla müxtəlif ictimai problemlərə səbəb ola bilər. Bu artan risklərə görə, bir çox texnoloji şirkətlər alqoritmlərini necə inkişaf etdirdikləri, istifadə etdikləri və izlədikləri ilə bağlı şəffaf olmaq üçün etik AI təlimatlarını dərc etməyə başlayırlar.

    Franken-Alqoritmləri üçün daha geniş təsirlər

    Franken-Alqoritmləri üçün potensial təsirlərə aşağıdakılar daxil ola bilər:

    • İnsan nəzarəti olmadan qərarlar qəbul edə və hərəkətlər edə bilən avtonom sistemlərin inkişafı, hesabatlılıq və təhlükəsizliklə bağlı narahatlıqları artırır. Bununla belə, bu cür alqoritmlər əksər sənaye sahələrində insan əməyini avtomatlaşdıra bilən proqram təminatı və robot texnikasının hazırlanması xərclərini azalda bilər. 
    • Alqoritmlərin hərbi texnologiyanı necə avtomatlaşdıra biləcəyinə və avtonom silah və nəqliyyat vasitələrinə necə dəstək olacağına dair daha çox araşdırma.
    • Hökumətlər və sənaye liderləri üçün etika və qaydalar alqoritm kodunu tətbiq etmək üçün artan təzyiq.
    • Aşağı gəlirli icmalar və ya azlıqlar kimi müəyyən demoqrafik qruplara qeyri-mütənasib şəkildə təsir edən Franken-Alqoritmləri.
    • Franken-Alqoritmləri işə götürmə və borc vermə qərarları kimi qərarların qəbulunda ayrı-seçkiliyi və qərəzliyi davam etdirə və gücləndirə bilər.
    • Bu alqoritmlər kibercinayətkarlar tərəfindən sistemlərdə, xüsusən də maliyyə institutlarında zəiflikləri izləmək və istismar etmək üçün istifadə olunur.
    • Siyasi aktyorlar ictimai rəyə təsir edə və seçkilərə təsir edə biləcək şəkildə generativ süni intellekt sistemlərindən istifadə edərək marketinq kampaniyalarını avtomatlaşdırmaq üçün saxta alqoritmlərdən istifadə edirlər.

    Nəzərə alınmalı suallar

    • Sizcə, alqoritmlər gələcəkdə necə inkişaf edəcək?
    • Hökumətlər və şirkətlər Franken-Alqoritmlərinə nəzarət etmək üçün nə edə bilər?

    Anlayış istinadları

    Bu fikir üçün aşağıdakı məşhur və institusional bağlantılara istinad edilmişdir: