Franken-Algorithms: Algoritmet e humbura

KREDI I IMAZHIT:
Kredia Image
iStock

Franken-Algorithms: Algoritmet e humbura

Franken-Algorithms: Algoritmet e humbura

Teksti i nëntitullit
Me zhvillimet në inteligjencën artificiale, algoritmet po evoluojnë më shpejt se sa parashikonin njerëzit.
    • Author:
    • Emri i autorit
      Parashikimi Kuantumrun
    • Prill 12, 2023

    Ndërsa algoritmet e mësimit të makinerive (ML) bëhen më të avancuara, ata janë në gjendje të mësojnë dhe të përshtaten me modelet në grupe të dhënash të mëdha vetë. Ky proces, i njohur si "të mësuarit autonom", mund të rezultojë në algoritmin që gjeneron kodin ose rregullat e veta për të marrë vendime. Problemi me këtë është se kodi i gjeneruar nga algoritmi mund të jetë i vështirë ose i pamundur për t'u kuptuar nga njerëzit, duke e bërë të vështirë për të identifikuar paragjykimet. 

    Konteksti Franken-Algoritme

    Franken-Algorithms i referohen algoritmeve (rregullat që kompjuterët ndjekin kur përpunojnë të dhëna dhe u përgjigjen komandave) që janë bërë aq komplekse dhe të ndërthurura sa që njerëzit nuk mund t'i deshifrojnë më. Termi është një shenjë e fiksionit shkencor të Mary Shelley për një "përbindësh" të krijuar nga shkencëtari i çmendur Dr. Frankenstein. Ndërsa algoritmet dhe kodet janë blloqet ndërtuese të teknologjisë së madhe dhe kanë lejuar që Facebook dhe Google të jenë kompanitë me ndikim që janë tani, ka ende shumë rreth teknologjisë që njerëzit nuk i dinë. 

    Kur programuesit ndërtojnë kode dhe i ekzekutojnë ato përmes softuerit, ML lejon kompjuterët të kuptojnë dhe parashikojnë modelet. Ndërsa teknologjia e madhe pretendon se algoritmet janë objektive sepse emocionet njerëzore dhe paparashikueshmëria nuk ndikojnë tek ata, këto algoritme mund të evoluojnë dhe të shkruajnë rregullat e tyre, duke çuar në rezultate katastrofike. Kodi i gjeneruar nga këto algoritme është shpesh kompleks dhe i paqartë, duke e bërë të vështirë për studiuesit ose praktikuesit të interpretojnë vendimet e algoritmit ose të identifikojnë ndonjë paragjykim që mund të jetë i pranishëm në procesin e vendimmarrjes së algoritmit. Kjo pengesë mund të krijojë sfida të rëndësishme për bizneset që mbështeten në këto algoritme për të marrë vendime, pasi ato mund të mos jenë në gjendje të kuptojnë ose shpjegojnë arsyetimin pas këtyre vendimeve.

    Ndikim shkatërrues

    Kur Franken-Algorithms shkojnë mashtrues, mund të jetë një çështje jete dhe vdekjeje. Një shembull ishte një aksident në vitin 2018 kur një makinë vetë-drejtuese në Arizona goditi dhe vrau një grua që po ngiste një biçikletë. Algoritmet e makinës nuk ishin në gjendje ta identifikonin saktë atë si një njeri. Ekspertët u grisën për shkakun kryesor të aksidentit - a ishte makina e programuar në mënyrë jo të duhur dhe a u bë algoritmi shumë kompleks për të mirën e tij? Megjithatë, ajo për të cilën programuesit mund të bien dakord është se duhet të ketë një sistem mbikëqyrjeje për kompanitë e softuerëve – një kod etike. 

    Megjithatë, ky kod etike vjen me disa reagime nga teknologjia e madhe, sepse ata janë në biznesin e shitjes së të dhënave dhe algoritmeve dhe nuk mund të përballojnë që të rregullohen ose kërkohet të jenë transparentë. Për më tepër, një zhvillim i fundit që ka shkaktuar shqetësim për punonjësit e mëdhenj të teknologjisë është përdorimi në rritje i algoritmeve brenda ushtrisë, siç është partneriteti i Google me Departamentin e Mbrojtjes të SHBA-së për të inkorporuar algoritme në teknologjinë ushtarake, si dronët autonome. Ky aplikacion ka bërë që disa punonjës të japin dorëheqjen dhe ekspertët të shprehin shqetësime se algoritmet janë ende shumë të paparashikueshëm për t'u përdorur si makina vrasëse. 

    Një shqetësim tjetër është se Franken-Algorithms mund të përjetësojnë dhe madje të përforcojnë paragjykimet për shkak të grupeve të të dhënave në të cilat janë trajnuar. Ky proces mund të çojë në çështje të ndryshme shoqërore, duke përfshirë diskriminimin, pabarazinë dhe arrestimet e paligjshme. Për shkak të këtyre rreziqeve të rritura, shumë kompani të teknologjisë kanë filluar të publikojnë udhëzimet e tyre etike të AI për të qenë transparentë se si i zhvillojnë, përdorin dhe monitorojnë algoritmet e tyre.

    Implikime më të gjera për Franken-Algorithms

    Implikimet e mundshme për Franken-Algoritmet mund të përfshijnë:

    • Zhvillimi i sistemeve autonome që mund të marrin vendime dhe të ndërmarrin veprime pa mbikëqyrje njerëzore, duke ngritur shqetësime për përgjegjshmërinë dhe sigurinë. Megjithatë, algoritme të tilla mund të zvogëlojnë kostot e zhvillimit të softuerit dhe robotikës që mund të automatizojnë punën njerëzore në shumicën e industrive. 
    • Më shumë shqyrtim se si algoritmet mund të automatizojnë teknologjinë ushtarake dhe të mbështesin armët dhe automjetet autonome.
    • Rritja e presionit për qeveritë dhe drejtuesit e industrisë për të zbatuar një kod algoritmi të etikës dhe rregulloreve.
    • Franken-Algoritmet që ndikojnë në mënyrë disproporcionale në grupe të caktuara demografike, siç janë komunitetet me të ardhura të ulëta ose popullsitë e pakicave.
    • Franken-Algorithms mund të përjetësojnë dhe të përforcojnë diskriminimin dhe paragjykimet në vendimmarrje, të tilla si vendimet e punësimit dhe huadhënies.
    • Këto algoritme përdoren nga kriminelët kibernetikë për të monitoruar dhe shfrytëzuar dobësitë në sisteme, veçanërisht në institucionet financiare.
    • Aktorët politikë që përdorin algoritme mashtruese për të automatizuar fushatat e marketingut duke përdorur sisteme gjeneruese të AI në mënyra që mund të ndikojnë në opinionin publik dhe të ndikojnë në zgjedhje.

    Pyetje që duhen marrë parasysh

    • Si mendoni se do të zhvillohen më tej algoritmet në të ardhmen?
    • Çfarë mund të bëjnë qeveritë dhe kompanitë për të kontrolluar Franken-Algorithms?

    Referencat e njohurive

    Lidhjet e mëposhtme popullore dhe institucionale u referuan për këtë pasqyrë: