Algoritmi Franken: Algoritmii au devenit necinstiți

CREDIT DE IMAGINE:
Imagine de credit
iStock

Algoritmi Franken: Algoritmii au devenit necinstiți

Algoritmi Franken: Algoritmii au devenit necinstiți

Textul subtitlului
Odată cu evoluția inteligenței artificiale, algoritmii evoluează mai repede decât anticipau oamenii.
    • Autor:
    • Numele autorului
      Previziune Quantumrun
    • Aprilie 12, 2023

    Pe măsură ce algoritmii de învățare automată (ML) devin mai avansați, ei sunt capabili să învețe și să se adapteze singuri la tiparele din seturi mari de date. Acest proces, cunoscut sub numele de „învățare autonomă”, poate duce la generarea algoritmului de propriul cod sau reguli pentru a lua decizii. Problema cu aceasta este că codul generat de algoritm poate fi dificil sau imposibil de înțeles de către oameni, ceea ce face dificilă identificarea prejudecăților. 

    Contextul Franken-Algoritmi

    Algoritmii Franken se referă la algoritmi (regulile pe care computerele le urmează atunci când procesează date și răspund la comenzi) care au devenit atât de complexe și împletite încât oamenii nu îi mai pot descifra. Termenul este un semn din cap către ficțiunea științifico-fantastică a lui Mary Shelley despre un „monstru” creat de omul de știință nebun Dr. Frankenstein. În timp ce algoritmii și codurile sunt elementele de bază ale tehnologiei mari și au permis Facebook și Google să fie companiile influente care sunt acum, există încă atât de multe despre tehnologie pe care oamenii nu le cunosc. 

    Când programatorii construiesc coduri și le rulează prin intermediul software-ului, ML permite computerelor să înțeleagă și să prezică tipare. În timp ce tehnologia mare susține că algoritmii sunt obiectivi, deoarece emoțiile umane și imprevizibilitatea nu îi influențează, acești algoritmi pot evolua și își pot scrie propriile reguli, ducând la rezultate dezastruoase. Codul generat de acești algoritmi este adesea complex și opac, ceea ce face dificil pentru cercetători sau practicieni să interpreteze deciziile algoritmului sau să identifice orice prejudecăți care ar putea fi prezente în procesul de luare a deciziilor al algoritmului. Acest obstacol poate crea provocări semnificative pentru companiile care se bazează pe acești algoritmi pentru a lua decizii, deoarece este posibil să nu poată înțelege sau explica raționamentul din spatele acestor decizii.

    Impact perturbator

    Când algoritmii Franken devin necinstiți, poate fi o chestiune de viață sau de moarte. Un exemplu a fost un accident din 2018, când o mașină cu conducere autonomă din Arizona a lovit și ucis o femeie care mergea pe bicicletă. Algoritmii mașinii nu au putut să o identifice corect ca om. Experții au fost sfâșiați cu privire la cauza principală a accidentului - mașina a fost programată necorespunzător și a devenit algoritmul prea complex pentru binele său? Ceea ce pot fi de acord cu programatorii, totuși, este că trebuie să existe un sistem de supraveghere pentru companiile de software - un cod de etică. 

    Cu toate acestea, acest cod de etică vine cu o respingere din partea big tech, deoarece aceștia se ocupă de vânzarea de date și algoritmi și nu își pot permite să fie reglementați sau să fie obligați să fie transparenți. În plus, o dezvoltare recentă care a cauzat îngrijorare pentru marii angajați din tehnologie este utilizarea tot mai mare a algoritmilor în cadrul armatei, cum ar fi parteneriatul Google cu Departamentul Apărării al SUA pentru a încorpora algoritmi în tehnologia militară, cum ar fi dronele autonome. Această aplicație a făcut ca unii angajați să demisioneze și experții și-au exprimat îngrijorarea că algoritmii sunt încă prea imprevizibili pentru a fi utilizați ca mașini de ucidere. 

    O altă îngrijorare este că algoritmii Franken pot perpetua și chiar amplifica distorsiunile din cauza seturilor de date pe care sunt antrenați. Acest proces poate duce la diverse probleme societale, inclusiv discriminare, inegalitate și arestări ilegale. Din cauza acestor riscuri sporite, multe companii tehnologice încep să-și publice liniile directoare etice AI pentru a fi transparente cu privire la modul în care își dezvoltă, utilizează și monitorizează algoritmii.

    Implicații mai largi pentru algoritmii Franken

    Implicațiile potențiale pentru algoritmii Franken pot include:

    • Dezvoltarea unor sisteme autonome care pot lua decizii și acționa fără supraveghere umană, ridicând preocupări cu privire la responsabilitate și siguranță. Cu toate acestea, astfel de algoritmi pot reduce costurile dezvoltării de software și robotică care pot automatiza munca umană în majoritatea industriilor. 
    • Mai multă atenție asupra modului în care algoritmii pot automatiza tehnologia militară și pot sprijini arme și vehicule autonome.
    • Creșterea presiunii pentru guverne și lideri din industrie pentru a implementa un cod algoritm de etică și reglementări.
    • Algoritmii Franken afectează în mod disproporționat anumite grupuri demografice, cum ar fi comunitățile cu venituri mici sau populațiile minoritare.
    • Algoritmii Franken ar putea perpetua și amplifica discriminarea și părtinirea în luarea deciziilor, cum ar fi deciziile de angajare și de împrumut.
    • Acești algoritmi sunt utilizați de infractorii cibernetici pentru a monitoriza și exploata punctele slabe ale sistemelor, în special în instituțiile financiare.
    • Actorii politici care folosesc algoritmi necinstiți pentru a automatiza campaniile de marketing folosind sisteme AI generative în moduri care pot influența opinia publică și pot influența alegerile.

    Întrebări de luat în considerare

    • Cum credeți că se vor dezvolta algoritmii în viitor?
    • Ce pot face guvernele și companiile pentru a controla algoritmii Franken?

    Referințe de perspectivă

    Următoarele linkuri populare și instituționale au fost menționate pentru această perspectivă: