Franken-algoritmer: Algoritmer er blevet slyngelagtige

BILLEDKREDIT:
Image credit
iStock

Franken-algoritmer: Algoritmer er blevet slyngelagtige

Franken-algoritmer: Algoritmer er blevet slyngelagtige

Underoverskriftstekst
Med udviklingen inden for kunstig intelligens udvikler algoritmer sig hurtigere, end mennesker havde forventet.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • April 12, 2023

    Efterhånden som maskinlæringsalgoritmer (ML) bliver mere avancerede, er de i stand til at lære og tilpasse sig mønstre i store datasæt på egen hånd. Denne proces, kendt som "autonom læring", kan resultere i, at algoritmen genererer sin egen kode eller regler for at træffe beslutninger. Problemet med dette er, at den kode, der genereres af algoritmen, kan være svær eller umulig for mennesker at forstå, hvilket gør det udfordrende at lokalisere skævheder. 

    Franken-Algorithms kontekst

    Franken-algoritmer refererer til algoritmer (de regler, som computere følger, når de behandler data og reagerer på kommandoer), der er blevet så komplekse og sammenflettede, at mennesker ikke længere kan tyde dem. Udtrykket er et nik til Mary Shelleys science fiction om et "monster" skabt af den gale videnskabsmand Dr. Frankenstein. Selvom algoritmer og koder er byggestenene i big tech og har gjort det muligt for Facebook og Google at være de indflydelsesrige virksomheder, de er nu, er der stadig så meget om teknologien, som mennesker ikke ved. 

    Når programmører bygger koder og kører dem gennem software, giver ML computere mulighed for at forstå og forudsige mønstre. Mens big tech hævder, at algoritmer er objektive, fordi menneskelige følelser og uforudsigelighed ikke påvirker dem, kan disse algoritmer udvikle sig og skrive deres egne regler, hvilket fører til katastrofale resultater. Den kode, der genereres af disse algoritmer, er ofte kompleks og uigennemsigtig, hvilket gør det vanskeligt for forskere eller praktikere at fortolke algoritmens beslutninger eller at identificere eventuelle skævheder, der kan være til stede i algoritmens beslutningsproces. Denne vejspærring kan skabe betydelige udfordringer for virksomheder, der er afhængige af disse algoritmer til at træffe beslutninger, da de måske ikke er i stand til at forstå eller forklare begrundelsen bag disse beslutninger.

    Forstyrrende påvirkning

    Når Franken-Algorithms bliver useriøse, kan det være et spørgsmål om liv og død. Et eksempel var en ulykke i 2018, da en selvkørende bil i Arizona ramte og dræbte en kvinde, der kørte på cykel. Bilens algoritmer var ikke i stand til korrekt at identificere hende som et menneske. Eksperter blev revet over årsagen til ulykken – var bilen forkert programmeret, og blev algoritmen for kompleks til sit eget bedste? Hvad programmører imidlertid kan blive enige om, er, at der skal være et tilsynssystem for softwarevirksomheder – et etisk kodeks. 

    Denne etiske kodeks kommer dog med en vis tilbagegang fra big tech, fordi de er i branchen med at sælge data og algoritmer og ikke har råd til at blive reguleret eller forpligtet til at være gennemsigtige. Derudover er en nylig udvikling, der har givet anledning til bekymring for store tech-medarbejdere, den stigende brug af algoritmer inden for militæret, såsom Googles partnerskab med det amerikanske forsvarsministerium om at inkorporere algoritmer i militærteknologi, såsom autonome droner. Denne applikation har ført til, at nogle medarbejdere har sagt op, og eksperter har givet udtryk for bekymring over, at algoritmer stadig er for uforudsigelige til at blive brugt som dræbermaskiner. 

    En anden bekymring er, at Franken-algoritmer kan opretholde og endda forstærke skævheder på grund af de datasæt, de er trænet på. Denne proces kan føre til forskellige samfundsmæssige problemer, herunder diskrimination, ulighed og uretmæssige anholdelser. På grund af disse øgede risici begynder mange teknologivirksomheder at offentliggøre deres etiske AI-retningslinjer for at være gennemsigtige med hensyn til, hvordan de udvikler, bruger og overvåger deres algoritmer.

    Bredere implikationer for Franken-algoritmer

    Potentielle implikationer for Franken-algoritmer kan omfatte:

    • Udvikling af autonome systemer, der kan træffe beslutninger og foretage handlinger uden menneskeligt tilsyn, hvilket giver anledning til bekymringer om ansvarlighed og sikkerhed. Sådanne algoritmer kan dog reducere omkostningerne ved at udvikle software og robotter, der kan automatisere menneskelig arbejdskraft på tværs af de fleste industrier. 
    • Mere undersøgelse af, hvordan algoritmer kan automatisere militærteknologi og understøtte autonome våben og køretøjer.
    • Øget pres for regeringer og industriledere til at implementere et algoritmekodeks for etik og regler.
    • Franken-algoritmer, der uforholdsmæssigt påvirker visse demografiske grupper, såsom lavindkomstsamfund eller minoritetsbefolkninger.
    • Franken-algoritmer kunne videreføre og forstærke diskrimination og skævhed i beslutningstagning, såsom ansættelses- og udlånsbeslutninger.
    • Disse algoritmer bruges af cyberkriminelle til at overvåge og udnytte svagheder i systemer, især i finansielle institutioner.
    • Politiske aktører bruger useriøse algoritmer til at automatisere marketingkampagner ved hjælp af generative AI-systemer på måder, der kan påvirke den offentlige mening og påvirke valg.

    Spørgsmål at overveje

    • Hvordan tror du, at algoritmer vil udvikle sig yderligere i fremtiden?
    • Hvad kan regeringer og virksomheder gøre for at kontrollere Franken-algoritmer?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt: