Franken-Algorithms: Algoritmer har blitt useriøse

BILDEKREDITT:
Bilde kreditt
iStock

Franken-Algorithms: Algoritmer har blitt useriøse

Franken-Algorithms: Algoritmer har blitt useriøse

Underoverskriftstekst
Med utviklingen innen kunstig intelligens, utvikler algoritmer seg raskere enn mennesker forventet.
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • April 12, 2023

    Ettersom maskinlæringsalgoritmer (ML) blir mer avanserte, er de i stand til å lære og tilpasse seg mønstre i store datasett på egenhånd. Denne prosessen, kjent som "autonom læring", kan resultere i at algoritmen genererer sin egen kode eller regler for å ta beslutninger. Problemet med dette er at koden generert av algoritmen kan være vanskelig eller umulig for mennesker å forstå, noe som gjør det utfordrende å finne skjevheter. 

    Franken-Algorithms kontekst

    Franken-algoritmer refererer til algoritmer (reglene som datamaskiner følger når de behandler data og svarer på kommandoer) som har blitt så komplekse og sammenvevde at mennesker ikke lenger kan tyde dem. Begrepet er et nikk til Mary Shelleys science fiction om et «monster» skapt av den gale vitenskapsmannen Dr. Frankenstein. Selv om algoritmer og koder er byggesteinene til storteknologi og har tillatt Facebook og Google å være de innflytelsesrike selskapene de er nå, er det fortsatt så mye om teknologien som mennesker ikke vet. 

    Når programmerere bygger koder og kjører dem gjennom programvare, lar ML datamaskiner forstå og forutsi mønstre. Mens store teknologier hevder at algoritmer er objektive fordi menneskelige følelser og uforutsigbarhet ikke påvirker dem, kan disse algoritmene utvikle seg og skrive sine egne regler, noe som fører til katastrofale resultater. Koden som genereres av disse algoritmene er ofte kompleks og ugjennomsiktig, noe som gjør det vanskelig for forskere eller praktikere å tolke algoritmens beslutninger eller å identifisere eventuelle skjevheter som kan være tilstede i algoritmens beslutningsprosess. Denne veisperringen kan skape betydelige utfordringer for virksomheter som er avhengige av disse algoritmene for å ta beslutninger, siden de kanskje ikke er i stand til å forstå eller forklare begrunnelsen bak disse beslutningene.

    Forstyrrende påvirkning

    Når Franken-Algorithms blir useriøse, kan det være et spørsmål om liv og død. Et eksempel var en ulykke i 2018 da en selvkjørende bil i Arizona traff og drepte en kvinne som syklet. Bilens algoritmer klarte ikke å identifisere henne som et menneske. Eksperter ble revet med på grunnårsaken til ulykken – var bilen feil programmert, og ble algoritmen for kompleks for sitt eget beste? Det programmerere imidlertid kan bli enige om, er at det må være et tilsynssystem for programvareselskaper – en etikkkodeks. 

    Denne etiske koden kommer imidlertid med noe tilbakeslag fra big tech fordi de driver med salg av data og algoritmer, og har ikke råd til å bli regulert eller pålagt å være transparente. I tillegg er en nylig utvikling som har skapt bekymring for store teknologiansatte, den økende bruken av algoritmer innen militæret, for eksempel Googles partnerskap med det amerikanske forsvarsdepartementet for å inkorporere algoritmer i militærteknologi, som autonome droner. Denne applikasjonen har ført til at noen ansatte har sagt opp og eksperter har gitt uttrykk for bekymring for at algoritmer fortsatt er for uforutsigbare til å kunne brukes som drapsmaskiner. 

    En annen bekymring er at Franken-algoritmer kan opprettholde og til og med forsterke skjevheter på grunn av datasettene de er trent på. Denne prosessen kan føre til ulike samfunnsproblemer, inkludert diskriminering, ulikhet og urettmessige arrestasjoner. På grunn av disse økte risikoene begynner mange teknologiselskaper å publisere sine etiske AI-retningslinjer for å være transparente om hvordan de utvikler, bruker og overvåker algoritmene sine.

    Større implikasjoner for Franken-algoritmer

    Potensielle implikasjoner for Franken-algoritmer kan omfatte:

    • Utvikling av autonome systemer som kan ta beslutninger og iverksette handlinger uten menneskelig tilsyn, noe som vekker bekymringer om ansvarlighet og sikkerhet. Imidlertid kan slike algoritmer redusere kostnadene ved å utvikle programvare og robotikk som kan automatisere menneskelig arbeidskraft på tvers av de fleste bransjer. 
    • Mer gransking av hvordan algoritmer kan automatisere militær teknologi og støtte autonome våpen og kjøretøy.
    • Økt press for regjeringer og industriledere for å implementere en algoritmekode for etikk og forskrifter.
    • Franken-algoritmer påvirker uforholdsmessig visse demografiske grupper, for eksempel lavinntektssamfunn eller minoritetsbefolkninger.
    • Franken-algoritmer kan opprettholde og forsterke diskriminering og skjevhet i beslutningstaking, for eksempel ansettelses- og utlånsbeslutninger.
    • Disse algoritmene brukes av nettkriminelle til å overvåke og utnytte svakheter i systemer, spesielt i finansinstitusjoner.
    • Politiske aktører bruker useriøse algoritmer for å automatisere markedsføringskampanjer ved å bruke generative AI-systemer på måter som kan påvirke opinionen og påvirke valg.

    Spørsmål å vurdere

    • Hvordan tror du algoritmene vil utvikle seg videre i fremtiden?
    • Hva kan myndigheter og selskaper gjøre for å kontrollere Franken-algoritmer?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten:

    Eversheds Sutherland Konsekvenser av uforutsigbar kode