Franken-Algorithms: Algoritmer som blivit oseriösa

BILDKREDIT:
Bild kredit
iStock

Franken-Algorithms: Algoritmer som blivit oseriösa

Franken-Algorithms: Algoritmer som blivit oseriösa

Underrubrik text
Med utvecklingen inom artificiell intelligens utvecklas algoritmer snabbare än vad människor förväntat sig.
    • Författare:
    • författarnamn
      Quantumrun Framsyn
    • 12 april 2023

    När algoritmer för maskininlärning (ML) blir mer avancerade kan de lära sig och anpassa sig till mönster i stora datamängder på egen hand. Denna process, känd som "autonom inlärning", kan resultera i att algoritmen genererar sin egen kod eller regler för att fatta beslut. Problemet med detta är att koden som genereras av algoritmen kan vara svår eller omöjlig för människor att förstå, vilket gör det svårt att lokalisera fördomar. 

    Franken-Algorithms sammanhang

    Franken-algoritmer hänvisar till algoritmer (de regler som datorer följer när de bearbetar data och svarar på kommandon) som har blivit så komplexa och sammanflätade att människor inte längre kan dechiffrera dem. Termen är en nick till Mary Shelleys science fiction om ett "monster" skapat av den galne vetenskapsmannen Dr. Frankenstein. Även om algoritmer och koder är byggstenarna i storteknologin och har gjort det möjligt för Facebook och Google att vara de inflytelserika företag de är nu, finns det fortfarande så mycket om tekniken som människor inte vet. 

    När programmerare bygger koder och kör dem genom programvara tillåter ML datorer att förstå och förutsäga mönster. Medan big tech hävdar att algoritmer är objektiva eftersom mänskliga känslor och oförutsägbarhet inte påverkar dem, kan dessa algoritmer utvecklas och skriva sina egna regler, vilket leder till katastrofala resultat. Koden som genereras av dessa algoritmer är ofta komplex och ogenomskinlig, vilket gör det svårt för forskare eller praktiker att tolka algoritmens beslut eller att identifiera eventuella fördomar som kan finnas i algoritmens beslutsprocess. Denna vägspärr kan skapa betydande utmaningar för företag som förlitar sig på dessa algoritmer för att fatta beslut, eftersom de kanske inte kan förstå eller förklara resonemanget bakom dessa beslut.

    Störande inverkan

    När Franken-Algorithms blir oseriösa kan det vara en fråga om liv och död. Ett exempel var en olycka 2018 när en självkörande bil i Arizona träffade och dödade en kvinna som cyklade. Bilens algoritmer kunde inte korrekt identifiera henne som en människa. Experter slets om grundorsaken till olyckan – var bilen felaktigt programmerad och blev algoritmen för komplex för sitt eget bästa? Vad programmerare kan komma överens om är dock att det måste finnas ett tillsynssystem för mjukvaruföretag – en etisk kod. 

    Den här etiska koden kommer dock med en viss återgång från big tech eftersom de säljer data och algoritmer och inte har råd att regleras eller kräva att de är transparenta. Dessutom är en ny utveckling som har orsakat oro för stora teknikanställda den ökande användningen av algoritmer inom militären, som Googles partnerskap med det amerikanska försvarsdepartementet för att införliva algoritmer i militär teknik, som autonoma drönare. Den här applikationen har lett till att vissa anställda säger upp sig och experter uttrycker oro över att algoritmer fortfarande är för oförutsägbara för att kunna användas som mördarmaskiner. 

    En annan oro är att Franken-algoritmer kan vidmakthålla och till och med förstärka fördomar på grund av de datauppsättningar de tränas på. Denna process kan leda till olika samhällsfrågor, inklusive diskriminering, ojämlikhet och felaktiga arresteringar. På grund av dessa ökade risker börjar många teknikföretag att publicera sina etiska AI-riktlinjer för att vara transparenta om hur de utvecklar, använder och övervakar sina algoritmer.

    Vidare implikationer för Franken-algoritmer

    Potentiella implikationer för Franken-algoritmer kan inkludera:

    • Utveckling av autonoma system som kan fatta beslut och vidta åtgärder utan mänsklig tillsyn, vilket väcker oro för ansvarsskyldighet och säkerhet. Sådana algoritmer kan dock minska kostnaderna för att utveckla mjukvara och robotik som kan automatisera mänskligt arbete inom de flesta branscher. 
    • Mer granskning av hur algoritmer kan automatisera militär teknik och stödja autonoma vapen och fordon.
    • Ökat tryck för regeringar och branschledare att implementera en algoritm för etik och förordningar.
    • Franken-algoritmer påverkar oproportionerligt vissa demografiska grupper, såsom låginkomstsamhällen eller minoritetsbefolkningar.
    • Franken-algoritmer kan vidmakthålla och förstärka diskriminering och partiskhet i beslutsfattande, såsom anställnings- och lånebeslut.
    • Dessa algoritmer används av cyberbrottslingar för att övervaka och utnyttja svagheter i system, särskilt i finansiella institutioner.
    • Politiska aktörer använder oseriösa algoritmer för att automatisera marknadsföringskampanjer med hjälp av generativa AI-system på sätt som kan påverka opinionen och påverka valen.

    Frågor att överväga

    • Hur tror du att algoritmerna kommer att utvecklas vidare i framtiden?
    • Vad kan regeringar och företag göra för att kontrollera Franken-algoritmer?

    Insiktsreferenser

    Följande populära och institutionella länkar hänvisades till för denna insikt: