Franken-algoritmen: algoritmen zijn schurkenstaten geworden

BEELDKREDIET:
Image credit
iStock

Franken-algoritmen: algoritmen zijn schurkenstaten geworden

Franken-algoritmen: algoritmen zijn schurkenstaten geworden

Onderkoptekst
Met de ontwikkelingen op het gebied van kunstmatige intelligentie evolueren algoritmen sneller dan mensen hadden verwacht.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 12 april 2023

    Naarmate machine learning (ML)-algoritmen geavanceerder worden, kunnen ze zelfstandig leren en zich aanpassen aan patronen in grote datasets. Dit proces, ook wel 'autonoom leren' genoemd, kan ertoe leiden dat het algoritme zijn eigen code of regels genereert om beslissingen te nemen. Het probleem hiermee is dat de code die door het algoritme wordt gegenereerd, voor mensen moeilijk of onmogelijk kan zijn om te begrijpen, waardoor het een uitdaging is om vooroordelen te lokaliseren. 

    Franken-algoritmen context

    Franken-algoritmen verwijzen naar algoritmen (de regels die computers volgen bij het verwerken van gegevens en het reageren op opdrachten) die zo complex en met elkaar verweven zijn geworden dat mensen ze niet meer kunnen ontcijferen. De term is een knipoog naar de sciencefiction van Mary Shelley over een 'monster', gecreëerd door de gekke wetenschapper Dr. Frankenstein. Hoewel algoritmen en codes de bouwstenen zijn van big tech en ervoor hebben gezorgd dat Facebook en Google de invloedrijke bedrijven zijn die ze nu zijn, is er nog zoveel over de technologie dat mensen niet weten. 

    Wanneer programmeurs codes bouwen en deze door software laten lopen, stelt ML computers in staat patronen te begrijpen en te voorspellen. Terwijl big tech beweert dat algoritmen objectief zijn omdat menselijke emoties en onvoorspelbaarheid hen niet beïnvloeden, kunnen deze algoritmen evolueren en hun eigen regels schrijven, wat tot rampzalige resultaten leidt. De code die door deze algoritmen wordt gegenereerd, is vaak complex en ondoorzichtig, waardoor het voor onderzoekers of praktijkmensen moeilijk is om de beslissingen van het algoritme te interpreteren of eventuele vooroordelen in het besluitvormingsproces van het algoritme te identificeren. Deze wegversperring kan aanzienlijke uitdagingen opleveren voor bedrijven die op deze algoritmen vertrouwen om beslissingen te nemen, omdat ze de redenering achter die beslissingen mogelijk niet kunnen begrijpen of uitleggen.

    Disruptieve impact

    Wanneer Franken-algoritmen schurkenstaten worden, kan het een kwestie van leven of dood zijn. Een voorbeeld was een ongeval in 2018 toen een zelfrijdende auto in Arizona een vrouw op een fiets aanreed en doodde. De algoritmen van de auto konden haar niet correct als mens identificeren. Deskundigen waren verscheurd over de oorzaak van het ongeval: was de auto niet goed geprogrammeerd en werd het algoritme te ingewikkeld voor zijn eigen bestwil? Waar programmeurs het echter over eens kunnen zijn, is dat er een toezichtsysteem moet komen voor softwarebedrijven - een ethische code. 

    Deze ethische code stuit echter op enige terughoudendheid van de grote techneuten, omdat zij bezig zijn met het verkopen van gegevens en algoritmen en het zich niet kunnen veroorloven om gereguleerd te worden of om transparant te zijn. Bovendien is een recente ontwikkeling die grote tech-medewerkers zorgen baart, het toenemende gebruik van algoritmen binnen het leger, zoals de samenwerking van Google met het Amerikaanse ministerie van Defensie om algoritmen op te nemen in militaire technologie, zoals autonome drones. Deze toepassing heeft ertoe geleid dat sommige werknemers ontslag hebben genomen en dat experts hun bezorgdheid hebben geuit dat algoritmen nog steeds te onvoorspelbaar zijn om als moordmachines te worden gebruikt. 

    Een andere zorg is dat Franken-algoritmen vooroordelen kunnen bestendigen en zelfs versterken vanwege de datasets waarop ze zijn getraind. Dit proces kan leiden tot verschillende maatschappelijke problemen, waaronder discriminatie, ongelijkheid en onrechtmatige arrestaties. Vanwege deze verhoogde risico's beginnen veel technologiebedrijven hun ethische AI-richtlijnen te publiceren om transparant te zijn over hoe ze hun algoritmen ontwikkelen, gebruiken en controleren.

    Bredere implicaties voor Franken-algoritmen

    Mogelijke implicaties voor Franken-algoritmen kunnen zijn:

    • Ontwikkeling van autonome systemen die beslissingen kunnen nemen en acties kunnen ondernemen zonder menselijk toezicht, waardoor bezorgdheid ontstaat over verantwoording en veiligheid. Dergelijke algoritmen kunnen echter de kosten verlagen van het ontwikkelen van software en robotica die menselijke arbeid in de meeste industrieën kunnen automatiseren. 
    • Meer onderzoek naar hoe algoritmen militaire technologie kunnen automatiseren en autonome wapens en voertuigen kunnen ondersteunen.
    • Verhoogde druk op regeringen en marktleiders om een ​​ethische code en regelgeving voor algoritmen te implementeren.
    • Franken-algoritmen die onevenredig grote gevolgen hebben voor bepaalde demografische groepen, zoals gemeenschappen met lage inkomens of minderheden.
    • Franken-algoritmen kunnen discriminatie en vooringenomenheid in de besluitvorming, zoals het aannemen en uitlenen van personeel, in stand houden en versterken.
    • Deze algoritmen worden door cybercriminelen gebruikt om zwakheden in systemen, met name in financiële instellingen, te monitoren en uit te buiten.
    • Politieke actoren die malafide algoritmen gebruiken om marketingcampagnes te automatiseren met behulp van generatieve AI-systemen op manieren die de publieke opinie kunnen beïnvloeden en verkiezingen kunnen beïnvloeden.

    Vragen om te overwegen

    • Hoe denk je dat algoritmen zich in de toekomst verder zullen ontwikkelen?
    • Wat kunnen overheden en bedrijven doen om Franken-algoritmen onder controle te krijgen?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links:

    Eversheds Sutherland Gevolgen van onvoorspelbare code