Franken-Algorithms: Algoritmy se staly nepoctivými

KREDIT OBRAZU:
Kredit
iStock

Franken-Algorithms: Algoritmy se staly nepoctivými

Franken-Algorithms: Algoritmy se staly nepoctivými

Text podnadpisu
S rozvojem umělé inteligence se algoritmy vyvíjejí rychleji, než lidé předpokládali.
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • 12. dubna 2023

    Jak jsou algoritmy strojového učení (ML) pokročilejší, jsou schopny se samy učit a přizpůsobovat vzorům ve velkých souborech dat. Tento proces, známý jako „autonomní učení“, může vést k tomu, že algoritmus generuje svůj vlastní kód nebo pravidla pro rozhodování. Problém je v tom, že kód generovaný algoritmem může být pro lidi obtížné nebo nemožné pochopit, takže je obtížné určit zkreslení. 

    Kontext Franken-Algorithms

    Franken-Algorithms se týkají algoritmů (pravidel, kterými se počítače řídí při zpracování dat a reagování na příkazy), které se staly tak komplexními a provázanými, že je lidé již nemohou dešifrovat. Termín je kývnutím na sci-fi Mary Shelley o „monstru“, které vytvořil šílený vědec Dr. Frankenstein. Algoritmy a kódy jsou sice stavebními kameny velkých technologií a umožnily Facebooku a Googlu stát se vlivnými společnostmi, jimiž jsou nyní, stále je toho o technologii tolik, že lidé nevědí. 

    Když programátoři vytvářejí kódy a spouštějí je prostřednictvím softwaru, ML umožňuje počítačům porozumět a předvídat vzorce. Zatímco velká tech tvrdí, že algoritmy jsou objektivní, protože lidské emoce a nepředvídatelnost je neovlivňují, tyto algoritmy se mohou vyvíjet a psát svá vlastní pravidla, což vede ke katastrofálním výsledkům. Kód generovaný těmito algoritmy je často složitý a neprůhledný, takže je pro výzkumníky nebo praktiky obtížné interpretovat rozhodnutí algoritmu nebo identifikovat jakékoli zkreslení, které mohou být přítomny v procesu rozhodování algoritmu. Tato překážka může pro podniky, které se při rozhodování spoléhají na tyto algoritmy, vytvořit značné problémy, protože nemusí být schopny porozumět nebo vysvětlit důvody těchto rozhodnutí.

    Rušivý dopad

    Když se Franken-Algorithms zkazí, může to být otázka života a smrti. Příkladem byla nehoda z roku 2018, kdy samořídící auto v Arizoně srazilo a zabilo ženu jedoucí na kole. Algoritmy auta ji nedokázaly správně identifikovat jako člověka. Experti byli rozervaní na hlavní příčinu nehody – nebylo auto nesprávně naprogramováno a algoritmus se stal příliš složitým pro jeho vlastní dobro? Na čem se však programátoři mohou shodnout, je, že pro softwarové společnosti musí existovat systém dohledu – etický kodex. 

    Tento etický kodex však přichází s určitým odrazem od velkých technologií, protože se zabývají prodejem dat a algoritmů a nemohou si dovolit být regulovány nebo vyžadovány, aby byly transparentní. Kromě toho nedávný vývoj, který vyvolal obavy u velkých technologických zaměstnanců, je rostoucí používání algoritmů v armádě, jako je partnerství společnosti Google s ministerstvem obrany USA za účelem začlenění algoritmů do vojenských technologií, jako jsou autonomní drony. Tato aplikace vedla k tomu, že někteří zaměstnanci rezignovali a odborníci vyjádřili obavy, že algoritmy jsou stále příliš nepředvídatelné, než aby je bylo možné použít jako stroje na zabíjení. 

    Další obavou je, že Franken-Algorithms mohou udržovat a dokonce zesilovat zkreslení kvůli datovým sadám, na kterých jsou trénovány. Tento proces může vést k různým společenským problémům, včetně diskriminace, nerovnosti a nezákonného zatýkání. Kvůli těmto zvýšeným rizikům začíná mnoho technologických společností zveřejňovat své etické pokyny pro umělou inteligenci, aby bylo transparentní, jak vyvíjejí, používají a monitorují své algoritmy.

    Širší implikace pro Frankenovy algoritmy

    Potenciální důsledky pro Franken-Algorithms mohou zahrnovat:

    • Vývoj autonomních systémů, které mohou přijímat rozhodnutí a akce bez lidského dohledu, což vyvolává obavy o odpovědnost a bezpečnost. Takové algoritmy však mohou snížit náklady na vývoj softwaru a robotiky, které mohou automatizovat lidskou práci ve většině průmyslových odvětví. 
    • Více podrobností o tom, jak mohou algoritmy automatizovat vojenskou technologii a podporovat autonomní zbraně a vozidla.
    • Zvýšený tlak na vlády a lídry v oboru, aby zavedli algoritmický etický kodex a předpisy.
    • Frankenovy algoritmy neúměrně ovlivňující určité demografické skupiny, jako jsou komunity s nízkými příjmy nebo menšinové populace.
    • Franken-Algorithms by mohly udržovat a zesilovat diskriminaci a zaujatost v rozhodování, jako je rozhodování o najímání a půjčování.
    • Tyto algoritmy používají kyberzločinci ke sledování a využívání slabých míst v systémech, zejména ve finančních institucích.
    • Političtí aktéři používající nepoctivé algoritmy k automatizaci marketingových kampaní pomocí generativních systémů umělé inteligence způsoby, které mohou ovlivnit veřejné mínění a ovlivnit volby.

    Otázky k zamyšlení

    • Jak se podle vás budou algoritmy dále vyvíjet v budoucnu?
    • Co mohou vlády a společnosti udělat pro kontrolu Franken-Algorithms?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled: