Mesterséges intelligencia elfogultság: A gépek nem olyan objektívek, mint reméltük

KÉP HITEL:
Kép hitel
iStock

Mesterséges intelligencia elfogultság: A gépek nem olyan objektívek, mint reméltük

Mesterséges intelligencia elfogultság: A gépek nem olyan objektívek, mint reméltük

Alcím szövege
Mindenki egyetért azzal, hogy az AI-nak elfogulatlannak kell lennie, de az elfogultságok eltávolítása problémásnak bizonyul
    • Szerző:
    • Szerző neve
      Quantumrun Foresight
    • Február 8, 2022

    Insight összefoglaló

    Míg az adatvezérelt technológiák egy tisztességes társadalom előmozdítását ígérik, gyakran ugyanazokat az elfogultságokat tükrözik, mint az emberek, ami potenciális igazságtalanságokhoz vezethet. Például a mesterséges intelligencia (AI) rendszerekben tapasztalható torzítások akaratlanul is ronthatják a káros sztereotípiákat. Mindazonáltal folynak erőfeszítések az AI-rendszerek igazságosabbá tételére, bár ez összetett kérdéseket vet fel a hasznosság és a méltányosság közötti egyensúlyról, valamint a tech csapatok átgondolt szabályozásának és sokszínűségének szükségességéről.

    AI torzítás általános kontextusban

    A remény az, hogy az adatok által vezérelt technológiák segítik majd az emberiséget egy olyan társadalom kialakításában, ahol a méltányosság mindenki számára a norma. A jelenlegi valóság azonban más képet fest. Az emberek sok előítélete, amely a múltban igazságtalanságokhoz vezetett, most tükröződik a digitális világunkat irányító algoritmusokban. A mesterséges intelligencia rendszerekben tapasztalható ilyen torzítások gyakran a rendszereket fejlesztő egyének előítéleteiből fakadnak, és ezek az előítéletek gyakran beszivárognak munkájukba.

    Vegyük például az ImageNet néven ismert 2012-es projektet, amely a gépi tanulási rendszerek képzéséhez szükséges képek címkézésének tömeges forrásba juttatását kívánta elérni. Az ezekre az adatokra kiképzett nagy neurális hálózat ezt követően lenyűgöző pontossággal képes volt azonosítani az objektumokat. Közelebbről megvizsgálva azonban a kutatók az ImageNet adataiban rejtett torzításokat fedeztek fel. Egy konkrét esetben egy ezekre az adatokra kiképzett algoritmus elfogult arra a feltételezésre, hogy minden szoftverprogramozó fehér ember.

    Ez az elfogultság azt eredményezheti, hogy a nők figyelmen kívül hagyják az ilyen szerepeket, amikor a felvételi folyamat automatizált. Az elfogultságok azért kerültek be az adathalmazokba, mert a „nő” képéhez címkéket adott egyén egy további címkét is tartalmazott, amely becsmérlő kifejezésből állt. Ez a példa azt szemlélteti, hogy a szándékos vagy nem szándékos elfogultságok még a legkifinomultabb mesterséges intelligencia-rendszerekbe is beszivároghatnak, potenciálisan fenntartva a káros sztereotípiákat és az egyenlőtlenségeket.

    Bomlasztó hatás 

    Az adatok és az algoritmusok torzításának kezelésére irányuló erőfeszítéseket különböző állami és magánszervezetek kutatói kezdeményeztek. Az ImageNet projekt esetében például a crowdsourcing segítségével azonosították és kiiktatták azokat a címkézési kifejezéseket, amelyek becsmérlő fényt vetnek bizonyos képekre. Ezek az intézkedések bebizonyították, hogy valóban lehetséges az AI-rendszerek igazságosabbá tétele.

    Egyes szakértők azonban azzal érvelnek, hogy a torzítás eltávolítása potenciálisan kevésbé hatékonyan teheti az adatkészletet, különösen akkor, ha több torzítás is szerepet játszik. Előfordulhat, hogy egy bizonyos torzításoktól megfosztott adatkészletből hiányzik a hatékony használathoz elegendő információ. Felveti a kérdést, hogy hogyan nézne ki egy valóban sokrétű képadatkészlet, és hogyan használható fel anélkül, hogy a hasznosságát veszélyeztetné.

    Ez a tendencia aláhúzza a mesterséges intelligencia és az adatvezérelt technológiák használatának átgondolt megközelítésének szükségességét. A vállalatok számára ez azt jelentheti, hogy befektetnek az elfogultság-észlelő eszközökbe, és előmozdítják a technológiai csapatok sokszínűségét. A kormányok számára ez magában foglalhatja a mesterséges intelligencia tisztességes használatát biztosító végrehajtási rendeleteket. 

    Az AI torzítás következményei

    A mesterséges intelligencia torzításának tágabb következményei lehetnek:

    • A szervezetek proaktívak a méltányosság és a megkülönböztetésmentesség biztosításában, miközben az AI-t a termelékenység és a teljesítmény javítására használják fel. 
    • A fejlesztőcsapatokban mesterséges intelligencia-etikus kell, hogy felismerje és mérsékelje az etikai kockázatokat a projekt korai szakaszában. 
    • Az AI-termékek tervezése a sokféleségi tényezők, például a nem, a faj, az osztály és a kultúra egyértelműen szem előtt tartásával.
    • A különböző csoportok képviselőinek bevonása, amelyek egy vállalat mesterséges intelligenciatermékét fogják használni, hogy teszteljék azt a megjelenés előtt.
    • Különféle közszolgáltatások korlátozottak a nyilvánosság bizonyos tagjai számára.
    • A közvélemény bizonyos tagjai nem férhetnek hozzá bizonyos álláslehetőségekhez, vagy nem jogosultak azokra.
    • A bűnüldöző szervek és szakemberek a társadalom bizonyos tagjait méltánytalanul jobban megcélozzák, mint másokat. 

    Megfontolandó kérdések

    • Ön optimista abban, hogy az automatizált döntéshozatal tisztességes lesz a jövőben?
    • Mi a helyzet a mesterséges intelligencia döntéshozatalával, ami a leginkább idegesít?

    Insight hivatkozások

    A következő népszerű és intézményi hivatkozásokra hivatkoztunk ehhez a betekintéshez: