Franken-algoritmes: Algoritmes het skelm geword

BEELDKREDIET:
Image krediet
iStock

Franken-algoritmes: Algoritmes het skelm geword

Franken-algoritmes: Algoritmes het skelm geword

Subopskrif teks
Met die ontwikkelings in kunsmatige intelligensie, ontwikkel algoritmes vinniger as wat mense verwag het.
    • Author:
    • Author naam
      Quantumrun Foresight
    • April 12, 2023

    Soos masjienleer (ML) algoritmes meer gevorderd word, is hulle in staat om patrone in groot datastelle op hul eie te leer en aan te pas. Hierdie proses, bekend as "outonome leer", kan daartoe lei dat die algoritme sy eie kode of reëls genereer om besluite te neem. Die probleem hiermee is dat die kode wat deur die algoritme gegenereer word, vir mense moeilik of onmoontlik kan wees om te verstaan, wat dit moeilik maak om vooroordele vas te stel. 

    Franken-Algorithms konteks

    Franken-algoritmes verwys na algoritmes (die reëls wat rekenaars volg wanneer data verwerk word en op bevele reageer) wat so kompleks en verweef geraak het dat mense dit nie meer kan ontsyfer nie. Die term is 'n knipoog na Mary Shelley se wetenskapfiksie oor 'n "monster" wat deur die mal wetenskaplike Dr. Frankenstein geskep is. Alhoewel algoritmes en kodes die boustene van groot tegnologie is en Facebook en Google toegelaat het om die invloedryke maatskappye te wees wat hulle nou is, is daar steeds soveel oor die tegnologie wat mense nie weet nie. 

    Wanneer programmeerders kodes bou en dit deur sagteware laat loop, laat ML rekenaars toe om patrone te verstaan ​​en te voorspel. Terwyl groot tegnologie beweer dat algoritmes objektief is omdat menslike emosies en onvoorspelbaarheid hulle nie beïnvloed nie, kan hierdie algoritmes ontwikkel en hul eie reëls skryf, wat tot rampspoedige resultate lei. Die kode wat deur hierdie algoritmes gegenereer word, is dikwels kompleks en ondeursigtig, wat dit moeilik maak vir navorsers of praktisyns om die algoritme se besluite te interpreteer of om enige vooroordele wat in die algoritme se besluitnemingsproses teenwoordig kan wees, te identifiseer. Hierdie padblokkade kan aansienlike uitdagings skep vir besighede wat op hierdie algoritmes staatmaak om besluite te neem, aangesien hulle dalk nie die redenasie agter daardie besluite kan verstaan ​​of verduidelik nie.

    Ontwrigtende impak

    Wanneer Franken-algoritmes skelm raak, kan dit 'n kwessie van lewe en dood wees. 'n Voorbeeld was 'n ongeluk in 2018 toe 'n selfbesturende motor in Arizona 'n vrou wat op 'n fiets ry, getref en doodgery het. Die motor se algoritmes kon haar nie korrek as 'n mens identifiseer nie. Kenners was verskeur oor die oorsaak van die ongeluk—is die motor verkeerd geprogrammeer, en het die algoritme te kompleks vir sy eie beswil geword? Waaroor programmeerders egter kan saamstem, is dat daar 'n toesigstelsel vir sagtewaremaatskappye moet wees - 'n etiese kode. 

    Hierdie etiese kode kom egter met 'n mate van terugslag van groot tegnologie omdat hulle besig is om data en algoritmes te verkoop en nie kan bekostig om gereguleer te word of deursigtig te wees nie. Boonop is 'n onlangse ontwikkeling wat kommer vir groot tegnologie-werknemers veroorsaak het, die toenemende gebruik van algoritmes binne die weermag, soos Google se vennootskap met die Amerikaanse departement van verdediging om algoritmes in militêre tegnologie in te sluit, soos outonome hommeltuie. Hierdie toepassing het daartoe gelei dat sommige werknemers bedank het en kenners hul kommer uitgespreek het dat algoritmes steeds te onvoorspelbaar is om as moordmasjiene gebruik te word. 

    Nog 'n bekommernis is dat Franken-algoritmes vooroordele kan voortduur en selfs versterk as gevolg van die datastelle waarop hulle opgelei is. Hierdie proses kan lei tot verskeie maatskaplike kwessies, insluitend diskriminasie, ongelykheid en onregmatige arrestasies. As gevolg van hierdie verhoogde risiko's, begin baie tegnologiemaatskappye hul etiese KI-riglyne publiseer om deursigtig te wees oor hoe hulle hul algoritmes ontwikkel, gebruik en monitor.

    Wyer implikasies vir Franken-algoritmes

    Potensiële implikasies vir Franken-algoritmes kan insluit:

    • Ontwikkeling van outonome stelsels wat besluite kan neem en aksies kan neem sonder menslike toesig, wat kommer wek oor aanspreeklikheid en veiligheid. Sulke algoritmes kan egter die koste van die ontwikkeling van sagteware en robotika verminder wat menslike arbeid in die meeste nywerhede kan outomatiseer. 
    • Meer ondersoek na hoe algoritmes militêre tegnologie kan outomatiseer en outonome wapens en voertuie kan ondersteun.
    • Verhoogde druk vir regerings en bedryfsleiers om 'n algoritme-kode van etiek en regulasies te implementeer.
    • Franken-algoritmes wat sekere demografiese groepe, soos lae-inkomste-gemeenskappe of minderheidsbevolkings, buite verhouding beïnvloed.
    • Franken-algoritmes kan diskriminasie en vooroordeel in besluitneming, soos huur- en uitleenbesluite, voortduur en versterk.
    • Hierdie algoritmes word deur kubermisdadigers gebruik om swakhede in stelsels te monitor en uit te buit, veral in finansiële instellings.
    • Politieke akteurs wat skelm algoritmes gebruik om bemarkingsveldtogte te outomatiseer met behulp van generatiewe KI-stelsels op maniere wat die openbare mening kan beïnvloed en verkiesings kan beïnvloed.

    Vrae om te oorweeg

    • Hoe dink jy sal algoritmes in die toekoms verder ontwikkel?
    • Wat kan regerings en maatskappye doen om Franken-algoritmes te beheer?

    Insig verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie insig verwys:

    Eversheds Sutherland Gevolge van onvoorspelbare kode