Franken-Algoritmi: Algoritmi ir bijuši negodīgi

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

Franken-Algoritmi: Algoritmi ir bijuši negodīgi

Franken-Algoritmi: Algoritmi ir bijuši negodīgi

Apakšvirsraksta teksts
Attīstoties mākslīgajam intelektam, algoritmi attīstās ātrāk, nekā cilvēki gaidīja.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Aprīlis 12, 2023

    Tā kā mašīnmācīšanās (ML) algoritmi kļūst arvien progresīvāki, tie paši spēj mācīties un pielāgoties modeļiem lielās datu kopās. Šis process, kas pazīstams kā "autonomā mācīšanās", var izraisīt to, ka algoritms ģenerē savu kodu vai noteikumus, lai pieņemtu lēmumus. Problēma ir tāda, ka algoritma ģenerētais kods cilvēkiem var būt grūti vai neiespējams saprast, tāpēc ir sarežģīti noteikt novirzes. 

    Frankena-algoritmu konteksts

    Frankena algoritmi attiecas uz algoritmiem (noteikumiem, ko datori ievēro, apstrādājot datus un reaģējot uz komandām), kas ir kļuvuši tik sarežģīti un savstarpēji saistīti, ka cilvēki vairs nevar tos atšifrēt. Šis termins ir mājiens Mērijas Šellijas zinātniskajai fantastikai par "briesmoni", ko radījis trakais zinātnieks doktors Frankenšteins. Lai gan algoritmi un kodi ir lielo tehnoloģiju pamatelementi un ir ļāvuši Facebook un Google kļūt par ietekmīgiem uzņēmumiem, kādi tie ir tagad, joprojām ir tik daudz par tehnoloģiju, ko cilvēki nezina. 

    Kad programmētāji veido kodus un palaiž tos, izmantojot programmatūru, ML ļauj datoriem saprast un paredzēt modeļus. Lai gan lielās tehnoloģijas apgalvo, ka algoritmi ir objektīvi, jo cilvēka emocijas un neparedzamība tos neietekmē, šie algoritmi var attīstīties un rakstīt savus noteikumus, izraisot katastrofālus rezultātus. Šo algoritmu ģenerētais kods bieži ir sarežģīts un necaurredzams, tāpēc pētniekiem vai praktiķiem ir grūti interpretēt algoritma lēmumus vai noteikt jebkādas novirzes, kas var būt algoritma lēmumu pieņemšanas procesā. Šis šķērslis var radīt ievērojamas problēmas uzņēmumiem, kas lēmumu pieņemšanā paļaujas uz šiem algoritmiem, jo ​​tie var nespēt saprast vai izskaidrot šo lēmumu pamatojumu.

    Traucējoša ietekme

    Kad Franken-Algoritms kļūst negodīgi, tas var būt dzīvības un nāves jautājums. Kā piemēru var minēt negadījumu 2018. gadā, kad pašbraucoša automašīna Arizonā notrieca un nogalināja sievieti, kura brauca ar velosipēdu. Automašīnas algoritmi nespēja viņu pareizi identificēt kā cilvēku. Eksperti apšaubīja negadījuma galveno cēloni — vai automašīna bija nepareizi ieprogrammēta un vai algoritms kļuva pārāk sarežģīts paša labā? Tomēr programmētāji var vienoties par to, ka ir nepieciešama programmatūras uzņēmumu pārraudzības sistēma — ētikas kodekss. 

    Tomēr šis ētikas kodekss ir saistīts ar zināmu atgrūšanos no lielo tehnoloģiju puses, jo viņi nodarbojas ar datu un algoritmu pārdošanu un nevar atļauties regulēt vai pieprasīt pārredzamību. Turklāt nesenais notikums, kas ir radījis bažas lielos tehnoloģiju darbiniekus, ir algoritmu pieaugošā izmantošana militārajā jomā, piemēram, Google partnerība ar ASV Aizsardzības departamentu, lai militārajās tehnoloģijās iekļautu algoritmus, piemēram, autonomos dronus. Šīs lietojumprogrammas dēļ daži darbinieki ir atkāpušies no amata, un eksperti pauda bažas, ka algoritmi joprojām ir pārāk neparedzami, lai tos izmantotu kā nogalināšanas mašīnas. 

    Vēl viena problēma ir tāda, ka Franken algoritmi var iemūžināt un pat pastiprināt novirzes to datu kopu dēļ, uz kurām tie ir apmācīti. Šis process var izraisīt dažādas sabiedrības problēmas, tostarp diskrimināciju, nevienlīdzību un nelikumīgus arestus. Šo paaugstināto risku dēļ daudzi tehnoloģiju uzņēmumi sāk publicēt savas ētiskās AI vadlīnijas, lai būtu pārskatāmas par to, kā tie izstrādā, izmanto un uzrauga savus algoritmus.

    Plašāka Franken-algoritmu ietekme

    Iespējamās sekas uz Franken algoritmiem var ietvert:

    • Autonomu sistēmu izstrāde, kas var pieņemt lēmumus un veikt darbības bez cilvēka uzraudzības, radot bažas par atbildību un drošību. Tomēr šādi algoritmi var samazināt programmatūras un robotikas izstrādes izmaksas, kas var automatizēt cilvēku darbu lielākajā daļā nozaru. 
    • Sīkāka pārbaude par to, kā algoritmi var automatizēt militārās tehnoloģijas un atbalstīt autonomus ieročus un transportlīdzekļus.
    • Palielināts spiediens uz valdībām un nozares vadītājiem ieviest algoritmu ētikas kodeksu un noteikumus.
    • Frankena algoritmi, kas nesamērīgi ietekmē noteiktas demogrāfiskās grupas, piemēram, kopienas ar zemiem ienākumiem vai minoritāšu iedzīvotājus.
    • Franken-algoritmi varētu iemūžināt un pastiprināt diskrimināciju un neobjektivitāti lēmumu pieņemšanā, piemēram, pieņemot lēmumus par pieņemšanu darbā un aizdevumiem.
    • Šos algoritmus izmanto kibernoziedznieki, lai uzraudzītu un izmantotu vājās vietas sistēmās, jo īpaši finanšu iestādēs.
    • Politiskie dalībnieki, kas izmanto negodīgus algoritmus, lai automatizētu mārketinga kampaņas, izmantojot ģeneratīvas AI sistēmas tādā veidā, kas var ietekmēt sabiedrisko domu un ietekmēt vēlēšanas.

    Jautājumi, kas jāapsver

    • Kā, jūsuprāt, algoritmi attīstīsies turpmāk?
    • Ko valdības un uzņēmumi var darīt, lai kontrolētu Franken-algoritmus?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites:

    Eversheds Sazerlends Neparedzama koda sekas