Franken-Algorithms: Алгоритми, станали измамници

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Franken-Algorithms: Алгоритми, станали измамници

Franken-Algorithms: Алгоритми, станали измамници

Подзаглавен текст
С развитието на изкуствения интелект алгоритмите се развиват по-бързо, отколкото хората са очаквали.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Април 12, 2023

    Тъй като алгоритмите за машинно обучение (ML) стават все по-напреднали, те могат сами да учат и да се адаптират към модели в големи набори от данни. Този процес, известен като "автономно обучение", може да доведе до генериране на собствен код или правила от алгоритъма за вземане на решения. Проблемът с това е, че кодът, генериран от алгоритъма, може да бъде труден или невъзможен за разбиране от хората, което прави предизвикателство да се определят отклоненията. 

    Контекст на Franken-Algorithms

    Франкен-алгоритмите се отнасят до алгоритми (правилата, които компютрите следват, когато обработват данни и отговарят на команди), които са станали толкова сложни и преплетени, че хората вече не могат да ги дешифрират. Терминът е намигване към научната фантастика на Мери Шели за „чудовище“, създадено от лудия учен д-р Франкенщайн. Въпреки че алгоритмите и кодовете са градивните елементи на големите технологии и са позволили на Facebook и Google да бъдат влиятелните компании, каквито са сега, все още има толкова много неща за технологията, които хората не знаят. 

    Когато програмистите създават кодове и ги изпълняват чрез софтуер, ML позволява на компютрите да разбират и предвиждат модели. Докато големите технологии твърдят, че алгоритмите са обективни, защото човешките емоции и непредсказуемостта не им влияят, тези алгоритми могат да се развиват и да пишат свои собствени правила, което води до катастрофални резултати. Кодът, генериран от тези алгоритми, често е сложен и непрозрачен, което затруднява изследователите или практиците да интерпретират решенията на алгоритъма или да идентифицират всякакви пристрастия, които могат да присъстват в процеса на вземане на решения от алгоритъма. Тази пречка може да създаде значителни предизвикателства за фирмите, които разчитат на тези алгоритми, за да вземат решения, тъй като те може да не са в състояние да разберат или обяснят мотивите зад тези решения.

    Разрушително въздействие

    Когато Franken-Algorithms се развалят, това може да е въпрос на живот и смърт. Пример за това е инцидент през 2018 г., когато самоуправляваща се кола в Аризона блъсна и уби жена, караща колело. Алгоритмите на колата не успяха да я идентифицират правилно като човек. Експертите бяха разкъсани относно основната причина за инцидента - колата не беше ли програмирана правилно и дали алгоритъмът стана твърде сложен за собственото си добро? Това, с което програмистите могат да се съгласят обаче, е, че трябва да има система за надзор на софтуерните компании - етичен кодекс. 

    Въпреки това, този етичен кодекс идва с известно отблъскване от големите технологии, защото те са в бизнеса с продажба на данни и алгоритми и не могат да си позволят да бъдат регулирани или изисквани да бъдат прозрачни. Освен това, скорошно развитие, което предизвика безпокойство сред големите технологични служители, е нарастващото използване на алгоритми в армията, като партньорството на Google с Министерството на отбраната на САЩ за включване на алгоритми във военни технологии, като автономни дронове. Това приложение доведе до напускане на служители и експерти, които изразиха опасения, че алгоритмите все още са твърде непредвидими, за да бъдат използвани като машини за убиване. 

    Друго безпокойство е, че алгоритмите на Franken могат да запазят и дори да увеличат пристрастията поради наборите от данни, върху които се обучават. Този процес може да доведе до различни обществени проблеми, включително дискриминация, неравенство и неправомерни арести. Поради тези повишени рискове, много технологични компании започват да публикуват своите етични насоки за ИИ, за да бъдат прозрачни относно това как разработват, използват и наблюдават своите алгоритми.

    По-широки последици за Франкен-алгоритми

    Потенциалните последици за алгоритмите на Franken могат да включват:

    • Разработване на автономни системи, които могат да вземат решения и да предприемат действия без човешки контрол, което поражда опасения относно отчетността и безопасността. Въпреки това, такива алгоритми могат да намалят разходите за разработване на софтуер и роботика, които могат да автоматизират човешкия труд в повечето индустрии. 
    • Повече контрол върху това как алгоритмите могат да автоматизират военната технология и да поддържат автономни оръжия и превозни средства.
    • Повишен натиск върху правителствата и лидерите в индустрията за прилагане на етичен кодекс и разпоредби на алгоритъма.
    • Франкен-алгоритми, които оказват непропорционално въздействие върху определени демографски групи, като общности с ниски доходи или малцинствено население.
    • Алгоритмите на Franken биха могли да увековечат и засилят дискриминацията и пристрастието при вземането на решения, като например решенията за наемане и отдаване на заеми.
    • Тези алгоритми се използват от киберпрестъпниците за наблюдение и използване на слабости в системите, особено във финансовите институции.
    • Политически актьори, използващи измамни алгоритми за автоматизиране на маркетингови кампании, използвайки генеративни AI системи по начини, които могат да повлияят на общественото мнение и да повлияят на изборите.

    Въпроси за разглеждане

    • Как смятате, че алгоритмите ще се развиват в бъдеще?
    • Какво могат да направят правителствата и компаниите, за да контролират Franken-Algorithms?

    Препратки към Insight

    Следните популярни и институционални връзки бяха посочени за тази информация: