Насаждане на страх от технологии: безкрайната технологична паника

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Насаждане на страх от технологии: безкрайната технологична паника

Насаждане на страх от технологии: безкрайната технологична паника

Подзаглавен текст
Изкуственият интелект се рекламира като следващото откритие на Страшния съд, което води до потенциално забавяне на иновациите.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Юни 13, 2023

    Акценти в Insight

    Историческото въздействие на технологиите върху човешкия прогрес е значително, като потенциалните рискове често предизвикват обществени дебати. Този модел на насаждане на страх с новите технологии води до вълна от морална паника, политически мотивирано финансиране за изследвания и сензационно медийно отразяване. Междувременно се появяват последствия от реалния свят, както се вижда от опитите за забрана на AI инструменти като ChatGPT в училища и държави, което вероятно води до незаконна употреба, задушаване на иновациите и повишено безпокойство в обществото.

    Технологичен контекст, който насажда страх

    Технологичните прекъсвания през цялата история са оформили значително човешкия прогрес, като последният е изкуственият интелект (AI). По-специално, генеративният AI може драстично да повлияе на нашето бъдеще, главно когато се вземат предвид неговите потенциални рискове. Мелвин Кранцберг, известен американски историк, предостави шест закона на технологията, които описват сложното взаимодействие между обществото и технологията. Първият му закон подчертава, че технологията не е нито добра, нито лоша; неговите ефекти се определят от вземането на човешки решения и социалния контекст. 

    Бързият напредък в ИИ, особено в изкуствения общ интелект (AGI), създава нови траектории. Тези разработки обаче пораждат дебати, като някои експерти поставят под въпрос нивото на напредък на ИИ, а други подчертават потенциалните обществени заплахи. Тази тенденция доведе до обичайните тактики за насаждане на страх, които идват с новите технологии, често подбуждайки недоказани страхове от възможните ефекти на тези иновации върху човешката цивилизация.

    Възпитаник на Оксфордския университет по експериментална психология, Ейми Орбен, създаде концепция от четири етапа, наречена Сизифов цикъл на технологично безпокойство, за да обясни защо се случва насаждането на страх от технологиите. Сизиф е герой от гръцката митология, на когото е съдено вечно да бута камък нагоре по склон, само за да се претърколи обратно надолу, принуждавайки го да повтаря процеса безкрайно. 

    Според Орбен графикът на технологичната паника е следният: Появява се нова технология, след което политиците се намесват, за да предизвикат морална паника. Изследователите започват да се фокусират върху тези теми, за да получат средства от тези политици. И накрая, след като изследователите публикуват резултатите от своите продължителни проучвания, медиите отразяват тези често сензационни резултати. 

    Разрушително въздействие

    Генеративният AI вече е изправен пред контрол и „превантивни мерки“. Например мрежите на държавните училища в САЩ, като Ню Йорк и Лос Анджелис, забраниха използването на ChatGPT в техните помещения. Статия в MIT Technology Review обаче твърди, че забраната на технологиите може да доведе до по-негативни резултати, като например насърчаване на учениците да ги използват незаконно. Освен това подобна забрана може да насърчи злоупотребата с ИИ, вместо да насърчи открит диалог относно неговите предимства и ограничения.

    Държавите също започват силно да ограничават генеративния ИИ. Италия стана първата западна страна, която забрани ChatGPT през март 2023 г. поради проблеми с поверителността на данните. След като OpenAI отговори на тези опасения, правителството отмени забраната през април. Въпреки това примерът на Италия предизвика интерес сред други европейски регулатори, особено в контекста на Общия регламент за защита на данните (GDPR) на Европейския съюз (ЕС). Вече Ирландия и Франция проучват допълнително политиката за данни на ChatGPT.

    Междувременно насаждането на страх от AI може да се засили в медиите, където разказът за AI, който измества милиони работни места, създава култура на мързеливи мислители и прави дезинформацията и пропагандата много по-лесни, вече е на пълни обороти. Въпреки че тези опасения имат основания, някои твърдят, че технологията все още е сравнително нова и никой не може да бъде сигурен, че няма да се развие, за да противодейства на тези тенденции. Например, Световният икономически форум прогнозира, че до 2025 г. машините може да заменят около 85 милиона работни места; те обаче биха могли също да генерират 97 милиона нови позиции, по-подходящи за развиващото се сътрудничество между хора и машини.

    Последици от всяването на страх от технологиите

    По-широките последици от насаждането на страх от технологиите могат да включват: 

    • Повишено недоверие и безпокойство към технологичния напредък, което потенциално води до нежелание за възприемане на нови технологии.
    • Възпрепятства икономическия растеж и иновациите чрез създаване на среда, в която предприемачите, инвеститорите и фирмите са по-малко склонни да се стремят към нови технологични начинания поради възприемани рискове.
    • Политици, които използват обществените страхове за политическа изгода, което води до рестриктивни политики, свръхрегулиране или забрани на специфични технологии, което може да задуши иновациите.
    • Разширяващо се цифрово разделение между различните демографски групи. По-младите поколения, които обикновено са по-добре запознати с технологиите, може да имат по-голям достъп и разбиране за новите технологии, докато по-старите поколения може да изостанат. 
    • Застой в технологичния напредък, водещ до липса на пробиви и подобрения в ключови области като здравеопазване, транспорт и възобновяема енергия. 
    • Страхът от загуба на работа поради автоматизация, възпрепятстваща приемането на по-ефективни и екологични технологии, удължавайки зависимостта от традиционните, по-малко устойчиви индустрии. 

    Въпроси за разглеждане

    • Как технологичните компании могат да гарантират, че техните пробиви и иновации не вдъхват страх?