Нагнітання технологічного страху: нескінченна технологічна паніка

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Нагнітання технологічного страху: нескінченна технологічна паніка

Нагнітання технологічного страху: нескінченна технологічна паніка

Текст підзаголовка
Штучний інтелект рекламується як наступне відкриття кінця світу, що призведе до потенційного уповільнення інновацій.
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • 13 Червня, 2023.

    Основні моменти

    Історичний вплив технологій на прогрес людства був значним, а потенційні ризики часто викликали дискусії в суспільстві. Ця модель нагнітання страху за допомогою нових технологій призводить до хвилі моральної паніки, політично мотивованого фінансування досліджень і сенсаційного висвітлення в ЗМІ. Тим часом з’являються реальні наслідки, як видно зі спроб заборонити такі інструменти штучного інтелекту, як ChatGPT, у школах і країнах, що, ймовірно, призведе до незаконного використання, пригнічення інновацій і зростання суспільної тривоги.

    Технологічний контекст, що нагнітає страх

    Технологічні збої протягом історії суттєво вплинули на розвиток людства, останнім з яких став штучний інтелект (ШІ). Зокрема, генеративний штучний інтелект може суттєво вплинути на наше майбутнє, головним чином з огляду на його потенційні ризики. Мелвін Кранцберг, відомий американський історик, представив шість законів технології, які описують складну взаємодію між суспільством і технологією. Його перший закон підкреслює, що технологія не є ні хорошою, ні поганою; його наслідки визначаються прийняттям рішень людиною та суспільним контекстом. 

    Швидкий прогрес ШІ, особливо загального штучного інтелекту (AGI), створює нові траєкторії. Однак ці розробки викликають дебати, при цьому деякі експерти сумніваються в рівні розвитку ШІ, а інші підкреслюють потенційні суспільні загрози. Ця тенденція призвела до звичайної тактики нагнітання страху, яка приходить із новими технологіями, часто викликаючи недоведені страхи щодо можливого впливу цих інновацій на людську цивілізацію.

    Випускниця експериментальної психології Оксфордського університету Емі Орбен створила концепцію з чотирьох етапів під назвою «Сізіфів цикл технологічної тривоги», щоб пояснити, чому виникає страх перед технологіями. Сізіф — персонаж грецької міфології, якому судилося вічно штовхати камінь угору по схилу, щоб він знову котився вниз, змушуючи його повторювати цей процес нескінченно. 

    За словами Орбена, технологічна паніка виглядає наступним чином: з’являється нова технологія, а потім втручаються політики, щоб розпалити моральну паніку. Дослідники починають зосереджуватися на цих темах, щоб отримати кошти від цих політиків. Нарешті, після того, як дослідники публікують результати своїх тривалих досліджень, ЗМІ висвітлюють ці часто сенсаційні результати. 

    Руйнівний вплив

    Генеративний штучний інтелект вже піддається ретельному розгляду та «профілактичним заходам». Наприклад, мережі державних шкіл у США, такі як Нью-Йорк і Лос-Анджелес, заборонили використовувати ChatGPT у своїх приміщеннях. Однак у статті в MIT Technology Review стверджується, що заборона технологій може призвести до більш негативних наслідків, таких як заохочення студентів використовувати їх незаконно. Крім того, така заборона може сприяти зловживанню ШІ, а не сприяти відкритому діалогу про його переваги та обмеження.

    Країни також починають суттєво обмежувати генеративний ШІ. Італія стала першою західною країною, яка заборонила ChatGPT у березні 2023 року через проблеми з конфіденційністю даних. Після того, як OpenAI вирішив ці проблеми, у квітні уряд скасував заборону. Однак приклад Італії викликав інтерес серед інших європейських регуляторів, особливо в контексті Загального регламенту захисту даних (GDPR) Європейського Союзу (ЄС). Ірландія та Франція вже проводять подальше розслідування політики ChatGPT щодо даних.

    Тим часом нагнітання страху щодо штучного інтелекту може посилитися в засобах масової інформації, де наратив про те, що штучний інтелект витісняє мільйони робочих місць, створює культуру ледачих мислителів і значно полегшує дезінформацію та пропаганду, вже на повну силу. Хоча ці побоювання мають підстави, деякі стверджують, що технологія все ще відносно нова, і ніхто не може бути впевнений, що вона не буде розвиватися, щоб протистояти цим тенденціям. Наприклад, Всесвітній економічний форум прогнозує, що до 2025 року машини можуть замінити близько 85 мільйонів робочих місць; однак вони також можуть створити 97 мільйонів нових позицій, які краще підходять для розвитку співпраці між людьми та машинами.

    Наслідки технології нагнітання страху

    Більш широкі наслідки технологічного страху можуть включати: 

    • Підвищена недовіра та занепокоєння щодо технологічного прогресу, що потенційно спричиняє небажання приймати нові технології.
    • Перешкоджає економічному зростанню та інноваціям, створюючи середовище, в якому підприємці, інвестори та підприємства з меншою ймовірністю шукатимуть нових технологічних підприємств через уявні ризики.
    • Політики використовують громадські страхи для політичної вигоди, що призводить до обмежувальної політики, надмірного регулювання або заборони певних технологій, що може придушити інновації.
    • Розширення цифрового розриву між різними демографічними групами. Молодші покоління, які, як правило, більш підковані в техніці, можуть мати більший доступ до нових технологій і більше розуміти їх, тоді як старші покоління можуть залишитися позаду. 
    • Застій у технологічному прогресі, що призводить до відсутності проривів і вдосконалень у таких важливих сферах, як охорона здоров’я, транспорт і відновлювана енергетика. 
    • Страх втратити роботу через автоматизацію, що перешкоджає впровадженню більш ефективних і екологічно чистих технологій, продовжуючи залежність від традиційних, менш стійких галузей. 

    Питання для розгляду

    • Як технологічні компанії можуть гарантувати, що їхні прориви та інновації не викликають страху?