Big Tech e os militares: a zona gris ética

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Big Tech e os militares: a zona gris ética

Big Tech e os militares: a zona gris ética

Texto do subtítulo
As empresas están asociadas cos gobernos para desenvolver tecnoloxías de armas de nova xeración; con todo, os empregados de Big Tech están resistindo tales asociacións.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Xaneiro 18, 2023

    Resumo de insight

    As empresas de Silicon Valley impulsaron importantes innovacións en tecnoloxías autónomas, como vehículos autónomos e drons. Desde a década de 2010, estas innovacións filtráronse gradualmente nas pilas tecnolóxicas dos exércitos de todo o mundo para avanzar nas capacidades de guerra autónoma. Como resultado, os empregados tecnolóxicos do sector privado e as organizacións de dereitos humanos de todo o mundo piden directrices máis transparentes sobre como están adoptando as tecnoloxías do sector privado os respectivos exércitos dos seus países.

    Big Tech e o contexto militar

    O desenvolvemento tecnolóxico para o exército leva enormes cantidades de tempo e investimento. O complexo militar e industrial, por exemplo, normalmente implica unha asociación de longa data entre organizacións militares e contratistas masivos de defensa, como Lockheed Martin e Raytheon nos Estados Unidos. Os seus proxectos implican o desenvolvemento de activos de defensa como drons militares autónomos e portaavións. 

    Non obstante, o complexo militar-industrial tamén implica asociacións con outro tipo de empresas do sector privado que tradicionalmente non están asociadas ao sector da defensa, como as empresas Big Tech. A medida que estas novas asociacións de defensa crecen en número, moitos empregados están tomando conciencia de que se asinan contratos sen o seu coñecemento. Por exemplo, en 2018, denunciantes do persoal e xornalistas de investigación fixeron pública a participación de Google co Proxecto Maven, unha iniciativa do Departamento de Defensa dos Estados Unidos (DoD) que emprega intelixencia artificial (IA) para atacar ataques con drones. Os empregados de Google afirman que a empresa nunca pediu o seu consentimento para participar neste e noutros proxectos de defensa.

    Non obstante, en 2018, Google retrocedeu do Proxecto Maven despois de que miles de empregados asinaran unha petición, afirmando que a empresa non debería estar no negocio da guerra. Tales desenvolvementos obrigaron a algunhas empresas tecnolóxicas a tomar unha posición sobre onde trazar a liña. Por exemplo, tras a súa retirada do Proxecto Maven, Google publicou directrices éticas que describen as súas opinións sobre a investigación responsable da IA. A política indicaba que a compañía non construíría armas baseadas na IA, pero non descartaba a colaboración continua co sector da defensa para desenvolver capacidades militares non ofensivas.

    Impacto disruptivo

    A implicación entre Big Tech e os militares pode ter consecuencias a longo prazo para estas empresas tecnolóxicas. En particular, moitos países ven cada vez máis empresas tradicionalmente neutrales como Google ou Microsoft como aliadas das organizacións militares estadounidenses. Dado que agora se sabe que estas empresas colaboran activamente no sector da defensa dos EE. UU., as nacións externas están a dubidar en seguir dependendo da Big Tech estadounidense para o software e o soporte técnico. Unha vacilación similar aplicouse aos xigantes tecnolóxicos chineses; por exemplo, Estados Unidos, Canadá e moitos países europeos comezaron a prohibir os sistemas de telecomunicacións Huawei 5G por medo á vixilancia do goberno chinés. 

    Ademais, algúns empregados de mentalidade liberal que traballan dentro destas empresas tecnolóxicas poden sentirse explotados co paso do tempo. En particular, os traballadores Millennial e Gen Z tenden a valorar as prácticas comerciais éticas e escollerán aos seus empregados en consecuencia. Algúns destes mozos empregados poden incluso converterse en denunciantes e revelar segredos, prexudicando a reputación das súas respectivas empresas. 

    Non obstante, o Departamento de Defensa dos Estados Unidos busca facerse máis transparente na forma en que leva a cabo as súas iniciativas de investigación. O Departamento agora esixe que os provedores de terceiros publiquen as súas respectivas directrices éticas de IA que destaquen claramente como supervisan os desenvolvementos da aprendizaxe automática. Big Tech tamén está a implementar de forma agresiva as súas iniciativas responsables de IA. Por exemplo, Facebook estableceu o seu consello de ética (2018) para garantir que os algoritmos e as novas funcións non estean sesgados. 

    Implicacións da Big Tech e do exército

    As implicacións máis amplas de que as grandes tecnoloxías se asocien cada vez máis co sector da defensa poden incluír:

    • Os países con sectores tecnolóxicos desenvolvidos obteñen unha vantaxe militar máis profunda sobre os compañeiros menos desenvolvidos no futuro espazo de batalla. 
    • Empregados tecnolóxicos que requiren que as súas respectivas empresas sexan transparentes en todos os proxectos nos que están a traballar, incluída a revelación completa das partes interesadas.
    • Varias empresas, como Google, Microsoft e Amazon, retiráronse de determinados contratos militares e de aplicación da lei.
    • As organizacións militares pasan a empresas tecnolóxicas e startups máis pequenas para evitar o escrutinio.
    • Valoracións ambientais, sociais e de goberno (ESG) centradas en métricas de ética para garantir que as empresas implementan a IA de forma responsable.
    • O crecente desenvolvemento de capacidades de guerra algorítmica, así como de drons autónomos, tanques e vehículos submarinos para uso bélico.

    Preguntas a ter en conta

    • Se traballas nunha empresa de tecnoloxía, como implementa a túa empresa a IA responsable?
    • Como poden Big Tech e os militares traballar xuntos de forma máis transparente e ética?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: