Big Tech i l'exèrcit: la zona grisa ètica

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Big Tech i l'exèrcit: la zona grisa ètica

Big Tech i l'exèrcit: la zona grisa ètica

Text del subtítol
Les empreses s'estan associant amb els governs per desenvolupar tecnologies d'armes de nova generació; tanmateix, els empleats de Big Tech es resisteixen a aquestes associacions.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Gener 18, 2023

    Resum d'informació

    Les empreses de Silicon Valley han impulsat innovacions importants en tecnologies autònomes, com ara vehicles de conducció autònoma i drons. Des de la dècada de 2010, aquestes innovacions s'han filtrat gradualment a les piles tecnològiques dels militars de tot el món per avançar en les capacitats de guerra autònoma. Com a resultat, els empleats tecnològics del sector privat i les organitzacions de drets humans de tot el món demanen directrius més transparents sobre com els respectius exèrcits dels seus països adopten tecnologies del sector privat.

    Big Tech i el context militar

    El desenvolupament de tecnologia per a l'exèrcit requereix una gran quantitat de temps i inversió. El complex militar-industrial, per exemple, normalment implica una associació de llarga durada entre organitzacions militars i contractistes de defensa massius, com Lockheed Martin i Raytheon als EUA. Els seus projectes impliquen el desenvolupament d'actius de defensa com ara drons militars autònoms i portaavions. 

    Tanmateix, el complex militar-industrial també implica col·laboracions amb altres tipus d'empreses del sector privat que tradicionalment no estan associades al sector de la defensa, com ara les Big Tech. A mesura que aquestes noves associacions de defensa creixen en nombre, molts empleats estan prenent consciència que els contractes s'estan signant sense el seu coneixement. Per exemple, el 2018, els denunciants del personal i els periodistes d'investigació van fer pública la implicació de Google amb Project Maven, una iniciativa del Departament de Defensa dels Estats Units (DoD) que utilitza intel·ligència artificial (IA) per dirigir atacs amb drons. Els empleats de Google afirmen que l'empresa mai no va demanar el seu consentiment per participar en aquest i altres projectes de defensa.

    No obstant això, el 2018, Google es va retirar del Projecte Maven després que milers d'empleats signessin una petició, afirmant que l'empresa no hauria de dedicar-se a la guerra. Aquests desenvolupaments han obligat algunes empreses tecnològiques a prendre una postura sobre on marcar la línia. Per exemple, després de la seva retirada del Projecte Maven, Google va publicar directrius ètiques que descriuen les seves opinions sobre la investigació responsable de la IA. La política deia que l'empresa no construiria armes basades en IA, però no descartava la col·laboració continuada amb el sector de la defensa per desenvolupar capacitats militars no ofensives.

    Impacte disruptiu

    La implicació entre Big Tech i l'exèrcit pot tenir conseqüències a llarg termini per a aquestes empreses tecnològiques. En particular, molts països veuen cada cop més les empreses tradicionalment neutrals com Google o Microsoft com a aliades de les organitzacions militars nord-americanes. Com que ara se sap que aquestes empreses col·laboren activament en el sector de la defensa dels Estats Units, les nacions externes dubten a continuar depenent de la Big Tech dels EUA per al programari i el suport tècnic. Una vacil·lació similar s'ha aplicat als gegants tecnològics xinesos; per exemple, els EUA, el Canadà i molts països europeus han començat a prohibir els sistemes de telecomunicacions Huawei 5G per por a la vigilància del govern xinès. 

    A més, alguns empleats de mentalitat liberal que treballen dins d'aquestes empreses tecnològiques poden sentir-se explotats amb el pas del temps. En particular, els treballadors del mil·lenari i de la generació Z tendeixen a prioritzar les pràctiques empresarials ètiques i triaran els seus ocupadors en conseqüència. Alguns d'aquests joves empleats fins i tot poden convertir-se en denunciants i exposar secrets, perjudicant la reputació de les seves respectives empreses. 

    No obstant això, el Departament de Defensa dels Estats Units busca ser més transparent en la manera com duu a terme les seves iniciatives de recerca. El Departament ara requereix que els proveïdors de tercers publiquin les seves respectives directrius ètiques d'IA que destaquin clarament com supervisen els desenvolupaments de l'aprenentatge automàtic. Big Tech també està implementant de manera agressiva les seves iniciatives responsables d'IA. Per exemple, Facebook va establir el seu consell d'ètica (2018) per garantir que els algorismes i les noves funcions no estiguin esbiaixats. 

    Implicacions de la Big Tech i l'exèrcit

    Les implicacions més àmplies de l'associació cada cop més gran de la tecnologia amb el sector de la defensa poden incloure:

    • Països amb sectors tecnològics desenvolupats que obtenen un avantatge militar més profund respecte als companys menys desenvolupats en el futur espai de batalla. 
    • Empleats tecnològics que requereixen que les seves respectives empreses siguin transparents en tots els projectes en què estan treballant, inclosa la revelació completa de les parts interessades.
    • Diverses empreses, com Google, Microsoft i Amazon, es van retirar de determinats contractes militars i d'aplicació de la llei.
    • Les organitzacions militars canvien a empreses tecnològiques i startups més petites per evitar l'escrutini.
    • Valoracions ambientals, socials i de governança (ESG) centrades en mètriques d'ètica per garantir que les empreses implementin la IA de manera responsable.
    • El creixent desenvolupament de capacitats de guerra algorítmica, així com drons autònoms, tancs i vehicles submarins per a ús en temps de guerra.

    Preguntes a tenir en compte

    • Si treballes en una empresa de tecnologia, com implementa la teva empresa una IA responsable?
    • Com poden Big Tech i els militars treballar junts de manera més transparent i ètica?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: