Desde los materiales no renovables hasta la explotación por parte de los trabajadores, nuestros dispositivos tienen un precio más alto que el que imaginamos. Por Gillian Tett, Financial Times

  • 7 junio, 2019

El año pasado, Kate Crawford, profesora de la Universidad de Nueva York que dirige un centro de investigación de inteligencia artificial, se dispuso a estudiar la “caja negra” de los procesos que existen en torno al popular dispositivo Amazon Echo.

Crawford no hizo lo que uno podría esperar cuando se aproxima a la IA. A saber, algoritmos de estudio, sistemas informáticos y demás. En cambio, se unió a Vladan Joler, un académico serbio, para mapear las cadenas de suministro, las materias primas, los datos y el trabajo que sustentan a Alexa, el agente de AI con el que hablan los usuarios de Echo.

Fue un proceso desalentador, tanto que Joler y Crawford admiten que su mapa, Anatomía de un sistema de IA, es solo un primer paso. Los resultados son escalofriantes y desafiantes. Lo que el mapa muestra es que la sociedad contemporánea occidental no está viendo el precio real que está pagando en su sed por más tecnología.

Dependemos en gran medida de los dispositivos digitales y, a menudo, los vemos como milagros de progreso. La inteligencia artificial parece tan sofisticada que hablamos como si no estuviera atada al mundo “real”, tangible. Pero Crawford y Joler argumentan que nada podría estar más lejos de la verdad: los dispositivos tecnológicos y la inteligencia artificial no pueden funcionar sin grandes cantidades de energía y minerales difíciles de extraer, cuyo suministro tiene un precio ambiental elevado. También hay un alto costo humano, pagado por el ejército de trabajadores subcontratados que ayudan con el aprendizaje automático etiquetando el contenido y analizando las imágenes.

“Cada pequeño momento de convivencia con Alexa, ya sea respondiendo una pregunta, encendiendo una luz o tocando una canción, requiere una vasta red planetaria, alimentada por la extracción de materiales, mano de obra y datos no renovables”, escriben Crawford y Joler. “Una contabilidad completa de estos costos es casi imposible, pero es cada vez más importante que comprendamos la escala y el alcance si queremos entender y gobernar las infraestructuras técnicas que se filtran a través de nuestras vidas”, agregan.

Otros investigadores también están explorando este territorio. Tomemos a Mary Gray y Siddarth Suri, antropóloga y científica informática, respectivamente, en una unidad de investigación de Microsoft. Recientemente han tratado de documentar las vidas de los “trabajadores fantasmas” que desempeñan un papel crucial, pero en gran parte poco reconocido, en empresas de tecnología como Amazon, Facebook, Google y Microsoft, moderando el contenido, respondiendo consultas, manteniendo sitios web y realizando otras rutinas.

Al igual que Crawford y Joler, a Gray y Suri les resultó extraordinariamente difícil realizar este estudio. El mes pasado, sin embargo, publicaron sus hallazgos en un libro, Ghost Work: Cómo detener a Silicon Valley de la construcción de una nueva clase baja global. La escala de lo que describen es alarmante, por las malas condiciones que conllevan esos trabajos. Pero lo que es aún más sorprendente es lo poco que hablamos de estos millones de trabajadores ocultos. Cuando pensamos en “empleados tecnológicos”, tendemos a pensar en geeks de Silicon Valley de alto estatus; rara vez discutimos a todos los indios y filipinos que trabajan cada día para realizar funciones que son vitales para el buen funcionamiento de Alexa y otros IA.

¿Por qué? La geografía es en parte culpable: los metales de las tierras raras se extraen muy lejos de los consumidores occidentales, en lugares como Jiangxi, China o el salar de Uyuni, Bolivia. Como tal, es muy fácil pasar por alto los costos ambientales o las condiciones laborales que existen en esos lugares. De manera similar, muchos de los trabajadores fantasmas de Gray y Suri se encuentran en partes del mundo en desarrollo que están lejos de los ojos occidentales.

Las cadenas de suministro globales son tan complejas que incluso los gigantes de la tecnología tienen dificultades para entenderlas. “Una ilustración de la dificultad de investigar y rastrear el proceso de la cadena de producción contemporánea es que Intel tardó más de cuatro años en comprender su línea de suministro lo suficientemente bien como para asegurar que no haya tantalio [un metal raro] del Congo en sus productos de microprocesadores”, ejemplifican Crawford y Joler.

Sin embargo, yo diría que hay otro problema: la cultura. En algunos sentidos, no sorprende que estemos tan ciegos a los patrones de explotación en la tecnología moderna. Nuestra cultura de consumo occidental es igualmente ciega a la opulencia de las cadenas de suministro global en productos “tangibles” como la moda y la comida. Pero sospecho que la naturaleza aparentemente incorpórea de la tecnología nos hace doblemente miopes, ya que hemos sido convencidos de pensar que la IA casi “flota” sobre los humanos y la tierra.

Podría ser tentador suponer que la falta de transparencia es un complot deliberado elaborado por multimillonarios tecnológicos. Pero esos ejecutivos de Silicon Valley también tienen obstaculizada la visión global y los puntos ciegos. En la tecnología (como en las finanzas u otras partes de nuestras vidas) hay mucho que se oculta a simple vista; o, al menos, se podría ver si solo miráramos.

Así que aquí hay dos propuestas modestas. En primer lugar, cualquiera que confíe en un gadget cibernético moderno debería dedicar unos minutos a mirar ese mapa de Alexa, aunque solo sea para admirar la complejidad de los dispositivos que tenemos en nuestras manos. En segundo lugar, a Alexa (y a los asistentes virtuales) se les debe enseñar a “responder” a preguntas sobre esa cadena de suministro global, si se les pregunta. Sí, Amazon podría odiar esa idea (y no está claro cuántas personas realmente pueden preguntar). Pero si tuviéramos una Alexa que pudiera responder: “¿Qué es lo que realmente te permite operar?”, sería un pequeño paso en la dirección correcta. Aún mejor, sería una respuesta honesta.