Cuando los computadores empiecen a conspirar contra nosotros, los reguladores deberán ser ágiles.
Por Tim Harford, Financial Times

  • 27 febrero, 2019

*Si no le gusta el precio al que se le está ofreciendo un producto, no lo tome personal: muchos de los valores que vemos online están siendo establecidos por algoritmos que responden a la demanda y que además tratan de adivinar su disposición personal a pagar.

El siguiente paso es que las computadoras comenzarán a conspirar contra nosotros. Puede parecer paranoico, pero un nuevo estudio realizado por cuatro economistas en la Universidad de Bolonia muestra qué tan real es que esto suceda. Los investigadores permitieron que dos algoritmos simples de inteligencia artificial compitieran entre sí en un entorno en el que, al mismo tiempo, establecían los precios y obtenían los beneficios correspondientes. ¿Qué pasó? Los algoritmos aprendieron a coludirse, elevando los precios desde niveles competitivos hasta lo que puede ser considerado un monopolio. Y cuando se aplicaron recortes de precio, los computadores entraron en una guerra para luego volver a coludirse. Por mucha paranoia que tengamos, al parecer las máquinas siempre ganan.

Este no es un resultado sorprendente para alguien que, como yo, malgasta el tiempo de los jóvenes, haciéndolos estudiar la teoría de la competencia industrial. El libro de Robert Axelrod, La evolución de la cooperación, publicado en 1984, describe un torneo en el que los computadores jugaron un “dilema del prisionero”, un escenario análogo en el que dos vendedores compiten entre sí. Los mejores enfoques utilizaron la amenaza del castigo para sostener la cooperación, pero no era algo que un sistema de aprendizaje automático tuviera dificultades para descifrar.

Ante eso, la pregunta obvia es: ¿quién debería ser perseguido por fijación de precios si es que los robots descubren cómo hacerlo naturalmente, y además sin comunicarse entre ellos? En EE.UU., donde la Comisión Federal de Comercio ha reflexionado sobre esta perspectiva, no parece haber una única respuesta, porque solo los acuerdos de colusión explícitos son ilegales. Los robots solo estarían cometiendo un crimen si lo hubieran planeado juntos. Bajo esta premisa, la colusión tácita, al parecer, estaría bien.

Este es un recordatorio de que los algoritmos pueden comportarse mal y de las maneras más inimaginables. Para muchos de nosotros es difícil olvidar la imagen de Skynet (la inteligencia artificial que lideraba al ejército de máquinas en Terminator), que termina desencadenando una guerra nuclear y que luego utiliza a Arnold Schwarzenegger como modelo para un robot asesino que viaja en el tiempo en una misión para suprimir la resistencia humana. Al menos esa estrategia es refrescantemente directa. El verdadero alcance de la maldad algorítmica es mucho más sutil y mucho más amplio.

Nos preocupan, con razón, los algoritmos que practican la discriminación racial o sexual, por accidente o diseño. Me sorprende la rapidez con la que los relatos de algoritmos racistas han pasado de la novedad al cliché. Esas historias pueden desaparecer, pero no dejan de ser tema.

Los algoritmos que simplemente magnifican los errores humanos ahora parecen casi extraños. Sin embargo, ahora nos estamos dando cuenta de que los algoritmos pueden amplificar otras debilidades humanas: motores de recomendación en YouTube y Facebook que parecen amplificar la desinformación o que conducen a las personas a oscuros túneles de pensamientos conspirativos o suicidas.

Y no todos los programas maliciosos son un accidente; algunos están diseñados teniendo en cuenta esa maldad. Los bots pueden utilizarse para generar o difundir información errónea. Jamie Bartlett, autor de The Dark Net, advierte sobre un futuro de propaganda ultra-personalizada. Una cosa es cuando tu refrigerador con acceso a Internet sabe que tienes hambre y pide yogurt. Otra, es cuando el refrigerador comienza a mostrarte anuncios de ultraderecha porque funcionan mejor cuando estás malhumorado y bajo de azúcar en la sangre. Y a menos que mejoremos radicalmente nuestras leyes electorales y sistemas digitales, nadie necesita saber que un mensaje en particular fue susurrado en su oído mientras buscabas galletas.

Obviamente, tanto la ley como los reguladores deben ser ágiles. Pero hay que reflexionar también sobre los desafíos que se abren para los departamentos de relaciones públicas y responsabilidad social de las empresas. Estas intentan ser buenos ciudadanos corporativos, pero ¿quién asume la responsabilidad cuando es un algoritmo el que toma una decisión dañina?

No es un problema nuevo. Antes de que hubiera colusión tácita entre algoritmos, había colusión tácita entre directores de ventas. Antes de que las compañías culparan a los algoritmos deshonestos por episodios embarazosos, podían culpar a los empleados o a sus proveedores. Así que, ¿realmente podemos culpar al banco, cuyo subcontratista de limpieza paga menos al personal de aseo? ¿O la marca de ropa deportiva que se opone a las condiciones de los talleres, cuyos proveedores contratan discretamente niños?

La respuesta natural es: podemos y lo hacemos, pero la subcontratación es una fuente tanto de negación como de complejidad. Subcontratar a los algoritmos también complica las cosas. Pero vamos a tener que resolverlo.