la versión original de esta historia apareció en Revista Quanta.
Imagine una ciudad con dos comerciantes de artículos. Los clientes prefieren aparatos más baratos, por lo que los comerciantes deben competir para fijar el precio más bajo. Descontentos con sus escasas ganancias, se reúnen una noche en una taberna llena de humo para discutir un plan secreto: si suben los precios juntos en lugar de competir, ambos pueden ganar más dinero. Pero ese tipo de fijación intencional de precios, llamada colusión, ha sido ilegal durante mucho tiempo. Los comerciantes de widgets deciden no correr el riesgo y todos los demás pueden disfrutar de widgets baratos.
Durante más de un siglo, la legislación estadounidense ha seguido este modelo básico: prohibir esos acuerdos clandestinos y se deben mantener precios justos. Hoy en día, no es tan sencillo. En amplios sectores de la economía, los vendedores dependen cada vez más de programas informáticos llamados algoritmos de aprendizaje, que ajustan repetidamente los precios en respuesta a nuevos datos sobre el estado del mercado. Suelen ser mucho más simples que los algoritmos de “aprendizaje profundo” que impulsan la inteligencia artificial moderna, pero aun así pueden ser propensos a comportamientos inesperados.
Entonces, ¿cómo pueden los reguladores garantizar que los algoritmos fijen precios justos? Su enfoque tradicional no funcionará, ya que se basa en encontrar una colusión explícita. «Los algoritmos definitivamente no están bebiendo entre ellos», dijo Aarón Rothinformático de la Universidad de Pensilvania.
Sin embargo, un artículo de 2019 ampliamente citado demostró que los algoritmos podían aprender a confabularse tácitamente, incluso cuando no estaban programados para hacerlo. Un equipo de investigadores enfrentó dos copias de un algoritmo de aprendizaje simple entre sí en un mercado simulado y luego les permitió explorar diferentes estrategias para aumentar sus ganancias. Con el tiempo, cada algoritmo aprendió, mediante prueba y error, a tomar represalias cuando el otro reducía los precios, reduciendo su propio precio en una cantidad enorme y desproporcionada. El resultado final fueron precios altos, respaldados por la amenaza mutua de una guerra de precios.
Amenazas implícitas como ésta también sustentan muchos casos de colusión humana. Entonces, si se quiere garantizar precios justos, ¿por qué no simplemente exigir a los vendedores que utilicen algoritmos que son intrínsecamente incapaces de expresar amenazas?
En un artículo recienteRoth y otros cuatro informáticos demostraron por qué esto puede no ser suficiente. Demostraron que incluso los algoritmos aparentemente benignos que se optimizan para su propio beneficio a veces pueden generar malos resultados para los compradores. «Todavía se pueden obtener precios altos de maneras que parecen razonables desde el exterior», dijo Natalie Collinaun estudiante de posgrado que trabaja con Roth y coautor del nuevo estudio.
No todos los investigadores están de acuerdo sobre las implicaciones del hallazgo; mucho depende de cómo se define «razonable». Pero revela cuán sutiles pueden volverse las preguntas sobre los precios algorítmicos y cuán difícil puede ser regularlas.





