un nuevo investigación sugiere que la forma en que la inteligencia artificial piensa sobre nosotros podría ser demasiado optimista. Los investigadores han descubierto que modelos de IA popularescomo el de OpenAI ChatGPT y Claude de Anthropictienden a asumir que las personas son más racionales y lógicas de lo que realmente son, especialmente en situaciones de pensamiento estratégico.
Esa brecha entre cómo la IA espera que se comporten los humanos y lo que las personas realmente hacen podría tener implicaciones en la forma en que estos sistemas predicen las decisiones humanas en la economía y más allá.
Probando la IA contra el pensamiento humano

Los investigadores probaron modelos de IA, incluidos ChatGPT-4o y Claude-Sonnet-4, en una configuración clásica de teoría de juegos llamada concurso de belleza keynesiano. Comprender este juego ayuda a explicar por qué los hallazgos son importantes (a través de Explorar tecnología).
En el concurso de belleza, los participantes deben predecir lo que otros elegirán para ganar, no simplemente elegir lo que ellos personalmente prefieren. En teoría, el juego racional significa ir más allá de las primeras impresiones y razonar realmente sobre el razonamiento de los demás, una capa profunda de pensamiento estratégico con la que los humanos a menudo luchan en la práctica.
Para ver cómo se comparan los modelos de IA, los investigadores hicieron que los sistemas jugaran una versión de este juego llamado «Adivina el número», donde cada jugador elige un número entre cero y cien. El ganador es aquel cuya elección se acerca más a la mitad de la elección promedio de todos los jugadores.

A los modelos de IA se les dieron descripciones de sus oponentes humanos, desde estudiantes de primer año hasta teóricos de juegos experimentados, y se les pidió no solo que eligieran un número sino que explicaran su razonamiento.
Los modelos ajustaron sus números en función de a quién creían que se enfrentaban, lo que muestra cierto pensamiento estratégico. Sin embargo, asumieron consistentemente un nivel de razonamiento lógico en humanos que la mayoría de los jugadores reales en realidad no exhiben, a menudo «jugando demasiado inteligentemente» y, como resultado, fallaron.

Si bien el estudio también encontró que estos sistemas pueden adaptar elecciones basadas en características como la edad o la experiencia, todavía les costó identificar las estrategias dominantes que los humanos podrían usar en juegos de dos jugadores. Los investigadores sostienen que esto pone de relieve el desafío actual de calibrar la IA con el comportamiento humano real, especialmente para tareas que requieren anticipar las decisiones de otras personas.
Estos hallazgos también reflejan preocupaciones más amplias sobre los chatbots actuales, incluida la investigación que muestra que Incluso los mejores sistemas de IA tienen solo un 69% de precisióny advertencias de expertos que Los modelos de IA pueden imitar de manera convincente la personalidad humanalo que genera preocupaciones de manipulación. A medida que la IA siga utilizándose en la modelización económica y otros ámbitos complejos, será esencial comprender en qué puntos sus supuestos divergen de la realidad humana.




