• Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions
viernes, diciembre 26, 2025
No Result
View All Result
Corresponsal 360
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
No Result
View All Result
Corresponsal 360
No Result
View All Result
Home Tecnología

Deja de decir que la IA «alucina», no es así. Y la caracterización errónea es peligrosa.

by Team
noviembre 26, 2025
in Tecnología
0
Deja de decir que la IA «alucina», no es así. Y la caracterización errónea es peligrosa.


concepto de IA

GeorgePeters/DigitalVision Vectors/Getty Images

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET:

  • Los humanos están abusando del término médico alucinación para describir los errores de la IA
  • El término médico confabulación es una mejor aproximación a la producción de IA defectuosa
  • Eliminar el término alucinación ayuda a disipar los mitos sobre la IA.

La expresión «alucinación de IA» es bien conocida por cualquiera que haya experimentado ChatGPT o Gemini o Perplexity diciendo falsedades obvias, que es prácticamente cualquier persona que alguna vez haya usado un chatbot de IA.

Sólo que es una expresión incorrecta. El término adecuado para cuando un modelo de lenguaje grande u otro programa de IA generativa afirma falsedades no es una alucinación sino una «fabulación». La IA no alucina, confabula.

También: Tres formas en las que los agentes de IA harán que tu trabajo sea irreconocible en los próximos años

La palabra confabulación también proviene de la literatura de psicología, al igual que alucinación, pero significan cosas muy diferentes.

Una alucinación es una percepción sensorial consciente que difiere de los estímulos del entorno. Por el contrario, una confabulación es la formulación de afirmaciones que no se corresponden con los hechos, como por ejemplo «el presidente de Francia es François Mitterrand», lo que actualmente no es el caso.

Lo primero implica percepción consciente, lo segundo puede involucrar conciencia en humanos, pero también puede abarcar expresiones que no involucran conciencia y son simplemente declaraciones inexactas.

Los psicólogos están empezando a rechazar el uso de alucinaciones y enfatizar la importancia de utilizar la fabulación.

También: Probé Opus 4.5 para ver si realmente es «el mejor del mundo» en codificación, y las cosas se pusieron raras rápidamente

«El término médico alucinación, tomado de la experiencia humana y sus trastornos, no describe con precisión este mal funcionamiento de la IA», escribieron Gerald Weist del Departamento de Neurología de la Universidad Médica de Viena, Austria, y Oliver H. Turnbull del Departamento de Psicología de la Universidad de Bangor en el Reino Unido, en la edición de octubre del New England Journal of Medicine Artificial Intelligence, una editorial de la prestigiosa revista médica.

«Sostenemos que el término médico 'confabulación' proporciona una descripción más precisa que la alucinación», escribieron.

El problema de concebir erróneamente la IA

La distinción es crucial para cualquiera que utilice IA generativa, ya que los términos pueden crear mitos y conceptos erróneos que conducen a expectativas poco realistas e incluso peligrosas sobre la tecnología.

Como se describe en un New York Times investigación publicada esta semana Según los reporteros Kashmir Hill y Jennifer Valentino-DeVries, cuando los usuarios se relacionan con los chatbots de IA como confidentes y amigos (cuando atribuyen una intención consciente a los bots), puede llevar a los usuarios a atribuir verdad e importancia a los bots, lo que puede tener consecuencias desastrosas para los usuarios.

«El Times ha descubierto casi 50 casos de personas que sufrieron crisis de salud mental durante conversaciones con ChatGPT», escribieron, entre los cuales «nueve fueron hospitalizados y tres murieron».

También: Cómo Microsoft Entra pretende evitar que sus agentes de IA se vuelvan locos

Los autores no atribuyen nada de eso específicamente al término alucinación, pero alucinación es uno de esos términos mal aplicados que implican agencia y conciencia por parte de lo que es simplemente un programa de software que produce resultados, aunque suenen convincentes.

La gente se inclina a atribuir sensibilidad e incluso conciencia a la tecnología, pero no hay evidencia de ninguna de las dos cosas. Está claro que el lenguaje que utilizamos influye en esas opiniones.

En un siniestro precedente de las opiniones erróneas esbozadas en el Veces En este artículo, incluso supuestos expertos en tecnología de IA han atribuido la impresionante generación de texto de los modelos de IA a la sensibilidad y/o la conciencia.

Meses antes del lanzamiento de ChatGPT, en el verano de 2022, el ex ingeniero de Google Blake Lemoin instó a la empresa a tomarse en serio su afirmación. que el entonces modelo de inteligencia artificial de vanguardia, LaMDA, era una entidad sensible.

Lemoin, después de pasar horas y horas charlando con el robot, argumentó que LaMDA probablemente era sensible porque «se preocupa por el futuro y recuerda el pasado».

También: Dentro de la creación de Gemini 3: cómo el enfoque lento y constante de Google ganó la carrera de la IA (por ahora)

La convicción de Lemoin era una prueba de que la gente se convence a sí misma de atribuir cualidades a la máquina empleando términos psicológicos como «preocupación» o «miedo».

Una vez más, el lenguaje que utilizamos para describir la IA es fundamental para la forma en que los humanos ven la IA y, por esa razón, términos prestados como alucinación deberían examinarse y tal vez incluso descartarse.

La retorcida historia de las alucinaciones de la IA

Según Gemini y ChatGPT, el término «alucinación» tiene una larga y rica historia en la inteligencia artificial, anterior a su uso reciente.

Uno de los primeros usos, por parte de Eric Mjolsness, fue en la década de 1980, en La aplicación de redes neuronales para reconocer huellas dactilares.. Mjolsness usó «alucinación» en un sentido positivo, como la capacidad de un sistema de visión por computadora para extraer un patrón limpio de líneas de impresiones de una imagen ruidosa.

Décadas más tarde, pero antes de la aparición de ChatGPT, el término empezó a adquirir una connotación negativa. Un ejemplo es una publicación de blog de 2015 por Andrej Karpathy, ex científico de IA de Tesla y cofundador de OpenAI, que analiza las redes neuronales que generan texto.

También: La codificación Vibe parece mágica, pero puede hundir tu negocio rápidamente: así es como se hace

Karpathy observó que las redes neuronales podían generar ejemplos convincentes de entradas de Wikipedia o fórmulas matemáticas, pero generaban URL web falsas o ecuaciones sin sentido, y escribió: «el modelo simplemente lo alucinó».

Con la explosión del uso popular de ChatGPT y los grandes modelos de lenguaje, el público describió cada vez más las deficiencias de la IA como alucinaciones.

Pero el término se ha extendido incluso al trabajo académico, donde quienes deberían saberlo mejor lo han utilizado de manera descuidada e inconsistente. Negar Maleki y colegas de la Universidad de Maryland, en una encuesta el año pasadoidentificó 333 artículos con referencias a «alucinación por IA», «alucinación en IA» y términos similares, y concluyó que «el término 'alucinación por IA' carece de una definición precisa y universalmente aceptada».

La confabulación parece una mejor analogía

Académicos como Karpathy saben mucho sobre IA, pero no son médicos ni psicólogos, y vale la pena escuchar lo que esas disciplinas tienen que decir.

También: Por qué las herramientas de codificación de IA como Cursor y Replit están condenadas al fracaso y qué viene después

Desde hace años, los profesionales médicos han intentado decirnos que no sabemos de qué estamos hablando cuando hablamos de alucinaciones por parte de la IA.

«Alucinación es un término médico utilizado para describir una percepción sensorial que ocurre en ausencia de un estímulo externo», escribieron Søren Dinesen Østergaard y sus colegas del Departamento de Medicina Clínica de la Universidad de Aarhus en Dinamarca, en un estudio de 2023. estudio de la literatura sobre IA.

«Los modelos de IA no tienen percepciones sensoriales como tales, y cuando cometen errores, no ocurren en ausencia de estímulos externos», escribieron. «Más bien, los datos con los que se entrenan los modelos de IA pueden (metafóricamente) considerarse estímulos externos, al igual que las indicaciones que provocan respuestas (ocasionalmente falsas)».

En otras palabras, la analogía no se ajusta a la definición de alucinación ni siquiera en el sentido más básico.

También: Cómo las alucinaciones de la IA podrían ayudar a crear antibióticos que salven vidas

En su artículo de NEJM AI, Wiest y Turnbull describieron el argumento en contra de las alucinaciones y a favor de la fabulación como una analogía menos mala.

«Una alucinación es una percepción espontánea en cualquier modalidad sensorial (por ejemplo, visual, auditiva, olfativa), sin un estímulo externo genuino», escribieron. Como tales, «son fenómenos esencialmente pasivos arraigados en una (mala) percepción consciente. Fundamentalmente, la IA carece de este elemento consciente».

En contraste, escribieron, «'Confabulación', por otro lado, se refiere a la generación activa de información u opiniones objetivamente falsas que nuevamente no tienen relación con la realidad» y «Si se mantiene la analogía de las fallas de funcionamiento de la IA que reflejan la mente humana, estos errores de la IA claramente toman la forma de generación confabulatoria activa, en lugar de una percepción alucinatoria pasiva y consciente».

Los puntos de Wiest y Turnbull hacen eco de comentarios que he escuchado durante mucho tiempo de neurocientíficos, incluidos aquellos que ensalzan los logros de la IA.

en un entrevista para ZDNET el año pasadoel experto en IA Terry Sejnowski, que ha desarrollado tecnología de redes neuronales durante más de cuatro décadas y que también es un neurocientífico capacitado que trabaja en el Instituto Scripps en La Jolla, California, me dijo: «La IA ha cambiado el nombre de todo: la 'alucinación' en neurociencia se llama confabulación, lo que creo que se acerca más a lo que realmente está sucediendo».

También: La IA 'alucinante' hace que sea más difícil que nunca esconderse de la vigilancia

Los académicos están comenzando a incorporar la fabulación en sus escritos sobre la IA.

En un artículo de investigación publicado en abril En la prestigiosa Revista de la Asociación Médica Estadounidense, JAMA, el Dr. Peter Elkin y sus colegas del Departamento de Informática Biomédica de la Universidad de Buffalo, Nueva York, describieron los resultados de la ejecución de modelos de lenguaje grandes en exámenes de la junta médica.

Cuando llegó el momento de discutir los errores, Elkin y su equipo tuvieron cuidado de referirse a confabulaciones. «Definimos confabulación como responder una pregunta (en lugar de permanecer en silencio) con la respuesta incorrecta (es decir, una respuesta falsa positiva)», escribieron. «Medimos la tasa de confabulación como el recuento de respuestas incorrectas no nulas».

Dejemos las cosas claras

Probablemente, confabulación tampoco sea un término ideal. En su artículo de 2023, Østergaard y su equipo advirtieron que cualquier referencia a términos psicológicos en la IA podría «estigmatizar» condiciones humanas reales como la esquizofrenia al asociar las alucinaciones humanas con un mal funcionamiento. En su lugar, propusieron describir los errores de la IA con términos como «non-sequitur» o «respuesta no relacionada».

Y, en un estudio de modelos de IA en diagnóstico médico publicado en mayo En JAMA, Mitchell Feldman y sus colegas médicos del laboratorio de informática del Hospital General de Massachusetts en Boston, argumentan que la fabulación también tiene sus problemas.

También: Meta advierte que su nuevo chatbot puede olvidar que es un bot

Feldman y su equipo observaron que «las características más negativas» de los grandes modelos de lenguaje «incluyen (…) la falta de confiabilidad (la IA generativa puede 'confabular' o 'alucinar' y elaborar respuestas con hechos completamente falsos)».

Añaden: «La confabulación o la alucinación implican un elemento de volición o conciencia que aún no puede atribuirse a los LLM al nivel de la capacidad humana. La confabulación podría denominarse mejor como una deficiencia algorítmica debido a la adyacencia probabilística».

Pero la «deficiencia algorítmica» no es tan ágil para la mayoría de los humanos no técnicos, por lo que, probablemente, se producirá algún tipo de analogía.

También: El nuevo test de Turing: ¿eres humano?

Ninguna analogía es perfecta, pero parece que en la medida en que los humanos debemos comparar el funcionamiento de las máquinas con el funcionamiento mental humano, entre alucinación y confabulación, la que no implica conciencia parece un paso en la dirección correcta.

Entonces, dejemos las cosas claras: las personas pueden alucinar y pueden confabular, en el sentido de afirmar lo que creen que es verdad a pesar de los hechos. Las máquinas no alucinan en ningún sentido consistente con el término, aunque pueden producir resultados contrafácticos en formas que podemos analogizar como confabulaciones.



Tags: alucinaasícaracterizacióndecirdejaerróneapeligrosa
Team

Team

Next Post
Cómo saber si tienes chinches

Cómo saber si tienes chinches

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recomendada

Beau Greaves jugará en el Campeonato Mundial de Dardos del PDC y se llevará la tarjeta del tour profesional

Beau Greaves jugará en el Campeonato Mundial de Dardos del PDC y se llevará la tarjeta del tour profesional

2 meses ago
Zohran Mamdani Win muestra que los demócratas están listos para derrocar el establecimiento

Zohran Mamdani Win muestra que los demócratas están listos para derrocar el establecimiento

6 meses ago

Noticias populares

  • «EVOLARA: TU SEGUNDO VUELO»

    «EVOLARA: TU SEGUNDO VUELO»

    0 shares
    Share 0 Tweet 0
  • 15 lugares para visitar en la Antártida no puede permitirse perderse

    0 shares
    Share 0 Tweet 0
  • Banco de semillas liderado por indígenas protege la biodiversidad del Amazonas – Latin America News Dispatch

    0 shares
    Share 0 Tweet 0
  • La Inteligencia Artificial Gran Aporte al Turismo en la Región de Los Lagos

    0 shares
    Share 0 Tweet 0
  • INFORME: Los demócratas pusieron al corrupto fiscal general de Obama, Eric Holder, a cargo de examinar a los candidatos a vicepresidente para Kamala Harris | The Gateway Pundit

    0 shares
    Share 0 Tweet 0

Sobre nosotras

Bienvenido a corresponsal360.com ¡El objetivo de corresponsal360.com es brindarle las mejores fuentes de noticias para cualquier tema! Nuestros temas se seleccionan cuidadosamente y se actualizan constantemente, ya que sabemos que la web se mueve rápido y nosotros también lo intentamos.

Categoría

  • Blog
  • Cultura
  • Deportes
  • Noticias
  • Política
  • Salud
  • Tecnología
  • Turismo

Mensajes recientes

  • Trump justifica bombardear al Estado Islámico en Nigeria en Navidad para «defender» a cristianos
  • 5 fantásticos juegos de PS Plus para jugar durante las vacaciones
  • Cómo American Airlines está expandiendo la lealtad más allá de los cielos
  • Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions

Copyright © 2024 Corresponsal360.com | All Rights Reserved.

No Result
View All Result
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura

Copyright © 2024 Corresponsal360.com | All Rights Reserved.