Un tercio de los ciudadanos del Reino Unido ha recurrido a la inteligencia artificial en busca de apoyo emocional, compañía o interacción social. según un nuevo informe del Instituto de Seguridad de IA (AISI) del gobierno.
Los datos muestran que casi una de cada 10 personas utiliza sistemas como chatbots con fines emocionales semanalmente, y el 4% interactúa con ellos todos los días.
Debido a este cambio, el AISI pide más investigación, señalando la trágica muerte del adolescente estadounidense Adam Raine, quien se quitó la vida este año después de discutir suicidio con ChatGPT.
«La gente recurre cada vez más a los sistemas de inteligencia artificial para obtener apoyo emocional o interacción social», señaló el AISI en su primer informe Frontier AI Trends. «Si bien muchos usuarios informan de experiencias positivas, recientes casos de daño de alto perfil subrayan la necesidad de investigar en esta área, incluidas las condiciones bajo las cuales podría ocurrir el daño y las salvaguardas que podrían permitir un uso beneficioso».

La investigación, basada en una encuesta a más de 2.000 participantes del Reino Unido, encontró que los «asistentes de uso general» como ChatGPT eran los herramienta más común para el apoyo emocionalque representa casi el 60% de los casos de uso, seguido de asistentes de voz como Amazon Alexa.
El informe también destacó un foro de Reddit dedicado a los usuarios de la plataforma CharacterAI.
Señaló que cada vez que el sitio caía, el foro se inundaba de publicaciones que mostraban síntomas de abstinencia genuina, como ansiedad, depresión e inquietud.
El AISI también descubrió que los chatbots tienen el potencial de influir en las opiniones políticas de las personas. Lo preocupante es que los modelos de IA más persuasivos a menudo entregaban cantidades “sustanciales” de información inexacta al hacerlo.

El Instituto examinó más de 30 modelos de vanguardia, probablemente incluidos los de OpenAI, Google y Meta. Descubrieron que el rendimiento de la IA en algunas áreas se duplica cada ocho meses.
Los modelos líderes ahora pueden completar tareas de nivel de aprendiz el 50% del tiempo en promedio, un salto enorme con respecto a solo el 10% el año pasado. El AISI también descubrió que los sistemas más avanzados pueden finalizar de forma autónoma tareas que normalmente llevarían a un experto humano más de una hora.
En los campos científicos, los sistemas de IA son ahora hasta un 90% mejores que los expertos con nivel de doctorado en la resolución de problemas de experimentos de laboratorio.
El informe describió las mejoras en el conocimiento de la química y la biología como «mucho más allá de la experiencia a nivel de doctorado». También destacó la capacidad de los modelos para navegar en línea y encontrar de forma autónoma las secuencias necesarias para diseñar moléculas de ADN.
Las pruebas de autorreplicación (un problema de seguridad clave en el que un sistema se copia a sí mismo en otros dispositivos para volverse más difícil de controlar) mostraron que dos modelos de vanguardia lograron tasas de éxito superiores al 60%.
Sin embargo, ningún modelo ha mostrado un intento espontáneo de replicar u ocultar sus capacidades todavía, y el AISI dijo que cualquier intento de autorreplicación era “poco probable que tuviera éxito en condiciones del mundo real” por ahora.
El informe también cubrió el “sandbagging”, donde los modelos ocultan deliberadamente sus fortalezas durante las evaluaciones. El AISI dijo que algunos sistemas pueden ser utilizados como sacos de arena si se les solicita, pero esto no ha sucedido espontáneamente durante las pruebas.
Hubo avances significativos en materia de salvaguardias, particularmente en detener los intentos de crear armas biológicas. En dos pruebas realizadas con seis meses de diferencia, la primera tardó sólo 10 minutos en «hacer jailbreak» al sistema (obligándolo a dar una respuesta insegura). La segunda prueba, sin embargo, duró más de siete horas, lo que indica que los modelos se habían vuelto mucho más seguros en muy poco tiempo.
La investigación también mostró que se utilizan agentes autónomos de IA para actividades de alto riesgo, como transferencias de activos.
La AISI dijo que los sistemas ya están compitiendo o incluso superando a los expertos humanos en varios dominios. Describieron el ritmo de desarrollo como «extraordinario», lo que hace «plausible» que la inteligencia artificial general (AGI), sistemas que pueden realizar la mayoría de las tareas intelectuales al mismo nivel que un ser humano – podría lograrse en los próximos años.
Con respecto a los agentes o sistemas que pueden realizar tareas de varios pasos sin intervención, el AISI dijo que sus evaluaciones mostraron un «aumento pronunciado en la duración y complejidad de las tareas que la IA puede completar sin guía humana».




