OpenAI acaba de actualizar su “Model Spec”, básicamente el libro de reglas para su IA, con un conjunto específico de Principios Sub-18 (U18) diseñado para cambiar la forma en que ChatGPT habla con adolescentes de 13 a 17 años. La medida es una admisión clara de que los adolescentes no son sólo “mini adultos”; Tienen diferentes necesidades emocionales y de desarrollo que requieren barreras más fuertes, especialmente cuando las conversaciones se vuelven pesadas o arriesgadas.
Un nuevo marco para interacciones de IA centradas en adolescentes
Esta actualización explica exactamente cómo ChatGPT debe manejar a los usuarios adolescentes sin dejar de seguir las reglas generales que se aplican a todos los demás. OpenAI dice El objetivo es crear una experiencia que se sienta más segura y apropiada para la edad, centrándose en la prevención y la transparencia.

Estas tampoco son simplemente reglas aleatorias; Los Principios U18 se basan en la ciencia del desarrollo y fueron examinados por expertos externos, incluida la Asociación Estadounidense de Psicología.
El marco se basa en cuatro promesas principales: poner la seguridad de los adolescentes por encima de todo lo demás (incluso si hace que la IA sea menos “útil” en el momento), empujar a los adolescentes hacia el apoyo del mundo real en lugar de dejarlos depender de un chatbot, tratarlos como adolescentes reales en lugar de niños pequeños o adultos, y ser honesto acerca de las limitaciones de la IA.
Estos principios formalizan cómo ChatGPT interviene con especial precaución cuando surgen temas como autolesiones, juegos de roles sexuales, desafíos peligrosos, uso de sustancias, problemas de imagen corporal o solicitudes de guardar secretos sobre comportamientos inseguros.
Lo que esto significa para las familias y lo que viene después
Esto es importante porque la IA se está convirtiendo rápidamente en una herramienta estándar para que los jóvenes aprendan y encuentren respuestas. Sin límites claros, existe un peligro real de que los adolescentes recurran a la IA en momentos en que realmente necesitan un padre, un médico o un consejero.
OpenAI afirma que estas nuevas reglas garantizan que cuando un chat llegue a un territorio peligroso, el asistente ofrecerá alternativas más seguras, establecerá límites estrictos y le dirá al adolescente que busque un adulto de confianza. Si algo parece una emergencia inmediata, el sistema está diseñado para indicarles líneas directas de crisis o servicios de emergencia.

Para los padres, esto ofrece un poco más de tranquilidad. OpenAI está vinculando estos nuevos principios con su Teen Safety Blueprint y los controles parentales existentes. Las protecciones también se están ampliando para cubrir nuevos funciones como chats grupalesel navegador ChatGPT Atlas y la aplicación Sora, junto con recordatorios integrados para tomar un descanso para que los niños no estén pegados a la pantalla.
De cara al futuro, OpenAI está comenzando a implementar una herramienta de predicción de edad para cuentas personales de ChatGPT. Este El sistema intentará adivinar. si un usuario es menor de edad y activa automáticamente estas protecciones para adolescentes.
Si no está seguro, se utiliza de forma predeterminada la experiencia U18 más segura, por si acaso. La compañía dice que esto no es una solución “única”; planean seguir modificando estas protecciones basándose en nuevas investigaciones y comentarios, dejando en claro que la seguridad de los adolescentes será un proyecto a largo plazo.




