
El martes, Openai anunciado Planes para implementar los controles parentales para ChatGPT y enrutar conversaciones de salud mental sensibles a sus modelos de razonamiento simulados, siguiendo lo que la compañía ha llamado «casos desgarradores» de usuarios experimentando crisis mientras usa el asistente de IA. Los movimientos se producen después de múltiples reportados incidentes Donde ChatGPT supuestamente no pudo intervenir adecuadamente cuando los usuarios expresaron pensamientos suicidas o experimentaron episodios de salud mental.
«Este trabajo ya ha estado en marcha, pero queremos obtener una vista previa de manera proactiva de nuestros planes para los próximos 120 días, por lo que no necesitará esperar a que los lanzamientos vean hacia dónde nos dirigimos», escribió Operai en una publicación de blog publicada el martes. «El trabajo continuará mucho más allá de este período de tiempo, pero estamos haciendo un esfuerzo enfocado para lanzar tantas mejoras como sea posible este año».
Los controles de los padres planificados representan la respuesta más concreta de OpenAI a las preocupaciones sobre la seguridad para adolescentes en la plataforma hasta ahora. Dentro del próximo mes, dice Openai, los padres podrán vincular sus cuentas con las cuentas de chatgpt de sus adolescentes (edad mínima 13) a través de invitaciones por correo electrónico, controlar cómo el modelo de IA responde con las reglas de comportamiento apropiadas para la edad que están en defecto, gestionar qué características desactivar (incluida la memoria y el historial de chat) y recibir notificaciones cuando el sistema detecta su experiencia con la experiencia de la herencia acuosa.
Los controles de los padres se basan en características existentes como recordatorios en la aplicación durante largas sesiones que alientan a los usuarios a tomar descansos, que OpenAI se implementó para todos los usuarios en agosto.
Casos de alto perfil Cambios de seguridad rápidos
La nueva iniciativa de seguridad de OpenAI llega después de varios casos de alto perfil atrajo el escrutinio del manejo de los usuarios vulnerables de ChatGPT. En agosto, Matt y Maria Raine demanda archivada Contra Operai después de que su hijo Adam, de 16 años, murió por suicidio después de extensas interacciones ChatGPT que incluían 377 mensajes marcados para el contenido de autolesión. Según los documentos judiciales, ChatGPT mencionó el suicidio 1.275 veces en conversaciones con Adam, las veces más a menudo que el propio adolescente. La semana pasada, The Wall Street Journal reportado Que un hombre de 56 años mató a su madre y a él mismo después de Chatgpt reforzó sus delirios paranoicos en lugar de desafiarlos.
Para guiar estas mejoras de seguridad, OpenAi está trabajando con lo que llama un Consejo Experto sobre Bienestar y AI para «dar forma a una visión clara y basada en la evidencia de cómo la IA puede apoyar el bienestar de las personas», según la publicación de blog de la compañía. El Consejo ayudará a definir y medir el bienestar, establecer prioridades y diseñar protectores futuros, incluidos los controles de los padres.




