
A principios de este año, OpenAI redujo parte de la «personalidad» de ChatGPT como parte de un esfuerzo más amplio para mejorar la seguridad de los usuarios tras la muerte de un adolescente que se quitó la vida después de discutirlo con el chatbot. Pero aparentemente todo eso quedó en el pasado. Sam Altman anunciado en Twitter que la empresa vuelve al antiguo ChatGPT, ahora con modo porno.
«Hicimos que ChatGPT fuera bastante restrictivo para asegurarnos de que tuviéramos cuidado con los problemas de salud mental», dijo Altman, refiriéndose a la estrategia de la compañía. control de edad que empujó a los usuarios a una experiencia más apropiada para su edad. Casi al mismo tiempo, los usuarios comenzaron quejándose de que ChatGPT está siendo «lobotomizado» proporcionando peores resultados y menos personalidad. «Nos damos cuenta de que esto lo hizo menos útil y agradable para muchos usuarios que no tenían problemas de salud mental, pero dada la gravedad del problema, queríamos hacerlo bien». Ese cambio se produjo tras la presentación de una demanda por muerte por negligencia de los padres de un joven de 16 años que pidió consejo a ChatGPT, entre otras cosas, sobre cómo atar una soga antes de quitarse la vida.
¡Pero no te preocupes, ya está todo arreglado! A pesar de admitir a principios de este año que las salvaguardias pueden “degradarse” En el transcurso de conversaciones más largas, Altman afirmó con confianza: «Hemos podido mitigar los graves problemas de salud mental». Por eso, la empresa cree que puede «relajar las restricciones de forma segura en la mayoría de los casos». En las próximas semanas, según Altman, se permitirá que ChatGPT tenga más personalidad, como el modelo 4o anterior de la compañía. Cuando la empresa actualizó su modelo a GPT-5 a principios de este año, los usuarios comenzaron lamentando la pérdida de su compañero AI y lamentándose del chatbot respuestas más estériles. Ya sabes, solo comportamientos saludables regulares.
«Si quieres que tu ChatGPT responda de una manera muy humana, o use un montón de emoji, o actúe como un amigo, ChatGPT debería hacerlo (pero solo si lo deseas, no porque estemos maximizando el uso)», dijo Altman, aparentemente ignorando las declaraciones anteriores de la compañía. informar que advirtió que las personas podrían desarrollar una “dependencia emocional” al interactuar con su modelo 4o. investigadores del MIT han advertido que los usuarios que «perciben o desean que una IA tenga motivos de atención utilizarán un lenguaje que provoque precisamente este comportamiento. Esto crea una cámara de resonancia de afecto que amenaza con ser extremadamente adictiva». Eso es aparentemente una característica y no un error. Muy guay.
Yendo un paso más allá, Altman dijo que la compañía adoptaría aún más su principio de «tratar a los usuarios adultos como adultos» al introducir «erótica para adultos verificados». A principios de este año, Altman burlado xAI de Elon Musk por lanzar un modo novia con IA. Resulta que ha vuelto en el camino de las waifu.




