
Durante la primera mitad de 2025, la cantidad de informes CyberTipline que OpenAI envió fue aproximadamente la misma que la cantidad de contenido sobre el que OpenAI envió los informes: 75,027 en comparación con 74,559. En la primera mitad de 2024, envió 947 informes CyberTipline sobre 3252 contenidos. Tanto el número de informes como el contenido de los informes experimentaron un marcado aumento entre los dos períodos de tiempo.
El contenido, en este contexto, podría significar varias cosas. OpenAI ha dicho que informes todas las instancias de CSAM, incluidas las cargas y solicitudes, al NCMEC. Además de su aplicación ChatGPT, que permite a los usuarios cargar archivos (incluidas imágenes) y generar texto e imágenes en respuesta, OpenAI también ofrece acceso a sus modelos a través de acceso API. El recuento más reciente del NCMEC no incluiría ningún informe relacionado con aplicación de generación de vídeo Soraya que su lanzamiento en septiembre fue posterior al período cubierto por la actualización.
El aumento en los informes sigue un patrón similar al que el NCMEC ha observado en CyberTipline en términos más generales con el aumento de la IA generativa. el centro análisis de todos los datos de CyberTipline encontró que los informes que involucran IA generativa experimentaron un aumento del 1325 por ciento entre 2023 y 2024. El NCMEC aún no ha publicado datos de 2025, y mientras otros grandes laboratorios de IA como Google publican estadísticas sobre los informes del NCMEC que han realizado, no especifican qué porcentaje de esos informes están relacionados con la IA.
La actualización de OpenAI llega al final de un año en el que la empresa y sus competidores se han enfrentado a un mayor escrutinio sobre cuestiones de seguridad infantil más allá del CSAM. Durante el verano, 44 fiscales generales estatales enviaron un carta conjunta a múltiples empresas de inteligencia artificial, incluidas OpenAI, Meta, Character.AI y Google, advirtiendo que «utilizarían todas las facetas de nuestra autoridad para proteger a los niños de la explotación por parte de productos depredadores de inteligencia artificial». Tanto OpenAI como Character.AI se han enfrentado múltiple demandas de familias o en nombre de personas que alegan que los chatbots contribuyeron a la muerte de sus hijos. En otoño, el Comité Judicial del Senado de los Estados Unidos celebró una audiencia sobre los daños de los chatbots de IA y la Comisión Federal de Comercio de EE. UU. lanzó un estudio de mercado sobre robots complementarios de IA que incluían preguntas sobre cómo las empresas están mitigando los impactos negativos, particularmente para los niños. (Anteriormente fui empleado de la FTC y me asignaron trabajar en el estudio de mercado antes de dejar la agencia).




