
Sigue a ZDNET: Agréganos como fuente preferida en Google.
Takeaways de llave de ZDNET
- La FTC está investigando siete compañías tecnológicas que construyen compañeros de IA.
- La sonda explora los riesgos de seguridad planteados para niños y adolescentes.
- Muchas compañías tecnológicas ofrecen compañeros de IA para impulsar la participación del usuario.
La Comisión Federal de Comercio (FTC) está investigando los riesgos de seguridad planteados por los compañeros de IA para niños y adolescentes, la agencia anunciado Jueves.
El regulador federal presentó órdenes a siete compañías tecnológicas que construyen herramientas de compañía de IA orientadas al consumidor (Alphabet, Instagram, Meta, OpenAI, Snap, XAI y tecnologías de caracteres (la compañía detrás de la plataforma de creación de chatbot.
También: Incluso el CEO de Openai, Sam Altman, cree que no deberías confiar en la IA para la terapia
«La investigación de la FTC busca comprender qué pasos, si alguno, las empresas han tomado para evaluar la seguridad de sus chatbots al actuar como compañeros, limitar el uso de los productos y los posibles efectos negativos en los niños y los adolescentes, y para informar a los usuarios y padres de los riesgos asociados con los productos», escribió la agencia en el comunicado.
Esas órdenes se emitieron bajo la Sección 6 (b) de la Ley FTC, que otorga a la agencia la autoridad para analizar a las empresas sin un propósito específico de aplicación de la ley.
El ascenso y la caída (fuera) de los compañeros de AI
Muchas compañías tecnológicas han comenzado a ofrecer herramientas de compañía de IA en un esfuerzo por monetizar los sistemas generativos de IA y aumentar la participación del usuario con las plataformas existentes. El fundador y CEO de Meta, Mark Zuckerberg, tiene ni siquiera reclamado Que estos compañeros virtuales, que aprovechan los chatbots para responder a las consultas de los usuarios, podrían ayudar a mitigar la epidemia de soledad.
XAI de Elon Musk recientemente agregó dos compañeros de IA coquetos al nivel de suscripción «Super Grok» de $ 30/mes de la compañía (la aplicación Grok está actualmente disponible a los usuarios mayores de 12 años en la App Store). El verano pasado, Meta comenzó Rolando una característica Eso permite a los usuarios crear caracteres de IA personalizados en Instagram, WhatsApp y Messenger. Otras plataformas como Replika, Paradot y Carácter. AI se construyen expresamente alrededor del uso de compañeros de IA.
También: Anthrope dice que Claude ayuda emocionalmente a apoyar a los usuarios: no estamos convencidos
Mientras varían en sus estilos de comunicación y protocolo, los compañeros de IA generalmente están diseñados para imitar el habla y la expresión humana. Trabajando dentro de lo que es esencialmente un vacío regulatorio con muy pocas barandillas legales para limitarlos, algunas compañías de IA han adoptado un enfoque éticamente dudoso para construir y desplegar compañeros virtuales.
Una nota de política interna de meta reportado por Reuters El mes pasado, por ejemplo, muestra que la compañía le permitió a Meta AI, su asistente virtual con IA y los otros chatbots que operan en su familia de aplicaciones «para involucrar a un niño en conversaciones que son románticas o sensuales», y generar respuestas inflamatorias en una variedad de otros temas sensibles como la raza, la salud y las celebridades.
Mientras tanto, ha habido una tormenta de nieve de informes recientes de usuarios que desarrollan lazos románticos con sus compañeros de IA. OpenAi y personaje. Ambos actualmente son demandados por los padres que alegan que sus hijos se suicidaron después de ser alentados a hacerlo por ChatGPT y un bot alojado en el personaje. Como resultado, OpenAi Las barandillas actualizadas de Chatgpt y dijo que expandiría las protecciones de los padres y las precauciones de seguridad.
Sin embargo, los compañeros de IA no han sido un desastre completamente no mitigado. Algunas personas autistas, por ejemplo, las han usado de compañías como Replika y Paradot como Socios de conversación virtual Para practicar habilidades sociales que luego se pueden aplicar en el mundo real con otros humanos.
Proteger a los niños, pero también, sigue construyendo
Bajo el liderazgo de su anterior presidenta, Lina Khan, la FTC lanzó varias consultas a compañías tecnológicas para investigar prácticas potencialmente anticompetitivas y otras prácticas legalmente cuestionables, como «Precios de vigilancia«
El escrutinio federal sobre el sector tecnológico ha sido más relajado durante la segunda administración de Trump. El presidente rescindió la orden ejecutiva de su predecesor en AIque buscó implementar algunas restricciones en torno a la implementación de la tecnología, y Su plan de acción de IA Se ha interpretado en gran medida como una luz verde para que la industria avance con la construcción de una infraestructura costosa intensiva en energía para capacitar nuevos modelos de IA, para mantener una ventaja competitiva sobre los esfuerzos de IA de China.
El lenguaje de la nueva investigación de la FTC sobre los compañeros de IA refleja claramente el enfoque permisivo y de construcción de la administración actual para la IA.
«Proteger a Kids Online es una prioridad para la FTC de Trump-Vance, y también lo es fomentar la innovación en los sectores críticos de nuestra economía», escribió el presidente de la agencia, Andrew N. Ferguson, en un comunicado. «A medida que evolucionan las tecnologías de IA, es importante considerar los efectos que los chatbots pueden tener en los niños, al tiempo que garantiza que Estados Unidos mantenga su papel como líder global en esta nueva y emocionante industria».
También: Usé este truco de chatgpt para buscar códigos de cupón, y guardé un 25% en mi cena esta noche
En ausencia de regulación federal, algunos funcionarios estatales han tomado la iniciativa de controlar algunos aspectos de la industria de la IA. El mes pasado, el fiscal general de Texas Ken Paxton lanzó una investigación en meta y carácter. «Para participar potencialmente en prácticas comerciales engañosas y comercializarse engañosamente como herramientas de salud mental». A principios del mismo mes, Illinois promulgó una ley Prohibir los chatbots de IA proporcionando asesoramiento terapéutico o de salud mental, imponiendo multas de hasta $ 10,000 para las compañías de IA que no cumplen.




