Dos ex investigadores de OpenAI que renunciaron este año por preocupaciones de seguridad dicen que están decepcionados pero no sorprendidos por el trabajo de OpenAI. decisión de oponerse Proyecto de ley de California para prevenir desastres de IA, SB 1047. Daniel Kokotajlo y William Saunders advirtieron previamente que OpenAI se encuentra en una Carrera “imprudente” por el dominio.
“Sam Altman, nuestro exjefe, ha pedido repetidamente la regulación de la IA”, escriben en un carta que fue compartido con Politico y que insta al gobernador de California, Gavin Newsom, a firmar La factura“Ahora que la regulación real está sobre la mesa, él se opone a ella”. Los dos añaden: “Con una regulación adecuada, esperamos que OpenAI pueda cumplir con su declaración de misión de construir una IAG de forma segura”.
En respuesta a los ex empleados, un portavoz de OpenAI dijo que la startup “está totalmente en desacuerdo con la caracterización errónea de nuestra posición sobre la SB 1047”, en una declaración a TechCrunch. El portavoz señaló Proyectos de ley de IA en el Congreso que OpenAI ha respaldadoseñalando que “las regulaciones de seguridad de la IA de frontera deberían implementarse a nivel federal debido a sus implicaciones para la seguridad nacional y la competitividad”.
Anthropic, rival de OpenAI, ha expresado su apoyo al proyecto de ley, al tiempo que ha presentado preocupaciones específicas y solicitado enmiendas. Desde entonces, se han incorporado varias de ellas y el jueves, el director ejecutivo Dario Amodei le escribió a Newsom para decirle que el proyecto de ley actual «Los beneficios probablemente superan sus costos,” aunque no respalda plenamente el proyecto de ley.




