El lunes, antrópico anunciado un respaldo oficial de SB 53un proyecto de ley de California del senador estatal Scott Wiener que impondría los requisitos de transparencia de primera en la nación a los desarrolladores de modelos de IA más grandes del mundo. El respaldo de Anthrope marca una victoria rara y importante para SB 53, en un momento en que los principales grupos tecnológicos como el Asociación de Tecnología del Consumidor (CTA) y Cámara para el progreso están presionando contra el proyecto de ley.
«Si bien creemos que la seguridad de la IA fronteriza se aborda mejor a nivel federal en lugar de un mosaico de regulaciones estatales, los poderosos avances de IA no esperarán el consenso en Washington», dijo Anthrope en una publicación de blog. «La pregunta no es si necesitamos gobernanza de IA, es si lo desarrollaremos cuidadosamente hoy o de manera reactiva mañana. SB 53 ofrece un camino sólido hacia los primeros».
Si se pasa, SB 53 Requeriría que los desarrolladores de modelos de IA fronterizos como OpenAI, Anthrope, Google y XAI desarrollen marcos de seguridad, así como de lanzar informes de seguridad pública antes de implementar modelos de IA potentes. El proyecto de ley también establecería protecciones de denunciantes para empleados que presentan problemas de seguridad.
El proyecto de ley del senador Wiener se enfoca específicamente en limitar los modelos de IA que contribuyen a «riesgos catastróficos», que el proyecto de ley define como la muerte de al menos 50 personas o más de mil millones de dólares en daños. SB 53 se centra en el lado extremo del riesgo de IA, limitando los modelos de IA de ser utilizados para proporcionar asistencia a nivel experto en la creación de armas biológicas o ser utilizados en ataques cibernéticos, en lugar de preocupaciones más a corto plazo como los defensores o la sycofancia de IA.
El Senado de California aprobó una versión anterior de SB 53, pero aún necesita realizar una votación final sobre el proyecto de ley antes de que pueda avanzar al escritorio del gobernador. El gobernador Gavin Newsom se ha quedado en silencio sobre el proyecto de ley hasta ahora, aunque él El último proyecto de ley de seguridad de IA del senador vetado WeinerSB 1047.
Bills que regulan los desarrolladores del modelo de IA fronteriza han enfrentado rechazo significativo tanto de Silicon Valley como de la administración Trump, que argumentan que tales esfuerzos podrían limitar la innovación de Estados Unidos en la carrera contra China. Inversores como Andreessen Horowitz e Y Combinator lideraron parte del retroceso contra SB 1047y en los últimos meses, la administración Trump ha repetidamente amenazado Para impedir que los estados pasen la regulación de IA por completo.
Uno de los argumentos más comunes contra los proyectos de ley de seguridad de la IA es que los estados deberían dejar el asunto a los gobiernos federales. El jefe de política de AI de Andreessen Horowitz, Matt Perault, y director legal, Jai Ramaswamy, publicó un blog La semana pasada, argumentando que muchos de los proyectos de ley de IA estatales de hoy corren el riesgo de violar la cláusula de comercio de la Constitución, lo que limita que los gobiernos estatales aproben leyes que van más allá de sus fronteras y perjudican el comercio interestatal.
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Sin embargo, el cofundador anthrope Jack Clark argumenta en un Publicar en x Que la industria tecnológica construirá poderosos sistemas de IA en los próximos años y no puede esperar a que el gobierno federal actúe.
«Hemos dicho durante mucho tiempo que preferiríamos un estándar federal», dijo Clark. «Pero en ausencia de eso, esto crea un plano sólido para la gobernanza de AI que no se puede ignorar».
El director de Asuntos Globales de Openai, Chris Lehane, envió un carta al gobernador Newsom en agosto argumentando que no debería aprobar ninguna regulación de IA que expulse a las startups de California, aunque la carta no mencionó SB 53 por su nombre.
El ex Jefe de Investigación de Políticas de Openai, Miles Brundage, dijo en un correo En X, esa carta de Lehane estaba «llena de basura engañosa sobre SB 53 y la política de IA en general». En particular, SB 53 tiene como objetivo regular únicamente las compañías de IA más grandes del mundo, particularmente las que generaron un ingreso bruto de más de $ 500 millones.
A pesar de las críticas, los expertos en políticas dicen que SB 53 es un enfoque más modesto que las facturas de seguridad de IA anteriores. Dean Ball, miembro senior de la Fundación para la Innovación Americana y el ex Asesor de Política de AI de la Casa Blanca, dijo en un agosto blog Que él cree que SB 53 tiene una buena oportunidad de convertirse en ley. Ball, quien criticó a SB 1047, dijo que los redactores de SB 53 han «mostrado respeto por la realidad técnica», así como una «medida de restricción legislativa».
Senador Wiener anteriormente dicho que SB 53 fue fuertemente influenciado por un panel de políticas de expertos El gobernador Newsom se convocó, co-liderado por el destacado investigador de Stanford y cofundador de World Labs, Fei-Fei Li, para asesorar a California sobre cómo regular la IA.
La mayoría de los laboratorios de IA ya tienen alguna versión de la política de seguridad interna que requiere SB 53. Operai, Google Deepmind y Anthrope publican regularmente informes de seguridad para sus modelos. Sin embargo, estas empresas no están obligadas por nadie más que ellas mismas, por lo que a veces quedarse atrás su Compromisos de seguridad autoimpuestos. SB 53 tiene como objetivo establecer estos requisitos como ley estatal, con repercusiones financieras si un laboratorio de IA no cumple.
A principios de septiembre, los legisladores de California enmendado SB 53 para eliminar una sección del proyecto de ley que habría requerido que los desarrolladores del modelo de IA sean auditados por terceros. Las compañías tecnológicas han luchado previamente en este tipo de auditorías de terceros en otras batallas de políticas de IA, argumentando que son demasiado pesados.




