Las empresas gastaron significativamente más problemas de IA de cabildeo en el nivel federal de EE. UU. El año pasado en comparación con 2023 en medio de la incertidumbre regulatoria.
Según los datos compilados por OpenSecrets, 648 empresas gastadas en el cabildeo de IA en 2024 versus 458 en 2023, lo que representa un aumento de 141% año tras año.
Empresas como Microsoft apoyaron la legislación como la Ley Create AI, que apoyaría la evaluación comparativa de los sistemas de IA desarrollados en los otros EE. UU., Incluyendo OpenAI, poner su peso detrás de la Ley de Avance y Confiabilidad, que establecería un centro gubernamental dedicado para la Investigación de AI. .
La mayoría de los laboratorios de IA, es decir, compañías dedicadas casi exclusivamente a comercializar varios tipos de tecnología de IA, gastaron más artículos de agenda legislativa en 2024 que en 2023, según muestran los datos.
OpenAI upped its lobbying expenditures to $1.76 million last year from $260,000 in 2023. Anthropic, OpenAI's close rival, more than doubled its spend from $280,000 in 2023 to $720,000 last year, and enterprise-focused startup Cohere boosted its spending to $230,000 in 2024 from just $ 70,000 hace dos años.
Tanto Operai como Anthrope hicieron contrataciones durante el último año para coordinar su alcance de la formulación de políticas. Anthrope trajo a su primer cabildero interno, la alumna del Departamento de Justicia Rachel Appleton, y Operai contrató al veterano político Chris Lehane como su nuevo vicepresidente de política.
En total, Openai, Anthrope y Cohere, reservan $ 2.71 millones combinados para sus iniciativas de cabildeo federales de 2024. Esa es una pequeña figura en comparación con lo que la industria tecnológica más grande pone hacia el cabildeo en el mismo plazo ($ 61.5 millones), pero más de cuatro veces el total que los tres laboratorios de IA gastaron en 2023 ($ 610,000).
TechCrunch se comunicó con OpenAi, Anthrope y cohere para hacer comentarios, pero no recibió respuesta al momento de la publicación.
El año pasado fue tumultuoso en la formulación de políticas de IA domésticas. Solo en la primera mitad, los legisladores del Congreso consideraron más de 90 piezas de legislación relacionada con la IA, Según el Centro Brennan. A nivel estatal, se propusieron más de 700 leyes.
El Congreso avanzó poco, lo que llevó a los legisladores estatales a seguir adelante. Tennesse convertirse El primer estado en proteger a los artistas de voz de la clonación de IA no autorizada. Colorado adoptado Un enfoque escalonado y basado en el riesgo para la política de IA. Y el gobernador de California Gavin Newsom firmado docenas de las facturas de seguridad relacionadas con la IA, algunas de las cuales requieren que las compañías de IA revelen detalles sobre su capacitación.
Sin embargo, ningún funcionarios estatales tuvo éxito en promulgar la regulación de la IA tan integral como los marcos internacionales como el Ley AI de la UE.
Después de una batalla prolongada con intereses especiales, el gobernador Newsom vetado factura SB 1047que habría impuesto requisitos de seguridad y transparencia de gran alcance a los desarrolladores de IA. Texas' Traiga (Ley de Gobierno de AI responsable de Texas) El proyecto de ley, que es aún más amplio en alcance, puede sufrir el mismo destino una vez que se abre paso a través de la casa estatal.
No está claro si el gobierno federal puede avanzar más en la legislación de IA este año en comparación con el último, o incluso si existe un fuerte apetito por la codificación. El presidente Donald Trump ha señalado su intención de desregular en gran medida la industria, limpiando lo que percibe como obstáculos para el dominio de los Estados Unidos en la IA.
Durante su primer día en el cargoTrump revocado un orden ejecutivo Por el ex presidente Joe Biden que buscaba reducir los riesgos que la IA podría representar para los consumidores, los trabajadores y la seguridad nacional. El jueves, Trump firmó un EO que indica a las agencias federales a suspender ciertas políticas y programas de IA de la era de Biden, que potencialmente incluye Reglas de exportación en modelos de IA.
En noviembre, antrópico llamado Para la regulación federal de IA «dirigida» en los próximos 18 meses, advirtiendo que la ventana para «la prevención de riesgos proactivos se está cerrando rápidamente». Por su parte, OpenAi en un documento de políticas reciente llamado El gobierno de los Estados Unidos tomará más medidas sustantivas sobre la IA y la infraestructura para apoyar el desarrollo de la tecnología.




