Folleto rojo de protesta STOP AI con detalles de la reunión pegados con cinta adhesiva a un poste de luz en una calle de la ciudad de San Francisco, California, el 20 de mayo de 2025.
Colección Smith/Gado/Getty Images
ocultar título
alternar título
Colección Smith/Gado/Getty Images
Utah y California han aprobado leyes que exigen que las entidades revelen cuándo utilizan IA. Más estados están considerando una legislación similar. Sus defensores dicen que las etiquetas facilitan que las personas a las que no les gusta la IA opten por no usarla.
«Sólo quieren poder saber», dice la directora ejecutiva del Departamento de Comercio de Utah, Margaret Woolley Busse, quien está implementando nuevas leyes estatales exigir a las empresas reguladas por el estado que revelen cuándo utilizan la IA con sus clientes.
«Si esa persona quiere saber si es humano o no, puede preguntar. Y el chatbot tiene que decirlo».
California aprobó un ley similar sobre chatbots en 2019. Este año amplió las reglas de divulgación, exigiendo que los departamentos de policía especifiquen cuándo utilizan productos de inteligencia artificial para ayudar a redactar informes de incidentes.
«Creo que la IA en general, y la IA policial en particular, realmente prosperan en las sombras y tienen más éxito cuando la gente no sabe que se está utilizando», dice Matthew Guariglia, analista de políticas senior de la Electronic Frontier Foundation. que apoyó la nueva ley. «Creo que el etiquetado y la transparencia son realmente el primer paso».
Como ejemplo, Guariglia señala a San Francisco, que ahora exige que todos los departamentos de la ciudad informen públicamente cómo y cuándo utilizan la IA.
Este tipo de regulaciones localizadas son el tipo de cosas que la Administración Trump ha tratado de alejarse. El «zar de la IA» de la Casa Blanca, David Sacks, se ha referido a un «Frenesí regulatorio estatal que está dañando el ecosistema de startups.«.
Daniel Castro, del grupo de expertos Information Technology & Innovation Foundation, respaldado por la industria, dice que la transparencia de la IA puede ser buena para los mercados y la democracia, pero también puede frenar la innovación.
«Se puede pensar en un electricista que quiere usar IA para comunicarse con sus clientes… para responder consultas sobre cuándo estarán disponibles», dice Castro. Si las empresas tienen que revelar el uso de la IA, dice, «tal vez eso desanime a los clientes y realmente ya no quieran usarla más».
Para Kara Quinn, profesora de educación en casa en Bremerton, Washington, frenar la propagación de la IA parece atractivo.
«Creo que parte del problema no es sólo la cosa en sí; es la rapidez con la que nuestras vidas han cambiado», dice. «Puede haber cosas que aceptaría si hubiera mucho más tiempo para el desarrollo y la implementación».
En este momento, está cambiando de dirección de correo electrónico porque su proveedor de toda la vida recientemente comenzó a resumir el contenido de sus mensajes con IA.
«¿Quién decidió que no puedo leer lo que otro ser humano escribió? ¿Quién decide que este resumen es en realidad lo que voy a pensar de su correo electrónico?» dice Quinn. «Valoro mi capacidad de pensar. No quiero subcontratarla».
La actitud de Quinn hacia la IA llamó la atención de su cuñada, Ann-Elise Quinn, una analista de la cadena de suministro que vive en Washington, DC. Ha estado organizando «salones» para amigos y conocidos que quieren discutir las implicaciones de la IA, y las objeciones de Kara Quinn a la tecnología inspiraron el tema de una sesión reciente.
«¿Cómo podemos optar por no participar si queremos?» ella pregunta. «O tal vez (la gente) no quiere optar por no participar, pero quiere ser consultada, como mínimo».




