4 de diciembre de 2025

EE.UU. frente al dilema de regular la inteligencia artificial: ¿debe hacerlo el gobierno federal o los estados?

img_regulacion_ia

La inteligencia artificial se ha convertido en un campo de tensiones políticas en Estados Unidos, donde la lucha no es sólo por controlar la tecnología, sino por decidir quién tiene la autoridad para hacerlo. La creciente urgencia por establecer normas que regulen el uso de la IA ha dado paso a un enfrentamiento entre el poder federal y los gobiernos estatales, una disputa que podría redefinir cómo se gestiona la innovación tecnológica en el país.

El vacío regulatorio impulsa la acción estatal

Ante la falta de una legislación federal clara que priorice la protección del consumidor frente a los riesgos de la IA, varios estados han dado un paso adelante. California ha propuesto la ley SB-53 centrada en la seguridad, mientras que Texas impulsa el Responsible AI Governance Act, que penaliza el uso intencionado indebido de sistemas de inteligencia artificial. Estas iniciativas surgen como respuesta directa a un entorno federal que aún no ofrece directrices concretas.

Esta acción descentralizada ha sido criticada por empresas tecnológicas, que argumentan que un mosaico de normativas estatales dificulta la innovación. Para figuras como Josh Vlasto, del PAC pro-IA Leading the Future, esta fragmentación podría frenar a EE.UU. en su competencia tecnológica con China. Según su perspectiva, sólo una norma nacional uniforme permitiría avanzar con agilidad.

La ofensiva federal para limitar a los estados

En los pasillos del Congreso, se han barajado estrategias para frenar la autonomía estatal en esta materia. Una de las vías ha sido incluir cláusulas en la National Defense Authorization Act (NDAA) que impidan a los estados legislar sobre IA. Paralelamente, un borrador filtrado de una orden ejecutiva de la Casa Blanca revela intenciones similares: crear una fuerza legal para desafiar leyes estatales, evaluar su impacto y fomentar estándares nacionales a través de agencias como la FCC y la FTC.

Esta orden otorga un papel protagónico a David Sacks, actual asesor de Trump en tecnología y criptomonedas, y cofundador de Craft Ventures. Sacks ha defendido públicamente que la regulación debe ser mínima y que la industria puede autorregularse. Su visión, centrada en maximizar el crecimiento, choca con la idea de intervención estatal preventiva.

Una industria con mucho poder y pocos límites

El rechazo a la regulación por parte del sector tecnológico no es nuevo, pero en el caso de la IA ha adquirido una nueva dimensión. Super PACs como Leading the Future, financiados por figuras influyentes como Greg Brockman (OpenAI) y Joe Lonsdale (Palantir), han invertido cientos de millones de dólares en elecciones estatales y locales para debilitar a candidatos partidarios de legislar sobre inteligencia artificial.

Nathan Leamer, director de Build American AI, el brazo de advocacy del PAC, sostiene que las leyes existentes, como las que combaten el fraude o regulan la responsabilidad por productos, son suficientes para abordar los posibles daños de la IA. Desde esta óptica, la legislación específica es innecesaria, y la respuesta debería llegar una vez ocurran los problemas, no antes.

La defensa estatal: rapidez y proximidad a los ciudadanos

Pero no todos comparten esa visión. Políticos como Alex Bores, asambleísta de Nueva York y creador de la ley RAISE, consideran que los estados están mejor posicionados para reaccionar ante riesgos emergentes. Bores defiende que una IA confiable será clave para su adopción masiva, y que la seguridad no debe estar subordinada a intereses económicos inmediatos.

Y los hechos lo respaldan: solo en 2025, 38 estados aprobaron más de 100 leyes relacionadas con inteligencia artificial. Muchas de ellas abordan temas como los deepfakes, la transparencia y el uso gubernamental de IA. Aunque un estudio revela que el 69% de estas leyes no impone obligaciones directas a los desarrolladores, su existencia demuestra una preocupación creciente y una acción legislativa mucho más rápida que la del Congreso.

El Congreso y su carrera contra el tiempo

A pesar del esfuerzo federal, el camino hacia una ley integral es lento. El congresista Ted Lieu trabaja en un megaproyecto de más de 200 páginas que busca abordar distintos aspectos: desde penalizaciones por fraude hasta la seguridad infantil, protecciones para informantes y pruebas obligatorias para modelos de lenguaje avanzados.

Este último punto propone que los laboratorios de IA publiquen los resultados de las pruebas a sus modelos, algo que ya ocurre en muchos casos de forma voluntaria. Sin embargo, la propuesta de Lieu no contempla que una agencia federal supervise directamente estos modelos, a diferencia de otras iniciativas en el Senado que sí plantean un control más estricto antes de que las tecnologías lleguen al público.

Lieu es consciente de las limitaciones políticas: su objetivo es presentar una ley que pueda pasar en un Congreso y una Casa Blanca dominados por los republicanos. Prefiere un proyecto viable que deje fuera algunos elementos más duros, antes que un texto ambicioso destinado al fracaso.

¿Innovación sin reglas o protección sin frenos?

El debate entre regulación estatal y federal pone sobre la mesa una tensión clásica: la búsqueda de innovación sin trabas frente a la necesidad de proteger a los ciudadanos. Muchos expertos, como el especialista en ciberseguridad Bruce Schneier, argumentan que el miedo a un «parcheo» regulatorio está exagerado. Las tecnológicas ya cumplen con normativas complejas como las de la Unión Europea, y otros sectores también logran operar con leyes estatales variables.

Lo que está en juego, según esta perspectiva, no es la eficiencia legal, sino el deseo de evitar responsabilidades. Permitir que los estados actúen podría significar una mayor vigilancia sobre las prácticas empresariales, algo que ciertos sectores prefieren evitar.


]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario