De la UE a Estados Unidos: ¿quién regula mejor la inteligencia artificial?

Escrito Por Lobito Isaias

Publicado el:

Síguenos En:

El debate sobre la regulación de la inteligencia artificial (IA) sigue ganando protagonismo a medida que estas tecnologías avanzan y se integran en nuestra vida cotidiana. Con un impacto innegable en sectores como la salud, la educación y la industria, surge la inquietud sobre cómo asegurarnos de que su desarrollo y uso se realicen de manera ética y responsable. En este contexto, es vital analizar cómo diferentes regiones del mundo están abordando esta cuestión, especialmente la Unión Europea y Estados Unidos, dos potencias que están marcando el rumbo de la regulación de la IA. ¿Quién está haciendo un mejor trabajo en este sentido?

Leyes implementadas por la Unión Europea

La Unión Europea ha adoptado un enfoque integral y proactivo en materia de regulación de la IA. A lo largo de 2024, se han consolidado varias leyes fundamentales, que se pueden resumir en los siguientes pilares:

  • Reglamento General de Protección de Datos (GDPR): Desde su implementación en 2018, este reglamento se ha convertido en un referente mundial en la protección de datos personales, estableciendo estándares que influyen en legislaciones de otros países.
  • Digital Services Act (DSA): En vigor desde febrero de 2024, esta ley exige a las plataformas digitales ser transparentes sobre sus algoritmos y establecer mecanismos para moderar contenidos, elevando así la responsabilidad de las empresas tecnológicas.
  • Digital Markets Act (DMA): Aplicada desde marzo de 2024, busca limitar el poder de mercado de los grandes actores tecnológicos, promoviendo la competencia y la transparencia en los sistemas de recomendación.
  • EU AI Act: Aprobada en 2024, esta legislación clasifica los sistemas de IA en diferentes niveles de riesgo, estableciendo requisitos que se implementarán progresivamente entre 2025 y 2026, lo que permite adaptar la regulación a la naturaleza del riesgo presentado por cada aplicación.
  • Cyber Resilience Act: Se implementará a partir de diciembre de 2024 y tiene como objetivo asegurar que los productos conectados cumplan con estándares de ciberseguridad desde su diseño, protegiendo así a los usuarios de vulnerabilidades.

Este marco normativo coloca a la Unión Europea a la vanguardia en la legislación sobre IA, apostando por un enfoque que prioriza la transparencia algorítmica, la responsabilidad corporativa y la defensa de los derechos digitales. La combinación de estas leyes busca no solo proteger a los ciudadanos, sino también fomentar un entorno donde la innovación pueda prosperar de manera ética.

Regulación de la IA en Estados Unidos

En contraposición al enfoque europeo, Estados Unidos ha optado por una regulación más fragmentaria y poco unificada. Su sistema se basa en leyes sectoriales y estatales, lo que dificulta la creación de un marco cohesivo para la IA. Algunas de las leyes más relevantes son:

  • Privacy Act (1974): Este reglamento se limita a las agencias gubernamentales, dejando fuera a muchas empresas del sector privado.
  • HIPAA (Health Insurance Portability and Accountability Act): Protege la información médica y es crucial para el manejo de datos en el ámbito de la salud.
  • COPPA (Children’s Online Privacy Protection Act): Regula la recopilación de datos de menores, buscando proteger su privacidad.
  • GLBA (Gramm-Leach-Bliley Act): Esta ley está orientada al sector financiero y busca proteger la información personal de los consumidores.

Además, una oleada de legislaciones estatales ha comenzado a llenar algunos vacíos regulatorios, con 19 estados que han aprobado leyes de privacidad que entrarán en vigor entre 2024 y 2026. Entre los más avanzados se encuentran California, Colorado y Connecticut, mientras que otros estados, como Indiana y Kentucky, aplicarán nuevas normativas en 2026.

A pesar de que este enfoque fomenta la innovación y el liderazgo tecnológico, también ha generado preocupaciones sobre la falta de regulación en áreas críticas, como los sistemas automatizados de toma de decisiones y el uso de datos biométricos, dejando a los ciudadanos expuestos a riesgos significativos.

Preferencias ciudadanas: ley internacional o autorregulación

El informe AI Regulations Worldwide revela una clara inclinación de la opinión pública hacia la necesidad de una regulación internacional de la IA. Un impresionante 76% de los encuestados está a favor de establecer leyes que regulen esta tecnología a nivel global. Este deseo se complementa con una alta aceptación de esquemas de co-regulación entre gobiernos y empresas, donde el 71% de los ciudadanos se muestra favorable a esta colaboración. En cambio, solo el 37% apoya la autorregulación liderada exclusivamente por la industria tecnológica.

Este panorama pone de manifiesto la creciente desconfianza hacia las grandes tecnológicas y la necesidad de salvaguardar la privacidad, la seguridad y la equidad en el uso de la IA. Las inquietudes sobre la manipulación algorítmica y los sesgos sistémicos son cada vez más evidentes en el discurso público.

Preocupaciones predominantes sobre la inteligencia artificial en 2025

El informe también destaca un cambio en las preocupaciones de los ciudadanos respecto a la IA. Mientras que en 2024 prevalecían preocupaciones éticas y de desinformación, en 2025 el principal temor se centra en los riesgos financieros asociados al uso de la IA, que han aumentado significativamente. Este cambio se refleja en un salto del 12% al 50% en las menciones relacionadas con el riesgo financiero.

Otros riesgos que han ganado relevancia son:

  • Privacidad de datos
  • Cumplimiento normativo
  • Seguridad digital

Estos temores se alinean con la creciente adopción de modelos generativos como ChatGPT, cuyas aplicaciones han comenzado a impactar considerablemente en el comercio electrónico, los servicios financieros y la creación de contenido. Sin embargo, este uso masivo también ha traído consigo problemas como fraudes y errores automatizados que pueden resultar costosos.

¿Qué tan extendida está la legislación sobre IA en el mundo?

El estudio indica que, aunque la mayoría de los países han adoptado algún tipo de legislación relacionada con el ecosistema digital, pocos han desarrollado marcos legales específicos para la inteligencia artificial. Aquí algunas estadísticas destacadas:

  • 90% de los países tienen leyes sobre delitos informáticos y transacciones electrónicas.
  • 79% cuentan con legislación de privacidad de datos.
  • 61% han regulado la protección del consumidor en el entorno digital.

Sin embargo, solo un número limitado de naciones ha avanzado en la creación de marcos específicos para la IA. Algunas de estas incluyen a la Unión Europea, China, Canadá, Brasil y Corea del Sur. En América Latina, el avance es desigual, con Brasil presentando propuestas robustas, mientras que México aún carece de una estrategia nacional definida en este ámbito.

Retos futuros para América Latina y el resto del mundo

El informe también subraya que muchos países en desarrollo enfrentan desafíos significativos relacionados con la regulación de la IA. Entre estos retos se encuentran:

  • Falta de capacidad institucional
  • Escasa inversión en infraestructura digital
  • Rezago normativo en comparación con países desarrollados

La brecha regulatoria podría resultar en dependencia tecnológica y baja protección para los usuarios, lo que deja a estos países vulnerables ante riesgos globales sin mecanismos de defensa adecuados. Para superar estos desafíos, la cooperación internacional y el establecimiento de principios comunes son fundamentales para asegurar que la inteligencia artificial sea inclusiva, ética y sostenible.