¿Es posible regular la IA? Experiencias a nivel global

¿Es posible regular la IA? Experiencias a nivel global

Resumen La transición entre la inteligencia artificial capaz de interactuar en lenguaje natural y la llegada de ChatGPT 3.5 deja […]

Por: Ximena Docarmo13 Ene, 2025
Lectura: 17 min.
¿Es posible regular la IA? Experiencias a nivel global
Compartir
Artículo original en español. Traducción realizada por inteligencia artificial.

Resumen

La transición entre la inteligencia artificial capaz de interactuar en lenguaje natural y la llegada de ChatGPT 3.5 deja en evidencia las disparidades globales. Estas se expresan también en el acceso a las nuevas tecnologías. La necesidad de regular presenta desafíos que resulta indispensable encarar. Este artículo explica los modelos normativos posibles.

El dilema de control en la IA

Para el momento del lanzamiento de ChatGPT 3.5 a finales del 2022, en algunas regiones como la Unión Europea ya desde 2021 se habían iniciado debates públicos sobre promover una regulación ética de la IA, considerando los rápidos avances de esta tecnología. En contraste, a dos años del acceso público y masivo a la IA generativa, en diversas partes del mundo, el entendimiento y los esfuerzos para regular esta tecnología siguen siendo limitados.

Las razones de esta disparidad pueden ser múltiples. Para entender este fenómeno, resultan útiles las reflexiones de David Collingridge, quien en los años ochenta planteó el dilema de control. Este señala que «intentar controlar una tecnología es difícil, y no pocas veces imposible, porque durante sus primeras etapas, cuando se puede controlar, no se sabe lo suficiente sobre sus consecuencias sociales perjudiciales como para justificar el control de su desarrollo; pero para cuando estas consecuencias son evidentes, el control se ha vuelto costoso y lento».

Al respecto, Collingridge destaca que, para prevenir efectos no deseados de una tecnología, deben cumplirse dos condiciones: primera, que se conozcan los efectos negativos que la tecnología podría causar, y segunda, que sea posible modificarla para evitar dichos efectos. Dos condiciones que, en el contexto de la IA, parecen imposibles de prever en su magnitud real, lo que pondría en peligro nuestra capacidad para gestionar sus efectos de manera efectiva y oportuna.

¿Por qué regular la IA?

Antes de que ChatGPT 3.5 se convirtiera en un hito de los avances tecnológicos en 2022, la IA ya había comenzado a ser parte de nuestras vidas. La IA no es algo del futuro, es lo que despierta con nosotros cada mañana cuando miramos la pantalla de nuestro teléfono u otro aparato electrónico (ver cuadro 1). Desde el momento en que desbloqueamos nuestro smartphone recibimos sugerencias personalizadas sobre el clima, la música ideal para empezar el día, la ruta más rápida hacia el trabajo o incluso posibles respuestas para un mensaje de WhatsApp. Todo esto gracias a una rama de la IA llamada machine learning ‘aprendizaje automático’. El día sigue y al usar Face ID para desbloquear el teléfono o Google Lens para traducir una indicación en otro idioma o buscar información a partir de una imagen, estamos interactuando con otra rama de la IA: computer vision ‘visión artificial’, también llamada visión informática, visión por computadora o visión técnica). Esta interacción puede ser menos palpable; por ejemplo, al ver videos en YouTube, activamos otra pieza de esta tecnología para detectar contenido inapropiado o infracciones de derechos de autor en videos subidos a la plataforma.

La IA no solo está presente en nuestra vida personal, sino también en la profesional. Herramientas como ChatGPT, Gemini o Canva han transformado la manera en que trabajamos. Estas plataformas, basadas en IA generativa y procesamiento del lenguaje natural, nos permiten simplificar tareas complejas. Desde pedirle ayuda a Alexa o Siri, hasta escribir un correo electrónico en otro idioma con Google Translate o corregir textos con Grammarly, los programas potenciados por IA, aunque casi imperceptibles, son para muchas personas parte del día a día.

Cuadro 1. Ramas especializadas de la IA

Fuente: Elaboración y ejemplos propios. Adaptado de A common understanding: simplified AI definitions from leading standards (NSW Government, 2024).

Aunque la principal limitación de la IA radica en la necesidad de acceder a internet para su uso, el acceso es cada vez más masivo a nivel global. Según Naciones Unidas, al 2023 más del 65 % de la población global estaba conectada a internet y más del 75 % contaba con un teléfono móvil, una cifra que en diez años escalaría al 78 %. Con tres de cuatro personas alrededor del mundo que antes de la llegada de ChatGPT 3.5 en 2022 comenzaban su día accediendo de una u otra forma a la IA, resulta lógico cuestionarse ¿qué ha cambiado? y ¿por qué se ha intensificado la discusión sobre la regulación de la IA?

El dilema de control explicado previamente puede orientar la respuesta a este tipo de preguntas. En las primeras etapas del desarrollo de la IA no se sabía lo suficiente sobre sus consecuencias. Hoy, los efectos de la IA, especialmente de la IA generativa, son cada vez más evidentes, lo que hace más necesaria su regulación, aunque eventualmente pueda llegar tardíamente y los costos asociados sean altos para la sociedad.

La IA representa un avance significativo en el desarrollo científico, con el potencial de cerrar brechas en sectores clave como la educación o la salud y de estimular la economía a través de la innovación. Pero también plantea serios desafíos para los derechos de las personas. Los modelos de IA, entrenados con información proveída por seres humanos, reflejan los defectos y sesgos de nuestra sociedad. La IA puede amplificar dichos sesgos reforzando la discriminación a determinados sectores de la población, facilitar el uso indebido de datos personales y la vulneración de la libertad de expresión, amplificar la desinformación, entre muchos otros efectos negativos. Por lo tanto, el equilibrio entre maximizar los beneficios de la IA y mitigar sus riesgos exige un enfoque ético en su regulación que pondere estos potenciales efectos.

La omnipresencia de la ia

[…]
hace que los usuarios solo tengan un control parcial sobre el uso y la privacidad de sus datos.

Aunque las personas, de manera consentida o no, comparten diversos datos sobre sus preferencias, la omnipresencia de la IA, combinada con una limitada alfabetización tecnológica en IA, hace que los usuarios solo tengan un control parcial sobre el uso y la privacidad de sus datos. Los datos recopilados por empresas privadas, como la trazabilidad de las compras, búsquedas en línea o interacciones en redes sociales, así como aquellos obtenidos por empleadores o incluso gobiernos, pueden ser utilizados para diferentes fines. En contextos autoritarios, esta capacidad de vigilancia y control puede tener implicaciones preocupantes, exacerbando riesgos para los derechos individuales y las libertades fundamentales.

Ante el inminente uso de la información de las personas, es crucial que los gobiernos aborden cuestiones clave sobre la privacidad, la seguridad y el uso ético tanto de los datos introducidos como de los resultados procesados por la IA. Sin marcos regulatorios sólidos, el riesgo de un uso irresponsable de la IA aumenta considerablemente. Dicha regulación debería incluir mecanismos que aseguren un uso responsable y sostenible de la tecnología, así como fomentar la alfabetización en IA para mitigar los riesgos.

IA en la UE (2021-2030)

Con el objetivo de garantizar que los sistemas de IA usados en la Unión Europea sean «seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente», con 523 votos a favor en 705 escaños, y tras tres años de debates, en marzo de 2024 el Parlamento Europeo adoptó formalmente la primera ley que regula la IA: la Ley de IA de la Unión Europea (UE). La legislación, originalmente presentada por la Comisión Europea en abril de 2021, proponía establecer el primer marco regulatorio para la IA en esta región.

Actualmente no existe una definición unánime global para la IA, por lo cual cada país o región que la regula va a ponderar diversos elementos o categorías en el proceso de reglamentar su uso. En el caso de la UE (cuadro 2), la ley de IA se ha enfocado en la IA de propósito general (GPAI, por sus siglas en inglés); los también llamados modelos fundacionales tienen capacidades generativas y están diseñados para realizar una amplia gama de tareas inteligentes. Como parte de la inteligencia artificial general (artificial general intelligence, AGI) la existencia de la GPAI es posible gracias a los modelos extensos de lenguaje (LLM) y su capacidad generativa. En contraste, la inteligencia artificial estrecha (artificial narrow intelligence, ANI) únicamente puede realizar tareas específicas y predefinidas. Estos tres elementos (GPAI, AGI y ANI) resultan cruciales para comprender la clasificación de riesgo de la IA para la UE y su respectivo cronograma de implementación.

Cuadro 2. Categorías de tecnologías de IA

Fuente: Elaboración propia. Adaptado de European Parliament (2023).

La ley clasifica los sistemas de IA en cuatro categorías: riesgo inaceptable, alto, limitado y mínimo, considerando acciones concretas y dando flexibilidad para adoptar modificaciones si determinados usos evolucionan generando un mayor riesgo:

Riesgo inaceptable. Están completamente prohibidos los sistemas destinados a manipular el comportamiento humano o la clasificación social, incluyendo aquellos que emplean técnicas manipulativas, explotan vulnerabilidades de personas en situaciones desfavorecidas, y los que implementan clasificación social.

Riesgo alto. Están sujetos a estrictas normas de seguridad, transparencia y supervisión humana los sistemas que tienen un impacto significativo en la seguridad o los derechos fundamentales, como los utilizados en la educación, empleo, infraestructuras críticas y la administración de justicia.

Riesgo limitado. Tienen obligaciones menos estrictas, como asegurar que los usuarios sepan que están interactuando con una IA, sistemas como los chatbots o deepfakes.

Riesgo mínimo. Están exentos de regulaciones más estrictas los videojuegos habilitados por IA o los filtros de spam. Esto podría cambiar con el avance de la IA generativa.

La ley restringeel uso de reconocimiento facial en tiempo real en espacios públicos, salvo excepcionescomo la búsqueda de personas desaparecidas o la prevención de amenazas terroristas.

Esta norma afecta a 27 Estados miembros. Dada la complejidad del sistema de la Unión Europea, la Ley de IA publicada en julio de 2024 y con entrada en vigor en agosto del mismo año tiene previsto un largo proceso de implementación con un cronograma escalonado para la aplicación de las diferentes obligaciones (cuadro 3). Mientras que todos los Estados miembros están llamados a informar hasta noviembre de 2024 sobre las autoridades responsables de la implementación de la normativa, las prohibiciones a ciertos sistemas de IA de riesgo inaceptable entrarán en vigor seis meses después de la promulgación de la ley, a partir de febrero de 2025. Asimismo, las regulaciones para los modelos GPAI se implementarán en 12 meses, y los sistemas de alto riesgo comenzarán a ser regulados en 24 y 36 meses. En este periodo, progresivamente entrarán en vigor otras normas claves sobre gobernanza, confidencialidad y sanciones.

Cuadro 3. Calendario de aplicación de la Ley de IA de la UE

12.7.2024Se publica la Ley de AI de la UE en el Diario Oficial de la UE el 12 de julio de 2024.
1.8.2024La Ley de AI de la UE entra en vigor el 1 de agosto de 2024 (art. 113).
2.2.2025Las normas sobre objeto, ámbito de aplicación, definiciones, alfabetización en materia de IA y prohibiciones entran en vigor el 2 de febrero de 2025 (art. 113.a).
2.8.2025Las normas sobre notificaciones, modelos GPAI, determinadas cuestiones de aplicación y sanciones entran en vigor el 2 de agosto de 2025 (art. 113.b).
2.8.2026La Ley de AI de la UE se aplica, el periodo de gracia general para los sistemas de AI de alto riesgo finaliza y la mayor parte de las disposiciones operativas entran en vigor el 2 de agosto de 2026 (arts. 111.2 y 113).
2.8.2027Normas sobre IA de alto riesgo en virtud del apartado 1 del artículo 6 entran en vigor el 2 de agosto de 2027 (art. 113.c).
2.8.2030El período de gracia para sistemas de IA de alto riesgo destinados a ser utilizados por autoridades públicas finaliza el 2 de agosto de 2030 (art. 111.2).

Fuente: Extracto del EU AI Act enforcement timeline (2024) y White & Case (2024), versión extendida en inglés.

A nivel temporal, la Ley de IA de la UE sigue un enfoque gradual que comienza con la alfabetización y prohibiciones, seguido de la introducción de normas sobre notificaciones, modelos de IA y sanciones. A medida que avanza, finaliza el periodo de gracia para los sistemas de IA de alto riesgo, se aplican disposiciones operativas y se implementan normas específicas para la IA de alto riesgo. Para garantizar la implementación de la norma, se ha previsto la creación de la Oficina de IA de la UE dentro de la Comisión Europea.

Modelos de regulación en desarrollo

En contraste con el enfoque adoptado por la Unión Europea, otras regiones del mundo con un alto grado de desarrollo en IA priorizan distintos componentes en sus modelos regulatorios y de adopción tecnológica. En el libro Digital Empires: The Global Battle to Regulate Technology, Anu Bradford reflexiona sobre los contrastes entre el modelo europeo centrado en establecer estándares de regulación a nivel global, el modelo estadounidenseque fomenta al sector privado, y el modelo chino impulsado por el uso de los recursos estatales.

Así explica que en el modelo estadounidense, centrado en el mercado, el papel gubernamental es limitado y permite que las grandes empresas tecnológicas lideren la gobernanza. Fomenta un entorno propicio a través de incentivos para la innovación y exporta su influencia a través de los servicios y tecnologías, consolidando su poder privado en la economía global.

En cuanto a la regulación de la IA, Estados Unidos carece de una legislación federal integral, su enfoque cuenta con leyes y directrices de alcance limitado. Entre las normas claves destaca la Ley de Iniciativa Nacional de IA (National AI Initiative Act) de 2020, centrada en el fomento de la investigación y desarrollo en este campo, junto con la creación de la Oficina de la Iniciativa Nacional de Inteligencia Artificial (National Artificial Intelligence Initiative Office), encargada de implementar la estrategia nacional. En octubre de 2023, la Casa Blanca emitió la Orden Ejecutiva sobre el Desarrollo y la Utilización Seguros y Fiables de la IA, que establece directrices para el desarrollo de estándares federales incluyendo elementos de transparencia en los resultados de las pruebas de seguridad. En el último año, diversos estados han liderado iniciativas sobre la regulación de los sistemas de alto riesgo, la discriminación algorítmica o la toma de decisiones automatizadas. La tendencia general es hacia una mayor regulación sectorial y en los estados; no obstante, se prevé la continuación de discusiones públicas tanto sobre la implementación de una regulación cohesiva de la IA como la creación de una autoridad federal.

Mientras tanto, el modelo chino, impulsado por el Estado, busca establecer al país como una superpotencia tecnológica mediante la utilización de recursos estatales. Este modelo se manifiesta en la vigilancia, censura y propaganda, y acciones dirigidas a preservar el control político. A su vez, China exporta su poder de infraestructura, desarrollando redes 5G, centros de datos y ciudades inteligentes.

A nivel regulatorio, en 2023 fue publicada la primera regulación administrativa específica sobre IA generativa, denominada Medidas provisionales para la gestión de los servicios de IA generativa. En esta no se categorizan los riesgos, pero ciertos servicios, como los que cuentan con «atributos de opinión pública o capacidad de movilización social» están sujetos a un escrutinio más riguroso, incluyendo evaluaciones de seguridad, y a requisitos de aplicación general como la moderación y el etiquetado de contenidos. Entre las normas de etiqueta se destacan requisitos como la defensa de los valores socialistas o no generar contenidos prohibidos que inciten a la subversión del poder estatal o el derrocamiento del sistema socialista, que pongan en peligro la seguridad y los intereses nacionales. La responsabilidad de la regulación de la IA generativa recae principalmente en la administración del ciberespacio de China.

A esta discusión se suman otros gigantes en la escena global. Según el Foro Económico Mundial (WEF), las principales cinco economías más grandes del mundo han avanzado significativamente en el desarrollo de ecosistemas de IA. A esta lista, además de Estados Unidos, China y Alemania (miembro de la UE), se incorporan Japón e India. Aunque ambos carecen de leyes específicas sobre IA, han adoptado enfoques distintos para abordar su regulación.

Japóna nivel global ha sido actor clave del lanzamiento del Código de conducta para organizaciones que desarrollan sistemas avanzados de IA, en el contexto del G7 en 2024, un instrumento que compila 11 recomendaciones, con un enfoque basado en riesgo. A nivel interno, el país sigue una estrategia de soft law (derecho blando), promoviendo la gobernanza de la IA a través de directrices que buscan minimizar riesgos mientras priorizan impulsar la innovación. En 2024 también fue publicada la AI Guidelines for Business Version 1.0, una directriz no vinculante que busca promover esfuerzos voluntarios siguiendo un enfoque basado en riesgos. Sin embargo, un reciente proyecto de Ley de IA podría redireccionar la estrategia actual a un enfoque de hard law (ley dura), incluyendo la supervisión a desarrolladores y la imposición de multas y sanciones en caso de incumplimiento.

Por su parte, Indiaha establecido marcos sectoriales, como en finanzas y salud, y su enfoque está guiado por la Estrategia nacional de IA,de 2018 y los Principios operacionalizadores para una IA responsable,de 2021, que priorizan la capacitación e incentivos al diseño ético de IA. Aunque las regulaciones son bastante limitadas, se espera que la futura Ley de India Digital delimite y regule sistemas de IA de alto riesgo.

América Latina: ¿controles posibles?

La experiencia internacional en la regulación de la IA ofrece valiosas lecciones para América Latina, tanto en términos de promover la innovación como de proteger a las personas de los riesgos asociados a esta tecnología. Sin embargo, pensar en una regulación unificada para la región puede no ser realista ni efectivo, dado que cada país avanza a su propio ritmo en la creación de ecosistemas para el desarrollo de IA.

Recomendaciones recientes, como la resolución publicada en 2024 por Naciones Unidas denominada Aprovechar las oportunidades de sistemas seguros y fiables de IA para el desarrollo sostenible y la Recomendación sobre la IA de la OCDE adoptada originalmente en 2019 y actualizada en 2021, subrayan la necesidad de una gobernanza clara, inversión en infraestructura tecnológica y educación en habilidades digitales. Pero, para los países de América Latina, estos desafíos se abordarán desde una perspectiva más flexible, considerando las distintas realidades y capacidades de cada nación. Chile, Brasil y Uruguay lideran en investigación y desarrollo de IA, según el índice latinoamericano de IA (ILIA) 2024, pero los avances no son homogéneos en toda la región.

En un contexto tan complejo y que avanza rápidamente, América Latina debe equilibrar la promoción de la IA con la protección de derechos fundamentales, aprovechando esta tecnología para un desarrollo inclusivo y sostenible. La clave será diseñar marcos regulatorios que permitan una implementación responsable, respetando la diversidad y el ritmo de evolución de cada país, sin comprometer los derechos de las personas ni, en última instancia, la democracia.

Referencias

Collingridge, D. (1980). The Social Control of Technology. Nueva York: St. Martin’s Press.

EU Artificial Intelligence Act. (2024).

European Parliament. (2023). General-purpose artificial intelligence.

ILIA, Índice Latinoamericano de Inteligencia Artificial. (2024)

Naciones Unidas, Asuntos económicos. (2023). Más del 75% de la población mundial tiene un teléfono celular y más del 65% usa el internet.

Netflix. (2024). Y ahora qué. El futuro según Bill Gates.

Parlamento Europeo, Ley de IA de la UE: primera normativa sobre inteligencia artificial (2024)

White & Case. (2024). The global dash to regulate AI.

World Economic Forum. (2024, 2 de junio). Así es como los capitalistas de riesgo invierten en la IA en cinco países.

Ximena Docarmo

Ximena Docarmo

Fundadora de InnovaLab, entrenadora política y máster en políticas públicas por la Hertie School of Governance de Berlín.

newsletter_logo

Únete a nuestro newsletter