Hacia una nueva ley sobre IA: Convergencias y divergencias
El Consejo de la Unión Europea ha llegado a un acuerdo político para la regulación de la inteligencia artificial en los países comunitarios. Aunque aún hay trámites pendientes para convertir este pacto en un texto legal, la nueva normativa ya ha generado críticas en el sector tecnológico, tanto en Estados Unidos como en Europa. Thierry Breton, comisario de Mercado Interior, anunció que la UE se convierte en el primer continente en establecer normas claras para el uso de la IA, destacando que es una plataforma para que las nuevas empresas y los investigadores de la UE lideren la carrera mundial de la IA.
Sin embargo, las críticas no se
han hecho esperar, especialmente por parte de la Asociación de la Industria de
la Informática y las Comunicaciones en Europa, que incluye a empresas como
Amazon, Apple, Google, Intel, Meta, Uber y X, entre otras. En un comunicado,
expresaron su preocupación por la imposición de «obligaciones estrictas a los
desarrolladores de tecnologías punteras», argumentando que esto podría aumentar
el riesgo de frenar la innovación en Europa. Casper Klynge, vicepresidente de
Asuntos Gubernamentales en Europa de Microsoft, también señaló que la
regulación podría afectar negativamente a la innovación y provocar un éxodo de
empresas y talentos europeos de IA hacia otras regiones. Además, se criticó la
rapidez con la que se llegó al acuerdo, sugiriendo que se sacrificó una
legislación pensada para el futuro de la IA a cambio de una resolución rápida.
A pesar de aspectos positivos,
como la prohibición de sistemas de puntuación social, hay críticas de Amnistía
Internacional España, que considera que la ley viola los derechos humanos y
deja puertas abiertas para la utilización de tecnologías que podrían vulnerar
esos derechos. La ejecución de la ley corresponderá a los Estados europeos, con
supervisión de la Oficina Europea de IA. Respecto a la aplicación de la ley, se
espera que la identificación biométrica se utilice de manera rigurosa y en
casos excepcionales. Las empresas serán responsables de determinar el nivel de
riesgo de su tecnología, con controles posteriores por parte de la UE. Las
violaciones de la ley pueden resultar en multas significativas. Aunque hay
preocupaciones sobre el posible impacto en la competitividad de la UE en el
desarrollo de la IA en comparación con EE. UU. y China, algunos defienden que
la ley proporcionará una ventaja competitiva al situar a la IA europea a la
vanguardia del respeto a los derechos humanos. Se espera que esta normativa
influya en otros países para regular sus mercados de IA.
La ley clasifica la tecnología de
IA en cuatro niveles de riesgo y prohíbe el uso de sistemas que representen una
amenaza clara a los derechos fundamentales. Se prohíben, entre otros usos, la
categorización biométrica por creencias políticas, religiosas, filosóficas,
raza y orientación sexual. La ley también establece evaluaciones obligatorias
del impacto en los derechos fundamentales y permite a los ciudadanos presentar
quejas sobre sistemas de IA. En cuanto a las sanciones, las multas pueden
variar según la infracción y el tamaño de la empresa, y se espera que la ley
entre en vigor aproximadamente en 2026, con disposiciones específicas
aplicándose en plazos más cortos. Aunque la ley busca proteger a los ciudadanos
y promover la innovación, ha generado ciertas críticas y preocupaciones,
especialmente en el sector tecnológico.
La Ley de Inteligencia
Artificial, se enfoca en garantizar la seguridad y el respeto a los derechos
fundamentales y la democracia, al mismo tiempo que impulsa la innovación.
Algunos de sus puntos clave incluyen:
-Prohibiciones específicas: Se
prohíben ciertas aplicaciones de IA, como la categorización biométrica basada
en características sensibles, reconocimiento de emociones en lugares de
trabajo, puntuación social y la IA que manipula el comportamiento humano o
explota vulnerabilidades.
-Permisos y salvaguardas para
fuerzas del orden: Se establecen condiciones estrictas y autorización judicial
para el uso de sistemas de identificación biométrica por parte de las fuerzas
del orden.
-Obligaciones para sistemas de IA
de alto riesgo: Se requieren evaluaciones obligatorias del impacto en los
derechos fundamentales para los sistemas de IA de alto riesgo.
-Requisitos transparentes: Se
establecen requisitos transparentes para los sistemas de IA de uso general, con
obligaciones más estrictas para los modelos de alto impacto.
-Apoyo a la innovación: Se
promueve la innovación y se brinda apoyo a las PYMES a través de entornos de
pruebas regulatorios y pruebas en el mundo real.
Aunque se espera que la normativa
no entre en vigor hasta al menos 2026, las empresas desarrolladoras de IA se
espera que adopten voluntariamente las obligaciones que la ley establece antes
de su implementación formal. Esta medida tiene como objetivo autorregularse y
facilitar una transición suave. El resultado de la implementación de la Ley de
Inteligencia Artificial de la Unión Europea podría tener varios impactos en el
desarrollo y uso de la inteligencia artificial en la región. Algunos posibles
resultados incluyen:
-Protección de derechos
fundamentales: La ley busca garantizar que la inteligencia artificial en Europa
respete los derechos fundamentales y la democracia. Si se implementa
correctamente, podría proporcionar un marco legal sólido para proteger los
derechos de los ciudadanos frente a posibles abusos de la IA.
-Fomento de la innovación ética:
Al establecer principios generales y una lista de riesgos, la ley podría
alentar el desarrollo de tecnologías de inteligencia artificial de manera ética
y responsable. Las empresas podrían verse impulsadas a adoptar prácticas que
respeten los derechos humanos y eviten riesgos significativos.
-Impacto en empresas de IA: Las
empresas desarrolladoras de inteligencia artificial, incluidas aquellas que
crean tecnologías como ChatGPT, podrían tener que ajustar sus prácticas y
tecnologías para cumplir con los requisitos de la ley. Esto podría incluir la
implementación de medidas de transparencia y la adaptación a las regulaciones
específicas.
-Desafíos de implementación: La
ejecución efectiva de la ley dependerá de la supervisión y aplicación por parte
de los Estados miembros de la UE. Pueden surgir desafíos en términos de cómo
las empresas evalúan y clasifican el riesgo de sus sistemas de IA, así como en
la aplicación coherente de las sanciones por incumplimiento.
-Influencia global: Dado el papel
de liderazgo de la UE en la formulación de normas, la ley podría influir en
cómo otros países desarrollan sus propias regulaciones sobre inteligencia
artificial. Sin embargo, también podría haber desafíos en la armonización
global de estándares y regulaciones.
Considero que regular la IA es un
sistema de protección a los derechos que tenemos, pero también podemos hacer
que avance mediante la creación de bancos de pruebas en un entorno seguro, que
permita su desarrollo y valore los riesgos presentes y futuros. La
investigación es un pilar fundamental para la tecnología y esto también sería
interesante que la nueva ley lo recogiera.
Arantxa
Serantes
Hacia
una nueva ley sobre IA: Convergencias y divergencias
Cómo
citar este artículo: SERANTES,
ARANTXA. (2023). Hacia una nueva ley sobre IA: Convergencias y
divergencias. Numinis Revista de Filosofía, Época I, Año 2, (CS20).
ISSN ed. electrónica: 2952-4105. https://www.numinisrevista.com/2023/12/Hacia-una-nueva-ley-sobre-IA-Convergencias-y-divergencias.html
Esta revista está bajo una licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional
No hay comentarios:
Publicar un comentario