Claves del Reglamento de Inteligencia Artificial Europeo

Desde la conducción autónoma de vehículos o la vigilancia masiva por reconocimiento facial, hasta un mero proceso de selección laboral, la Inteligencia Artificial adquiere cada día mayor relevancia en grandes sectores del mercado. Por este motivo,aunque la tecnología se desarrolle en EE.UU,  La Unión Europea es la pionera en aplicar una regulación al respecto.

Este Reglamento es el primer marco legal de la UE para la IA, y tiene como objetivo principal garantizar que se desarrolle de forma segura, ética y responsable, primero en Europa, y después en todo el mundo. Conviene aclarar que el objeto de esta regulación no es la tecnología de la Inteligencia Artificial en sí, sino su aplicación.

Europa, Estados Unidos y el Proceso de IA de Hiroshima

A finales de octubre de 2023, los líderes del G7 adoptaron en Hiroshima un conjunto de principios rectores para el desarrollo de sistemas avanzados de IA, que vienen a ser los mismos que apunta la Unión Europea (Seguridad, Transparencia, Igualdad, Responsabilidad), y otros principios añadidos como el de buscar el beneficio de la sociedad y promover los derechos humanos. En cualquier caso, el Proceso de Hiroshima está concebido como un manual de conducta para desarrolladores de sistemas de Inteligencia Artificial, más que como un reglamento.

La Unión Europea ya ha demostrado anteriormente su vocación legisladora a nivel internacional, con leyes sobre protección de datos de usuarios, por ejemplo. Sin embargo, en lo que se refiere a la Inteligencia Artificial, Europa  choca con una realidad incuestionable, y es que el desarrollo tecnológico de la IA viene de los Estados Unidos, un país que también aspira a ser el referente en la gobernanza mundial de esta tecnología. De hecho, el presidente Biden firmó el 30 de octubre de 2023 un decreto en el que obliga a las tecnológicas a informar al Gobierno sobre cualquier desarrollo de la IA que pueda “poner en riesgo grave para la seguridad nacional”.

 

Principios de la Ley de Inteligencia Artificial

La ley europea de Inteligencia Artificial, que en realidad se llama Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial, establece una serie de principios generales que deben cumplir todos los sistemas de IA:

  • Seguridad: El uso de la IA debe ser seguro, y debe evitar poner en riesgo los derechos fundamentales de las personas mediante la manipulación, el abuso o el mal uso de la tecnología. Los sistemas de IA deben estar sujetos a mecanismos de supervisión y control para garantizar que se utilizan de manera segura.

  • Transparencia: Los usuarios deben poder entender cómo funciona un sistema de IA y cómo se toman las decisiones. Los sistemas deben proporcionar información sobre sus datos de entrenamiento, sus algoritmos y sus resultados. Los usuarios deben poder impugnar las decisiones tomadas por un sistema de IA.

  • Igualdad:  Los sistemas no deben discriminar en función de la raza, género, origen étnico, religión, orientación sexual o cualquier otra característica protegida. Deben ser diseñados para facilitar la inclusividad y el respeto a la diversidad.

  • Responsabilidad: Los responsables de los sistemas de IA deben ser responsables de su funcionamiento. Los sistemas de IA deben estar sujetos a la ley y a las normas de responsabilidad.


Entorno controlado de pruebas

La filosofía que subyace en la ley europea para la regulación de la IA se basa, fundamentalmente, en la prudencia. Por este motivo, el desarrollo de la Inteligencia Artificial requiere un entorno controlado de pruebas, una “caja de arena” (sandbox, en inglés) para realizar los experimentos con seguridad antes de poner los sistemas de IA a disposición del usuario. 

En estos entornos de seguridad, que pueden ser físicos o virtuales, los desarrolladores pueden experimentar con diferentes parámetros para identificar los problemas potenciales y corregirlos a tiempo, antes incluso de entrar en producción. Las pruebas abarcan distintos sistemas de IA. Por ejemplo:

  • Reconocimiento de imágenes

  • Reconocimiento de voz

  • Aprendizaje automático

  • Procesamiento del lenguaje natural

Utilizar un entorno controlado de pruebas en el desarrollo de la Inteligencia Artificial tiene muchas ventajas cuando se trata de prevenir los riesgos y corregir las deficiencias de la tecnología. Por un lado, se promueve un aumento de la seguridad, la fiabilidad y el rendimiento de la IA. Por otro lado, se reduce el sesgo discriminatorio. Estos son algunos ejemplos sobre las bondades de los entornos controlados de pruebas:

  • Mejor seguridad: Pueden ayudar a identificar y corregir posibles vulnerabilidades de seguridad en los sistemas de IA.

  • Mayor fiabilidad: Ayudan a garantizar que los sistemas de IA funcionen correctamente en condiciones adversas.

  • Mejor rendimiento: Los entornos controlados de pruebas facilitan la optimización de los sistemas de IA.

  • Menos sesgo: Ayudan a identificar y corregir posibles sesgos negativos que pueden afectar al usuario por razones de etnia, edad, u otros factores.

 

Regulación de la Inteligencia Artificial según nivel de riesgo

El reglamento que prepara la Unión Europea está basado en cuatro categorías de riesgo en el uso de los sistemas de Inteligencia artificial. Es decir, lo que se está regulando no es la tecnología, sino los riesgos potenciales de los diferentes usos que hagan de ella los diferentes modelos de Inteligencia Artificial. En el cuadro siguiente pueden verse algunos ejemplos.

 

Niveles de riesgo

Ejemplos prácticos

 

Riesgo inaceptable

* Reconocimiento facial utilizado para la vigilancia masiva

* Sistemas de toma de decisiones automatizada utilizados para dar el acceso a la atención sanitaria o a la educación

* Control de armas autónomas

 

Riesgo Alto

* Asignación de créditos o préstamos con sesgo discriminatorio

* Sistemas de selección de personal que se usen para discriminar en el puesto de trabajo.

* Sistemas de conducción autónoma en entornos urbanos.

 

Riesgo Moderado

* Recomendación de productos o servicios de manera engañosa o manipuladora

* Publicidad personalizada utilizada para manipular las emociones

* Sistemas de detección de fraudes que se utilicen de forma discriminatoria

 

Riesgo Limitado

* Traducción automática.

* Recomendaciones de música o películas.

* Sistemas de optimización de rutas.

 

Los ejemplos anteriores se refieren a los peligros de la IA para los usuarios en general. Pero la lista de riesgos aumenta si hablamos de seguridad nacional, o del modo en el que afecta la IA a determinados sectores profesionales, desde los traductores hasta los actores o los guionistas. Curiosamente, las películas sobre Inteligencia Artificial pueden parecer hoy en día más reales que nunca.

Gigas es un grupo internacional que nació en 2011 y se ha especializado en la prestación de servicios convergentes e integrales de comunicaciones y cloud para empresas. Con nueve centros de datos repartidos entre Europa y Latinoamérica, y oficinas en ocho países, Gigas se ha convertido en especialista en entregar “Tranquilidad as a Service” a sus clientes. La seguridad y confianza que Gigas construye en torno a sus clientes es lo que realmente nos diferencia.

Compartir: