Regulación de la IA: Ley pionera a nivel mundial

Tiempo de lectura: 4 minutos

Regulación IA

Compartir en redes

La regulación de la IA ha llegado este miércoles a la eurocámara. Su objetivo es sentar las bases de su uso ético, seguro y el respeto a los derechos fundamentales. No se quiere obstaculizar la innovación y el progreso que la Inteligencia Artificial puede ofrecernos. No obstante, era normal establecer un marco legal para poder clarificar su uso con buenas prácticas. ¡Vamos a verlo!

Una regulación de la IA pionera en sentar las bases para su buen uso

Esta es la primera ley que regula la Inteligencia Artificial en el mundo con el objetivo de garantizar un uso ético y seguro de la misma. Europa se convierte, por tanto, en pionera y referente mundial a la hora de establecer unos límites y garantías de lo que es sin duda la mayor revolución tecnológica de los últimos tiempos. La regulación de la IA fija, por tanto, una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.

Sin duda no es más que el primer paso de muchos pasos futuros ya que la leyes dificilmente van a poder ir por delante del progreso y, en ese aspecto, la IA está prácticamente cada semana dandonos más de una noticia.

«Celebro el abrumador apoyo del Parlamento Europeo a nuestra ley de inteligencia artificial, la primera norma global y vinculante del mundo para una inteligencia artificial fiable», indicó tras el voto el comisario europeo de Mercado Interior, Thierry Breton.

¿Qué usos o aplicaciones prohibe esta regulación de la IA?

La ley se centra primordialmente en el uso de aplicaciones de categorización biométrica que identifiquen a personas, como puede ser la captura indiscriminada de imágenes faciales, grabaciones de videocámaras de vigilancia, reconocimiento de emociones en el lugar de trabajo o en las escuelas, sistemas de puntuación ciudadana, la actuación policial predictiva y el uso de la IA para manipular el comportamiento de las personas así como sus vulnerabilidades.

ChatGPT también va a estar incluido en este aspecto. Cualquier contenido ya sea texto, imágenes, audio o vídeo deberá ser marcado por los desarrolladores como contenido generado por Inteligencia Artificial. Además será necesario que las empresas cumplan con la normativa de derechos de autor para capacitar a las herramientas generativas. De esta forma se protege la autenticidad del material, su veracidad y se protege al propietario.

Como podemos ver esta regulación de la IA era algo que se llevaba pidiendo prácticamente desde octubre de 2022 cuando apareció en el escenario.

Las fuerzas de seguridad quedan exentas en casos muy concretos

El uso de identificaciones biométricas por parte de las fuerzas de seguridad también va a quedar totalmente prohibido. Sin embargo, va a haber algunas excepciones muy especiales donde sí se podrá emplear aunque limitadas en un periodo y lugar específicos además de tener que contar con una órden judicial o administrativa previas.

Estas excepciones son especificamente casos donde sea imprescindible identificar a una persona desaparecida o prevenir un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

Obligaciones para los sistemas de alto riesgo

También se prevén obligaciones claras para otros sistemas de IA de alto riesgo debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho.

Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones).

La regulación de la IA debe evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Regulación de la IA en transparencia

Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes.

Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados conocidos como ultrafalsificaciones deberán etiquetarse claramente como tales.

En definitiva, se trata de una ley inicial que trata de establecer unas garantías mínimas y proporcionar una seguridad a los propietarios intelectuales. Muy seguramente veremos prontas actualizaciones de la misma debido a la vertiginosa velocidad con la que la IA está mejorando.

Compartir en redes

Scroll al inicio