Bruselas inicia el proceso para fijar las reglas de clasificación de sistemas de IA de alto riesgo

La Comisión Europea abre la puerta a "posponer algunas partes" de la norma si las empresas "no están preparadas" para aplicarla en su totalidad.

España y otros 11 países de la UE piden una edad mínima para acceder a redes sociales y un sistema de verificación

Inteligencia artificial
Inteligencia artificial

Luxemburgo/La Comisión Europea ha puesto en marcha este viernes una consulta pública sobre las nuevas reglas que se aplicarán a los sistemas de inteligencia artificial (IA) de alto riesgo, con el objetivo de que las conclusiones sean base para definir las directrices para la clasificación de estos sistemas y sus obligaciones.

La consulta está abierta, hasta el 18 de julio, a toda la sociedad civil, industrias tecnológicas, proveedores y desarrolladores de sistemas de IA, investigadores y autoridades, han informado los servicios comunitarios en un comunicado.

La Unión Europea cerró el pasado año la primera ley del mundo para regular los riesgos que plantea el uso de la Inteligencia Artificial, pero la mayor parte de las disposiciones de la nueva norma no entrarán en vigor hasta este agosto.

Los sistemas de alto riesgo

En ese marco, los sistemas considerados de alto riesgo estarán obligados a cumplir requisitos estrictos, como la "alta calidad" de sus conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.

Entre los sistemas de IA de alto riesgo se incluyen, por ejemplo, los utilizados para la contratación de personal o para evaluar si alguien tiene derecho a obtener un préstamo, entre otras cuestiones.

La nueva legislación establece que la Comisión deberá presentar como muy tarde el 2 de febrero de 2026 las directrices que especifiquen la aplicación práctica de las obligaciones y exigencias de esta categoría de riesgo, así como una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que sean de alto riesgo y que no sean de alto riesgo.

Bruselas abre la puerta a "posponer algunas partes" de la ley

La vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, Henna Virkkunen, abrió este viernes la puerta a "posponer algunas partes" de la ley si las empresas "no están preparadas" para aplicarla en su totalidad.

La normativa permite o prohíbe el uso de la inteligencia artificial en función del riesgo que suponga para las personas y ya ha entrado en vigor, aunque su despliegue será paulatino hasta aplicarse por completo, en principio, a partir de 2027.

Desde febrero de este año están prohibidos ya los sistemas de identificación biométrica y los que puntúan a las personas en función de su comportamiento o características personales y tampoco se pueden crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales.

"Los objetivos de nuestras normas son muy válidos, quizás ahora más que nunca", aseguró Virkkunen, aunque al mismo tiempo, señaló que "si hay algo, por ejemplo con los estándares y directrices para las que (las empresas) no están preparadas, tenemos que mirarlas o posponer algunas partes de las reglas".

Un borrador que recibió grandes críticas

Bruselas debería haber publicado en mayo las directrices para los modelos de inteligencia artificial generativa, con la intención de que entren en vigor el 2 de agosto, pero el tercer borrador del documento recibió grandes críticas por parte de los eurodiputados que redactaron la ley, de las asociaciones de derechos de autor y del sector académico.

La Comisión está preparando ahora la cuarta versión de las directrices y mantiene el objetivo de que se apliquen a tiempo.

Bruselas presentará a finales de año un paquete ómnibus de simplificación digital con el objetivo de reducir las cargas burocráticas a las empresas.

stats