La Comisión Europea ha lanzado una consulta específica para recabar aportaciones sobre la implementación de las normas de la Ley de Inteligencia Artificial (IA) sobre sistemas de IA de alto riesgo. El objetivo es recopilar ejemplos y dudas prácticas que sirvan de base para aclarar cuestiones vinculadas a esta normativa, que afecta tanto a empresas como a organismos públicos y usuarios del sector. La consulta estará abierta hasta el 18 de julio de 2025.

La información obtenida tras la consulta se tendrá en cuenta en las próximas directrices de la Comisión Europea sobre la clasificación de los sistemas de IA de alto riesgo, así como en los requisitos y obligaciones correspondientes. También se recopilarán aportaciones sobre las responsabilidades a lo largo de la cadena de valor de la inteligencia artificial.
Sistemas de IA de alto riesgo
La Ley de IA distingue entre dos sistemas de inteligencia artificial de alto riesgo. Por un lado, aquellos esenciales para la seguridad de los productos, según la normativa armonizada de la Unión Europea. Por otro lado, están los sistemas que pueden influir notablemente en la salud, la seguridad o los derechos fundamentales de las personas, en ciertos ámbitos definidos específicamente por la ley.
Esta iniciativa busca la participación de una amplia diversidad de actores. Entre ellos, proveedores y desarrolladores de IA de alto riesgo, empresas, entidades públicas usuarias de estas soluciones, así como representantes de instituciones académicas, centros de investigación, la sociedad civil y la ciudadanía en general.
El periodo para enviar aportaciones estará abierto durante seis semanas, finalizando el 18 de julio de 2025.