Con el objetivo de ayudar a los implementadores y proveedores de sistemas de inteligencia artificial (IA) generativa a detectar y etiquetar contenido generado o manipulado por IA, la Comisión Europea ha lanzado una consulta para elaborar directrices y un código de prácticas sobre las obligaciones de transparencia en materia de inteligencia artificial, basándose en las disposiciones de la Ley de IA. Esto contribuirá a garantizar que los usuarios estén informados al interactuar con un sistema de IA. El plazo de presentación de alegaciones estará abierto hasta el 2 de octubre.

En la consulta, podrán participar los proveedores e implementadores de modelos y sistemas de IA interactivos y generativos, así como de sistemas de categorización biométrica y de reconocimiento de emociones. También pueden participar las organizaciones del sector público y privado, expertos académicos y de investigación, representantes de la sociedad civil, autoridades supervisoras y ciudadanos. Podrán enviar sus comentarios a través de este enlace antes del 2 de octubre.
Además, la consulta va acompañada de una convocatoria de manifestación de interés, abierta hasta el 2 de octubre, para que las partes interesadas participen en la creación del Código de Prácticas.
Aplicación de las obligaciones de transparencia de la IA
La Ley de IA, que entró en vigor el 1 de agosto de 2024, obliga a los implementadores y proveedores de IA generativa a informar a las personas cuando interactúan con un sistema de inteligencia artificial, así como cuando están expuestas a sistemas de reconocimiento de emociones o de categorización biométrica, y a contenido generado o manipulado por un sistema de IA.
Esta ley promoverá el desarrollo y la implementación de la IA de forma responsable y fiable en la UE. Las obligaciones de transparencia serán aplicables a partir del 2 de agosto de 2026.