Las agencias CISA y NCSC publican un documento para generar sistemas de IA seguros

Directrices para el desarrollo seguro de sistemas de IA.

El Centro de Seguridad Nacional del Reino Unido (NCSC) y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA) han publicado el documento ‘Directrices para el desarrollo seguro de sistemas de IA’. Este documento está enfocado a los desarrolladores, con el fin de ayudar en la creación de sistemas seguros de inteligencia artificial (IA).

Las cuatro etapas que marca el documento son diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros.

El uso cada vez mayor de la tecnología de IA continúa tanto en el sector público como en el privado, y estas directrices ayudarán a los desarrolladores de estos (y nuevos) sistemas de inteligencia artificial a reducir los riesgos del sistema antes de que surjan problemas de seguridad.

Etapas para desarrollar un sistema de IA seguro

El documento ‘Directrices para el desarrollo seguro de sistemas de IA’ se divide en cuatro etapas: diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros. Cada sección destaca consideraciones y mitigaciones que ayudarán a reducir el riesgo de ciberseguridad en el proceso de desarrollo de un sistema de IA organizacional.

Al integrar los principios de seguridad por diseño, estas pautas representan un acuerdo en el que los desarrolladores deben invertir, protegiendo a los clientes en cada paso del diseño y desarrollo de un sistema.

Las directrices proporcionan recomendaciones esenciales para el desarrollo de sistemas de IA y enfatizan la importancia de adherirse a los principios de Secure by Design (seguridad por diseño) que CISA defiende.

 
 
Patrocinio Plata
Patrocinio Bronce
Salir de la versión móvil