El instituto de investigación CEA-Leti ha desarrollado una tecnología de memoria híbrida para respaldar el entrenamiento local adaptativo y la inferencia de las redes neuronales artificiales. El nuevo sistema combina dos tecnologías previamente incompatibles: condensadores ferroeléctricos y memristores, en una única pila de memoria compatible con CMOS.

El nuevo sistema ofrece una solución para uno de los desafíos más complejos de la inteligencia artificial (IA) de borde: cómo realizar tanto aprendizaje como inferencia en un chip sin agotar los presupuestos de energía ni desafiar las limitaciones del hardware.
El proyecto demostró que es posible realizar un entrenamiento en chip con precisión competitiva, evitando la necesidad de actualizaciones externas y sistemas externos complejos. La innovación del equipo permite que sistemas y dispositivos periféricos aprendan de los datos reales a medida que llegan, adaptando los modelos sobre la marcha y manteniendo el consumo de energía y el desgaste del hardware bajo un estricto control.
Redes neuronales para un aprendizaje eficiente y preciso
La IA de borde exige tanto inferencia (lectura de datos para tomar decisiones) como aprendizaje (actualización de modelos con base en nuevos datos). Pero hasta ahora, las tecnologías de memoria solo podían hacer una cosa bien. Por un lado, los memristores (memorias de acceso aleatorio resistivas) son óptimos en la inferencia porque pueden almacenar pesos analógicos, son energéticamente eficientes durante las operaciones de lectura y admiten la computación en memoria.
Por otro lado, los condensadores ferroeléctricos (FeCAP) permiten actualizaciones rápidas y de bajo consumo energético, pero sus operaciones de lectura son destructivas, lo que los hace inadecuados para la inferencia.
Como resultado, los diseñadores de hardware se enfrentaron a la elección de favorecer la inferencia y externalizar el entrenamiento a la nube, o intentar un entrenamiento con altos costos y una resistencia limitada.
Inspirados por las redes neuronales cuantificadas, los investigadores adoptaron un enfoque híbrido: los pases de ida y vuelta utilizan pesos de baja precisión almacenados analógicamente en memristores, mientras que las actualizaciones se realizan mediante FeCAP de mayor precisión. Los memristores se reprograman periódicamente en función de los bits más significativos almacenados en los FeCAP, lo que garantiza un aprendizaje eficiente y preciso.
Fabricación del dispositivo híbrido
Para ello, el equipo diseñó una pila de memoria unificada hecha de óxido de hafnio dopado con silicio con una capa de depuración de titanio. Este dispositivo de modo dual puede funcionar como un FeCAP o un memristor, dependiendo de cómo se ‘forme’ eléctricamente.
La primera forma de uso es utilizar la misma unidad de memoria para el almacenamiento preciso del peso digital (entrenamiento) y la expresión analógica del peso (inferencia), dependiendo de su estado. Y el segundo uso es mediante un método de transferencia de digital a analógico, que no requiere un DAC formal, convierte los pesos ocultos en FeCAP en niveles de conductancia en memristores.
Este hardware fue fabricado y probado en una matriz de 18.432 dispositivos utilizando tecnología CMOS estándar de 130 nm, integrando ambos tipos de memoria y sus circuitos periféricos en un solo chip.