Un equipo de investigación de la Universidad de Cádiz ha desarrollado Redibagg, un método que permite acelerar el entrenamiento de modelos de inteligencia artificial (IA) manteniendo su precisión. Esta técnica reduce el tamaño de los datos empleados durante la fase de aprendizaje, lo que rebaja en hasta un 70% el tiempo de procesamiento y reduce el consumo de recursos informáticos.
Diseñada para trabajar con grandes volúmenes de información, la herramienta se puede utilizar para tareas de clasificación. Por ejemplo, en salud podría acelerar sistemas de diagnóstico automático sin sacrificar fiabilidad, en industria serviría para detectar fallos en tiempo real con menor consumo de recursos, o en finanzas procesar grandes registros en menos tiempo para prevenir fraudes o analizar riesgos.
Como explican en el artículo ‘Redibagg: Reducing the training set size in ensemble machine learning-based prediction models’, publicado en la revista Engineering Applications of Artificial Intelligence, el sistema se comporta bien en contextos dispares. No es un método orientado a ciertos tipos de datos, sino que es muy versátil y robusto ante cualquier volumen con gran número de características o instancias, según la información publicada por la Fundación Descubre.
Otra ventaja de la herramienta es su simplicidad de implementación. Se puede aplicar fácilmente en entornos de trabajo habituales con inteligencia artificial como el lenguaje de programación Python, y bibliotecas estándar como Scikit-learn, específica para usar técnicas de aprendizaje automático de forma sencilla, lo que facilitaría su adopción por parte de investigadores, empresas o instituciones.
Funcionamiento del método de aprendizaje de IA
Redibagg es una variante de bagging (abreviatura en inglés de bootstrap aggregating), un método de combinación de modelos muy utilizado para mejorar la precisión de los clasificadores en el contexto de la inteligencia artificial. La herramienta crea múltiples subconjuntos a partir de la muestra original de los datos. Cada submuestra se usa para el aprendizaje de un clasificador base, y luego se combinan las predicciones para tomar decisiones más fiables.
El método de remuestreo que utiliza bagging es bootstrap, una técnica estadística que genera submuestras aleatorias con reemplazo. Es decir, se crean nuevas colecciones de datos eligiendo ejemplos al azar del conjunto original, permitiendo que algunos se repitan y otros no.
Aunque bagging es eficaz, su principal inconveniente es el alto coste computacional. Cada modelo se entrena con una submuestra del mismo tamaño que el conjunto original, lo que ralentiza el aprendizaje y multiplica el consumo de recursos. Frente a esta limitación, los expertos han aplicado un nuevo sistema de remuestreo que genera subconjuntos más pequeños, pero representativos. A partir de esas submuestras, los investigadores han entrenado varios modelos independientes, combinando sus predicciones igual que en bagging clásico.
Para validar su eficacia lo pusieron a prueba en 30 conjuntos de datos reales utilizando Urania, el supercomputador de la Universidad de Cádiz, aplicando distintos tipos de algoritmos de clasificación, como árboles de decisión, redes neuronales, máquinas de soporte vectorial o modelos bayesianos.
Siguientes pasos
En todos los casos, el nuevo enfoque demostró una precisión comparable al método original. De media, consiguieron rebajar el tiempo de entrenamiento en un 35%, alcanzando reducciones del 70% en conjuntos de datos muy grandes. Esto es debido a que al trabajar con modelos menos complejos se reducen las horas de entrenamiento y el coste de almacenamiento, por lo que el método es mucho más eficiente.
Ahora los investigadores se proponen liberar el método para su disposición por parte de la comunidad científica. También contemplan estudiar cómo la herramienta podría aplicarse a otros sistemas de aprendizaje automático, aparte de bagging y sus variantes, combinarlo con técnicas de selección de variables para obtener modelos aún más eficientes, o explorar su adaptación a tareas de regresión, en las que se predicen valores numéricos en lugar de categorías.