La Universidad Pablo de Olavide (UPO) de Sevilla forma parte del consorcio de investigación AI-Fuse, una iniciativa centrada en el desarrollo de modelos de inteligencia artificial (IA) capaces de comprender escenas dinámicas a partir de imágenes y vídeo, con aplicaciones en sectores como la salud, el medio ambiente y la robótica. El proyecto, coordinado por la Universidad de Zaragoza y en colaboración con el Cima Universidad de Navarra, tiene como objetivo avanzar en la denominada Scene Understanding (comprensión de escenas), de modo que los sistemas de IA puedan explicar qué ocurre en una imagen o vídeo de forma similar a como lo haría una persona.
AI-FUSE ha sido uno de los veinte consorcios seleccionados, entre más de doscientas propuestas, en la convocatoria de la Agencia Estatal de Investigación del Ministerio de Ciencia, Innovación y Universidades para proyectos de inteligencia artificial.
Modelos generales para múltiples sectores
Con un enfoque interdisciplinar, el consorcio trabajará en el desarrollo de algoritmos generales capaces de analizar y describir cualquier escena visual sin limitarse a un único ámbito de aplicación. Para validar su eficacia, AI-Fuse probará sus desarrollos en tres áreas estratégicas: robótica, biología celular y monitorización ambiental, utilizando datos reales proporcionados por colaboradores especializados.
En el marco del proyecto, el Service Robotics Laboratory de la UPO lidera el subproyecto AI-Fuse-Robot, orientado a resolver uno de los grandes desafíos actuales de la robótica: lograr que los robots operen de forma autónoma y robusta en entornos compartidos con personas.
Actualmente, los robots presentan dificultades para desenvolverse en escenas concurridas y cambiantes. Además, los modelos de IA deben enfrentarse a limitaciones como la reducida capacidad de cálculo a bordo y la escasez de datos de entrenamiento específicos. El objetivo del subproyecto es avanzar hacia una robótica capaz de comprender el entorno de manera más cercana a la humana, facilitando desplazamientos fluidos entre personas e interacciones más naturales. Esta evolución será clave para el desarrollo de la próxima generación de robots de servicios, con aplicaciones en ámbitos como la asistencia hospitalaria o la logística inteligente.
Tres innovaciones clave
AI-Fuse-Robot incorpora un sistema de fusión sensorial avanzada que combina visión artificial, tecnología Lidar (Light Detection and Ranging) y otros sensores. Gracias a esta integración, los robots podrán detectar a las personas, seguir sus movimientos y anticipar sus trayectorias con mayor precisión en entornos dinámicos.
El proyecto también apuesta por la integración de datos reales, simulaciones y técnicas de aprendizaje autosupervisado, lo que permitirá reducir la dependencia de grandes volúmenes de datos etiquetados manualmente y mejorar la capacidad de adaptación de los modelos a nuevas situaciones.
Por último, se desarrollarán modelos de IA más eficientes, optimizados para ejecutarse directamente en el propio robot. Esto permitirá ofrecer respuestas en tiempo real sin necesidad de depender de la nube, aumentando la autonomía, la robustez y la fiabilidad de los sistemas.
Además, el consorcio creará nuevas herramientas y conjuntos de datos de referencia que contribuirán a acelerar el avance científico y tecnológico en el ámbito de la comprensión de escenas. AI-Fuse cuenta con una financiación de 1,2 millones de euros y tendrá una duración de tres años. El proyecto está financiado por el Ministerio de Ciencia, Innovación y Universidades y la Agencia Estatal de Investigación, consolidándose como una de las iniciativas destacadas en el ámbito nacional de la inteligencia artificial aplicada.
