Investigadores andaluces logran acelerar un 70% el entrenamiento de modelos de IA
La técnica, denominada REDIBAGG, ha sido diseñada por un equipo de la Universidad de Cádiz para optimizar tareas de clasificación en sistemas de IA con grandes volúmenes de datos
Robots e inteligencia artificial: así es el fútbol chino sin humanos

Investigadores de Ingeniería Informática de la Universidad de Cádiz (UCA) han desarrollado un método que permite acelerar hasta un 70% el entrenamiento de modelos de inteligencia artificial (IA), sin pérdida de precisión, según ha informado la Consejería de Universidad, Investigación e Innovación, que ha financiado el proyecto junto a fondos FEDER.
La técnica, denominada REDIBAGG, ha sido diseñada para optimizar tareas de clasificación en sistemas de IA con grandes volúmenes de datos y su aplicación tiene potencial en sectores como la medicina, la industria o las finanzas, donde podría facilitar diagnósticos automáticos, detección de fallos o análisis de riesgos con menor consumo de recursos.
Cómo funciona
Según explican los investigadores en un artículo publicado en la revista Engineering Applications of Artificial Intelligence, REDIBAGG es una variante de bagging (abreviatura en inglés de bootstrap aggregating), un método de combinación de modelos muy utilizado para mejorar la precisión de los clasificadores en el contexto de la inteligencia artificial.
La herramienta crea múltiples subconjuntos a partir de la muestra original de los datos. Cada submuestra se usa para el aprendizaje de un clasificador base, y luego se combinan las predicciones para tomar decisiones más fiables. El método de remuestreo que utiliza bagging es bootstrap, una técnica estadística que genera submuestras aleatorias con reemplazo. Es decir, se crean nuevas colecciones de datos eligiendo ejemplos al azar del conjunto original, permitiendo que algunos se repitan y otros no.
Aunque bagging es eficaz, su principal inconveniente es el alto coste computacional. Cada modelo se entrena con una submuestra del mismo tamaño que el conjunto original, lo que ralentiza el aprendizaje y multiplica el consumo de recursos. Frente a esta limitación, los expertos han aplicado un nuevo sistema de remuestreo que genera subconjuntos más pequeños, pero representativos.
"En la era del big data, donde se trabaja con enormes volúmenes de datos, reducir los tiempos de aprendizaje es de agradecer, sobre todo si se rebajan hasta un 70% respecto al método original", ha destacado Esther Lydia Silva, autora principal del estudio.

Eficacia validada
El equipo ha validado la eficacia del nuevo enfoque con 30 conjuntos de datos reales en áreas como medicina, biología, física o ciencias sociales, empleando el supercomputador Urania de la UCA.
REDIBAGG fue probado con distintos algoritmos de clasificación como árboles de decisión, redes neuronales, máquinas de soporte vectorial o modelos bayesianos, logrando una precisión comparable a los métodos tradicionales y una reducción media del tiempo de entrenamiento del 35%, alcanzando picos del 70% en grandes volúmenes.
Otra ventaja de la herramienta es su simplicidad de implementación. Se puede aplicar fácilmente en entornos de trabajo habituales con inteligencia artificial como el lenguaje de programación Python, y bibliotecas estándar como Scikit-learn, específica para usar técnicas de aprendizaje automático de forma sencilla, lo que facilitaría su adopción por parte de investigadores, empresas o instituciones.
"No es un método orientado a ciertos tipos de datos, sino que es muy versátil y robusto ante cualquier volumen con gran número de características o instancias", ha subrayado Juan Francisco Cabrera, coautor del estudio.
Los investigadores planean ahora liberar el método para la comunidad científica y explorar su aplicación en otras técnicas de aprendizaje automático, así como su adaptación a tareas de regresión, donde se predicen valores continuos.
También te puede interesar
Lo último