Los Fundamentos de Machine Learning abarcan los principios teóricos y metodológicos que sustentan el aprendizaje automático, desde los modelos estadísticos clásicos hasta las técnicas modernas de aprendizaje profundo. Esta área aborda el diseño, análisis, evaluación y despliegue de algoritmos que aprenden de datos para predecir, representar, inferir y tomar decisiones. En el LIAA, el enfoque de investigación integra perspectivas que van desde la formalización de funciones de pérdida y criterios de evaluación hasta la comprensión de los límites, sesgos y comportamientos de los modelos en aplicaciones reales de alta complejidad, pasando por el diseño de nuevas arquitecturas neuronales.
Una preocupación central es desarrollar prácticas de evaluación rigurosas y métricas que permitan comparar modelos de forma más robusta y confiable, especialmente en contextos donde las decisiones automáticas interactúan con aspectos humanos, sociales y clínicos. Asimismo, se estudian cuestiones fundamentales como la generalización fuera de distribución, la interpretación de modelos y la equidad, con el objetivo de avanzar en sistemas que no solo mejoren el rendimiento, sino que también sean explicables, justos y útiles en aplicaciones reales.
Las principales líneas de investigación en Fundamentos de Machine Learning incluyen:
- Generalización y robustez: Investigación de los límites del aprendizaje automático y del aprendizaje profundo, incluyendo condiciones de generalización, desempeño fuera de distribución y fundamentos de robustez ante perturbaciones y variabilidad de datos.
- Evaluación, calibración y métrica de modelos: Desarrollo de marcos de evaluación rigurosos que integran calibración, incertidumbre y métricas más allá de la precisión promedio, con el objetivo de comprender el comportamiento real de los modelos y su confiabilidad en diferentes dominios. Esto incluye estudios sobre score calibration y métricas aplicadas a clasificación y reconocimiento en señales complejas.
- Sesgos, equidad y fairness en Machine Learning: Análisis de cómo los distintos algoritmos de aprendizaje muestran sesgos sistemáticos y discrepancias de desempeño entre subpoblaciones, y desarrollo de metodologías para medir, mitigar y comprender estas desigualdades.
- Aprendizaje de representaciones y auto-supervisión: Estudio de enfoques de auto-supervisión y aprendizaje profundo para construir representaciones útiles de datos complejos (imágenes, audio, texto y señales multimodales) que permitan una transferencia eficiente a tareas específicas, así como análisis de qué tipo de información capturan estas representaciones.
- Adaptación y aprendizaje frente a variabilidad de dominio: Investigación de estrategias de adaptación a dominios nuevos o cambiantes, incluyendo técnicas de normalización, adaptación de calibración y combinación de sistemas para mejorar la robustez de algoritmos de clasificación y reconocimiento en condiciones no vistas o heterogéneas.