Área de Investigación

Procesamiento de lenguaje natural

Durante la última década, el campo del Procesamiento del Lenguaje Natural (Natural Language Processing, NLP) ha experimentado un crecimiento acelerado y disruptivo, impulsado por los avances en aprendizaje profundo y, especialmente, por la aparición de los Grandes Modelos de Lenguaje (Large Language Models, LLMs). Estos modelos han demostrado capacidades sin precedentes en tareas como comprensión y generación de texto, traducción automática, resumen, razonamiento lingüístico e interacción conversacional, integrándose rápidamente en aplicaciones científicas, educativas, industriales y de uso cotidiano.

Sin embargo, junto con estos avances surgen interrogantes fundamentales desde el punto de vista científico, tecnológico y social. A pesar de su alto desempeño, los LLMs presentan comportamientos complejos y a veces problemáticos, como sesgos sistemáticos, inconsistencias internas, errores factuales y fenómenos de alucinación. Comprender los mecanismos que subyacen a estas conductas, así como sus límites, condiciones de generalización e impacto social, constituye uno de los desafíos centrales del NLP contemporáneo.

En este marco, las investigaciones desarrolladas en la Universidad de Buenos Aires y, en particular, en el Laboratorio de Inteligencia Artificial Aplicada (LIAA), abordan el lenguaje natural desde una perspectiva integral e interdisciplinaria. Se combinan enfoques teóricos, experimentales y aplicados con el objetivo de avanzar tanto en la comprensión profunda de los modelos de lenguaje modernos como en el desarrollo de sistemas de procesamiento del lenguaje más robustos, interpretables, confiables y alineados con las capacidades y necesidades humanas.

Las principales líneas de investigación en Procesamiento del Lenguaje Natural incluyen:

  • Análisis de procesos lingüísticos
    Esta línea se centra en el estudio de los fenómenos lingüísticos que emergen en modelos de lenguaje, analizando cómo representan y procesan distintos niveles del lenguaje, como la sintaxis, la semántica, la pragmática y el discurso. Se investigan paralelismos y divergencias entre los mecanismos internos de los modelos (codificados en los parámetros) y los procesos neurolingüísticos humanos, utilizando tareas controladas, análisis de errores y metodologías inspiradas en la lingüística experimental (experimentos comportamentales, seguimiento ocular, electroencefalografía, resonancia magnética funcional, etc).
  • AI Safety e interpretabilidad mecanicista
    El objetivo de esta línea es comprender el funcionamiento interno de los grandes modelos de lenguaje desde una perspectiva mecanicista, identificando cómo se codifica la información y cómo se toman decisiones a nivel de representaciones internas. Este enfoque resulta clave para abordar problemas de seguridad en IA, como la generación de contenido no deseado, las alucinaciones y la falta de control sobre el comportamiento del modelo. Se desarrollan y aplican técnicas de interpretabilidad, análisis causal y probing, orientadas a mejorar la transparencia y la confiabilidad de los sistemas lingüísticos.
  • Mejoramiento de modelos mediante información cognitiva
    Esta línea explora la incorporación de conocimientos y restricciones provenientes de las ciencias cognitivas y la psicología del lenguaje en el diseño y entrenamiento de modelos de NLP. El objetivo es evaluar si la integración de información cognitiva —por ejemplo, información proveniente de experimentos de seguimiento ocular, como tiempo de fijaciones y/o la secuencia de las mismas— puede conducir a modelos más eficientes, generalizables e interpretables, así como a una mejor alineación con el comportamiento humano en tareas lingüísticas.
  • Sesgos y evaluación en grandes modelos de lenguaje
    Esta línea investiga la presencia de sesgos sociales, culturales, políticos y lingüísticos en los modelos de lenguaje, así como sus efectos en distintas aplicaciones. Se analizan cómo estos sesgos emergen a partir de los datos y arquitecturas utilizadas, y cómo se manifiestan en diferencias de desempeño o en la generación de contenido discriminatorio. Asimismo, se desarrollan métricas, protocolos de evaluación y estrategias de mitigación que permitan una caracterización más justa, rigurosa y contextualizada del comportamiento de los modelos, especialmente en lenguas y dominios subrepresentados como el español.