Última actualización: 27/04/2024


Curso Académico: 2024/2025

Procesado del Lenguaje Natural
(19291)
Máster Universitario en Aprendizaje Automático para la Salud (Plan: 480 - Estudio: 359)
Escuela de Ingeniería y Ciencias Básicas


Coordinador/a: ARENAS GARCIA, JERONIMO

Departamento asignado a la asignatura: Departamento de Teoría de la Señal y Comunicaciones

Tipo: Optativa
Créditos: 3.0 ECTS

Curso:
Cuatrimestre:




Requisitos (Asignaturas o materias cuyo conocimiento se presupone)
* Se recomienda haber superado la asignatura de Aprendizaje Automático * La asignatura de Aprendizaje Profundo también proporciona competencias de interés, si bien no resulta imprescindible haberla cursado. Durante las primeras sesiones del curso se revisarán los conceptos necesarios para el cálculo de representaciones de palabras y documentos basadas en redes neuronales
Objetivos
* Familiarizar a los estudiantes con algunos métodos de uso habitual para el procesamiento de lenguaje natural, tanto para el preprocesado de texto sin estructura, como para la construcción de modelos basados en aprendizaje automático * Conocer diversas aproximaciones para el cálculo de la similitud semántica entre documentos y su uso para construir y analizar grafos semánticos * Presentación de algunas herramientas para la visualización interactiva de modelos de aprendizaje automático y procesamiento de lenguaje natural basadas en grafos y dashboards interactivos * Familiarizar a los estudiantes con algunas aplicaciones relevantes del procesamiento del lenguaje natural * Favorecer la madurez en el conocimiento de estas tecnologías, y la autonomía para profundizar los conceptos explicados en clase, mediante el trabajo en un proyecto final grupal
Competencias y resultados del aprendizaje
Descripción de contenidos: Programa
1. Introducción al Procesamiento de Lenguaje Natural 2. Representación vectorial de palabras y documentos 2.1. Limpieza y homogeneización de textos 2.2. Spacy y Spark NLP 2.3. One-hot encoding 2.4. Word Embeddings. Word2Vec. GloVe 2.5. Otras representaciones 3. Transformers 3.1. Introducción a los Transformers. Hugging Face 3.2. Clasificación de Textos: Análisis de sentimiento 3.3. Otras aplicaciones * Clasificación Zero-shot * Generation de texto * Traducción Automática Neuronal * Question & Answering 4. Modelado de tópicos 4.1. Latent Dirichlet Allocation 4.2. Modelos de Tópicos Neuronales 5. Análisis semántico basado en grafos 5.1. Métricas de similitud semántica 5.2. Grafos Semánticos 5.3. Análisis de Grafos 5.4. Visualización de Grafos 5.5. Sistemas Semánticos para recuperación de la información
Actividades formativas, metodología a utilizar y régimen de tutorías
Se emplearán las siguientes actividades y metodologías de aprendizaje: - Clases combinadas magistrales-laboratorio (AF3 & AF4 / MD1, MD2 & MD3): las clases magistrales brindan una descripción general de los principales conceptos teóricos y matemáticos del procesamiento del lenguaje natural junto con las herramientas analíticas. En estas clases, se introducirán ejemplos de laboratorio como parte de las exposiciones teóricas: todas las sesiones formativas se llevarán a cabo en el laboratorio (siempre que haya disponibilidad) para imbricar ejemplos prácticos dentro de las explicaciones y agregar dinamismo a la clase. - Proyecto final (AF6 / MD5): El alumno trabajará en un proyecto en el que programará un sistema modular completo de una de las herramientas explicadas en clase. Los estudiantes recibirán algunas pautas y algunas sesiones preparatorias mediante el uso del aprendizaje basado en problemas. Los profesores estarán disponibles durante 2 horas a la semana para tutorías
Sistema de evaluación
  • Peso porcentual del Examen Final 0
  • Peso porcentual del resto de la evaluación 100

Calendario de Evaluación Continua


Bibliografía básica
  • Aston Zhang, Zachary C. Lipton, Mu Li, Alexander J. Smola. Dive into Deep Learning. https://d2l.ai. 2020
  • Christopher D. Manning, Hinrich Schütze. Foundations of Statistical Natural Language Processing. MIT Press. 1999
  • Dan Jurafsky and James H. Martin. Speech and Language Processing. Prentice Hall. 2018
  • Denis Rothman. Transformers for Natural Language Processing: Build, train, and fine-tune deep neural network architectures for NLP with P... Transformers for Natural Language Processing. Packt>. 2022 (2nd Edition)
  • Li Deng (Editor), Yang Liu (Editor). Deep Learning in Natural Language Processing. Springer. 2018

El programa de la asignatura podría sufrir alguna variación por causa de fuerza mayor debidamente justificada o por eventos académicos comunicados con antelación.