Última actualización: 12/05/2022


Curso Académico: 2022/2023

Aplicaciones del Tratamiento de Voz, Audio, Imagen y Vídeo
(15936)
Máster Universitario en Ingeniería de Telecomunicación (Plan: 171 - Estudio: 227)
Escuela de Ingeniería y Ciencias Básicas


Coordinador/a: GALLARDO ANTOLIN, ASCENSION

Departamento asignado a la asignatura: Departamento de Teoría de la Señal y Comunicaciones

Tipo: Optativa
Créditos: 3.0 ECTS

Curso:
Cuatrimestre:




Objetivos
OBJETIVOS Al igual que en el resto de asignaturas optativas del Máster, el alumno adquirirá una mayor especialización en áreas concretas de las tecnologías del ámbito de las Telecomunicaciones. Particularmente, en esta asignatura se cubrirán los siguientes conocimientos específicos en Tratamiento de Señal: 1. TRANSVERSALES/GENÉRIC0S: 1.1. Conocimientos generales básicos 1.2. Capacidad de análisis y síntesis 1.3. Capacidad para aplicar los conocimientos adquiridos 1.4. Resolución de problemas 1.5. Capacidad de integración de conocimiento 2. ESPECÍFIC0S: (Cognitivos) 2.1. Fundamentos matemáticos del tratamiento de señales. 2.2. Conocimiento generales sobre potenciales aplicaciones del tratamiento de voz, audio, imagen y vídeo. 2.3. Subsistemas básicos de las aplicaciones de tratamiento de voz, audio, imagen y vídeo. (Procedimentales/Instrumentales) 2.5. Utilización de software para el tratamiento de voz, audio, imagen y vídeo. 2.6. Manejo de las herramientas básicas de procesado. 2.7. Resolución de problemas de tratamiento de voz, audio, imagen y vídeo mediante combinación de herramientas básicas. (Actitudinales) 2.8. Trabajo autónomo y en equipo. 2.9. Toma de decisiones. 2.10. Capacidad de análisis y resolución de problemas.
Competencias y resultados del aprendizaje
Descripción de contenidos: Programa
El objetivo de esta asignatura es proporcionar una introducción a las técnicas más recientes de tratamiento de señales con aplicación a voz, audio, imagen y vídeo, siguiendo para ello una aproximación de Aprendizaje Basado en Proyectos. Por tanto, su orientación será práctica, alternándose las sesiones de teoría con sesiones de prácticas en el laboratorio; de este modo, el alumno estará capacitado para realizar un mini proyecto de cierta entidad sobre el que será evaluado. 1.- Presentación de la asignatura 2.- Introducción al aprendizaje profundo (Deep Learning) 2.1. Redes Neuronales 2.2. Redes Neuronales Profundas (DNNs) 3.- Fundamentos y técnicas de tratamiento de imagen 3.1. Representación digital de la imagen. Espacios de color. 3.2. Operaciones punto a punto. Filtrado. 3.3. Redes Neuronales Convolucionales (CNNs) 4.- Fundamentos y técnicas de tratamiento de voz y audio 4.1. Representación digital de señales de voz y audio. El espectrograma. 4.2. DNNs para procesado de voz y audio. 4.3. Redes Neuronales Recurrentes (RNNs) 5.- Fundamentos y técnicas de tratamiento de vídeo 5.1. Representación digital de señales de vídeo. 5.2. DNNs para procesado de vídeo. 6.- Casos de estudio y aplicaciones del tratamiento de voz, audio, imagen y vídeo
Actividades formativas, metodología a utilizar y régimen de tutorías
La asignatura se impartirá mediante clases de dos tipos: teoría y prácticas de laboratorio. TEORÍA (2 ECTS) Las clases de teoría serán lecciones magistrales con uso de transparencias u otros medios audiovisuales para presentar e ilustrar conceptos (AF1, MD1). Las clases de teoría podrán combinarse con la realización de ejercicios, demostraciones software y realización de presentaciones por parte de los alumnos (AF3, MD3). PRÁCTICAS (1 ECTS) Conceptos básicos seleccionados se ilustrarán mediante prácticas de laboratorio. El alumno participará activamente en su implementación. Las prácticas serán de dos tipos: - Prácticas guiadas: iniciación al tratamiento de voz, audio, imagen y vídeo con Python (AF2, AF4, MD4). - Proyecto Final: resolución de un problema de tratamiento de imagen o voz/audio a realizar por grupos (AF5, AF6, AF7, MD2, MD5).
Sistema de evaluación
  • Peso porcentual del Examen Final 0
  • Peso porcentual del resto de la evaluación 100
Calendario de Evaluación Continua
Bibliografía básica
  • Aurélien Géron. Hands-On Machine Learning with Scikit-Learn and TensorFlow. O'Reilly Media. 2017
  • Francois Chollet. Deep Learning with Python. Manning Publications. 2017
  • Ian Goodfellow, Yoshua Bengio, Aaron Courville . Deep Learning. MIT Press. 2016
  • Pradeepta Mishra. PyTorch Recipes A Problem-Solution Approach. Berkeley, CA : Apress : Imprint: Apress. 2019
Bibliografía complementaria
  • Ben Gold (Author), Nelson Morgan (Author), Dan Ellis (Author). Speech and Audio Signal Processing: Processing and Perception of Speech and Music.. Wiley. 2011
  • Christopher M. Bishop. Pattern Recognition and Machine Learning. Springer. 2006
  • Forsyth & Ponce. Computer Vision: A Modern Approach. Pearson. 2012
  • Gonzalez and Woods. Digital Image Processing 4th Edition. Pearson. 2018
  • Wilhelm Burger and Mark J. Burge. Principles of Digital Image Processing: Core Techniques. Springer-Verlag. 2009

El programa de la asignatura podría sufrir alguna variación por causa de fuerza mayor debidamente justificada o por eventos académicos comunicados con antelación.