CC6204 Deep Learning
Curso introductorio (en espa帽ol) al 谩rea de aprendizaje basado en redes neuronales profundas, com煤nmente conocida como Deep Learning. Durante el curso aprender谩n la teor铆a detr谩s de los modelos de Deep Learning, su funcionamiento y usos posibles. Ser谩n capaces de construir y entrenar modelos para resolver problemas reales.
- Profesor: Jorge P茅rez
- Auxiliares: Gabriel Chaperon, Ho Jin Kang, Juan-Pablo Silva, Mauricio Romero, Jes煤s P茅rez-Mart铆n
- Versiones anteriores del curso: Oto帽o 2018, Primavera 2019
Primavera 2020
Requerimientos
- Una cuenta de Google para usar Google Collaboratory, o
- Tener instalados los siguientes paquetes de Python:
Organizaci贸n del Curso
1. Fundamentos
Introducci贸n, IA vs ML vs DL, 驴Por qu茅 DL ahora? (video)
1.1. Redes neuronales modernas
- Perceptr贸n, funciones de activaci贸n, y representaci贸n matricial (video)
- UAT, Redes Feed-Forward, y funci贸n de salida (softmax) (video)
- Descenso de Gradiente para encontrar los par谩metros de una red (video)
- Grafos de computaci贸n y el algoritmo de BackPropagation (video1, video2)
- Tensores, Notaci贸n de Einstein, y Regla de la Cadena Tensorial (video)
- Entrop铆a Cruzada y Backpropagation a mano con Tensores (video)
- Aspectos pr谩cticos de entrenamiento y Red FF a mano en pytorch (video)
Readings: Chapter 2. Lineal Algebra, Chapter 3. Probability and Information Theory, Chapter 6. Deep Feedforward Networks
1.2. Inicializaci贸n, Regularizaci贸n y Optimizaci贸n
- Generalizaci贸n, Test-Dev-Train set y Regularizaci贸n (video)
- Ensemble, Dropout, y Desvanecimiento de Gradiente (video)
- Inicializaci贸n de par谩metros y Normalizaci贸n (video)
- Algoritmos de Optimizaci贸n, SGD con Momentum, RMSProp, Adam (video)
Readings: Chapter 7. Regularization for Deep Learning, Chapter 8. Optimization for Training DeepModels, Chapter 11. Practical Methodology
2. Redes Neuronales Convolucionales (CNN)
- Introducci贸n a Redes Convolucionales (video)
- Arquitecturas m谩s conocidas: AlexNet, VGG, GoogLeNet, ResNet, DenseNet (video1, video2, video3)
Readings: Chapter 9. Convolutional Networks, Chapter 12. Applications
3. Redes Neuronales Recurrentes (RNN)
- Introducci贸n a Redes Recurrentes (video)
- Arquitectura de Redes Recurrentes (video)
- Auto-regresi贸n, Language Modelling, y Arquitecturas Seq-to-Seq (video)
- RNNs con Compuertas y Celdas de Memoria: GRU y LSTM (video)
Readings: Chapter 10. Sequence Modeling: Recurrentand Recursive Nets, Chapter 12. Applications
4. T贸picos avanzados
- Atenci贸n Neuronal (video)
- Transformers (video)
- Variational Autoencoders
- Generative Adversarial Networks
- Neural Turing Machine (NeuralTM)
- Differentiable Neural Computers (DNC)
Readings: Chapter 14. Autoencoders, Chapter 20. Deep Generative Models
Libros
No hay ning煤n libro de texto obligatorio para el curso. Algunas conferencias incluir谩n lecturas sugeridas de "Deep Learning" de Ian Goodfellow, Yoshua Bengio, and Aaron Courville; sin embargo, no es necesario comprar una copia, ya que est谩 disponible de forma gratuita en l铆nea.
- Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville (bibliograf铆a fundamental del curso)
- Dive into Deep Learning by Aston Zhang, Zachary C. Lipton, Mu Li, and Alexander J. Smola
- Deep Learning for Vision Systems by Mohamed Elgendy
- Probabilistic and Statistical Models for Outlier Detection by Charu Aggarwal
- Speech and Language Processing by Daniel Jurafsky and James Martin
- Notes on Deep Learning for NLP by Antoine J.-P. Tixier
- AutoML: Methods, Systems, Challenges edited by Frank Hutter, Lars Kotthoff, and Joaquin Vanschoren
Tutoriales
Otros Cursos de DL
- Introduction to Deep Learning
- Deep learning course on Coursera by Andrew Ng
- CS231n course by Stanford University
- Courses by fast.ai
Videos
- Visualizing and Understanding Recurrent Networks
- More on Transformers: BERT and Friends by Jorge P茅rez
- Atenci贸n neuronal y el transformer by Jorge P茅rez