- Cátedra: Introducción, IA vs ML vs DL, ¿Por qué DL ahora? (video)
- Cátedra: Perceptrón, funciones de activación, y representación matricial (video)
- Cátedra: UAT, Redes Feed-Forward, y función de salida (softmax) (video)
- Auxiliar: Colab, Pytorch y Tensores, una introducción práctica (video)
- Cátedra: Descenso de Gradiente para encontrar los parámetros de una red (video)
- Auxiliar: Aclaración de dudas sobre la Tarea 1
- Cátedra: Tensores, Notación de Einstein, y Regla de la Cadena Tensorial (video)
- Cátedra: Entropía Cruzada y Backpropagation a mano con Tensores (video)
- Cátedra: Red FF a mano en pytorch (y la versión estilo pytorch) (video)
- Cátedra: Generalización, Test-Dev-Train set, e Intro. a Regularización (video)
- Cátedra: Ensemble, Dropout, y Desvanecimiento de Gradiente (video)
- Cátedra: Inicialización, Normalización y Batch Normalization (video)
- Cátedra: Algoritmos de Optimización, SGD con Momentum, RMSProp, Adam (video)
- Cátedra: Aclaración de dudas
- Cátedra: Introducción a Redes Convolucionales (video)
- Cátedra: Redes Convolucionales: Pooling, AlexNet, VGG (video)
- Cátedra: Redes Convolucionales: InceptionNet (GoogleNet) (video)
- Cátedra: Redes Convolucionales: ResNet, DenseNet (video)
- Cátedra: Introducción a Redes Recurrentes (video)
- Cátedra: Arquitectura de Redes Recurrentes (video)
- Cátedra: Auto-regresión, Language Modelling, y Arquitecturas Seq-to-Seq (video)
- Cátedra: RNNs con Compuertas y Celdas de Memoria: GRU y LSTM (video)
- Cátedra: Atención Neuronal (video)
- Cátedra: Transformers (video)
- Cátedra: Graph Neural Networks
- Cátedra: Generative Adversarial Networks
- Cátedra: Avanzado