Curso completo de Tensorflow desde cero
Combina TensorFlow y Python para programar tus algoritmos de Machine Learning e Inteligencia Artificial con ejemplos prácticos del mundo en varios campos
Lo que aprenderás
Este curso cuenta con:
Este curso no tiene soporte del instructor
Videos en Full HD
Certificado de Finalización

Garantía de Reembolso
Contenido del Curso
Disponible en
días
días
después de inscribirte
Disponible en
días
días
después de inscribirte
- ¿Qué es Tensorflow? (4:55)
- Aprende las bases de como funciona Tensorflow (26:52)
- Formas de definir tensores (23:51)
- Placeholders y variables en Tensorflow (13:58)
- El grafo de computación en tensorflow (9:29)
- Matrices en Tensorflow (19:51)
- Operaciones aritméticas en Tensorflow (7:43)
- Otras operaciones matemáticas (14:02)
- Funciones de activación en Tensorflow (22:31)
- Recursos adicionales de Tensorflow (3:30)
Disponible en
días
días
después de inscribirte
- Posibles fuentes de datos (1:00)
- El dataset de las flores Iris (6:08)
- Los nacimientos y relación humana (9:25)
- Keras y las casas de Boston (14:51)
- Los datos manuscritos de MNIST (11:38)
- Spam o no spam (11:22)
- Valoraciones de películas (12:22)
- Catalogar objetos a traves de imágenes (8:52)
- Las palabras de Shakespeare (8:13)
- Traducción de frases entre múltiples idiomas (19:51)
- BUG: Si no te funciona el ZipFile de la clase anterior...
Disponible en
días
días
después de inscribirte
- Piensa en matemáticas, traduce en Tensorflow (1:13)
- El grafo básico de operaciones en Tensorflow (9:02)
- Divide la ejecución en capas (19:03)
- Multiples capas de trabajo (18:46)
- Gráficos de computación con tensorboard (7:27)
- Funciones de pérdida para problemas de regresión (20:11)
- Funciones de pérdida para problemas de clasificación (28:13)
- Métricas para evaluar la calidad del modelo (18:29)
- La propagación hacia atrás en regresión (21:48)
- La propagación hacia atrás en clasificación (19:48)
- Acerca de las variantes del Gradiente Descendente (7:46)
- Entrenamiento en bloques vs estocástico (24:23)
- Clasificar las flores de iris (31:01)
- Evaluar los modelos de regresión (19:35)
- Evaluar los modelos de clasificación (21:12)
Disponible en
días
días
después de inscribirte
- La regresión lineal (3:42)
- El método de la matriz inversa (17:16)
- El método de la descomposición LU (15:05)
- Regresión lineal a lo Tensorflow (21:20)
- La función de pérdidas en la regresión lineal (19:28)
- Regresión lineal deming (26:02)
- Métodos de regularización (lasso y ridge) (22:57)
- Regresión elastic net (22:13)
- Crear y leer CSV desde tus propios datos (11:34)
- Normalización de los datos en entrenamiento y test (12:46)
- Regresión logística (22:39)
Disponible en
días
días
después de inscribirte
- Support Vector Machine (4:51)
- ¿Qué es una SVM? (10:21)
- Trabajar con SVM lineal (38:29)
- SVM para estimar una regresión lineal (22:48)
- Cambiar el Kernel con Tensorflow (11:10)
- Como generar distribuciones en forma de anillo (7:12)
- Un Kernel Gaussiano con Tensorflow (21:19)
- Entrena tu Kernel Gaussiano (19:06)
- Diferentes núcleos de convolución (7:44)
- Los efectos del parámetro gamma (24:31)
- Un clasificador multiclase (13:25)
- Clasificar las tres especies de flores con SVM (28:46)
Disponible en
días
días
después de inscribirte
- El concepto detrás de los vecinos más cercanos (1:51)
- Formalización matemática de los KNN (17:27)
- Descargar y procesar el dataset con requests (15:59)
- Implementar KNN con variables numéricas con Tensorflow (20:37)
- Medir la eficacia de la clasificación (9:10)
- La distancia de Levenshtein (35:05)
- Distancias basadas en texto (6:51)
- Como utilizar distancias ponderadas para cada variable (20:16)
- El problema de la dirección postal mal escrita (19:13)
- Comparar número y texto para clasificar (32:32)
- El ejemplo de los vecinos de una imágen (32:07)
Disponible en
días
días
después de inscribirte
- Los algoritmos no supervisador y su potencial (9:18)
- Puertas lógicas y redes neuronales (7:02)
- Puertas lógicas y operaciones en Tensorflow (11:26)
- Ejercicio: Más operaciones lineales con Tensorflow (10:27)
- Funciones de activación (27:46)
- Una red neuronal con una capa oculta (35:19)
- Redes neuronales multicapa en el caso 1D (29:58)
- Redes neuronales multicapa en el caso 2D (18:05)
- El ejemplo de recién nacidos con bajo peso (37:53)
- Mejoras con la entropía cruzada (23:17)
- El juego del tres en raya (32:47)
- Entrenando nuestra red neuronal (17:54)
- La red neuronal que aprende a jugar (16:50)
Disponible en
días
días
después de inscribirte
- El rol del NLP en el siglo XXI (6:22)
- La idea detrás del concepto del procesamiento natural del lenguaje (6:03)
- Limpieza de datos para el Bag of Words (28:38)
- Entrenando con el Bag of Words (34:23)
- Text Frequency - Inverse Document Frequency (19:53)
- Entrenando con TF-IDF (27:26)
- Los algoritmos de Word2Vec (11:17)
- Descargar y clasificar las valoraciones de películas (17:33)
- La limpieza de datos (28:40)
- Entrenando con los Skip Gramas (23:20)
- El detalle de como funciona la embedding matrix (8:37)
- Continuous Bag of Words (21:22)
- Entrenando con Continuous Bag of Words (20:30)
- Crear una librería con todo lo aprendido (12:45)
- Como cargar modelos ya entrenados con pickle (14:31)
- Clasificando las valoraciones de películas con Word2Vec (24:34)
- Como funciona la técnica de doc2vec (6:56)
- Inicializando nuestros embeddings con doc2vec (20:08)
- Entrenando con doc2vec (20:36)
- Análisis de sentimiento (27:31)
Disponible en
días
días
después de inscribirte
- CNN para el tratamiento de imágenes (2:27)
- La convolución matemática (9:44)
- Otras operaciones matriciales (8:00)
- Una red neuronal de convolución simple (29:01)
- Entrenando nuestra red neuronal convolucional (16:22)
- Evaluar los resultados de nuestra red neuronal convolucional (15:31)
- Redes neuronales más completas (11:59)
- Procesar los datos binarios de imágenes de CIFAR-10 (17:41)
- El modelo de CNN para las imágenes de CIFAR (20:18)
- Entrenando con la CNN completa (16:29)
- Los resultados del entrenamiento de la CNN (13:08)
- Descomprimir imágenes binarias y guardarlas en diferentes carpetas (26:57)
- Como cargar una red neuronal entrenada con MatLab (26:07)
- Aplicar un estilo a otra imágen (21:53)
- Pintando como Van Gogh (23:10)
- Deep Dream (8:24)
- Entrenando con Deep Dream (21:18)
- Que entiende cada neurona de cada capa de Deep Dream (25:41)
Disponible en
días
días
después de inscribirte
- La idea de la RNN (4:26)
- Formalización de la RNN (10:38)
- Ejercicio: Descargar y guardar los datos de SPAM (23:15)
- La estructura de una red neuronal recurrente (21:20)
- Entrenando la red neuronal recurrente (15:22)
- Long Short Term Memory (12:05)
- Las obras de Shakespeare (19:31)
- Una implementación directa del Word2vec (8:19)
- La clase LSTM (26:33)
- Continuando un texto como Sheakespeare (32:23)
- Redes neuronales multicapa (34:05)
Disponible en
días
días
después de inscribirte
- Cuando uno sube a producción todo falla (2:28)
- Un ejemplo para probar las pruebas unitarias (20:45)
- Implementando pruebas unitarias (6:19)
- Como validar las pruebas unitarias en producción (16:30)
- Ejecutar en CPU versus GPU (16:24)
- Multiples trabajadores en paralelo (11:01)
- A partir de aquí tienes mucho por delante! (2:07)
Disponible en
días
días
después de inscribirte
Tu Instructor
Conoce el blog de Frogames
Cada semana publicamos un nuevo artículo en nuestra web de Frogames, así que no te lo pierdas!!