Curso completo para ser experto en Machine Learning - Data Science con Python
Aprende los algoritmos de Machine Learning con Python para convertirte en un Data Science con todo el código para usar
Lo que aprenderás
Este curso cuenta con:
Este curso no tiene soporte del instructor
Videos en Full HD
Certificado de Finalización

Garantía de Reembolso
Contenido del Curso
Disponible en
días
días
después de inscribirte
Disponible en
días
días
después de inscribirte
- Cómo instalar Python con Anaconda Navigator (11:21)
- Como instalar paquetes de Python con pip (12:01)
- Las librerias estandar de MachineLearning en Python (19:03)
- Los editores para programar en Python (9:53)
- Cómo instalar las mismas librerías que tengo en el curso (10:28)
- IMPORTANTE: Si el entorno anterior no funciona, prueba con el adjunto aquí
- Algunos cambios en la versión 3.7 de Python
Disponible en
días
días
después de inscribirte
- Ser Data Scientist es la profesión más sexy del siglo XXI (15:46)
- ¿Qué es el análisis predictivo de datos? (18:49)
- Data Scientist = Matemáticas + Programación + Business (10:48)
- Aplicaciones y ejemplos del mundo del Data Science (26:31)
- Las 5 etapas del análisis de datos (13:10)
- ¿Qué es el Machine Learning? (6:36)
Disponible en
días
días
después de inscribirte
- Data cleaning (4:40)
- El concepto de data frame (9:23)
- El repositorio Git del curso (5:28)
- ¿Qué hago si no me autocompleta Jupyter?
- Acerca de las barras en Windows
- Leer datos procedentes de un .CSV (13:50)
- Los parámetros de la función read/csv (17:26)
- Ejemplos de diferentes cargas de datos con read/csv (14:58)
- El método open para la carga manual de datos (14:39)
- Cuidado con el método open
- Leer y escribir en un fichero con Python (7:56)
- Leer los datos desde una URL externa (12:45)
- La carga de datos desde una hoja de cálculo (8:35)
- Ejercicio descargar y procesar datos desde una URL externa (19:24)
- Las funciones básicas de resumen, estructura, dimensiones y cabecera (16:45)
- ¿Por qué faltan valores en los data sets? (13:53)
- ¿Qué hacer cuando faltan valores en el data set? (18:24)
- Las variables dummy (13:18)
- Visualización básica de un dataset: el scatterplot (15:35)
- Visualizaión básica de un dataset: el histograma de frecuencias (9:45)
- Visualización básica de un dataset: el boxplot (12:58)
Disponible en
días
días
después de inscribirte
- Data Wrangling (7:29)
- Una chuleta de pandas para Data Wrangling
- Fe de erratas
- Bucar un subconjunto de datos de un dataset (19:54)
- Filtrados alternativos
- Subconjuntos de filas conciertas condiciones (18:12)
- Subconjuntos con loc e iloc y creación de nuevas columnas (16:33)
- Generar números aleatorios (19:45)
- La semilla de la generación aleatoria (5:06)
- Funciones de distribución de probabilidades (5:41)
- La distribución uniforme (8:59)
- La distribución normal N (15:10)
- El método de la simulación de Monte-Carlo para encontrar el valor de Pi (21:56)
- Generando dummy data frames (10:51)
- Un dummy data frame con variables categóricas (12:05)
- Agrupación de los datos por categorias (8:13)
- Agregación de datos (11:22)
- Filtrado, transformación y otras operaciones útiles (14:40)
- Conjunto de entrenamiento y de testing (5:48)
- Actualización: cómo dividir conjunto de entrenamiento y test
- Muestreo aleatorio: Cómo dividir un dataset en conjunto de entreno y validación (13:30)
- Concatenar dos datasets por filas (17:18)
- Carga de cientos de datos distribuidos (23:18)
- Ejercicio: El dataset de los juegos olímpicos (19:57)
- Concatenar los datos con merge (13:46)
- Formas de cruzar tablas con joins (14:26)
- Eliminar datos de datasets con restricciones de conjunto (13:01)
- Ejemplos de joins con Python (16:41)
- Ya conoces las bases del manejo de datos (4:00)
- ¿Te gusta el curso? ¡Valóralo y cuéntanos tu opinión! (1:44)
Disponible en
días
días
después de inscribirte
- Los conceptos fundamentales de estadística (6:59)
- Un resumen de los estadísticos básicos (en R). (25:46)
- El resumen de estadísticos en Python (propuesta de un estudiante)
- Muestreo aleatorio y el teorema central del límite (12:26)
- Los contrastes de hipótesis (12:46)
- Cómo hacer un contraste de hipótesis paso a paso (19:02)
- Test de la chi cuadrado (16:19)
- Correlación entre variables (30:38)
- Un resumen de lo aprendido (3:24)
Disponible en
días
días
después de inscribirte
- La regresión lineal (6:24)
- Las matemáticas tras una regresión lineal (10:18)
- Demostración de la obtención de los parámetros del modelo lineal (19:52)
- Errores normalmente distribuidos (2:24)
- Sumas de los cuadrados totales, de las diferencias y de la regresión (32:22)
- Ejercicio: Demostrar que SST = SSR + SSD
- Encontrando los coeficientes óptimos de la regresión (14:42)
- Interpretar los parámetros de la regresión (14:51)
- Implementar una regresión lineal con Python (20:49)
- Regresión lineal múltiple (23:13)
- El problema de la multicolinealidad (12:13)
- Validando nuestro modelo (14:54)
- El resumen de todos lo modelos lineales creados (6:11)
- Regresión lineal con scikit-learn (11:46)
- Modelos lineales con variables categóricas (6:13)
- Variables categóricas en una regresión lineal (27:43)
- Otra forma más simple de calcular las predicciones
- Enmascarado de variables categóricas redundantes (16:05)
- Transformar las variables en relaciones no lineales (33:22)
- El problema de los outliers (16:38)
- Otros problemas y consideraciones de la regresión lineal (11:17)
- Un resumen de la regresión lineal (5:49)
Disponible en
días
días
después de inscribirte
- La regresión logística (3:21)
- Regresión lineal vs regresión logística (7:26)
- Las matemáticas que hay detrás de la regresión logística (11:01)
- Probabilidades condicionadas (13:03)
- Cociente de probabilidades (13:41)
- De la regresión lineal a la logística (19:25)
- Estimación con el método de máxima verosimilitud (40:10)
- Crear un modelo logístico desde cero (49:56)
- Análisis exploratorio de los datos (29:33)
- La selección de variables del dataset para el modelo logístico (21:10)
- Implementar una regresión logística con Python (13:50)
- Validación del modelo y evaluación del mismo (16:12)
- La validación cruzada. (13:39)
- Validación cruzada con Python (11:56)
- Las matrices de confusión y las curvas ROC (8:14)
- Implementación de las curvas ROC en Python (31:30)
- Resumen de la regresión logística (6:19)
Disponible en
días
días
después de inscribirte
- Clustering (6:16)
- ¿Qué es y para qué sirve el clustering? (17:35)
- El concepto de distancia (16:23)
- Matriz de distancias en Python (12:16)
- Métodos de enlace (11:41)
- Uniendo datos manualmente (26:34)
- Clustering jerárquico en Python (14:03)
- Un clustering completo: La fase de exploración de datos (17:58)
- Un clustering completo: Representación del dendrograma (29:04)
- Un clustering completo: Por donde cortamos el dendrograma (30:18)
- Un clustering completo: Visualización final del clustering (10:14)
- El método k-means (7:08)
- Implementando k-means en Python (8:52)
- Ejercicio: Segmentación de los vinos (27:27)
- El metodo del codo (3:51)
- El coeficiente de la silueta (7:03)
- Implementando la técnica del codo y el coeficiente de la silueta (35:08)
- Propagación de la afinidad (7:57)
- Implementando la propagación de la afinidad (19:06)
- Generando distribuciones en forma de anillo (10:54)
- Los K medoides y el clustering espectral (15:39)
- Resumen del clustering (3:58)
Disponible en
días
días
después de inscribirte
- Arboles y bosques aleatorios (3:35)
- ¿Qué es un árbol de decisión? (9:16)
- Homogeneidad en los datos (7:11)
- Entropía y ganancia de información (15:22)
- Algoritmos para la generación de árboles de clasificación (15:53)
- La poda del árbol (6:45)
- Los problemas del árbol (12:13)
- Los árboles de clasificación con Python (16:23)
- El tratamiento de ficheros dot (15:27)
- La validación cruzada de un árbol de clasificación (12:29)
- Los árboles de regresión (8:07)
- El data set de las casas de Boston y Kaggle (10:42)
- Árboles de regresión con Python (16:56)
- Random forests (9:34)
- Random forests para regresión (9:57)
- Random forests para clasificación (4:44)
- ¿Por que funcionan los random forest? (6:31)
- Resumen de árboles y bosques aleatorios (3:35)
Disponible en
días
días
después de inscribirte
- Las máquinas de soporte vectorial (4:51)
- Las support vector machines (12:12)
- El problema de clasificación no óptimo (14:02)
- Los núcleos no lineales y el problema de la dimensión (10:59)
- Soporte Vectorial Clasificador Lineal (7:40)
- Creando el modelo clasificador lineal (8:08)
- Representación gráfica del hiperplano separador en 2D (7:25)
- El problema de la separación (9:36)
- Maximizar el margen de clasificación (4:58)
- Los soportes de SVM (26:21)
- Kernels no lineales (13:26)
- Radial basis function (9:32)
- Ajustando las SVM (13:29)
- Práctica de SVM: Reconocimiento facial a lo CSI (31:44)
- Práctica de SVM: Clasificación de las flores de iris (28:35)
- Truco: qué hacer cuando me toca hacer un análisis de datos (13:37)
- SVM para regresión (17:48)
Disponible en
días
días
después de inscribirte
- La decisión de los K vecinos (2:54)
- Los K vecinos más cercanos (11:26)
- Limpieza del dataset del Cáncer (8:29)
- Clasificación según los K vecinos (9:43)
- Clasificando nuevos datos de los tests médicos (6:55)
- Creando los datos para la clasificación (10:36)
- Implementando la decisión por mayoria (16:09)
- Nuestro algoritmo versus scikit-learn (13:04)
- Una opinión final sobre los algoritmos de machine learning (6:38)
Disponible en
días
días
después de inscribirte
- El rol de las recomendaciones dinámicas en el siglo XXI (5:14)
- El dataset de películas de Movie Lens (7:18)
- Análisis exploratorio de datos y distribución de las valoraciones (6:27)
- Esparsiedad de los datos (6:31)
- División en entrenamiento y validación (4:03)
- La matriz de similaridad entre usuarios (7:28)
- Predecir la valoración de un ítem para un usuario (6:16)
- Filtrando con los K nearest neigbours (13:34)
- Sistemas de recomendación basados en items (10:47)
- Recomendando con los K ítems más parecidos (6:27)
- Los resultados finales (8:31)
- Corrección: Error en la clase anterior
Disponible en
días
días
después de inscribirte
- Análisis de componentes principales (3:57)
- El problema de la dimensión (10:31)
- Demostración de como se hace un ACP (26:26)
- Implementando nuestro propio ACP en Python (28:12)
- Plotly, la libreria de gráficos personalizados e interactivos (8:53)
- Los valores y vectores propios de la matriz de covarianzas (10:21)
- La matriz de correlaciones y el Singular Value Decomposition (6:22)
- La selección de componentes principales (18:17)
- La proyección en el subespacio vectorial resultante (10:10)
- Implementación de ACP con sklearn (8:00)
- Más gráficos con plotly (9:37)
- Personalizando los gráficos con plotly (17:25)
- Coloraciones y etiquetas de plotly (15:59)
Disponible en
días
días
después de inscribirte
- Redes neuronales del futuro (6:42)
- Introducción al tensorflow (5:22)
- Acerca de las redes neuronales y el deep learning (11:52)
- IMPORTANTE: Versión de TensorFlow a utilizar
- Instalando tensorflow en tu ordenador (12:35)
- Si tienes problemas con la instalación de TensorFlow
- La carga del dataset de imagenes (22:59)
- Análisis exploratorio de los datos (11:17)
- Un resumen visual de imágenes (16:59)
- Pre procesado de imágenes previo al ML (15:06)
- Creación del modelo (14:13)
- Entrenamiento del modelo (10:22)
- Validación del modelo (21:18)
- El data set de reconocimiento de dígitos (8:08)
- De datos desestructurados a espacios vectoriales n-dimensionales (5:24)
- La regresión softmax (9:31)
- Tensorflow y la regresión softmax (10:53)
- La fase de entrenamiento de la red neuronal (15:45)
- La fase de evaluación de la red neuronal (6:43)
Disponible en
días
días
después de inscribirte
- Cuando Python conoce a R, no hay limites en el BigData (3:10)
- Instalar la libreria rpy2 (9:49)
- Nota adicional para instalar rpy2 en Windows
- Llevando objetos de R a Python (7:29)
- Llevando objetos de Python a R (10:11)
- Como instalar y cargar paquetes de R desde Python (5:49)
- La libreria extRemes en acción desde Python (22:00)
- Rmagic (11:34)
- Lo bueno de programación en Python, lo mejor de estadística con R (13:52)
Disponible en
días
días
después de inscribirte
Tu Instructor
Conoce el blog de Frogames
Cada semana publicamos un nuevo artículo en nuestra web de Frogames, así que no te lo pierdas!!