Autoplay
Autocompletar
Lección previa
Completar y continuar
Python para data science, big data y Machine Learning
Intro
Inicio (0:27)
Introduccion a Python para data science y big data
Instalar Jupyter Notebook (5:49)
Instalar PySpark (5:18)
Evaluar la eficiencia del código (5:29)
Evaluación de las necesidades de big data (5:26)
Gestion de datos en Python
Transformaciones de la base de datos (7:39)
Tratar datos duplicados y perdidos (6:06)
Groupby obtener información esencial (7:55)
Introducción al Pandas (7:42)
Filtrar datos en Python (6:17)
Introducción a la librería Numpy (8:02)
Gestion de datos avanzada
Correlaciones. Entender las relaciones entre las variables (5:09)
Análisis de datos extremos (6:04)
Test de la Chi-Cuadrado (8:30)
Joins. Trabajar con bases de datos relacionales (5:57)
Principios de las bases de datos relacionales (4:09)
Paralelizar loops en Python (4:35)
Transformar un dataframe en una base de datos relacional (5:01)
Visualizacion de datos en Matplotlib
Etiquetas y leyendas en Matplotlib (6:02)
Visualización de Mapas con Plotly (7:23)
Gráficos avanzados con Plotly (8:22)
Histogramas y box plots en Matplotlib (5:47)
Gráficos para series temporales en Matplotlib (5:35)
Nubes de puntos y mapas de calor en Matplotlib (7:31)
Introducción al Matplotlib (3:52)
Introducción al Plotly. Visualización interactiva (7:31)
Modificar elementos del gráfico en Matplotlib (4:33)
Machine Learning esencial Clustering
K-Means, el algoritmo de clustering (7:11)
Preparar los datos para Machine Learning (5:46)
El algoritmo hierarchical clustering (6:29)
Necesidades de Machine Learning clustering y modelización (5:40)
Machine Learning esencial Modelizacion
Árboles de clasificación y regresión (8:01)
Naives Bayes Classifier (9:29)
Regresión logística (8:05)
Support vector machine (4:58)
Random forest (5:41)
Regresión lineal (9:00)
K-Nearest Neighbours (5:47)
Trabajar con PySpark
Introducción a PySpark (9:44)
Dataframes en PySpark (9:47)
Acciones básicas en PySpark (3:40)
Transformaciones básicas en PySpark (5:54)
Funciones lambda (5:46)
Sintaxis en PySpark. Qué necesitamos saber (4:32)
Qué son los RDD (Resilient Distributed Databases) (5:10)
Operaciones numéricas con RDD (4:10)
PySpark avanzado
Joins en PySpark (3:34)
Ejemplos básicos de MapReduce en PySpark (5:59)
Cómo construir funciones map (4:14)
Acumuladores. Cómo detectar patrones en nuestros datos (3:57)
Cómo construir funciones reduce (5:04)
Desafio y solucion MapReduce
Desafío MapReduce aplicado con PySpark (1:47)
Resolución de los ejercicios de MapReduce (9:24)
Introducción a la librería Numpy
Contenido bloqueado
Si ya estás inscrito,
deberás iniciar sesión
.
Inscríbase en el curso para desbloquear