jueves, 28 de noviembre de 2019
Data Science: Árboles y Bosques Aleatorios - Árboles de Regresión
Los árboles de regresión son iguales que los de decisión, excepto que los árboles de regresión sirven para predecir una variable numérica en lugar de una categórica. Son útiles cuando no existe una relación lineal que nos permita predecir la variable con una regresión lineal:
miércoles, 27 de noviembre de 2019
martes, 26 de noviembre de 2019
Data Science: Árboles y Bosques Aleatorios - Entropía y ganancia de información
Entropía y ganancia de información:
viernes, 22 de noviembre de 2019
Data Science: Clustering K-Means: Cómo obtener el número óptimo de clusters (Teoría)
Para obtener el número óptimo de clusters a utilizar para k-means, existen dos métodos que podemos utilizar: El método del codo y el coeficiente de la silueta.
jueves, 21 de noviembre de 2019
Data Science: Clustering K-Means (Teoría)
Un clustering también se puede hacer por el método k-means:
martes, 19 de noviembre de 2019
Data Science: Clustering Jerárquico y Métodos de Enlace (Teoría)
Vamos a ver los diferentes métodos de enlace que se pueden utilizar para hacer un clustering jerárquico:
Data Science: Clustering y Distancia (Teoría)
Vamos a ver un poco de teoría de Clustering y el concepto de Distancia:
lunes, 18 de noviembre de 2019
domingo, 17 de noviembre de 2019
Data Science: Regresión Logística: Matrices de confusión y curvas ROC (Teoría)
Vamos a ver teoría en imágenes más validaciones de regresiones logísticas. En concreto, matrices de confusión y curvas ROC:
sábado, 16 de noviembre de 2019
Data Science: Regresión Logística: Validaciones Cruzadas (Teoría)
Vamos a ver un resumen con imágenes de los tipos de validaciones cruzadas que existen:
viernes, 1 de noviembre de 2019
Suscribirse a:
Entradas (Atom)