Herramientas de usuario

Herramientas del sitio


ai:data_mining

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anterior Revisión previa
Próxima revisión
Revisión previa
ai:data_mining [2011/07/01 10:49]
alfred
ai:data_mining [2020/05/09 09:25] (actual)
Línea 1: Línea 1:
 ====== Data Mining ====== ====== Data Mining ======
 +Algoritmos y metodología para la explotación de datos.
  
 ===== El preproceso ===== ===== El preproceso =====
Línea 12: Línea 13:
 === Individuos a los que le falten valores === === Individuos a los que le falten valores ===
 Cuando un individuo tiene una variable sin valor podemos buscar otro individuo, el más cercano a él (mediante distancia euclídea, por ejemplo), y asignarle el mismo valor. Cuando un individuo tiene una variable sin valor podemos buscar otro individuo, el más cercano a él (mediante distancia euclídea, por ejemplo), y asignarle el mismo valor.
 +
  
  
Línea 29: Línea 31:
  
  
 +===== Modelos de regresión =====
  
-===== Clustering ===== 
-Consiste en agrupar individuos en grupos parecidos. ​ 
  
  
  
-==== K-Means ​==== +==== Regresión Lineal ​==== 
-En la nube de puntos que forman los individuos... +La regresión lineal modeliza ​la relación entre una variable dependiente ''​Y'',​ las variables independientes ''​Xi''​ y un término aleatorio ε, y puede ser expresado ​de la siguiente forma: \\  
-  - Cogemos K centros de gravedad aleatorios (K corresponde al número de grupos), aunque pueden escogerse de otra forma no aleatoria+<m>Y = beta_0 X_0 + beta_1 X_1 + ... + beta_i X_i + varepsilon</​m>​ \\  
-  Calculamos ​la distancia ​entre un punto cualquiera ​y el centro ​de gravedad ​le asignaremos el más cercano +Donde β son los parámetros respectivos a cada variable independiente,​ e ''​i''​ es el número de parámetros independientes a tener en cuenta en la regresión\\  
-  - Definimos una partición ​a partir de esto y calculamos su centro ​de gravedad ​(no tienen por qué coincidir con puntos)+{{ai:​data_mining:​linear_regression.png|}} \\  
-  - Con los nuevos centros volvemos a hacer el paso 2nos aparece otra partición. +Es decir, a partir de una distribución bidimensional podemos estudiar la influencia existente entre dos variables (causa-efecto). Un ejemplo sería ​la relación ​entre la cantidad de lluvia ​la producción agrícola, entre el aumento ​de precio ​la demanda de un producto... Para ello, a partir de una representación gráfica en un sistema ​de coordenadas encontraremos un "​diagrama de dispersión",​ será regresión lineal cuando la función es lineal ​(pendiente y ordenada (y = ax + b)), la recta del gráfico resultante será la **recta ​de regresión**Esto nos permite, además, predecir un valor para una x que no esté en la distribución.
-=== Fast K-Means === +
-Una variación ​del K-Means es el Fast K-means, en el paso 2 cada vez que enlazasemos con un centro ​de gravedad crearíamos otro nuevoEn una sola pasada se encuentran las clasificaciones pero son peores.+
  
-==== Clustering jerárquico ​====+==== Regresión logística ​==== 
 +Para modelar la probabilidad de un evento que ocurre en función de otros factores. Usa la función logit.
  
  
-==== Calidad del clustering ==== 
-  * Se buscará hacer grupos el máximo de homogéneos posibles entre sus individuos y lo más diferente posible entre ellos. 
-  * Una medida para calcular esto es la inercia. Distinguiremos varias inercias: 
-    * Inercia within: la que hay en los grupos. Suma de inercia de los grupos. 
-    * Inercia between: la que hay entre los grupos. A partir de los centros de gravedad. 
-    * Inercia total: La suma de la within y la between. 
-    * Ratio de inercia: ''​Inercia_Between / Inercia_Total'',​ se buscará hacer la inercia between grande y la within pequeña. 
  
 ===== Reglas de asociación ===== ===== Reglas de asociación =====
ai/data_mining.1309517389.txt.gz · Última modificación: 2020/05/09 09:24 (editor externo)