Diferencia entre revisiones de «Medidas de dispersión»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Revertidos los cambios de 190.252.237.221 a la última edición de 193.144.197.164
Línea 26: Línea 26:


* La varianza es siempre positiva o 0: <math>S_{X}^2 \geq 0</math>
* La varianza es siempre positiva o 0: <math>S_{X}^2 \geq 0</math>
* Si a los datos de la distribución les sumamos una cantidad constante la varianza no se modifica.jhjdsfg
* Si a los datos de la distribución les sumamos una cantidad constante la varianza no se modifica.
<math>Y_i = X_i + k</math>
<math>Y_i = X_i + k</math>
c
c

Revisión del 15:28 28 sep 2009

Las medidas de dispersión muestran la variabilidad de una distribución, indicando por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.

Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado (Varianza).

Rango estadístico

El rango estadístico es la diferencia entre el valor mínimo y el valor máximo en un grupo de números aleatorios. Se le suele simbolizar con R.

Requisitos del rango

  • Ordenamos los números según su tamaño.
  • Restamos el valor mínimo del valor máximo.

Ejemplo

Para una muestra (1, 45, 50, 55, 100), el dato menor es 1 y el dato mayor es 100. Sus valores se encuentran en un rango de:

Rango = 100 – 1 =99

Varianza

La varianza, también denominada variancia, es una medida estadística que mide la dispersión de los valores respecto a un valor central (media), es decir, la media de las diferencias cuadráticas de las puntuaciones respecto a su media aritmética. Suele ser representada con la letra greca σ o unA V en mayúscula.

Propiedades

  • La varianza es siempre positiva o 0:
  • Si a los datos de la distribución les sumamos una cantidad constante la varianza no se modifica.

c

  • Si a los datos de la distribución les multiplicamos una constante, la varianza queda multiplicada por el cuadrado de esa constante.

  • Propiedad distributiva:

Desviación típica

La varianza a veces no se interpreta claramente, ya que se mide en unidades cuadráticas. Para evitar ese problema se define otra medida de dispersión, que es la desviación típica, o desviación standard, que se halla como la raíz cuadrada positiva de la varianza. La desviación típica informa sobre la dispersión de los datos respecto al valor de la media; cuanto mayor sea su valor, más dispersos estarán los datos. Esta medida viene representada en la mayoría de los casos por S, dado que es su inicial de su nominación en inglés.

Desviación típica muestral

Desviación típica poblacional

Ejemplo

Con Scilab este cálculo se hace de la siguiente manera:

-->x= [17 14 2 5 8 7 6 8 5 4 3 15 9]
 x  =

    17.    14.    2.    5.    8.    7.    6.    8.    5.    4.    3.    15.    9.

-->stdev(x)
 ans  =

    4.716311

-->

Primero hemos declarado un vector con nombre X, donde introduzco los números de la serie. Luego con el comando stdev se hallará la desviación típica.

Covarianza

La covarianza entre dos variables es un estadístico resumen indicador de si las puntuaciones están relacionadas entre sí. La formulación clásica, se simboliza por la letra griega sigma (\sigma_{xy}) cuando ha sido calculada en la población. Si se obtiene sobre una muestra, se designa por la letra "s_{xy}".

La formula suele aparecer expresada como:

Este tipo de estadístico puede utilizarse para medir el grado de relación de dos variables si ambas utilizan una escala de medida a nivel de intervalo/razón (variables cuantitativas).

La expresión se resuelve promediando el producto de las puntuaciones diferenciales por su tamaño muestral (n pares de puntuaciones, n-1 en su forma insesgada). Este estadístico, refleja la relación lineal que existe entre dos variables. El resultado numérico fluctua entre los rangos de +infinito a -infinito. Al no tener unos límites establecidos no puede determinarse el grado de relación lineal que existe entre las dos variables, solo es posible ver la tendencia.

Ejemplo

Tenemos una tabla con dos datos (x y h), elaboramos su tabla de frecuencias (fre)

-->x=[10 20 30 40]					Vector de datos X
 x  =

    10.    20.    30.    40.

-->y=[10 20 30 40]					Vector de datos H
 y  =

    10.    20.    30.    40.

-->fre=[.20 .04 .01  0;				Matriz de frecuencias
-->     .10 .36 .09  0;
-->       0 .05 .10  0;
-->       0   0   0 .05]
 fre  =

    0.2    0.04    0.01    0.
    0.1    0.36    0.09    0.
    0.     0.05    0.1     0.
    0.     0.      0.      0.05

-->s=covar(x,y,fre)					Aplicación del Comando covar
 s  =

    49.

Coeficiente de Correlación de Pearson

El coeficiente de correlación de Pearson, r, permite saber si el ajuste de la nube de puntos a la recta de regresión obtenida es satisfactorio. Se define como el cociente entre la covarianza y el producto de las desviaciones típicas (raíz cuadrada de las varianzas).

Teniendo en cuenta el valor de la covarianza y las varianzas, se puede evaluar mediante cualquiera de las dos expresiones siguientes:


Propiedades

  • El coeficiente de correlación, r, presenta valores entre –1 y +1.
  • Cuando r es próximo a 0, no hay correlación lineal entre las variables. La nube de puntos está muy dispersa o bien no forma una línea recta. No se puede trazar una recta de regresión.
  • Cuando r es cercano a +1, hay una buena correlación positiva entre las variables según un modelo lineal y la recta de regresión que se determine tendrá pendiente positiva, será creciente.
  • Cuando r es cercano a -1, hay una buena correlación negativa entre las variables según un modelo lineal y la recta de regresión que se determine tendrá pendiente negativa: es decreciente.

Ejemplo

Tenemos una tabla con dos datos (x y h), elaboramos su tabla de frecuencias (fre)

-->x=[2.5 7.5 12.5 17.5] Vector de datos X

x  =
   2.5    7.5    12.5    17.5

-->h=[0 1 2] Vector de datos H

h  =
   0.    1.    2.

-->fre=[.03 .12 .07;.02 .13 .11;.01 .13 .14;.01 .09 .14] Matriz de frecuencias

fre  =
   0.03    0.12    0.07
   0.02    0.13    0.11
   0.01    0.13    0.14
   0.01    0.09    0.14

-->rho=correl(x,h,fre) Aplicación del Comando correl

rho  =
   0.2097870

Véase también