Consultar ensayos de calidad


Estadistica - Coeficiente de asimetría, En ocasiones se emplea esta otra definición del coeficiente de curtosis, Correcciones de Sheppard, Momentos respecto a la media



Coeficiente de asimetría
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica.
Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la 'cola' a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la 'cola' a la izquierda de la media es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.


Mide el grado de asimetría de la distribución con respecto a la media. Un valor positivo de este indicador significa que la distribución se encuentra sesgada hacia la izquierda (orientación positiva). Un resultado negativo significa que la distribución se sesga a la derecha .La distribución se considera simétrica si el valor del coeficiente es cero.
Ejemplo: Cálculo del coeficiente de asimetría
Para calcular el coeficiente de asimetría es necesario seguir los siguientes datos obtenidos de una muestra.
55 | 3 | 1 | 3 |3 | 3 |
3 | 4 | 3 | 2 | 3 | 3 |
1 | 2 | 3 | 2 | 3 | 2 |
2 | 4 | 2 | 2 | 2 | 2 |
1 | 2 | 1 | 4 | 2 | 2 |
3 | 2 | 3 | 1 | 2 | 3 |
1 | 5 | 6 | 3 | 2 | 1 |
1 | 1 | 2 | 3 | 2 | 1 |

SOLUCIÓN:
PASO 1: Calculamos la desviación estándar de muestra.
PASO 2: Calculamos la diferencia de cada valor con respecto a la media, divido por la desviación y luego elevado a la 3.
Coeficiente de Curtosis:
En teoría de la probabilidad y estadística, la curtosis es una medida de la forma o apuntamiento de las distribuciones. Así las medidas de curtosis (también llamadas de apuntamiento o de concentración central) tratan de estudiar la mayor o menor concentración de frecuencias alrededor de la media y en la zona central de la distribución.
Definición de curtosis
El coeficiente de apuntamiento de uso más extendido es el basado en el cuarto momento con respecto a la media y se define como:



donde μ4 es el 4s momento centrado o con respecto a la media y σ es la desviación estándar.

En ocasiones se emplea esta otra definición del coeficiente de curtosis

Donde al final se ha sustraido 3 (que es la curtosis de la Normal) con objeto de generar un coeficiente que valga 0 para la Normal y tome a ésta como referencia de apuntamiento:
Tomando, pues, la distribución normal como referencia, una distribución puede ser:
Más apuntada que la normal –leptocúrtica.
Menos apuntada que la normal- platicúrtica.
La distribución normal es mesocúrtica.

En ladistribución normal se verifica que μ4 = 3σ4, donde μ4 es el momento de orden 4 respecto a la media y σ la desviación típica.
Así tendremos que
Si la distribución es leptocúrtica β2 > 3 y g2 > 0
Si la distribución es platicúrtica β2 < 3 y g2 < 0
Si la distribución es mesocúrtica β2 = 3 y g2 = 0
Desigualdad de Chebyshov
En probabilidad, la desigualdad de Chebyshov (habitualmente también escrito como 'Tchebycheff') es un resultado que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su esperanza matemática. La desigualdad recibe su nombre del matemático ruso Pafnuti Chebyshov.
Formulación:
Si X es una variable aleatoria de media μ y varianza finita σ², entonces, para todo número real k > 0,

Sólo en caso de que k > 1 la desigualdad proporcionan una cota no trivial
Ejemplos
Otra consecuencia del teorema es que para cada distribución de media μ y desviación típica finita σ, al menos la mitad de sus valores se concentrarán en el intervalo (μ-√2 σ, μ+√2 σ)
Demostración
Para demostrar la desigualdad se parte de la variable aleatoria auxiliar Y definida así:

Entonces, trivialmente,

y por lo tanto,

Tomando esperanzas en ambos miembros se obtiene

por lo que

Pero, a su vez, dado que Y sólo puede ser 0 o 1,

lo que prueba el resultado.

Correcciones de Sheppard
Una medida relacionada con la varianza es la corrección de Sheppard, esta medidasirve para corregir los errores que se cometen cuando se realizan cálculos de varianza para datos agrupados, su expresión es dada como:
 Se conoce como la corrección de Sheppard. 
La restricción que se impone para poder aplicar este tipo de corrección es el hecho que solo se puede aplicar para variables continuas, donde las colas de la distribución en ambas direcciones van a cero. Sin embargo, su inconveniencia está en que la corrección puede modificar sustancialmente algunos resultados lo que con lleva a cometer otro error, lo que a generado mucha polémica sobre cuando usar la corrección.

Momentos Adimensionales
Momentos de una variable:
Momentos respecto del origen:
Dada una variable aleatoria X con función de probabilidad o densidad f(x) podemos definir una función de X que sea igual a la variable elevada a un exponente entero no negativo.
           
El valor esperado de z(x) es el k-ésimo momento de la variable X respecto a su origen y se llama
           
 
ï‚·        k = 0
ï‚·        k = 1 
 
a este primer momento respecto al origen que es igual al valor esperado se le llama también media aritmética de la variable y se le denomina μX, simplemente μ.
En la mayoría de los casos, la media μ expresa la tendencia central de la variable o el orden de magnitud de sus valores.
El resto de los momentos respecto al origen tienen escaso interés en la mayoría de los casos.

Momentos respecto a la media:
Dada una variable aleatoria Xcon función de probabilidad o densidad f(x) podemos definir una función de X que sea igual a la diferencia entre la variable y su media aritmética elevada a un exponente entero no negativo.
           
 
El valor esperado de z(x) es el k-ésimo momento de la variable X respecto a la media y se llama μk.
           


 
˜      k = 0    
      k = 1   
es decir, en cualquier variable aleatoria su primer momento respecto de la media es igual a 0. Esta propiedad se utilizar reiteradamente en las demostraciones estadísticas.
˜      k = 2    
este segundo momento respecto de la media se le llama también varianza.

 
La varianza de una variable mide la dispersión de sus valores respecto al valor central μ
Para calcular la varianza por un método más sencillo se utiliza la expresión:

Es decir, la varianza de una variable es igual a la media de los cuadrados menos el cuadrado de la media. 
|
El principal problema de la varianza es que se expresa en unidades cuadráticas que no siempre tienen una interpretación clara. Para obviar este problema se define otra medida de la dispersión que es la desviación típica, σX, o simplemente σ, que se calcula como la raíz cuadrada positiva de la varianza; evidentemente, la desviación típica se mide en las mismas unidades que la variable

No obstante, la desviación típica no resuelve todos los problemas que se pueden plantear, como por ejemplo la comparación de situaciones en las que la unidad de medidao el orden de magnitud de esta sea diferente. Para resolver esta cuestión se define una medida adimensional de la variabilidad que es el coeficiente de variación, C V, que se calcula como el cociente entre la desviación típica y la media (a veces este cociente se expresa en tanto por ciento multiplicándolo por 100).

En este contexto de la medida de la variación se plantea el problema de medir la variación conjunta de variables asociadas.
Supongamos que tenemos dos variables aleatorias X e Y, discretas o continuas, con función de probabilidad o densidad conjunta f(x,y) y definimos una función z(x,y) igual al producto de las desviaciones de cada valor a su media respectiva (es decir, z(x,y) tiene la misma estructura que (X - μ)2 = (X - μ) (X - μ) si sustituimos una vez a X por Y).

Al valor esperado de z(x,y) se le llama covarianza de las variables X e Y y se representa como σxy o cov(x,y).

 
La covarianza es una medida de la variación común a dos variables y, por tanto, una medida del grado y tipo de su relación.
€ ï€ ï€ ï€ ï€ ï€ ï€ ï€ ï€     σxy es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa.
ï‚·        σxy es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa.
ï‚·        Si X e Y son variables aleatorias independientes cov(x,y) = 0 .
ï‚·        La independencia es condición suficiente pero no necesaria para que la cov (x,y) sea nula.
|
cov(x,y) = 0 | cov(x,y) > 0 |cov(x,y) < 0 |
Se puede deducir, algebraicamente, un medio más sencillo para calcular la covarianza de dos variables.

En el caso de la covarianza tenemos el mismo problema que se nos presentó con la varianza, es decir, la covarianza se expresa en términos del producto de las unidades de medida de ambas variables, lo cual no siempre es fácilmente interpretable. Por otra parte también es difícil comparar situaciones diferentes entre sí. En este caso, ambos problemas se solucionan de una vez mediante la definición del coeficiente de correlación, ρ, que se define como el cociente entre la covarianza y el producto de las desviaciones típicas de las dos variables.

La correlación toma valores entre -1 y 1, siendo su signo igual al de la covarianza. Correlaciones con valor absoluto 1 implican que existe una asociación matemática lineal perfecta, positiva o negativa, entre las dos variables y correlaciones iguales a 0 implican ausencia de asociación. Obviamente, las variables independientes tienen correlación 0, pero nuevamente, la independencia es condición suficiente pero no necesaria.
Correlaciones con valores absolutos intermedios indican cierto grado de asociación entre los valores de las variables
Republica Bolivariana de Venezuela
Ministerio del Poder Popular para la Defensa
Universidad Nacional Experimental Politécnica de la Fuerza Armada
Juan Griego – Nueva Esparta

ESTADISTICA

Integrantes
Bello, Kelly
Perdomo, Raulcarlo

Junio 2011





Política de privacidad