Estadística.

Generalidades:
Iniciaremos el curso, repasando los conceptos y procedimientos estadísticos. Insistiendo sobre todo en el manejo de tablas, y el cálculo de medidas estadísticas de centralización, dispersión y localización.
Contenidos:
1. Introducción:
1. Conceptos de: Población, muestra, subpoblación.
2. Variables estadísticas, clasificación.
2. Tablas Estadísticas: Tipos
3. Técnicas de recuento.
4. Distintos tipos de frecuencia.
5. Medidas estadísticas:
1. Centralización: Moda, Mediana y Media.
2. Dispersión: Desviación, desviación media, desviación típica, varianza.
3. Localización: Cuartiles, deciles, percentiles.
4. Simetría.
5. Curtosis.
Distribuciones Unidimensionales:
1. Introducción.
2. Población, elementos y caracteres.
3. Variables y atributos.
________________________________________
Introducción:
La palabra “estadística” suele utilizarse bajo dos significados distintos, a saber:
1º Como colección de datos numéricos.- Esto es el significado más vulgar de la palabra estadística. Se sobrentiende que dichos datos numéricos han de estar presentados de manera ordenada y sistemática. Una información numérica cualquiera puede no constituir una estadística, para merecer este apelativo, los datos han de constituir un conjunto coherente, establecido de forma sistemática y siguiendo un criterio de ordenación.
Tenemos muchos ejemplos de este tipo de estadísticas. El Anuario Estadístico publicado por el Instituto Nacional de Estadística, El Anuario de Estadísticas del Trabajo,…
2º Como ciencia.- En este significado, La Estadística estudia el comportamiento de los fenómenos de masas. Como todas las ciencias, busca las características generales de un colectivo y prescinde de las particulares de cada elemento. Así por ejemplo al investigar el sexo de los nacimientos, iniciaremos el trabajo tomando un grupo numeroso de nacimientos y obtener después la proporción de varones. Es muy frecuente enfrentarnos con fenómenos en los que es muy difícil predecir el resultado; así, no podemos dar una lista ,con las personas que van a morir con una cierta edad, o el sexo de un nuevo ser hasta que transcurra un determinado tiempo de embarazo,…
Por tanto, el objetivo de la estadística es hallar las regularidades que se encuentran en los fenómenos de masa.
Población, elementos y caracteres.
Es obvio que todo estudio estadístico ha de estar referido a un conjunto o colección de personas o cosas. Este conjunto de personas o cosas es lo que denominaremos población.
Las personas o cosas que forman parte de la población se denominan elementos. En sentido estadístico un elemento puede ser algo con existencia real, como un automóvil o una casa, o algo más abstracto como la temperatura, un voto, o un intervalo de tiempo.
A su vez, cada elemento de la población tiene una serie de características que pueden ser objeto del estudio estadístico. Así por ejemplo si consideramos como elemento a una persona, podemos distinguir en ella los siguientes caracteres:
Sexo, Edad, Nivel de estudios, Profesión, Peso, Altura, Color de pelo,Etc.
Luego por tanto de cada elemento de la población podremos estudiar uno o más aspectos cualidades o caracteres.
La población puede ser según su tamaño de dos tipos:
Población finita: cuando el número de elementos que la forman es finito, por ejemplo el número de alumnos de un centro de enseñanza, o grupo clase.
Población infinita: cuando el número de elementos que la forman es infinito, o tan grande que pudiesen considerarse infinitos.. Como por ejemplo si se realizase un estudio sobre los productos que hay en el mercado. Hay tantos y de tantas calidades que esta población podría considerarse infinita.
Ahora bien, normalmente en un estudio estadístico, no se puede trabajar con todos los elementos de la población sino que se realiza sobre un subconjunto de la misma. Este subconjunto puede ser una muestra, cuando se toman un determinado número de elementos de la población, sin que en principio tengan nada en común; o una subpoblación, que es el subconjunto de la población formado por los elementos de la población que comparten una determinada característica, por ejemplo de los alumnos del centro la subpoblación formada por los alumnos de 3º ESO, o la subpoblación de los varones.
Variables y atributos.
Como hemos visto, los caracteres de un elemento pueden ser de muy diversos tipos, por lo que los podemos clasificar en: dos grandes clases:
Variables Cuantitativas.
Variables Cualitativas o Atributos.
Las variables cuantitativas son las que se describen por medio de números, como por ejemplo el peso, Altura, Edad, Número de Suspensos…
A su vez este tipo de variables se puede dividir en dos subclases:
• Cuantitativas discretas. Aquellas a las que se les puede asociar un número entero, es decir, aquellas que por su naturaleza no admiten un fraccionamiento de la unidad, por ejemplo número de hermanos, páginas de un libro, etc.
• Cuantitativas continuas: Aquellas que no se pueden expresar mediante un número entero, es decir, aquellas que por su naturaleza admiten que entre dos valores cualesquiera la variable pueda tomar cualquier valor intermedio, por ejemplo peso, tiempo. etc.
No obstante en muchos casos el tratamiento estadístico hace que a variables discretas las trabajemos como si fuesen continuas y viceversa.
Los atributos son aquellos caracteres que para su definición precisan de palabras, es decir, no le podemos asignar un número. Por ejemplo Sexo Profesión, Estado Civil, etc.
A su vez las podemos clasificar en:
• Ordenables: Aquellas que sugieren una ordenación, por ejemplo la graduación militar, El nivel de estudios, etc.
• No ordenables: Aquellas que sólo admiten una mera ordenación alfabética, pero no establece orden por su naturaleza, por ejemplo el color de pelo, sexo, estado civil, etc.
Tablas Estadísticas:
A partir de este momento nos vamos a ocupar de las estadísticas de una sola variable, “Estadísticas Unidimensionales”.
Las tablas estadísticas según el número de observaciones y según el recorrido de la variable estadística, así tenemos los siguientes tipos de tablas estadísticas:
1. Tablas Tipo I
2. Tablas Tipo II
3. Tablas Tipo III
________________________________________
Tablas tipo I:
Cuando el tamaño de la muestra y el recorrido de la variable son pequeños, por ejemplo si tenemos una muestra de las edades de 5 personas, por lo que no hay que hacer nada especial simplemente anotarlas de manera ordenada en filas o columnas.
Edad de los 5 miembros de una familia:
5, 8, 16, 38, 45
________________________________________
Tablas tipo II:
Cuando el tamaño de la muestra es grande y el recorrido de la variable es pequeño, por lo que hay valores de la variable que se repiten. Por ejemplo, si preguntamos el número de personas activas que hay en 50 familias obtenemos la siguiente tabla:
Personas Activas en 50 familias
2 1 2 2 1 2 4 2 1 1
2 3 2 1 1 1 3 4 2 2
2 2 1 2 1 1 1 3 2 2
3 2 3 1 2 4 2 1 4 1
1 3 4 3 2 2 2 1 3 3
Podemos observar que la variable toma valores comprendidos entre 1 y 4, por lo que precisaremos una tabla en la que resumamos estos datos quedando la siguiente tabla:
Personas Activas Número de Familias
1 16
2 20
3 9
4 5
Total 50
________________________________________

Tablas tipo III:
Cuando el tamaño de la muestra y el recorrido de la variable son grandes, por lo que será necesario agrupar en intervalos los valores de la variable. Por ejemplo si a un grupo de 30 alumnos les preguntamos el dinero que en ese momento llevan encima, nos encontramos con los siguientes datos:

450 1152 250 300 175 80 25 2680 605 785 1595 2300 5000 1200 100
5 180 200 675 500 375 1500 205 985 185 125 315 425 560 1100

Evidentemente, la variable estadística tiene un recorrido muy grande, 4998 pesetas, por lo que sí queremos hacer una tabla con estos datos tendremos que tomar intervalos. Para decidir la amplitud de los intervalos, necesitaremos decidir ¿cuántos intervalos queremos?. Normalmente se suele trabajar con no más de 10 o 12 intervalos.
Amplitud =4998/10 = 499,8 Por lo que tomaremos intervalos de amplitud 500
Debemos tener en cuenta las siguientes consideraciones:
Tomar pocos intervalos implica que la “pérdida de información” sea mayor.
Los intervalos serán siempre Cerrados por la izquierda y Abiertos por la Derecha [ Li-1 , Li )
Procuraremos que en la decisión de intervalos los valores observados no coincidan con los valores de los extremos del intervalo y si esto ocurre que no sea en más de un 5% del total de observaciones.
Con estas recomendaciones tendremos la siguiente tabla:
[ Li-1 , Li ) Frecuencia
[ 0,500) 16
[ 500, 1000) 6
[ 1000,1500) 3
[ 1500, 2000) 2
[ 2000, 2500) 1
[ 2500, 3000) 1
[ 3000, 3500) 0
[ 3500, 4000) 0
[ 4000, 4500) 0
[ 4500, 5000) 0
[ 5000,5500) 1

1.3. Técnicas de recuento.
Aunque hoy en día, si se realiza un estudio estadístico importante esta tarea la realiza el ordenador, ya sea por medio de programas de estadística específicos BMDP, SPSS, o bien utilizando herramientas informáticas de propósito general como Bases de Datos u Hojas de Cálculo
A lo largo del curso, veremos como mediante hojas de cálculo o bases de datos podemos realizar este recuento.
Veamos como realizaríamos este proceso manualmente, para ello veremos diversas técnicas de ir anotando 53-1-u-puntuaciones:

Aunque el método más utilizado o conocido sea el primero, quizás el más cómodo de utilizar es el 2º en la mayoría de los casos.

Distintos Tipos de Frecuencia:
Una de los primeros pasos que se realizan en cualquier estudio estadístico es la tabulación de resultados, es decir, recoger la información de la muestra resumida en una tabla en la que a cada valor de la variable se le asocian determinados números que representan el número de veces que ha aparecido, su proporción con respecto a otros valores de la variable, etc. Estos números se denominan frecuencias: Así tenemos los siguientes tipos de frecuencia:
1. Frecuencia absoluta
2. Frecuencia relativa
3. Porcentaje
4. Frecuencia absoluta acumulada
5. Frecuencia relativa acumulada
6. Porcentaje acumulado
7. Ejemplo
________________________________________

Frecuencia absoluta:
La frecuencia absoluta de una variable estadística es el número de veces que aparece en la muestra dicho valor de la variable, la representaremos por ni
Frecuencia relativa:
La frecuencia absoluta, es una medida que está influida por el tamaño de la muestra, al aumentar el tamaño de la muestra aumentará también el tamaño de la frecuencia absoluta. Esto hace que no sea una medida útil para poder comparar. Para esto es necesario introducir el concepto de frecuencia relativa, que es el cociente entre la frecuencia absoluta y el tamaño de la muestra. La denotaremos por fi

Donde N = Tamaño de la muestra

________________________________________
Porcentaje:
La frecuencia relativa es un tanto por uno, sin embargo, hoy día es bastante frecuente hablar siempre en términos de tantos por ciento o porcentajes, por lo que esta medida resulta de multiplicar la frecuencia relativa por 100. La denotaremos por pi.

Frecuencia Absoluta Acunulada:
Para poder calcular este tipo de frecuencias hay que tener en cuenta que la variable estadística ha de ser cuantitativa o cualitativa ordenable. En otro caso no tiene mucho sentido el cálculo de esta frecuencia. La frecuencia absoluta acumulada de un valor de la variable, es el número de veces que ha aparecido en la muestra un valor menor o igual que el de la variable y lo representaremos por Ni.
________________________________________
Frecuencia Relativa Acumulada:
Al igual que en el caso anterior la frecuencia relativa acumulada es la frecuencia absoluta acumulada dividido por el tamaño de la muestra, y la denotaremos por Fi

Porcentaje Acumulado:
Análogamente se define el Porcentaje Acumulado y lo vamos a denotar por Pi como la frecuencia relativa acumulada por 100.

________________________________________
Veamos esto con un ejemplo: Tomamos para ello los datos relativos a las personas activas.

Personas Activas Número Familias
Xi ni Fi pi Ni Fi Pi
1 16 16/50 32% 16 16/50 32%
2 20 20/50 40% 36 36/50 72%
3 9 9/50 18% 45 45/50 90%
4 5 5/50 10% 50 50/50 100%
Total 50

En este ejemplo se puede ver fácilmente como se calculan estas frecuencias.

Medidas Estadísticas:
1. Introducción.
2. Tipos de Medida
3. Algunas consideraciones

________________________________________

INTRODUCCIÓN:

En el resto del tema nos ocuparemos exclusivamente de las variables cuantitativas, puesto que con los atributos no se pueden realizar operaciones aritméticas. Como hemos estudiado, las variables estadísticas cuantitativas se dividen o clasifican en discretas o continuas, por lo que necesitaremos precisar cómo se calculan dichas medidas en cada caso.
En las variables cuantitativas continuas, dado que la tabulación de los datos se hace mediante intervalos, necesitaremos tomar un valor del intervalo para poder operar. Este valor se denomina marca de clase y es el 53-1-u-punto medio del intervalo.
Las medidas estadísticas pretenden “resumir” la información de la “muestra” para poder tener así un mejor conocimiento de la población. Se clasifican en:

________________________________________

TIPOS DE MEDIDA:
1. Medidas de Centralización:
o Que sirven para determinar los valores centrales o medios de la dsitribución
2. Medidas de Dispersión:
o Nos van a dar una idea sobre la representatividad de las medidas centrales, a mayor dispersión menor representatividad.
3. Medidas de Localización:
o Útiles para encontrar determinados valores importantes, para una “clasificación” de los elementos de la muestra o población.
4. Medidas de la Simetría:
o Sirven para ver si la distribución tiene el mismo comportamiento por encima y por debajo de los valores centrales.
5. Ejemplo del cálculo de los coeficientes de simetría y Curtósis
________________________________________

ALGUNAS CONSIDERACIONES:
El Estadístico Yule ha definido algunas propiedades deseables para una medida estadística:
1. Debe definirse de manera objetiva: dos observadores distintos deben llegar al mismo resultado numérico.
2. Usar todas las observaciones y no algunas de ellas solamente, de manera que si varia alguna observación la medida considerada debe reflejar esta variación.
3. Tener un significado concreto: la interpretación debe ser inmediata y sencilla.
4. Ser sencilla de calcular.
5. Prestarse fácilmente al cálculo algebraico: Lo que permitirá demostraciones mas elegantes.
6. Ser poco sensible a las fluctuaciones muestrales. Esta condición es imprescindible en la Estadística Matemática y en la Teoría de Sondeos.

Medidas de Centralización:
1. Media
1. Media aritmética
2. Media geométrica
3. Media armónica
2. Mediana
1. Variable discreta.
2. Variable continua.
3. Moda
1. Variable discreta.
2. Variable continua.

MEDIA:
Vamos a estudiar en este apartado los distintos tipos de media que hemos detallado en el apartado anterior

Media aritmética:
La media aritmética de una variable se define como la suma ponderada de los valores de la variable por sus frecuencias relativas y lo denotaremos por y se calcula mediante la expresión:
xi representa el valor de la variable o en su caso la marca de clase.
Propiedades:
1. Si multiplicamos o dividimos todas las observaciones por un mismo número, la media queda multiplicada o dividida por dicho numero.
2. Si le sumamos a todas las observaciones un mismo número, la media aumentará en dicha cantidad.
3. Además de la media aritmética existen otros conceptos de media, como son la media geométrica y la media armónica.
________________________________________

Media geométrica:
La media geométrica de N observaciones es la raíz de índice N del producto de todas las observaciones. La representaremos por G.

Solo se puede calcular si no hay observaciones negativas. Es una medida estadística poco o nada usual.

Media armónica:
La media armónica de N observaciones es la inversa de la media de las inversas de las observaciones y la denotaremos por H

Al igual que en el caso de la media geométrica su utilización es bastante poco frecuente.

Mediana:
La mediana es el valor central de la variable, es decir, supuesta la muestra ordenada en orden creciente o decreciente, el valor que divide en dos partes la muestra.
Para calcular la mediana debemos tener en cuenta si la variable es discreta o continua.

Cálculo de la mediana en el caso discreto:
Tendremos en cuenta el tamaño de la muestra.
Si N es Impar, hay un término central, el término que será el valor de la mediana.
Si N es Par, hay dos términos centrales, la mediana será la media de esos dos valores

Veamos un ejemplo.
N Impar
N par
1,4,6,7,8,9,12,16,20, 24,25,27 N=12 1,4,6,7,8,9,12,16,20, 24,25,27,30 N=13
Términos Centrales el 6º y 7º 9 y 12 Término Central el 7º , 12
Me=
Me=12

Cálculo de la mediana en el caso continuo:
Si la variable es continua, la tabla vendrá en intervalos, por lo que se calcula de la siguiente forma:
Nos vamos a apoyar en un gráfico de un histograma de frecuencias acumuladas.

De donde la mediana vale: donde ai es la amplitud del intervalo

Veámoslo por medio de un ejemplo.
Supongamos los pesos de un grupo de 50 personas se distribuyen de la siguiente forma:
Li-1 Li ni Ni Como el tamaño de la muestra es N=50, buscamos el intervalo en el que la Frecuencia acumulada es mayor que 50/2=25, que en este caso es el 3º y aplicamos la fórmula anterior. Luego la Mediana será
Me=

45 55 6 6
55 65 10 16
65 75 19 35
75 85 11 46
85 95 4 50
MODA:
La moda es el valor de la variable que tenga mayor frecuencia absoluta, la que más se repite, es la única medida de centralización que tiene sentido estudiar en una variable cualitativa, pues no precisa la realización de ningún cálculo.
Por su propia definición, la moda no es única, pues puede haber dos o más valores de la variable que tengan la misma frecuencia siendo esta máxima. En cuyo caso tendremos una distribución bimodal o polimodal según el caso.

Por lo tanto el cálculo de la moda en distribuciones discretas o cualitativas no precisa de una explicación mayor; sin embargo, debemos detenernos un poco en el cálculo de la moda para distribuciones cuantitativas continuas.

Apoyándonos en el gráfico podemos llegar a la determinación de la expresión para la Moda que es:
Otros autores dan una expresión aproximada para la moda que viene dada por la siguiente expresión:

Veamos su cálculo mediante un ejemplo, para ello usaremos los datos del apartado anterior
Li-1 Li ni Ni
Utilizando la fórmula aproximada

45 55 6 6
55 65 10 16
65 75 19 35
75 85 11 46
85 95 4 50

MEDIDAS DE DISPERSIÓN:
1. Breve Introducción
2. Rango
3. Concepto de desviación
4. Desviación Media
5. Varianza
6. Desviación Típica
7. Cuasivarianza
8. Cuasi Desviación típica
9. Coeficiente de Variación
10. Ejemplo
________________________________________
Breve Introducción
Hasta el momento hemos estudiado los valores centrales de la distribución, pero también es importante conocer si los valores en general están cerca o alejados de estos valores centrales, es por lo que surge la necesidad de estudiar medidas de dispersión.
Rango:
Es la primera medida que vamos a estudiar, se define como la diferencia existente entre el valor mayor y el menor de la distribución,. Lo notaremos como R. Realmente no es una medida muy significativa e la mayoría de los casos, pero indudablemente es muy fácil de calcular.
Hemos estudiado varias medidas de centralización, por lo que podemos hablar de desviación con respecto a cualquiera de ellas, sin embargo, la mas utilizada es con respecto a la media.
Desviación: Es la diferencia que se observa entre el valor de la variable y la media aritmética. La denotaremos por di .
No es una medida, son muchas medidas, pues cada valor de la variable lleva asociada su correspondiente desviación, por lo que precisaremos una medida que resuma dicha información.
La primera solución puede ser calcular la media de todas las desviaciones, es decir, si consideramos como muestra la de todas las desviaciones y calculamos su media. Pero esta solución es mala pues como veremos siempre va a ser 0.

Luego por lo tanto esta primera idea no es valida, pues las desviaciones positivas se contrarrestan con las negativas.
Para resolver este problema, tenemos dos caminos:
• Tomar el valor absoluto de las desviaciones. Desviación media
• Elevar al cuadrado las desviaciones. Varianza.

Desviación media:
Es la media de los valores absolutos de las desviaciones, y la denotaremos por dm.

Varianza:
Es la media de los cuadrados de las desviaciones, y la denotaremos por o también por .

Aunque también es posible calcularlo como:

Este estadístico tiene el inconveniente de ser poco significativo, pues se mide en el cuadrado de la unidad de la variable, por ejemplo, si la variable viene dada en cm. La varianza vendrá en cm2.
________________________________________

Desviación típica:
Es la raíz cuadrada de la varianza, se denota por Sx o  x.

Este estadístico se mide en la misma unidad que la variable por lo que se puede interpretar mejor.
Otros dos estadísticos importantes son la cuasivarianza y la cuasidesviación típica, que como veremos cuando estudiemos el tema de estimación estadística, son los estimadores de la varianza y desviación típica poblacionales respectivamente.

Cuasivarianza:
Es una medida de dispersión, cuya única diferencia con la varianza es que dividimos por N-1, la representaremos por o y la calcularemos de la siguiente forma:

Cuasidesviación típica:
La raíz cuadrada de la cuasivarianza y la denotaremos por SN—1 o  N-1.

Todas estas medidas de dispersión vienen influidas por la unidad en la que se mide la variable, esto implica que si cambiamos de unidad de medida, los valores de estos estadísticos se vean a su vez modificados. Además, no permite comparar por ejemplo, en un grupo de alumnos si los pesos o las alturas presentan mas dispersión. Pues no es posible comparar unidades de distinto tipo.
Precisamos por lo tanto, una medida “escalar”, es decir, que no lleve asociado ninguna unidad de medida.

Coeficiente de Variación:
Es un estadístico de dispersión que tiene la ventaja de que no lleva asociada ninguna unidad, por lo que nos permitirá decir entre dos muestras, cual es la que presenta mayor dispersión. La denotaremos por C.V.

Ejemplo
Veamos por último un ejemplo de cómo se calculan todas estas medidas.

45 55 6 6 50 300 -19,4 116,4 2258,16 15000
55 65 10 16 60 600 -9,4 94 883,6 36000
65 75 19 35 70 1330 0,6 11,4 6,84 93100
75 85 11 46 80 880 10,6 116,6 1235,96 70400
85 95 4 50 90 360 20,6 82,4 1697,44 32400
N= 50 3470 420,8 6082 246900
=

Dm=

=

C.V.=

Medidas de Localización: Cuartiles, deciles y percentiles.
Las medidas de localización dividen la distribución en partes iguales, sirven para clasificar a un individuo o elemento dentro de una determinada población o muestra. Así en psicología los resultados de los test o pruebas que realizan a un determinado individuo, sirve para clasificar a dicho sujeto en una determinada categoria en función de la 53-1-u-puntuacióMn obtenida.
1. Cuartiles.
2. Deciles.
3. Percentiles.
4. Ejemplos de cálculo.
5. Algunas medidas de dispersión asociadas
________________________________________
Cuartiles
Medida de localización que divide la población o muestra en cuatro partes iguales.
• Q1= Valor de la variable que deja a la izquierda el 25% de la distribución.
• Q2= Valor de la variable que deja a la izquierda el 50% de la distribución = mediana.
• Q3= Valor de la variable que deja a la izquierda el 75% de la distribución.
Al igual que ocurre con el cálculo de la mediana, el cálculo de estos estadísticos, depende del tipo de variable.
Caso I: Variable cuantitativa discreta:
En este caso tendremos que observar el tamaño de la muestra: N y para calcular Q1 o Q3 procederemos como si tuviésemos que calcular la mediana de la correspondiente mitad de la muestra.
Caso II: Variable cuantitativa continua:
En este caso el cálculo es más simple:, sea la distribución que sigue:
[Li-2 — Li-1) ni-1 Ni-1
[Li-1 — Li) ni Ni

Siendo el intervalo coloreado donde se encuentra el Cuartil correspondiente:
y

Deciles
Medida de localización que divide la población o muestra en 10 partes iguales
No tiene mucho sentido calcularlas para variables cualitativas discretas. Por lo que lo vamos a ver sólo para las variables continuas.
dk = Decil k-simo es aquel valor de la variable que deja a su izquierda el k•10 % de la distribución.
[Li-2 — Li-1) ni-1 Ni-1
[Li-1 — Li) ni Ni

Intervalo donde se encuentra el Decil correspondiente:

k = 1 .. 9
________________________________________
Percentiles:
Medida de localización que divide la población o muestra en 100 partes iguales
No tiene mucho sentido calcularlas para variables cualitativas discretas. Por lo que lo vamos a ver sólo para las variables continuas.
pk = Percentil k-simo es aquel valor de la variable que deja a su izquierda el k % de la distribución.

[Li-2 — Li-1) ni-1 Ni-1
[Li-1 — Li) ni Ni

Intervalo donde se encuentra el percentil correspondiente:

k=1 .. 99
________________________________________

EJEMPLO:
Como se puede observar la forma de calcular estas medidas es muy similar a la del cálculo de la mediana.
Veamos el cálculo de algunas de estas medidas en el ejemplo que estamos estudiando.
Vamos a calcular Q1,Q3, d3, y p45
Li-1 Li ni Ni
45 55 6 6
55 65 10 16
65 75 19 35
75 85 11 46
85 95 4 50

Cálculo de Q1: Buscamos en la columna de las frecuencias Acumuladas el valor que supere al 25% de N=50, corresponde al 2º intervalo.(50/4=12.5)

Análogamente calculemos Q3, Buscamos ahora en la misma columna el correspondiente al 75 %de N que en este caso es el 4º intervalo (3.50/4=37.5)

Veamos ahora el decil 3º. (Corresponde al 30 % 3 • 50 / 10 = 15) sería el 2º intervalo.

Por último veamos el percentil 45 (45•50/100 = 22.5) Corresponde al intervalo 3º.

________________________________________

Algunas medidas de Dispersión asociadas
Una vez estudiadas las medidas de localización surgen dos nuevas medidas de dispersión, que son:
• Recorrido intercuartílico:
• Semirecorrido intercuartílico:
• Recorrido interdecílico:
• Recorrido intercentilico:

Medidas de Simetría:
Las medidas de la asimetría, al igual que la curtosis, van a ser medidas de la forma de la distribución, es frecuente que los valores de una distribución tiendan a ser similares a ambos lados de las medidas de centralización. La simetría es importante para saber si los valores de la variable se concentran en una determinada zona del recorrido de la variable.

As<0 As=0 As>0
Asimetría Negativa a la Izquierda

Simétrica

Asimetría Positiva a la Derecha.

Para medir la asimetría se puede realizar atendiendo básicamente a dos criterios:
• Comparando la Media y la Moda.
• Comparando los valores de la variable con la media.
Comparando la Media y la Moda:
Si la diferencia es positiva, diremos que hay asimetría positiva o a la derecha, en el caso de que sea negativa diremos que hay asimetría negativa o a la izquierda. No obstante, esta medida es poco operativa al no ser una medida relativa, ya que esta influida por la unidad en que se mida la variable, por lo que se define el coeficiente de Asimetría como:

Esta medida es muy fácil de calcular, pero menos precisa que el coeficiente de asimetría de Pearson.
El coeficiente de asimetría de Pearson, se basa en la comparación con la media de todos los valores de la variable, así que es una medida que se basará en las diferencias , como vimos en el caso de la dispersión si medimos la media de esas desviaciones sería nulas, si las elevamos al cuadrado, serían siempre positivas por lo que tampoco servirían, por lo tanto precisamos elevar esas diferencias al cubo.
Para evitar el problema de la unidad, y hacer que sea una medida escalar y por lo tanto relativa, dividimos por el cubo de su desviación típica. Con lo que resulta la siguiente expresión:

________________________________________
Medida de a53-1-u-puntamiento, Curtosis:
La curtosis es una medida del a53-1-u-puntamiento, que nos indicará si la distribución es muy a53-1-u-puntada o poco a53-1-u-puntada
Curtosis Negativa Curtosis nula Curtosis Positiva
Platicúrtica

Mesocúrtica

Leptocúrtica

Como podemos observar, el coeficiente de curtosis nos mide el grado de a53-1-u-puntamiento de la distribución. Este coeficiente lo vamos a denotar por K y se calcula según la siguiente expresión:

Veamos por último el cálculo de estos dos últimos coeficientes en el ejemplo que estamos estudiando.

45 55 6 6 50 300 -19,4 -43808,304 849881,098
55 65 10 16 60 600 -9,4 -8305,84 78074,896
65 75 19 35 70 1330 0,6 4,104 2,4624
75 85 11 46 80 880 10,6 13101,176 138872,466
85 95 4 50 90 360 20,6 34967,264 720325,638
N= 50 3470 -4041,6 1787156,56
=

Mo= 70.24

As=

Coeficiente de Asimetría de Pearson As=

K=

Luego es una distribución asimétrica negativa o a la izquierda y Platicúrtica.