Notas

Report
C IM AT
Módulo 2
Segunda Parte
Especialidad en Métodos Estadísticos
Centro de Investigación en Matemáticas,
A. C.
[email protected]
1
Módulo 2
C IM AT
1. Nociones de Probabilidad
2. Distribuciones Discretas.
3. Distribuciones Continuas.
4. Distribuciones muestrales.
5. Distribución Normal.
6. La distribución Ji-cuadrada.
1er Parte
2da Parte
2
Módulo 2
C IM AT
1. Nociones de Probabilidad.
2. Algunas distribuciones de probabilidad discretas.
3. Algunas distribuciones continuas de probabilidad.
4. Distribuciones muestrales.
5. Distribución Normal.
6. La distribución Ji-cuadrada.
1er Parte
2da Parte
3
Segunda Parte Módulo 2
•
•
•
4.
–
–
–
–
5.
–
–
–
–
–
–
6.
–
–
–
–
–
–
Distribuciones muestrales.
4.1. Muestra Aleatoria Simple
4.2. Distribución de Muestreo
4.3. Distribución muestral de promedios en poblaciones.
4.4. Distribución muestral de proporciones.
Distribución Normal.
5.1. Importancia de la distribución Normal.
5.2. Áreas tabuladas de la distribución de probabilidad normal.
5.3. El teorema del límite central.
5.4. Distribución binomial.
5.5. La aproximación normal para la distribución binomial.
5.6. Papel de probabilidad Normal.
La distribución Ji-cuadrada.
6.1. Importancia de la Ji-cuadrada.
6.2. Bondad de ajuste.
6.3. Empleo de Ji-Cuadrada en normalidad y estimación de varianzas.
6.4. Tablas de contingencia.
6.5. Pruebas de significancia en cuadros mayores de 2 x 2.
6.6. Restricciones en el empleo de la Ji-Cuadrada.
• 7 Teorema de Chebyshev
4
Módulo 2
4. Distribuciones muestrales.
5. Distribución Normal.
6. La distribución Ji-cuadrada.
2da Parte
5
4. Distribuciones Muestrales.
6
Objetivo
• Entender el concepto e importancia de
distribución de muestreo.
• Aprender a utilizar las distribuciones de
muetreo, su uso y aplicaciones. Para que
sirven y como aplicarlas en casos prácticos.
7
4. Distribuciones muestrales.
Muestreo.
• El muestreo es una herramienta de la
investigación científica.
• Su función básica es determinar que
parte de una realidad en estudio
(población o universo) debe examinarse
con la finalidad de hacer inferencias
sobre dicha población. (Ejemplo)
8
Revisión Conceptos de Muestreo
• La información de los estudios de
muestreo es parte de nuestra vida diaria,
casi en su totalidad. Tal información
determina el rumbo que deberán tomar
algunas políticas gubernamentales como,
por ejemplo, la promoción de programas
sociales o el control de la economía.
9
Revisión Conceptos de Muestreo
• Las encuestas de opinión son la base de
muchas de las noticias proporcionadas en
los medios. Los estudios de rating
televisivo determinan cuales son los
programas que permanecerán al aire en el
futuro.
• No se diga los estudios de preferencias
electorales, para definir estrategias por
parte de los partidos políticos.
10
Revisión Conceptos de Muestreo
• Las investigaciones de mercado indicaran
cuales productos y con que características
son los preferidos de los consumidores
• Por otro lado, están los estudios de
muestreo en las ciencias biológicas,
geológicas,
del
medio
ambiente,
marítimas entre otras.
• Muestreo de Aceptación (Industrial)
11
Revisión Conceptos de Muestreo
• Aún cuando la terminología de las
ciencias sociales difiere de las ciencias
exactas, los científicos sociales conducen
estudios de muestreo y los científicos de
las áreas físicas realizan en su mayoria
experimentos, ambos tienen el propósito
de captar información en torno a los
fenómenos naturales.
12
Revisión Conceptos de Muestreo
• Sin embargo, esas diferencias existen en
el campo de la ciencia, debido a la
naturaleza de las poblaciones y a la
manera en que una muestra puede ser
extraída. Por ejemplo, poblaciones de
votantes, de cuentas financieras, o de
animales de una especie particular
pueden contener un número relativamente
pequeño de elementos (finito).
13
Revisión Conceptos de Muestreo
• En contraste, la población conceptual de
respuestas generadas por la medición de
la producción de un proceso químico, es
muy grande (infinito). Las limitaciones
del procedimiento de muestreo también
varían de un área de la ciencia a otra.
14
Revisión Conceptos de Muestreo
• El muestreo en las ciencias biológicas y
físicas, puede frecuentemente ser realizado
bajo
condiciones
experimentales
controladas. Tal control es frecuentemente
imposible en las ciencias sociales,
negocios, y administración de recursos
naturales (observación).
15
Un Ejemplo: Población y Muestra
¿Cómo realizar un inventario?
1.- Censo: es un conteo exhaustivo de los
individuos o elementos de la población bajo
estudio.
– Desventajas:
• Costos elevados.
• Estático.
• Requiere mucho tiempo.
2.- Muestreo: una parte representativa del
recurso.
– Ventajas:
• Reduce costos.
• Puede ser dinámico.
• Reduce tiempos.
16
Conceptos de Población y Muestra
Se ha manejado que la estadística
moderna es la teoría de la información,
cuyo objetivo es la inferencia. Nuestro
interés se centra en un grupo de
mediciones que existen o pueden ser
generadas, una población. El medio de la
inferencia es la muestra, la cual es un
subgrupo de mediciones seleccionadas de
la población.
17
Conceptos de Población y Muestra
Deseamos entonces realizar inferencias
sobre la población basándonos en las
características que observamos en la
muestra, o equivalentemente, en la
información contenida en la muestra.
18
Conceptos de Población y Muestra
Población vs. Muestra
N elementos en la población
n - elementos en la muestra19
Conceptos de Población y Muestra
• El error que se comete debido al hecho de que
se obtienen conclusiones sobre cierta realidad a
partir de la observación de sólo una parte de ella,
se denomina error de muestreo.
• Obtener una muestra adecuada, significa lograr
una versión simplificada de la población, que
reproduzca de algún modo sus rasgos y
características básicas o de interés.
20
Terminología
• Elemento: es un objeto o persona en el cual
se toman las mediciones.
• Población objetivo: conjunto de individuos
de los que se quiere obtener una
información.
• Unidades de muestreo: el conjunto de
elementos no traslapados de la población
que cubren a la población completa. Todo
miembro de la población pertenecerá a una
y sólo una unidad de muestreo.
21
Terminología
• Unidades de análisis: objeto o
individuo del que hay que obtener la
información.
• Marco muestral: lista de unidades o
elementos de muestreo.
• Muestra: conjunto de unidades o
elementos de análisis seleccionadas de
un marco o varios marcos.
22
Terminología
• Muestreo probabilístico. El planteamiento
clásico del problema de estimación estadística
requiere que la aleatoriedad esté comprendida
en el diseño de muestreo para así poder evaluar
probabilísticamente, las propiedades de los
estimadores. Al diseño de muestreo que plantea
la selección, de unidades de muestreo, basada
en la aleatoriedad se le llama muestreo
probabilístico.
23
Terminología
• Límite para el error de estimación. Si q es
la característica poblacional de interés y qˆ es
un estimador (basándose en la información
de la muestra) de q , debemos especificar un
límite para el error de estimación; esto es,
debemos especificar que q y qˆ difieran en
valor absoluto a lo más en cierto valor B.
Simbólicamente,
error de estimación
 q  qˆ  B
24
Terminología
• q puede ser cualquier característica de la
población (el promedio, el total, un
porcentaje, el valor mediano, el valor mínimo,
etcétera) Se le llama parámetro
• qˆ es el estadístico obtenido a partir de la
información de la muestra. En algunas veces
llamado estadístico de prueba. (el promedio
de la muestra, el total de la muestra, el
mínimo de la muestra, la mediana de la
muestra, etcétera)
25
Parámetro poblacional
vs.
Estadístico muestral
Parámetros
m = media poblacional
P = proporción
Max = Máximo
Mediana poblacional
s = desviación poblacional
Estadísticos
x = media muestral
P = proporción
Max = Máximo
Mediana muestral
s = desviación muestral
26
Terminología
• También
debemos
definir
una
probabilidad, (1-a) que especifique la
fracción de veces en muestreo repetido,
que requeriremos que el error de
estimación sea menor que B. Esto es
P error de estimación
 B  1  a
27
Terminología
• Muestreo no probabilístico. El muestreo no
probabilístico no involucra ningún elemento
aleatorio en el proceso de selección.
28
4.1 Muestras aleatorias.
Definición 1: Si X1, X2, ..., Xn son variables
aleatorias independientes e idénticamente
distribuidas, decimos que constituyen una
muestra aleatoria de la población infinita dada
por su distribución común.
Si S es un espacio muestral con una medida de
probabilidad y X es una función con valor real
definida con respecto a los elementos de S,
entonces X se denomina Variable Aleatoria.
29
4.1 Muestras aleatorias.
Definimos a S un espacio muestral como al
conjunto de todos los posibles resultados de un
experimento (aleatorio).
30
4.1. Muestras aleatorias.
Para un espacio muestral S dado, una Variable
Aleatoria es cualquier regla que asocia un
número con cada resultado de S.
X=
S
a
b
f
c
d
g
e
10 Si a o b
11 Si c
12 Si e o f
130 Si g
31
4.1 Muestra Aleatoria Simple
(Población Finita)
• Unas muestra aleatoria simple de tamaño
n, de una población finita de tamaño N, es
una muestra seleccionada de tal manera
que cada una de las muestras posibles de
tamaño n tenga la misma probabilidad de
ser seleccionada.
32
4.2 Distribución de Muestreo
• Entrando al tema del muestreo
probabilístico es importante definir y
entender lo que es una distribución de
muestreo.
• ¿Qué es una distribución muestral?
33
4.2 Distribución de Muestreo
¿Qué es una distribución muestral?
•La distribución muestral de un
estadístico de prueba proporciona (1) una
lista de todos los valores que puede
tomar dicho estadístico y (2) la
probabilidad de obtener cada valor,
suponiendo que éste es producto sólo del
azar.
34
4.2 Distribución de Muestreo
¿Qué es una distribución muestral?
•Definimos Distribución Muestral
como la distribución de probabilidad de
todos los posibles valores que puede
tomar un estadístico, suponiendo que
sólo influye el azar (Para un parámetro
poblacional dado)
35
4.3 Distribución muestral de la media
•La distribución muestral de la media
proporciona todos los valores que puede tomar
la media, junto con la probabilidad de obtener
cada valor si el muestreo es aleatorio a partir de
la población hipotética. La media muestral
posee las siguientes características:
1 mx es la media de la distribución muestral.
sx = es la desviación estándar de la
distribución muestral de la media
36
4.3 Distribución muestral de la media
2 La media muestral es igual a la media
poblacional, mx m.
3. La media muestral tiene una desviación
estándar igual a la desviación estándar
poblacional de datos crudos, dividida entre la
raíz del número de datos. Es decir:
s
x

s
n
4. Presenta una forma de campana
37
4.3 Distribución muestral de la media
A pesar que la demostración de la distribución
muestral de la media va más allá de los
alcances del curso, podemos hacer un ejemplo
para la mejor comprensión de la distribución
muestral de la media.
Supongamos una
población de solo cinco elementos 2, 3, 4, 5 y
6. La media m de la población es m = 4.0 y la
desviación estándar de la población es s = 1.41.
38
4.3 Distribución muestral de la media
Ahora queremos deducir la distribución
muestral de la media x para muestras de
tamaño 2 de la población. Extraemos todas las
distintas muestras de tamaño n = 2. Y
observamos cual es el valor de x-barra y su
probabilidad.
39
4.3 Distribución muestral de la media
X1, X2
2
3
2
Estadísticos
3
4
5
n=2
5
6
N = 10
x = (X1+ X2)/2
4
6
40
4.3 Distribución muestral de la media
M u e s tra
N u m e ro
M u e s tra
D a to s
m u e s tra le s P ro m e d io n ú m e ro
D a to s
m u e s tra le s
P ro m e d io
1
2 , 2
2 .0
14
4 , 5
4 .5
2
2 , 3
2 .5
15
4 , 6
5 .0
3
2 , 4
3 .0
16
5 , 2
3 .5
4
2 , 5
3 .5
17
5 , 3
4 .0
5
2 , 6
4 .0
18
5 , 4
4 .5
6
3 , 2
2 .5
19
5 , 5
5 .0
7
3 , 3
3 .0
20
5 , 6
5 .5
8
3 , 4
3 .5
21
6 , 2
4 .0
9
3 , 5
4 .0
22
6 , 3
4 .5
10
3 , 6
4 .5
23
6 , 4
5 .0
11
4 , 2
3 .0
24
6 , 5
5 .5
12
4 , 3
3 .5
25
6 , 6
641
.0
13
4 , 4
4 .0
4.3 Distribución muestral de la media
Distribución muestral de la media n =2
P (X-B arra)
X -B a rra P (X -B a rra )
2 .0
0 .0 4
2 .5
0 .0 8
3 .0
0 .1 2
3 .5
0 .1 6
4 .0
0 .2 0
4 .5
0 .1 6
5 .0
0 .1 2
5 .5
0 .0 8
6 .0
0 .0 4
0.25
0.20
0.15
P (X-B arra)
0.10
0.05
0.00
2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0
42
4.3 Distribución muestral de la media
Distribución muestral de la media n =2
M u e s tra
N u m e ro
Media de
la
población
m 
X
N
M u e s tra
D a to s
m u e s tra le s P ro m e d io n ú m e ro
D a to s
m u e s tra le s
P ro m e d io
1
2 , 2
2 .0
14
4 , 5
4 .5
2
2 , 3
2 .5
15
4 , 6
5 .0
3
2 , 4
3 .0
16
5 , 2
3 .5
4
2 , 5
3 .5
17
5 , 3
4 .0
5
2 , 6
4 .0
18
5 , 4
4 .5
6
3 , 2
2 .5
19
5 , 5
5 .0
7
3 , 3
3 .0
20
5 , 6
5 .5
8
3 , 4
3 .5
21
6 , 2
4 .0
9
3 , 5
4 .0
22
6 , 3
4 .5
10
3 , 6
4 .5
23
6 , 4
5 .0
11
4 , 2
3 .0
24
6 , 5
5 .5
12
4 , 3
3 .5
25
6 , 6
6 .0
13
4 , 4
4 .0

20
5
 4 .0
mx 
X
n

100
25
Media de
la muestra
 4 .0
43
4.3 Distribución muestral de la media
Distribución muestral de la media n =2
Así, m x  m
sx 
sx 
s

1 . 41
n

y también
 1 .0
2
(x  m x )
2
N
( 2  4 )  ( 2 . 5  4 )  ...  ( 6  4 )
2
sx 
2
N
2
 1 .0
44
4.3 Distribución muestral de la media
Distribución muestral de la media n =2
La distribución muestral de
la media proporciona todos
los valores que puede
tomar la media, junto con
la probabilidad de obtener
cada valor, si el muestreo
es aleatorio a partir de la
población hipotética.
X -B a rra P (X -B a rra )
2 .0
0 .0 4
2 .5
0 .0 8
3 .0
0 .1 2
3 .5
0 .1 6
4 .0
0 .2 0
4 .5
0 .1 6
5 .0
0 .1 2
5 .5
0 .0 8
6 .0
0 .0 4
45
4.3 Distribución muestral de la media
X1, X2
Población hipotética
2 2 N = ____
3
3
4
Estadísticos
m = ____
4
5
x = (X1+ X2)/2
s = ____
n=2
5
6
6
EDM
46
4.3 Distribución muestral de la media
X1, X2
Población hipotética
2 2 N = _10_
3
3
4
Estadísticos
m = _4.0
4
5
x = (X1+ X2)/2
s = _1.0
n=2
5
6
6
EDM
47
Distribución muestral de la media, para N = 10
población, con media poblacional =4, varianza
poblacional = 1 y tamaño de muestra n =2
P (X-B arra)
X -B a rra P (X -B a rra )
2 .0
0 .0 4
2 .5
0 .0 8
3 .0
0 .1 2
3 .5
0 .1 6
4 .0
0 .2 0
4 .5
0 .1 6
5 .0
0 .1 2
5 .5
0 .0 8
6 .0
0 .0 4
0.25
0.20
0.15
P (X-B arra)
0.10
0.05
0.00
2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0
48
Distribución muestral de la media para N = 15,
con media poblacional = 4 y tamaño de muestra
n =3
P (X -B a rra )%
X -B a rra P (X -B a rra )%
1 6 .0
1 4 .0
1 2 .0
1 0 .0
8 .0
P (X -B a rra )%
6 .0
4 .0
2 .0
5.
67
5.
00
4.
33
3.
67
3.
00
2.
33
ar
ra
0 .0
-B
0 .8
2 .4
4 .8
8 .0
1 2 .0
1 4 .4
1 5 .2
1 4 .4
1 2 .0
8 .0
4 .8
2 .4
0 .8
X
2 .0 0
2 .3 3
2 .6 7
3 .0 0
3 .3 3
3 .6 7
4 .0 0
4 .3 3
4 .6 7
5 .0 0
5 .3 3
5 .6 7
6 .0 0
49
Distribución muestral aproximada de la media
para N = 10000, con media poblacional = 40 y
tamaño de muestra n =300
Distribución Muestral de Medias con N= 10000 y n= 300
140
140
120
120
100
100
80
80
60
60
40
40
20
20
0
0
No. de realizaciones = 500
50
4.3 Distribución muestral de la media
• Límite para el error de estimación. Si m es la
característica poblacional de interés y x es
un estimador (basándose en la información de
la muestra) de m, debemos especificar un
límite para el error de estimación; esto es,
debemos especificar que tanto difieren en
valor absoluto. Simbólicamente,
error de estimación
 m x  B
51
4.3 Distribución muestral de la media
Definición 1: Si X1, X2, ..., Xn son variables
aleatorias independientes e idénticamente distribuidas,
decimos que constituyen una muestra aleatoria de la
población infinita dada por su distribución común.
Definición 2 Si X1, X2, ..., Xn constituyen una muestra
aleatoria, entonces:
x
n
x 
i
i 1
n
Se denomina media de la muestra y
n
s 
2
 ( xi  x )
i 1
n 1
Se conoce como la varianza de la muestra.
52
2
Definición de estadística
Un estadística es cualquier cantidad cuyo valor se pueda
calcular a partir de datos muestrales.
Distribución de la media
(población infinita)
Teorema 1 Si X1, X2, ..., Xn constituyen una muestra
aleatoria de una población infinita que tiene media m y la
varianza s2, entonces:
2
E(x)  m
y Var ( x ) 
s
n
53
Teorema del límite central
Teorema 2 Si X1, X2, ..., Xn constituyen una
muestra aleatoria de una población infinita que
tiene la media m y la varianza s2, entonces la
distribución límite de:
x ~ N (m x  m ,s x 
s
n
) z 
xm
s / n
Cuando n  , es la distribución normal
estándar.
54
Teorema del límite central
Una forma sencilla de expresar el teorema del
límite central es: “la suma (o promedio) de
variables
aleatorias
independientes
e
idénticamente
distribuidas,
sigue
una
distribución límite normal con media nm (ó m)
y varianza s2/n.
55
Ejemplo
Una maquina vendedora de refrescos está
programada para que la cantidad de refresco
que se sirva sea una variable aleatoria con una
media de 200 mililitros y una desviación
estándar de 15 mililitros. ¿cuál es la
probabilidad de que la cantidad de refresco
promedio (media) servida en una muestra
tomada al azar de 36, sea cuando menos 204
mililitros.
56
Ejemplo
Según el teorema 1, la distribución de x-barra
tiene la media mx = 200 y la desviación
estándar sx=15/36 = 2.5, de acuerdo con el
teorema del límite central, esta distribución es
aproximadamente normal. Como z =(204 200)/2.5 = 1.6, se deduce de la tabla de la
distribución normal estándar que la P(x-barra 
204) = P(z  1.6) = 0.0548.
57
Distribución de la media
(población finita)
Si x-barra es la media de una muestra aleatoria
de tamaño n tomada de una población finita de
tamaño N con media m y la varianza s,
entonces:
E(x)  m
y Var ( x ) 
s
n
2

N n
N 1
58
Distribuciones muestrales
Distribución Ji Cuadrada
Si x tiene distribución normal estándar, entonces x2 tiene
la distribución gama especial a la que nos referimos
como la distribución ji cuadrada con  = 1 grado de
libertad. La ji cuadrada es importante en problemas de
muestreo de poblaciones normales.
Una variable aleatoria x tiene una distribución ji
cuadrada (2) con  (nu) grados de libertad, si su
densidad está dada por:

2
1

x/2
x 2 e
para x  0
  /2
f ( x )   2  ( / 2 )
 0
de cualquier otra forma
59
Teorema 3. Si s2 es la varianza de una
muestra aleatoria de tamaño n tomada de
una población normal cuya varianza es s2,
entonces:
2
 
2
( n  1) s
s
2
es el valor de una variable aleatoria que
tiene distribución Ji-cuadrada con
parámetro  = n - 1 grados de libertad
60
61
Definiciones
inferencia.(De inferir).
1. f. Acción y efecto de inferir.
Continuar
inferir.(Del lat. inferre, llevar a).
1. tr. Sacar una consecuencia o deducir algo
de otra cosa. U. t. c. prnl.
2. tr. Llevar consigo, ocasionar, conducir a un
resultado.
3. tr. Producir o causar ofensas, agravios,
heridas, etc.
62
4.4 Distribución muestral de proporciones.
Definición 3: Si X1, X2, ..., Xn son variables
aleatorias independientes e idénticamente
distribuidas que solo toman valores de Xi = 1 ó
Xi = 0, dependiendo si poseen o no la
característica de interés respectivamente,
decimos que constituyen una muestra
aleatoria de un experimento binomial de la
población infinita dada por su distribución
común.
63
4.4 Distribución muestral de proporciones.
Definición 4 Si X1, X2, ..., Xn constituyen una
muestra aleatoria de un experimento binomial,
n
entonces:
p 

xi
i 1
n
Se denomina proporción de la muestra y
np (1  p )
es la varianza de la muestra, ya que cumple
con los requisitos de un experimento binomial. 64
4.4 Distribución muestral de proporciones.
(para un tamaño de muestra suficientemente grande)
Teorema 4 Si X1, X2, ..., Xn constituyen una
muestra aleatoria de una población infinita donde
Xi constituye un experimento Bernoulli, tal que
que P es la proporción de la población con la
característica de interés, entonces se cumple que:
E ( p)  P
y Var ( p )  p (1  p ) / n
65
Teorema del límite central
(aproximación para proporciones)
De aquí se tiene la aproximación de que si X1,
X2, ..., Xn constituyen una muestra aleatoria de
una población infinita que tiene la proporción P
de un experimento Bernoulli, entonces la
distribución límite de:
z
pP
p (1  p )
n
Cuando n  , entonces z tiene una
distribución límite normal estándar.
66
Teorema del límite central
(aproximación para proporciones)
También se puede ver este resultado como dada
una muestra aleatoria X1, X2, ..., Xn de variables
aleatorias Bernoulli, con x = el número de
éxitos observados, en n intentos igualmente
probables, entonces la distribución límite de:
x  np
z 
np (1  p )
Con p = x/n, para n  , z tiene una
distribución límite normal estándar.
67
Teorema del límite central
(aproximación para proporciones)
Ejemplo: La proporción de familias de la ciudad
de Aguascalientes, que son dueñas, no
arrendatarias, de sus casas es de 0.70. Si al azar
se entrevistan a 84 familias de esta ciudad y sus
respectivas respuestas –a la pregunta de si son
dueñas o no de su casa- se consideran valores de
variables aleatorias independientes que tienen
distribución de Bernoulli idénticas con el
parámetro P = 0.70, ¿Con qué probabilidad
podemos afirmar que el valor que se obtenga de
68
la muestra p será menor que 0.64
Teorema del límite central
(aproximación para proporciones)
Respuesta:
P = 0.70, p = 0.64, n = 84, sustituyendo.
z
pP
p (1  p )
n

0 . 64  0 . 70
  1 . 1456
0 . 64 ( 0 . 36 )
84
p ( z   1 . 1456 )  0 . 1259  12 . 59 %
69
Distribuciones muestrales de la
media muestral. Guía para el uso de
la distribución t, normal estándar y el
Teorema del Límite Central.
Estadístico:
Z 
X m
s
No importa el tamaño
de la muestra.
n
Z 
X m
s
n
Z 
X m
S
*
n
t
Población
X m
S
n
Z 
T.L.C.
X m
s
n
?
Z 
X m
S
n
* Rigurosamente es
t
X m
S
?
, pero para n  30 podemos aproximar la distribución t por una normal estándar, por el T.L.C.
n
Nota: La regla n  30 es una buena aproximación en la gran mayoría de los casos, salvo cuando la población tiene una
distribución muy asimétrica, o muy distinta de la forma de campana.
70
? = Consultar a un experto en estadística
5.0 Distribución Normal o
Gaussiana
71
5.1 Distribución Normal o Gaussiana
La distribución de probabilidad más
importante en el campo de la
probabilidad y la estadística es la
distribución de probabilidad normal, que
tiene función de densidad de
probabilidad (f.d.p.) a
f ( x; m ,s ) 
2
con
1
2s
2
  x  m 2
exp  
2

2
s

  x

,


72
Distribución Normal o Gaussiana
Donde m y s2 son los parámetros de la
distribución.
Si una variable aleatoria (v.a.) X tiene una
f.d.p. como la anterior la denotaremos como
XN(m,s2 )
73
Distribución Normal o Gaussiana
74
Distribución Normal o Gaussiana
75
Distribución Normal o Gaussiana
76
Propiedades de la Distribución
Normal
• La distribución es simétrica con respecto a m
• E(x)= m y VAR(x)= s2
• Aunque la v.a. X puede tomar cualquier valor
entre - y +, se tiene que
– Aprox. 68% de la distribución, está en el
intervalo m s
77
Propiedades de la Distribución
Normal (continuación)
– Aprox. 95% de la dist. está en el intervalo
m 2s
– Aprox. 99% de la dist. está en el intervalo
m 3s
o equivalentemente
P[ m - s < X < m + s ] = 0.683
P[ m - 2s < X <m + 2s ] = 0.954
P[ m - 3s < X < m + 3s ] = 0.997
78
Distribución Normal o Gaussiana
79
Distribución Normal Estándar
La distribución con media m=0 y varianza
s2 =1 se llama Distribución Normal Estándar
f (z) 
2

1
z 
 , -   z  
exp  
2
 2 
Usualmente se denota la v.a. normal estándar
por Z. Entonces lo denotamos como
ZN(0,1)
80
Distribución Normal Estándar
81
5.2. Áreas tabuladas de la distribución
de probabilidad normal.
Para determinar áreas bajo esta curva nos basamos
en la tabla que tiene tabulados la función de
distribución acumulativa de Z, esto es,
P(Z  z)=(z)
(z)
z
82
Usando dicha tabla determinamos probabilidades
correspondientes a valores específicos de z.
1) P( Z < 1.96 ) = ( 1.96 ) = 0.975
0.025
1.96
.975
1.96
2) P( Z > 1.96 ) = 1 - P( Z < 1.96 ) = 1 - (1.96)
= 1 - .975 = 0.025
83
3) P( -1.96 < Z < 2.31 ) = (2.31) - (-1.96)
= .9896 - .025 = .9643
.0146
.9643
-1.96
2.31
1.96 2.31
4) P( 1.96 < Z < 2.31 ) = (2.31) - (1.96)
= .9896 - .975 = .0146
84
Por otra parte nos puede interesar determinar z
cuando hemos determinado de antemano la
probabilidad, por ejemplo:
1) Determine z tal que P(Z>z)=0.2483
Respuesta: Como el área total bajo la curva es uno,
P(Z<z)=1 - P(Z>z)=1-0.2483=0.7517
entonces
(z)=0.7517
El valor de z corresponde a la entrada tabular
0.7517 es
z=0.68
85
2) Obtener el valor de z > 0 de tal forma que
P(-z<Z<z)=0.90
Respuesta: Por la simetría de la distribución
tenemos que
P(Z<z) = P(Z>z) = 0.05
0.05
0.05
0.90
-z=?
z=?
86
De la tabla tenemos que (1.64) = 0.9495 y
(1.65) = 0.9505. Entonces z está entre 1.64 y
1.65. Así que z = 1.645 .
0.05
0.05
0.90
z=1.645
87
Estandarizando una Variable
Normal
Si X  N(m,s2) para calcular la probabilidad de
algunos valores de X de manera fácil, primero
estandarizamos X.
Si especificamos m y s2 , entonces
Z = (X - m) / s  N(0,1)
88
Ejemplo: Supongamos X  N(50,s2=4), entonces
determine P( 48 < X < 53 ).
Respuesta: Primero estandarizamos X, para
obtener una variable X  N(0,1) .
P[48 < X < 53] = P[ (48-50)/2<(X-m)/s <(53-50)/2]
= P [ (48-50)/2 < Z < (53-50)/2 ]
= P [ -1 < Z < 1.5 ]
89
Estandarizando una Variable
Normal
90
Ejemplo:
Determine las probabilidades de que una variable
aleatoria que tiene la distribución normal
estándar tome un valor de:
a) menor que 1.72
b) menor que -0.88
c) entre 1.30 y 1.175
d entre -0.25 y 4.45
91
5.2. Áreas tabuladas de la distribución
de probabilidad normal.
Normal Distribution
density
0.4
Mean,Std. dev.
0,1
0.3
0.2
0.1
0
-5
-4
-3
-2
-1
0
1
2
3
4
5
x
92
Ejemplo:
Supóngase que durante periodos de meditación
la reducción del consumo de oxigeno de una
persona es una variable aleatoria que tiene
distribución normal con media m = 37.6
centímetros cúbicos por minuto y s = 4.6 cc por
minuto. Determine las probabilidades de que
durante un periodo de meditación el consumo de
oxígeno de una persona se reduzca en :
a) Cuando menos 44.5 cc por minuto
b) Cuando mucho 35.0 cc por minuto
93
c) entre 30.0 y 40. Cc por minuto
5.3 Teorema del Límite Central
Algunas veces, el este teorema se interpreta
incorrectamente, como aquel que implica que la
distribución de x-barra tiende a una distribución
normal cuando n tiende a infinito. Esto es
incorrecto porque var(x-barra) tiende cero,
cuando n tiende a infinito; por otra parte, el
teorema del límite central justifica la
aproximación de la x-barra con una distribución
normal que tiene media m y la varianza s2/n
cuando n es grande. En la práctica, esta
aproximación se utiliza cuando n  30 sin
importar la forma de la población que 94se
muestrea
5.3 Teorema del Límite Central
Para valores menores de 30, la aproximación es
cuestionable, sin embargo, es interesante
observar que cuando la población que se
muestrea es normal, la distribución de x-barra es
una distribución normal sin importar el tamaño
de n.
95
Distribuciones muestrales de la
media muestral. Guía para el uso de
la distribución t, normal estándar y el
Teorema del Límite Central.
Estadístico:
Z 
X m
s
No importa el tamaño
de la muestra.
n
Z 
X m
s
n
Z 
X m
S
*
n
t
Población
X m
S
n
Z 
T.L.C.
X m
s
n
?
Z 
X m
S
n
* Rigurosamente es
t
X m
S
?
, pero para n  30 podemos aproximar la distribución t por una normal estándar, por el T.L.C.
n
Nota: La regla n  30 es una buena aproximación en la gran mayoría de los casos, salvo cuando la población tiene una
distribución muy asimétrica, o muy distinta de la forma de campana.
96
? = Consultar a un experto en estadística
Distribución t-Student
Si x-barra y s2 son la media y la varianza de una
muestra aleatoria de tamaño n tomada de una
población normal con media m y la varianza s2,
entonces
t 
xm
s/
n
tiene una distribución t-student con n-1 grados de
libertad.
97
Distribución t-Student
Para usar la distribución normal es necesario conocer
el valor de la desviación estandar poblacional s
(distribución estándar poblacional). Como es más
común el desconocimiento, entonces se estima s a
través de s (desviación estándar muestral) y se usa la
distribución t.
z 
xm
s /
n
t 
xm
s/
n
98
Ditribución t-Student
Comparación de una ditribución normal estándar con
una distribución t con 1 grado de libertad
99
Ditribución t-Student
Comparación de una ditribución normal estándar con
una distribución t con 1 y 3 grados de libertad.
100
Ejemplo
Suponga que usted tiene una técnica que puede modificar
la edad a la cual los niños empiezan a hablar. En su
localidad, el promedio de edad, en la cual un niño emite
su primera palabra, es 13 meses. No conoce la desviación
estandar poblacional. Usted aplica dicha técnica a una
muestra de 15 niños. Los resultados son los siguientes:8,
9, 10, 15, 18, 17, 12, 11, 7, 8, 10, 11, 8, 9, 12.
n = 15,
x-barra = 11.0, desviación estándar s = 3.34. Si la media
poblacional (verdadera) es 13 meses, ¿cuál es la
probabilidad de encontrar un valor igual o menor de xbarra de 11 meses?
101
Ditribución t-Student
Se tiene que m = 13, s = 3.34, x-barra = 11 y n = 15.
Sustituyendo se obtiene:
t
xm
s/
n

11  13
  2 . 32
3 . 34 / 15
102
Ditribución t-Student
103
5.4 Distribución binomial
Un experimento binomial
siguientes características:
tiene
las
1. El experimento consiste de n ensayos
idénticos
2.Cada ensayo produce uno de dos resultados
posibles (éxito o fracaso)
3.La probabilidad de éxito en un sólo ensayo es
p, y es constante para todos los ensayos (la
probabilidad de fracaso es q = 1 - p).
104
5.4 Distribución binomial
Un experimento binomial
siguientes características:
tiene
las
4. Los ensayos son independientes entre si.
5. El experimentador está interesado en la
variable y, que representa el número de aciertos
observados en los n ensayos.
105
5.4 Distribución binomial
Ejemplo de lanzar una moneda:
Para n = 1 ensayo, como se tienen dos puntos
muestrales, E1 representado por A = águila
(éxito), y E2 representado por S = sol (fracaso),
con probabilidades p y q respectivamente.
Dado que y es el número de aciertos en n los
posibles resultados en un ensayo son y = 1
cuando ocurre águila y y = 0 cuando es sol.
106
5.4 Distribución binomial
Ejemplo de lanzar una moneda:
Para n = 2 ensayos, las probabilidades de los
puntos muestrales se calculan fácilmente debido
a que cada punto es una intersección de dos
eventos independientes, que son los resultados
del primer y segundo ensayos. Por lo tanto la
probabilidad de los eventos se calcula por la ley
multiplicativa de la probabilidad, esto es:
107
5.4 Distribución binomial
Ejemplo de lanzar una moneda:
P(E1) = P(AA) = P(A)P(A) = p2
y=2
P(E2) = P(AS) = P(A)P(S) = pq
y=1
P(E3) = P(SA) = P(S)P(A) = pq
y=1
P(E4) = P(SS) = P(S)P(S) = q2
y=0
108
5.4 Distribución binomial
Ejemplo de lanzar una moneda:
De esta forma, las probabilidades se representan
como:
y
0
1
2
p(y )
p2
2 pq
2
q
109
5.4 Distribución binomial
Ejemplo de lanzar una moneda:
Si la moneda es legal, entonces p = 0.50, se tiene
que:
y
0
1
2
p(y )
2
p
2 pq
2
q
Si p = 0.5
0.25
0.50
0.25
110
5.4 Distribución binomial
Ejemplo de lanzar una moneda:
La distribución de probabilidad se obtiene de la
expansión de (p + q)n; que para n = 2 es:
2

p(y)  ( p  q)  p
2
2
 2 pq  q
2
1
y0
111
5.4 Distribución binomial
Si X es una v.a. Binomial que denota el número
de éxitos en “n” experimentos independientes,
entonces su función distribución de probabilidad
está dada como:
f ( x )  b ( x; n, p ) n C x p q
x
donde x = 0,1,2,...,n.
Además
n x
Media: m = np
Varianza: s2 = npq
112
5.5 Distribución Normal y las
poblaciones discretas
Binomial
113
Aplicaciones.
La distribución de normal se emplea
muchas veces como una aproximación
de valores en una población discreta.
En situaciones, debe tenrse especial
cuidado para asegurar que las
probabilidades se calculan de manera
precisa.
114
Aplicaciones.
Considérese el siguiente ejemplo: Se
sabe que el CI de una población está
distribuido normalmente en forma
aproximada con m =100 y s = 15.
¿Cuál es la probabilidad de que un
individuo seleccionado al azar tenga un
CI de por lo menos 125? Si se hace X
= IC de una persona elegida al azar,
deseamos P(X  125).
115
Aplicaciones. (cont.)
La tentación aquí es estandarizar
como en los ejemplos anteriores. Sin
embargo, la población del CI es
discreta en realidad, ya que los CI
son de valor entero, y la curva normal
es una aproximación a un histograma
de probabilidad discreta.
116
Aplicaciones. (cont.)
Los rectángulos del histograma están
centrados como enteros, y los CI de por
lo menos 125 corresponden a
rectángulos que se inician en 124.5.
En realidad deseamos P(X  124.5),
que ahora se puede estandarizar para
obtener P(Z  1.63) = 0.0516.
117
Aplicaciones. (cont.)
Si hubieramos estandarizado X  125,
habríamos obtenido P(Z  1.67) =
0.0475. La diferencia no es grande,
pero la respuesta 0.0516 es más precisa.
Análogamente, P(X = 125) sería más
apropiado por el área entre 124.5 y
125.5. Ya que el área bajo la curva
normal arriba del valor único de 125 es
cero.
118
Aplicaciones. (cont.)
La corrección para la discretización de
la distribución subyacente se llama con
frecuencia corrección de continuidad.
Es útil en la siguiente aplicación de la
distribución normal
119
Aproximación normal a la distribución binomial
Recordemos que el valor medio y la desviación
estándar de una variable aleatoria X binomial
son mx = np sx = (npq), respectivamente. El
siguiente histograma muestra una distribución
binomial con n = 20, p = 0.6 [así que m = 12, s
= [20(0.6)(0.4)]1/2 = 2.19.
120
Aproximación normal a la binomial
Una curva normal con valor medio y
desviación estándar igual a los valores
correspondientes para la distribución
binomial se ha sobrepuesto en el
histograma de probabilidad. Aun cuando el
histograma esta un poco sesgado (porque p
0.5), la curva normal da una buena
aproximación, en especial en la parte
media de la figura.
121
Aproximación normal a la binomial
122
Aproximación normal a la distribución
binomial
El área de cualquier rectángulo (probabilidad de
cualquier valor de X particular), excepto los de
las colas de los extremos, se puede aproximar
con presición mediante el área de la curva
normal correspondiente. Por ejemplo, P(X = 10)
= b(X=10; n =20, p = 0.6) = 0.117, mientras que
el área bajo la curva normal entre 9.5 y 10.5 es
P(-1.14 < Z < -0.68) = 0.1212.
123
Aproximación normal a la distribución
binomial
Más generalmente, mientras el histograma de
probabilidad binomial no esté demasiado
sesgado, las probabilidades binomiales se
pueden aproximar bien por áres de curva normal.
Se dice entonces que X tiene aproximadamente
una distribución normal.
124
PROPOSICION.
Sea X una V.A. Binomial basada en n
intentos con probabilidad de éxito p.
Entonces, si el histograma de probabilidad
binomial no está demasiado sesgado, X
tiene aproximadamente una distribución
normal con m = np s = (npq).
125
PROPOSICION.
En particular, para x = un valor posible de
X, P(X  x) = B(x;n,p)  (área bajo la curva
normal a la izquierda de x + 0.5)
 x  0 . 5  np 

 


npq


En la práctica la aproximación es adecuada
si np  5 y nq  5
126
5.6 Papel De Probabilidad Normal
La gráfica de papel de Probabilidad Normal, o
simplemente gráfica de probabilidad normal,
es un procedimiento útil para verificar si un
conjunto de datos puede ser adecuadamente
modelado por una distribución normal
(Bondad de Ajuste). Este procedimiento
consiste en construir una gráfica en el plano
cartesiano, en donde, en el eje horizontal se
grafican los datos y en el eje vertical la
probabilidad empírica (acumulada) de los
127
datos sobre una escala de probabilidad normal.
Papel De Probabilidad Normal
Es decir, es una gráfica que representa la
distribución normal acumulada de los datos
sobre una escala de probabilidad normal. Para
construir la gráfica de probabilidad normal,
deben disponerse los datos en orden
ascendente y dibujar el k-ésimo de estos datos
ordenados contra su punto de probabilidad
acumulada Pk = (k - 1/2)/N sobre papel de
probabilidad normal. Si la distribución de los
datos es normal, esta gráfica deberá parecer
128
una línea recta.
Papel De Probabilidad Normal
Ejemplo
X
X
X
X
X
-2.8 -3.4 -3.6 -2.6 -3.8
-2.8 1.6 0.4 3.4 -0.8
5.2 -3.4 0.4 0.4 0.2
1.2 2.6 1.4 -2.6 4.2
-0.8 2.6 1.4 1.4 0.2
129
Papel De Probabilidad Normal
Ejemplo
Orden
K
Xi
1
2
3
4
5
6
7
8
9
10
11
12
13
-3.8
-3.6
-3.4
-3.4
-2.8
-2.8
-2.6
-2.6
-0.8
-0.8
0.2
0.2
0.4
Pk =
(k - 1/2)/25 Orden K
0.02
0.06
0.10
0.14
0.18
0.22
0.26
0.30
0.34
0.38
0.42
0.46
0.50
14
15
16
17
18
19
20
21
22
23
24
25
Xi
Pk =
(k - 1/2)/25
0.4
0.4
1.2
1.4
1.4
1.4
1.6
2.6
2.6
3.4
4.2
5.2
0.54
0.58
0.62
0.66
0.70
0.74
0.78
0.82
0.86
0.90
0.94
0.98
130
Papel De Probabilidad Normal
Ejemplo
131
N o rmDe
al P roProbabilidad
bability P lo t o f the R esiduals
Papel
Normal
(res pons e is res pues t)
2
N o rm a l S c o re
1
0
-1
-2
-4
-3
-2
-1
0
1
R e sid u a l
2
3
4
5
6
132
Distribución Normal
Media 4, Desviación Estandar 1.5
1.00
0.90
0.80
0.70
0.60
0.50
0.40
0.30
0.20
0.10
0
1
2
3
4
5
6
7
133
8
Distribución Normal
Media 4, varianza 1.5
1.00
0.90
0.80
0.70
0.60
0.50
0.40
0.30
0.20
0.10
0
1
2
3
4
5
6
7
134
8
Distribución
Normal
Acumulada
Media 4, varianza 1.5
3
2
1
0
0
1
2
3
4
5
6
7
8
-1
-2
-3
135
Acumulada
Distribución
Normal
Acumulada
Media 4, varianza 1.5
3
2
1
0
0
1
2
3
4
5
6
7
8
-1
-2
-3
136
Acumulada
Papel De Probabilidad Normal
Ejemplo
Orden
K
Xi
1
2
3
4
5
6
7
8
9
10
11
12
13
-3.8
-3.6
-3.4
-3.4
-2.8
-2.8
-2.6
-2.6
-0.8
-0.8
0.2
0.2
0.4
Pk =
(k - 1/2)/25 Orden K
0.02
0.06
0.10
0.14
0.18
0.22
0.26
0.30
0.34
0.38
0.42
0.46
0.50
14
15
16
17
18
19
20
21
22
23
24
25
Xi
Pk =
(k - 1/2)/25
0.4
0.4
1.2
1.4
1.4
1.4
1.6
2.6
2.6
3.4
4.2
5.2
0.54
0.58
0.62
0.66
0.70
0.74
0.78
0.82
0.86
0.90
0.94
0.98
137
Papel De Probabilidad Normal
A Pk = (k - 1/2)/N se le conoce como función
empírica de distribución. Es muy utilizada en
estimaciones no paramétricas, así como en
estimaciones de datos de tiempos de vida y
datos de confiabilidad.
NOTA:
Así como se tiene papel de
probabilidad normal, también existe otros tipos
de gráficos de probabilidad para otras
distribuciones.
138
Papel De Probabilidad Normal
Pk = (k - 1/2)/25
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-6
-5
-4
-3
-2
-1
0
1
2
3
4
5
139
6
-6
Papel De Probabilidad Normal
Pk = (k - 1/2)/25
6.0000
4.0000
2.0000
-5
-4
-3
-2
0.0000
-1
0
1
2
3
4
5
-2.0000
-4.0000
-6.0000
140
6
Papel De Probabilidad Normal
• Ejercicio de Papel de probabilidad Normal.
Se prueba la duración de un componente
electrónico bajo condiciones de temperatura alta
para acelerar el mecanismo de falla. A
continuación se proporciona el tiempo de falla (en
horas) de 20 componentes seleccionados al azar.
Haga una gráfica de los datos sobre papel de
probabilidad normal. ¿El tiempo de falla parece
tener una distribución normal?
141
Papel De Probabilidad Normal
• Tiempos de falla
176.1 76.6 150.4 197.6
35.3 24.7 55.0 73.0
124.5 155.7 34.9 122.8
90.6
2.4 46.0 133.8
99.6 131.5 40.4 40.4
142
Papel De Probabilidad Normal
j
1
2
3
4
5
6
7
8
9
10
Xj (j-0.5)/20
2.4
24.7
34.9
35.3 17.50%
40.4 22.50%
40.4 27.50%
46
32.50%
55
37.50%
73
42.50%
76.6 47.50%
j
11
12
13
14
15
16
17
18
19
20
Xj
90.6
99.6
122.8
124.5
131.5
133.8
150.4
155.7
176.1
197.6
(j-0.5)/20
52.50%
57.50%
62.50%
67.50%
72.50%
77.50%
82.50%
87.50%
92.50%
143
Papel De Probabilidad Normal
j
1
2
3
4
5
6
7
8
9
10
Xj (j-0.5)/20
2.4
2.5%
24.7
7.5%
34.9 12.5%
35.3 17.5%
40.4 22.5%
40.4 27.5%
46
32.5%
55
37.5%
73
42.5%
76.6 47.5%
j
11
12
13
14
15
16
17
18
19
20
Xj (j-0.5)/20
90.6 52.5%
99.6 57.5%
122.8 62.5%
124.5 67.5%
131.5 72.5%
133.8 77.5%
150.4 82.5%
155.7 87.5%
176.1 92.5%
197.6 97.5%
144
145
j
1
2
3
4
5
6
7
8
9
10
0
30
60
90
Xj (j-0.5)/20
2.4
2.5%
24.7
7.5%
34.9 12.5%
35.3 17.5%
40.4 22.5%
40.4 27.5%
46
32.5%
55
37.5%
73
42.5%
76.6 47.5%
120
150
180
j
11
12
13
14
15
16
17
18
19
20
146
210
Papel De Probabilidad Normal
Normal Probability Plot
99.9
perce ntage
99
95
80
50
20
5
1
0.1
0
40
80
120
Tiempos
160
200
147
Normal Probability Plot
99.9
perce ntage
99
95
80
50
20
5
1
0.1
0
40
80
120
Tiempos
160
200
148
6. Distribución Ji Cuadrada
Modulo I
Especialidad en Métodos Estadísticos
CIMAT – Unidad Aguascalientes
149
6.1 Importancia De La
Distribución Ji Cuadrada
Hemos visto que el estimar (conocer) la varianza
s2 resulta fundamental para procedimientos de
distribución muestral de la media, así como para
procedimientos de inferencia estadística, como se
vera más adelante en la especialidad. Existen
muchas aplicaciones prácticas en donde s2 es el
objetivo
primario
de
la
investigación
experimental. (Precisión en el llenado de bolsas).
En estos casos s2 adquiere una mayor
importancia que la media de la población.
150
Distribución Ji Cuadrada
Las partes producidas por un proceso de
manufactura deben ser producidas con un
mínimo de variabilidad para reducir el número de
productos
fuera
del
rango
aceptable
(defectuosos). En general se desea mantener una
varianza mínima en las características de calidad
de un producto industrial para alcanzar el control
del proceso y minimizar el porcentaje de
productos de baja calidad.
151
Distribución Ji Cuadrada
La varianza muestral
n
s 
2
 (x
i
 x)
2
i 1
n 1
Es un estimador insesgado de la varianza de la
población s2. La distribución muestral de s2,
generada mediante muestras repetidas, es una
distribución de probabilidad que empieza en s2 =
0 (ya que no puede ser negativa) con media igual
152
a s2. La distribución no es simétrica.
Distribución Ji Cuadrada
La forma de la distribución depende del número
de datos, así como de la forma de la distribución
de origen.
Si la población de origen de las
muestras es normal, entonces la distribución
estandarizada que se obtiene es la Ji- cuadrada,
calculada como en la siguiente expresión:
 
2
( n  1) s
s
2
2
153
Distribución Ji Cuadrada
(Relación con la distribución normal)
Si X tiene distribución normal estándar,
entonces X2 tiene la distribución gama
especial a la que nos referimos como la
distribución ji cuadrada con  = 1 grado
de libertad. La Ji cuadrada es importante
en problemas de muestreo de poblaciones
normales.
154
Distribución Ji Cuadrada
Una variable aleatoria x tiene una
distribución ji cuadrada (2) con  (nu)
grados de libertad, si su densidad está dada
por:
 2
1

x/2
2
x e
para x  0
  /2
f ( x )   2  ( / 2 )
 0
de cualquier otra forma
155
Distribución Ji Cuadrada
Función gama = ?

 (a ) 

y
a 1
e
0
y
dy
para a  0
casos importantes:
 (1 / 2 ) 

 ( k )  ( k  1)!
para k entero.
156
Distribución Ji Cuadrada
(6.3 Estimación de Varianzas)
Teorema 3. Si s2 es la varianza de una
muestra aleatoria de tamaño n tomada de
una población normal cuya varianza es s2,
entonces:
2
 
2
( n  1) s
s
2
es el valor de una variable aleatoria que
tiene distribución Ji-cuadrada con
parámetro  = n - 1 grados de libertad
157
Distribución Ji Cuadrada
• Ejemplo 8.2 libro Estadística Matemática (Freund
& Walpole).
• Supóngase que el espesor de una parte utilizada en
un semiconductor es la dimensión crítica y que el
proceso de manufactura de estas partes se
considera bajo control si la variación real o
verdadera, entre los espesores de las partes, está
dada por una desviación estándar no mayor que s
= 0,0006 pulgadas.
158
Distribución Ji Cuadrada
• Para mantener controlado el proceso se toman
muestras aleatorias de tamaño n = 20 en forma
periódica y se considera fuera de control” si la
probabilidad es 0.01 o menor, de que S2 tome un
valor mayor que o igual al valor al de la muestra
observada. ¿Qué se puede concluir acerca del
proceso si la desviación estándar de esta muestra
aleatoria periódica es s = 0.84 milésimas de
pulgada?
159
Distribución Ji Cuadrada
P(S2 > 0.842 | que s = 0.60)  0.01
Solución:
El proceso se declara “fuera de control” si
con n = 20 y s = 0.60 excede
.
 .01 ,19  36 . 191
2
160
Distribución Ji Cuadrada
Como
 
2
( n  1) s
2

( 20  1)( 0 . 84 )
2
 37 . 24
s
( 0 . 60 )
es mayor que 36.191, el proceso se declara
fuera de control.
2
2
P ( S  0 . 84 )  P (   37 . 24 )  0 . 0074
2
2
2
161
6.2 Uso de Chi-Cuadrada en
pruebas de Bondad de Ajuste
162
Uso De Ji-cuadrada
• Prueba de Bondad de Ajuste: Es una
prueba que se aplica a situaciones en las
cuales se desea determinar si un conjunto de
datos tomados al azar puede considerarse
como una muestra de una población con
cierta distribución dada.
163
Uso de Ji-cuadrada
• Procedimiento: El procedimiento consiste en
comparar una muestra aleatoria, con una
distribución propuesta teórica. Se requiere de
una muestra aleatoria de tamaño n proveniente
de la población cuya
distribución de
probabilidad
es
desconocida.
Estas
observaciones se acomodan en un histograma
de frecuencia, el cual tienen k intervalos de
clase.
164
Uso de Ji-cuadrada
• Procedimiento: Sea Oi la frecuencia
observada en el i-ésimo intervalo de clase. Por
otro lado, de la distribución de probabilidad
propuesta se calcula la frecuencia esperada en
el i-ésimo intervalo de clase, la cual se denota
por Ei. Entonces el estadístico de prueba es:
165
Uso de Ji-cuadrada
k
 
2
0

i 1
(O i  E i )
2
Ei
2 tiene una distribución aproximada Jicuadrada con k-p-1 grados de libertad, donde p
representa el número de parámetros de la
distribución propuesta estimada por los
estadísticos muestrales k el número de
intervalos.
166
Uso de Ji-cuadrada
Esta aproximación mejora a medida que n
aumenta. Debe rechazarse la hipótesis de que la
distribución de la población es la distribución
propuesta, si el valor calculado del estadístico
de prueba es  2   2
0
a , k  p 1
Pruebas de hipótesis.....
167
Uso de Ji-cuadrada
Distribución especificada de manera completa
Ejemplo: un científico desarrolla un algoritmo
para generar enteros seudoaleatorios en el
intervalo 0 a 9. El científico codifica el
algoritmo
y
genera
1000
dígitos
seudoaleatorios. La siguiente tabla contiene los
datos como frecuencias observadas. ¿Existe
evidencia de que el generador de números
aleatorios funciona de manera correcta?. Utilice
un a = 0.05
168
Uso de Ji-cuadrada
Distribución especificada de manera completa
Datos:
0 1 2 3 4 5 6 7 8 9 n
Frecuencias observadas Oi 94 93 112 101 104 95 100 99 108 94 1000
Frecuencias esperadas Ei 100 100 100 100 100 100 100 100 100 100 1000
169
Uso de Ji-cuadrada
Distribución especificada de manera completa
Si el generador de números aleatorios trabaja
correctamente, entonces los valores 0-9 deben
tener una distribución uniforme discreta, lo que
implica que cada uno de los enteros debe
presentarse exactamente 100 veces. Por tanto
las frecuencias esperadas son Ei = 100 para
cada i = 0,1, . . ., 9.
170
Uso de Ji-cuadrada
Distribución especificada de manera completa
Estas
frecuencias
esperadas
también
aparecieron en la tabla anterior. Puesto que las
frecuencias esperadas pueden calcularse sin
estimar ningún parámetro a partir de los datos
muestrales, el estadístico de prueba Ji-cuadrada
de bondad de ajuste tendrá k - p - 1 = 9 grados
de libertad.
171
Uso de Ji-cuadrada
Distribución especificada de manera completa
Aplicamos el procedimiento siguiendo los
siguientes pasos:
1. La variable de interés es de la forma de la
distribución de los enteros seudoaleatorios
sobre el intervalos 0 a 9.
2. Ho: La distribución es uniforme discreta.
3. Ha: La forma de la distribución no es
uniforme discreta.
4. a = 0.05
172
Uso de Ji-cuadrada
Distribución especificada de manera completa
5. El estadístico de prueba es:
k
 
2
0

i 1
(O i  E i )
2
Ei
6. Rechazar Ho si:
 0   0 .05 , 9  16 . 92
2
2
173
Uso de Ji-cuadrada
Distribución especificada de manera completa
7. Calcular estadístico de prueba en base a
valores esperados y observados.
k

i 1
(O i  E i )
2

( 94  100 )
Ei
8. Concluir:
100
2

( 93  100 )
2
 ... 
( 94  100 )
100
2
 3 . 72
100
Puesto que  0  3 . 72   0 .05 , 9  16 . 92
2
2
no es posible rechazar la hipótesis Ho. Por
consiguiente parece ser que el generador de
números aleatorios trabaja de forma consistente.
174
6.3 Empleo de Chi-Cuadrada en
pruebas de Bondad de Ajuste de
Normalidad
175
Uso de Ji-cuadrada
Distribución continua
Ejemplo: un ingeniero del departamento de
manufactura prueba una fuente de alimentación
utilizada en una computadora portatil. Con un a
= 0.05, desea determinar si el voltaje de salida
está descrito de manera adecuada por una
distribución normal. A partir de una muestra
aleatoria de n = 100 unidades, obtiene las
estimaciones muestrales de la media y la
desviación estándar x  5 . 04 volts y s  0 . 08 volts
176
Uso de Ji-cuadrada
Distribución continua
Una practica común en la construcción de
intervalos de clase para la distribución de
frecuencia empleada en la prueba ji-cuadrada de
bondad de ajuste, es seleccionar los límites de las
clases de modo que las frecuencias esperadas Ei =
npi sean iguales para todas las celdas.
Para
utilizar este método, se desea escoger las fronteras
de las celdas a0, a1, ..., ak para las k clases, de
modo que las probabilidades pi sean iguales.
a
Donde
i
p i  P ( a i 1  X  a i ) 

a i 1
f ( x ) dx
177
Uso de Ji-cuadrada
Distribución continua
Supóngase que se desea utilizar k = 8 celdas.
Para la distribución normal estándar, los
intervalos que dividen la escala en ocho
segmentos igualmente probables son [0, 0.32),
[0.32, 0.675), [0.675, 1.15) y [1.15, ) junto
con sus cuatro imágenes que están del otro lado
del cero. Para cada intervalo pi = 1/8 = 0.125,
de modo que las frecuencias esperadas de las
celdas son Ei = npi = 100 (0.125) = 12.5. La
tabla completa de frecuencias observadas y
178
esperadas es la siguiente .
Uso de Ji-cuadrada
Distribución continua
Intervalo
de Clase
4.948
4.986
5.014
5.04
5.066
5.094
5.132
X<
<= X <
<= X <
<= X <
<= X <
<= X <
<= X <
<= X
Frecuencia
Frecuencia
observada Oi esperada Ei
4.948
12
12.5
4.986
14
12.5
5.014
12
12.5
5.04
13
12.5
5.066
12
12.5
5.094
11
12.5
5.132
12
12.5
14
12.5
179
Uso de Ji-cuadrada
Distribución continua
1. La variable de interés es la distribución del
voltaje de la fuente de alimentación.
2. H0: La forma de la distribución es normal
3. H1: La forma de la distribución no es normal
4. a = 0.05
2
k
(O i  E i )
2
5. El estadístico de prueba es  0  
i 1
Ei
6. Como se han estimado los parámetros de la
distribución, el estadístico de prueba tiene k - p
- 1 = 8 - 2 - 1 = 5 grados de libertad.
180
Uso de Ji-cuadrada
Distribución continua
7. Cálculos
k

i 1
(O i  E i )
Ei
2

(12  12 . 5 )
12 . 5
2

(14  12 . 5 )
2
 ... 
(14  12 . 5 )
12 . 5
8. Conclusiones: Como 
2
0
2
 0 . 64
12 . 5
 0 . 64  
2
0 . 05 , 5
 11 . 07
no se rechaza H0, por lo que no hay evidencia
fuerte que indique que el voltaje de salida no
esté distribuido de manera normal. El valor P
2

 0 . 64 es P =
para el estadístico ji-cuadrada
0
0.9861
181
6.4 Empleo De Chi-cuadrada En
Tablas De Contingencia.
182
Uso de Ji-cuadrada
Otra aplicación de la distribución Ji-cuadrada es
en tablas de contingencia. Una tabla de
contingencia es una tabla de frecuencias en dos
direcciones.
La tabla de contingencia más simple está
compuesta por dos columnas y dos renglones;
se denomina tabla de 2 x 2.
183
6.5 Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
El siguiente ejemplo contiene los datos de una
muestra de 917 delincuentes hombres,
sentenciados
en
el
Distrito
Federal;
considerando las variables estado civil (soltero
y casado) y el tipo de delito cometido (contra
las personas o contra la propiedad)
184
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
D elin cu en tes sen ten cia d o s en el D .F . p o r tip o d e d elito y E d o civil
D elito s co n tra la
C o n tra las
p ro p ied ad
P erso n as
Sum a
S o ltero
213
267
480
C asad o
137
300
437
Sum a
350
567
917
E stad civ il
Lo que se quiere determinar es la existencia o no
de asociación entre el estado civil y el tipo de
delito.
185
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
Para esta determinación se calculan las
frecuencias que deberían esperarse de no
existir ninguna relación entre las dos variables,
esto es, en caso de que fueran independientes.
Este cálculo lo hacemos con el siguiente
razonamiento: Debería de haber igual
proporción de solteros en las dos muestras,
esto es, entre los delincuentes contra la
propiedad y contra las personas.
186
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
La proporción de solteros en las dos muestras
es de 480/917 = 0.523; igual proporción
debería existir entre las dos muestras que
calculamos multiplicando 567 x 0.523 =
296.54 solteros en delitos contra las personas.
Y 350 x 0.523 = 182.3 solteros en delitos
contra la propiedad.
187
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
OBSERVADOS
D elito s co n tra la
C o n tra las
p ro p ied ad
P erso n as
Sum a
S o ltero
213
267
480
C asad o
137
300
437
Sum a
350
567
917
E stad civ il
ESPERADOS
D elito s co n tra la
C o n tra las
p ro p ied ad
P erso n as
Sum a
S o ltero
1 8 3 .2
2 9 6 .8
480
C asad o
1 6 6 .8
2 7 0 .2
437
350
567
917
E stad civ il
Sum a
188
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
Pasos a seguir:
1) Se desea probar si existe una asociación
entre el estado civil y el tipo de delito
cometido (Ho: No existe asociación).
2) Se calcula la Estadística de prueba
k
 
2
0

i 1
(O i  E i )
2
Ei
189
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
Pasos a seguir:
3) Se compara con la Ji-cuadrada de tablas de
un grado de libertad  = (r-1) (c-1) = 1. Donde
r = número de renglones y c = número de
columnas.
4) Si si 2 calculada > 2a, entonces se
rechaza Ho y se concluye que si existe
asociación, de lo contrario se concluye que no
se tiene evidencia de asociación.
190
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
En este ejemplo:
1) Ho: No existe asociación entre Edo. Civil y
Tipo de Delito.
2) Se calcula la Estadística de prueba
k
0 
2

(O i  E i )
183 . 2
2

( 267  296 . 8 )
296 . 8

Ei
i 1
( 213  183 . 2 )
2
2

(137  166 . 8 )
166 . 8
2

( 300  270 . 2 )
2
 16 . 44
270 . 2
191
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
En este ejemplo:
3) Se compara contra 0.01,1 = 6.63.
4) Como 16.44 es mayor que 6.63, se rechaza
Ho y se concluye que si existe una asociación
entre el estado civil del delincuente y el tipo
de delito que comete.
192
Uso de Ji-cuadrada
Uso en tablas de contingencia 2 x 2
193
6.6 Restricciones en el uso de Ji-cuadrada
Debe tenerse especial cuidado de emplear 2 de
manera apropiada, ya que existen algunas
restricciones en su empleo. Algunas de las
restricciones se deben a que la formula
empleada constituye una aproximación.
Restricciones:
1) Sólo deben emplearse datos expresados en
sus frecuencias absolutas (No deben emplearse
porcentajes o puntajes de escalas)
2) Los valores observados o esperados por
194
celda, no deben ser inferior a 5
Uso de Ji-cuadrada
Restricciones en el uso de Ji-cuadrada
3) La suma de las frecuencias esperadas debe
ser igual a la suma de los frecuencias
observadas.
4) Las unidades deben ser excluyentes, es decir
sólo pueden asignarse en una sola casilla.
195
6.7 Teorema de Chebyshev
196
Áreas bajo la distribución Normal a
más menos k desviaciones estándar
197
Áreas bajo la distribución Normal a más
menos k desviaciones estándar estándar
198
Teorema de Chebyshev
Si m y s son, respectivamente, la media y la
desviación estándar de la variable aleatoria X,
entonces para una constante positiva k
cualquiera la probabilidad es cuando menos 1
- 1/k2 de que X tomará un valor contenido en k
desviaciones estándar de la media; en forma
simbólica se tiene,
P (| X  m | k s )  1 
1
k
2
199
Teorema de Chebyshev
1
al
m - ks
1
2
k
menos
m
m + ks
P (| X  m | k s )  1 
1
k
2
200
Teorema de Chebyshev
Por ejemplo, 3/4 es la probabilidad por lo
menos, de que X tomará un valor contenido en
dos desviaciones estándar; 8/9 es la
probabilidad es cuando menos, de que X tomará
un valor contenido en tres desviaciones estándar
y 24/25 es por lo menos la probabilidad, de que
X tomará un valor contenido en cinco
desviaciones estándar de la media. En este
sentido la s controla la diseminación o
dispersión de la distribución de una variable
201
aleatoria.
Teorema de Chebyshev
La probabilidad del teorema de Chebyshev es,
claramente sólo un límite inferior; si la
probabilidad de que una variable aleatoria dada
tome un valor contenido en k desviaciones
estándar de la media es mayor que 1 - 1/k2, esta
bien, pero esta es solo una cota inferior. Sólo
cuando se conoce la distribución de una
variable
aleatoria
puede
determinarse
exactamente la probabilidad
202
Áreas bajo la distribución Normal a más
menos k desviaciones estándar estándar
15/16=93.7%
8/9=89%
3/4 =75%
0%
1-1/k porcentaje del áreas debajo de la
distribución F a k desviaciones estándares
203
Distribuciones muestrales de la
media muestral. Guía para el uso de
la distribución t, normal estándar y el
Teorema del Límite Central.
Estadístico:
Z 
X m
s
No importa el tamaño
de la muestra.
n
Z 
X m
s
n
Z 
X m
S
*
n
t
Población
X m
S
n
Z 
T.L.C.
X m
s
n
?
Z 
X m
S
n
* Rigurosamente es
t
X m
S
?
, pero para n  30 podemos aproximar la distribución t por una normal estándar, por el T.L.C.
n
Nota: La regla n  30 es una buena aproximación en la gran mayoría de los casos, salvo cuando la población tiene una
distribución muy asimétrica, o muy distinta de la forma de campana.
204
? = Consultar a un experto en estadística

similar documents