Contenido Checked

Distribución binomial

Temas relacionados: Matemáticas

Sabías ...

Este contenido de Wikipedia ha sido seleccionada por SOS para su utilización en las escuelas de todo el mundo. Una buena manera de ayudar a otros niños es mediante el patrocinio de un niño

Binomio
Función de probabilidad
Función de masa de probabilidad para la distribución binomial
Función de distribución acumulativa
Función de distribución acumulativa para la distribución binomial
Colores coincidan con la imagen de arriba
Parámetros n \ geq 0 número de ensayos ( número entero )
0 \ leq p \ leq 1 probabilidad de éxito ( verdadero )
Apoyo k \ in \ {0, \ dots, n \} \!
PMF {N \ elegir k} p ^ k (1-p) ^ {n-k} \!
CDF I_ {1-p} (n- \ lfloor k \ rfloor, 1+ \ lfloor k \ rfloor) \!
Significar np \!
Mediana uno de \ {\ Lfloor np \ rfloor-1, \ lfloor np \ rfloor, \ lfloor np \ rfloor + 1 \}
Modo \ Lfloor (n + 1) \, p \ rfloor \!
Desacuerdo np (1-p) \!
Oblicuidad \ Frac {1-2p} {\ sqrt {np (1-p)}} \!
Ex. curtosis \ Frac {1-6p (1-p)} {np (1-p)} \!
Entropía \ Frac {1} {2} \ ln \ left (2 \ pi nep (1-p) \ right) + O \ left (\ frac {1} {n} \ right)
MGF (1-p + pe ^ t) ^ n \!
CF (1-p + pe ^ {que}) ^ n \!

En teoría de la probabilidad y estadística , la distribución binomial es la distribución de probabilidad discreta del número de éxitos en una secuencia de n sí / no experimentos independientes, cada uno de los cuales rendimientos éxito con probabilidad p. Tal éxito / fracaso experimento se llama también un experimento de Bernoulli o Ensayo de Bernoulli. De hecho, cuando n = 1, la distribución binomial es una Distribución de Bernoulli. La distribución binomial es la base para el popular prueba binomial de significación estadística. Una distribución binomial no debe confundirse con una distribución bimodal.

Ejemplos

Un ejemplo elemental es esta: Tira un estándar morir diez veces y contar el número de seis. La distribución de este número al azar es una distribución binomial con n = 10 yp = 1/6.

Como otro ejemplo, supongamos que el 5% de una población muy grande para ser de ojos verdes. Usted escoge 100 personas al azar. El número de personas de ojos verdes que usted escoge es una variable aleatoria X que sigue una distribución binomial con n = 100 yp = 0,05.

Especificación

Función de probabilidad

En general, si la K variable aleatoria sigue la distribución binomial con parámetros N y P, se escribe K ~ B (n, p). La probabilidad de obtener exactamente k éxitos en n pruebas es dada por la función de probabilidad:

\ Pr (K = k) = f (k; n, p) = {n \ elegir k} p ^ k (1-p) ^ {n-k}

para k = 0, 1, 2, ..., n y donde

{N \ choose k} = \ frac {n!} {K! (N-k)!}

es el coeficiente binomial (de ahí el nombre de la distribución) "n elegir k" (también denotado C (n, k) o n C k). La fórmula puede entenderse como sigue: queremos k éxitos (p k) y n - k fracasos (1 - p) n - k. Sin embargo, los éxitos k pueden ocurrir en cualquier lugar entre los n ensayos, y hay C (n, k) diferentes formas de distribución de k éxitos en una secuencia de n ensayos.

En la creación de tablas de referencia de probabilidad de la distribución binomial, por lo general la mesa se llena hasta n valores / 2. Esto es porque para k> n / 2, la probabilidad puede ser calculada como su complemento

f (k; n, p) = f (n-k; n, 1-p) \, \.!

Por lo tanto, uno debe mirar a un k diferente y un p diferente (el binomio no es simétrica en general).

Función de distribución acumulativa

La función de distribución acumulativa se puede expresar en términos de la regularizado función beta incompleta, de la siguiente manera:

F (k; n, p) = \ Pr (X \ le k) = I_ {1-p} (n-k, k + 1) \!

proporcionado k es un entero y 0 ≤ kn. Si x no es necesariamente un número entero o no necesariamente positivo, se puede expresar así:

F (x; n, p) = \ Pr (X \ le x) = \ sum_ {j = 0} ^ {\ operatorname {piso} (x)} {n \ elegir j} p ^ j (1-p) ^ {nj}.

Para knp, límites superiores para la cola inferior de la función de distribución se pueden derivar. En particular, Desigualdad de Hoeffding produce el límite

F (k, n, p) \ leq \ exp \ left (-2 \ frac {(np-k) ^ 2} {n} \ right), \!

y La desigualdad de Chernoff se puede utilizar para derivar el límite

F (k, n, p) \ leq \ exp \ left (- \ frac {1} {2 \, p} \ frac {(np-k) ^ 2} {n} \ right). \!

Media, la varianza, y el modo

Si X ~ B (n, p) (es decir, X es una variable aleatoria distribuida binomial), entonces la valor esperado de X es

\ Operatorname {E} (X) = np \, \!

y la varianza es

\ Operatorname {var} (X) = np (1-p). \, \!

Este hecho se prueba fácilmente como sigue. Supongamos primero que tenemos exactamente un ensayo de Bernoulli. Tenemos dos resultados posibles, 1 y 0, el primero con probabilidad p y el segundo con probabilidad 1 - p; la media para esta prueba está dada por μ = p. Usando la definición de la varianza , tenemos

\ Sigma ^ 2 = \ left (1 - p \ right) ^ 2p + (0-p) ^ 2 (1 - p) = p (1-p).

Ahora supongamos que queremos que la varianza de n tales pruebas (es decir, para la distribución binomial general). Dado que los ensayos son independientes, podemos agregar las varianzas de cada ensayo, dando

\ Sigma ^ 2_n = \ sum_ {k = 1} ^ n \ sigma ^ 2 = np (1 - p). \ Quad

El modo de X es el mayor entero menor o igual a (n + 1) p; Si m = (n + 1) p es un número entero, entonces m - 1 y m son ambos modos.

Derivaciones explícitas de media y la varianza

Derivamos estas cantidades a partir de primeros principios. Ciertas sumas particulares ocurren en estas dos derivaciones. Nos reorganizamos las sumas y los términos para que resume únicamente por las funciones de masa de probabilidad binomial completas ( PMF ) se plantea, que son siempre la unidad

\ Sum_ {k = 0} ^ n \ operatorname {Pr} (X = k) = \ sum_ {k = 0} ^ {n n \ elegir k} p ^ k (1-p) ^ {nk} = 1

Significar

Aplicamos la definición de la valor esperado de una variable aleatoria discreta a la distribución binomial

\ Operatorname {E} (X) = \ sum_k x_k \ cdot \ operatorname {Pr} (x_k) = \ sum_ {k = 0} ^ nk \ cdot \ operatorname {} Pr (X = k) = \ sum_ {k = 0} ^ nk \ cdot {n \ choose k} p ^ k (1-p) ^ {nk}

El primer término de la serie (con índice k = 0) tiene un valor 0, ya que el primer factor, k, es cero. Se puede, pues, ser descartado, es decir, podemos cambiar el límite inferior a: k = 1

\ Operatorname {E} (X) = \ sum_ {k = 1} ^ nk \ cdot \ frac {n!} {K! (Nk)!} P ^ k (1-p) ^ {nk} = \ sum_ { k = 1} ^ nk \ cdot \ frac {n \ cdot (n-1)!} {k \ cdot (k-1)! (nk)!} \ cdot p \ cdot p ^ {k-1} (1 -p) ^ {nk}

Nos hemos tirado factores de n y k de los factoriales, y una potencia de p se ha escindido. Nos estamos preparando para redefinir los índices.

\ Operatorname {E} (X) = np \ cdot \ sum_ {k = 1} ^ n \ frac {(n-1)!} {(K-1)! (Nk)!} P ^ {k-1} (1-p) ^ {nk}

Renombramos m = n - 1 y s = k - 1. El valor de la suma no se cambia por esto, pero ahora se convierte fácilmente reconocible

\ Operatorname {E} (X) = np \ cdot \ sum_ {s = 0} ^ m \ frac {(m)!} {(S)! (Ms)!} P ^ s (1-p) ^ {ms } = np \ cdot \ sum_ {s = 0} ^ m {m \ elegir s} p ^ s (1-p) ^ {ms}

La suma resultante es una suma sobre un binomio completa pmf (de un orden inferior a la suma inicial, como es el caso). Así

\ Operatorname {E} (X) = np \ cdot 1 = np

Desacuerdo

Se puede demostrar que la varianza es igual a (ver: varianza, 10. fórmula de cálculo de la varianza ):

\ Operatorname {var} (X) = \ operatorname {E} (X ^ 2) - (\ operatorname {E} (X)) ^ 2.

En el uso de esta fórmula vemos que ahora también necesitamos el valor esperado de X 2, que es

\ Operatorname {E} (X ^ 2) = \ sum_ {k = 0} ^ nk ^ 2 \ cdot \ operatorname {} Pr (X = k) = \ sum_ {k = 0} ^ nk ^ 2 \ cdot {n \ elegir k} p ^ k (1-p) ^ {nk}.

Podemos usar nuestra experiencia adquirida anteriormente en la obtención de la media. Sabemos cómo procesar un factor de k. Esto nos llegue lo más lejos

\ Operatorname {E} (X ^ 2) = np \ cdot \ sum_ {s = 0} ^ mk \ cdot {m \ elegir s} p ^ s (1-p) ^ {ms} = np \ cdot \ sum_ { s = 0} ^ m (s + 1) \ cdot {m \ elegir S} p ^ s (1-p) ^ {ms}

(De nuevo, con m = n - 1 y s = k - 1). Dividimos la suma en dos sumas separadas y reconocemos cada uno

\ Operatorname {E} (X ^ 2) = np \ cdot \ Bigg (\ sum_ {s = 0} ^ ms \ cdot {m \ elegir S} p ^ s (1-p) ^ {ms} + \ sum_ { s = 0} ^ m 1 \ cdot {m \ elegir S} p ^ s (1-p) ^ {ms} \ bigg).

La primera suma es idéntica en forma a la que se calculó en la media (arriba). Se resume a pf. La segunda suma es la unidad.

\ Operatorname {E} (X ^ 2) = np \ cdot (mp + 1) = np ((n-1) p + 1) = np (np - p + 1).

Utilizando este resultado en la expresión para la varianza, junto con la media (E (X) = np), obtenemos

\ Operatorname {var} (X) = \ operatorname {E} (X ^ 2) - (\ operatorname {E} (X)) ^ 2 = np (np - p + 1) - (np) ^ 2 = np ( 1-p).

Relación con otras distribuciones

Sumas de binomios

Si X ~ B (n, p) y Y ~ B (m, p) son variables binomiales independientes, entonces X + Y es de nuevo una variable binomial; su distribución es

X + Y \ sim B (n + m, p). \,

Aproximación normal

PDF binomial y aproximación normal para n = 6 yp = 0,5.

Si n es suficientemente grande, la asimetría de la distribución no es demasiado grande, y un adecuado se utiliza corrección de continuidad, a continuación, una excelente aproximación a B (n, p) viene dado por la distribución normal

\ Operatorname {N} (np, np (1-p)). \, \!

Vario reglas de oro se pueden utilizar para decidir si n es suficientemente grande. Una regla es que tanto np y n (1 - p) debe ser superior a 5. Sin embargo, el número específico varía de una fuente a otra, y depende de lo bien una aproximación que uno quiere; algunas fuentes dan 10. Otra regla de uso común sostiene que la aproximación normal anterior es apropiado sólo si

\ Mu pm \ 3 \ sigma = np \ pm 3 \ sqrt {np (1-p)} \ in [0, n].

El siguiente es un ejemplo de la aplicación de un corrección de continuidad: Supongamos que se desea calcular Pr (X ≤ 8) para un binomio variable aleatoria X. Si Y tiene una distribución dada por la aproximación normal, a continuación, Pr (X ≤ 8) es aproximada por Pr (Y ≤ 8,5). La adición de 0,5 es la corrección de continuidad; la aproximación normal sin corregir da resultados considerablemente menos precisos.

Esta aproximación es un gran ahorro de tiempo (cálculos exactos con gran n son muy onerosos); Históricamente, fue el primer uso de la distribución normal, introducido en El libro de Abraham de Moivre The Doctrine of Chances en 1733. Hoy en día, puede ser visto como una consecuencia de la teorema del límite central desde B (n, p) es una suma de n independiente, idénticamente distribuidas 0-1 variables indicadoras.

Por ejemplo, supongamos que usted muestra al azar n personas, de una población grande y preguntarles si están de acuerdo con una determinada norma. La proporción de personas que están de acuerdo, por supuesto, depende de la muestra. Si ha muestreado grupos de n personas repetidamente y verdaderamente al azar, las proporciones seguiría una distribución aproximadamente normal con media igual a la verdadera proporción p de acuerdo en la población y con una desviación estándar σ = (p (1 - p) n) 1 / 2. Grande los tamaños de muestra n son buenas porque la desviación estándar, como porcentaje del valor esperado, se hace más pequeño, lo que permite una estimación más precisa del parámetro desconocido p.

Poisson aproximación

La distribución binomial converge hacia la distribución de Poisson como el número de ensayos tiende a infinito, mientras que el producto np permanece fijo. Por lo tanto la distribución de Poisson con parámetro λ = np se puede utilizar como una aproximación a B (n, p) de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. De acuerdo con dos reglas de oro, esta aproximación es buena si n ≥ 20 y p ≤ 0,05, o si n ≥ 100 y np ≤ 10.

Límites de distribuciones binomiales

  • Como n se acerca ∞ y p se aproxima a 0 mientras np permanece fijo en λ> 0 o al menos np se acerca λ> 0, entonces la Binomial (n, p) la distribución se aproxima a la distribución de Poisson con λ valor esperado.
  • Como n enfoques ∞ mientras que p permanece fijo, la distribución de
{X-np \ sobre \ sqrt {np (1-p) \}}
se aproxima a la distribución normal con valor esperado 0 y varianza 1 (esto es sólo un caso específico de la Límite Teorema Central).
Recuperado de " http://en.wikipedia.org/w/index.php?title=Binomial_distribution&oldid=205749965 "