Distribución binomial
Sabías ...
Este contenido de Wikipedia ha sido seleccionada por SOS para su utilización en las escuelas de todo el mundo. Una buena manera de ayudar a otros niños es mediante el patrocinio de un niño
Función de probabilidad | |
Función de distribución acumulativa Colores coincidan con la imagen de arriba | |
Parámetros | número de ensayos ( número entero ) probabilidad de éxito ( verdadero ) |
---|---|
Apoyo | |
PMF | |
CDF | |
Significar | |
Mediana | uno de |
Modo | |
Desacuerdo | |
Oblicuidad | |
Ex. curtosis | |
Entropía | |
MGF | |
CF |
En teoría de la probabilidad y estadística , la distribución binomial es la distribución de probabilidad discreta del número de éxitos en una secuencia de n sí / no experimentos independientes, cada uno de los cuales rendimientos éxito con probabilidad p. Tal éxito / fracaso experimento se llama también un experimento de Bernoulli o Ensayo de Bernoulli. De hecho, cuando n = 1, la distribución binomial es una Distribución de Bernoulli. La distribución binomial es la base para el popular prueba binomial de significación estadística. Una distribución binomial no debe confundirse con una distribución bimodal.
Ejemplos
Un ejemplo elemental es esta: Tira un estándar morir diez veces y contar el número de seis. La distribución de este número al azar es una distribución binomial con n = 10 yp = 1/6.
Como otro ejemplo, supongamos que el 5% de una población muy grande para ser de ojos verdes. Usted escoge 100 personas al azar. El número de personas de ojos verdes que usted escoge es una variable aleatoria X que sigue una distribución binomial con n = 100 yp = 0,05.
Especificación
Función de probabilidad
En general, si la K variable aleatoria sigue la distribución binomial con parámetros N y P, se escribe K ~ B (n, p). La probabilidad de obtener exactamente k éxitos en n pruebas es dada por la función de probabilidad:
para k = 0, 1, 2, ..., n y donde
es el coeficiente binomial (de ahí el nombre de la distribución) "n elegir k" (también denotado C (n, k) o n C k). La fórmula puede entenderse como sigue: queremos k éxitos (p k) y n - k fracasos (1 - p) n - k. Sin embargo, los éxitos k pueden ocurrir en cualquier lugar entre los n ensayos, y hay C (n, k) diferentes formas de distribución de k éxitos en una secuencia de n ensayos.
En la creación de tablas de referencia de probabilidad de la distribución binomial, por lo general la mesa se llena hasta n valores / 2. Esto es porque para k> n / 2, la probabilidad puede ser calculada como su complemento
Por lo tanto, uno debe mirar a un k diferente y un p diferente (el binomio no es simétrica en general).
Función de distribución acumulativa
La función de distribución acumulativa se puede expresar en términos de la regularizado función beta incompleta, de la siguiente manera:
proporcionado k es un entero y 0 ≤ k ≤ n. Si x no es necesariamente un número entero o no necesariamente positivo, se puede expresar así:
Para k ≤ np, límites superiores para la cola inferior de la función de distribución se pueden derivar. En particular, Desigualdad de Hoeffding produce el límite
y La desigualdad de Chernoff se puede utilizar para derivar el límite
Media, la varianza, y el modo
Si X ~ B (n, p) (es decir, X es una variable aleatoria distribuida binomial), entonces la valor esperado de X es
y la varianza es
Este hecho se prueba fácilmente como sigue. Supongamos primero que tenemos exactamente un ensayo de Bernoulli. Tenemos dos resultados posibles, 1 y 0, el primero con probabilidad p y el segundo con probabilidad 1 - p; la media para esta prueba está dada por μ = p. Usando la definición de la varianza , tenemos
Ahora supongamos que queremos que la varianza de n tales pruebas (es decir, para la distribución binomial general). Dado que los ensayos son independientes, podemos agregar las varianzas de cada ensayo, dando
El modo de X es el mayor entero menor o igual a (n + 1) p; Si m = (n + 1) p es un número entero, entonces m - 1 y m son ambos modos.
Derivaciones explícitas de media y la varianza
Derivamos estas cantidades a partir de primeros principios. Ciertas sumas particulares ocurren en estas dos derivaciones. Nos reorganizamos las sumas y los términos para que resume únicamente por las funciones de masa de probabilidad binomial completas ( PMF ) se plantea, que son siempre la unidad
Significar
Aplicamos la definición de la valor esperado de una variable aleatoria discreta a la distribución binomial
El primer término de la serie (con índice k = 0) tiene un valor 0, ya que el primer factor, k, es cero. Se puede, pues, ser descartado, es decir, podemos cambiar el límite inferior a: k = 1
Nos hemos tirado factores de n y k de los factoriales, y una potencia de p se ha escindido. Nos estamos preparando para redefinir los índices.
Renombramos m = n - 1 y s = k - 1. El valor de la suma no se cambia por esto, pero ahora se convierte fácilmente reconocible
La suma resultante es una suma sobre un binomio completa pmf (de un orden inferior a la suma inicial, como es el caso). Así
Desacuerdo
Se puede demostrar que la varianza es igual a (ver: varianza, 10. fórmula de cálculo de la varianza ):
En el uso de esta fórmula vemos que ahora también necesitamos el valor esperado de X 2, que es
Podemos usar nuestra experiencia adquirida anteriormente en la obtención de la media. Sabemos cómo procesar un factor de k. Esto nos llegue lo más lejos
(De nuevo, con m = n - 1 y s = k - 1). Dividimos la suma en dos sumas separadas y reconocemos cada uno
La primera suma es idéntica en forma a la que se calculó en la media (arriba). Se resume a pf. La segunda suma es la unidad.
Utilizando este resultado en la expresión para la varianza, junto con la media (E (X) = np), obtenemos
Relación con otras distribuciones
Sumas de binomios
Si X ~ B (n, p) y Y ~ B (m, p) son variables binomiales independientes, entonces X + Y es de nuevo una variable binomial; su distribución es
Aproximación normal
Si n es suficientemente grande, la asimetría de la distribución no es demasiado grande, y un adecuado se utiliza corrección de continuidad, a continuación, una excelente aproximación a B (n, p) viene dado por la distribución normal
Vario reglas de oro se pueden utilizar para decidir si n es suficientemente grande. Una regla es que tanto np y n (1 - p) debe ser superior a 5. Sin embargo, el número específico varía de una fuente a otra, y depende de lo bien una aproximación que uno quiere; algunas fuentes dan 10. Otra regla de uso común sostiene que la aproximación normal anterior es apropiado sólo si
El siguiente es un ejemplo de la aplicación de un corrección de continuidad: Supongamos que se desea calcular Pr (X ≤ 8) para un binomio variable aleatoria X. Si Y tiene una distribución dada por la aproximación normal, a continuación, Pr (X ≤ 8) es aproximada por Pr (Y ≤ 8,5). La adición de 0,5 es la corrección de continuidad; la aproximación normal sin corregir da resultados considerablemente menos precisos.
Esta aproximación es un gran ahorro de tiempo (cálculos exactos con gran n son muy onerosos); Históricamente, fue el primer uso de la distribución normal, introducido en El libro de Abraham de Moivre The Doctrine of Chances en 1733. Hoy en día, puede ser visto como una consecuencia de la teorema del límite central desde B (n, p) es una suma de n independiente, idénticamente distribuidas 0-1 variables indicadoras.
Por ejemplo, supongamos que usted muestra al azar n personas, de una población grande y preguntarles si están de acuerdo con una determinada norma. La proporción de personas que están de acuerdo, por supuesto, depende de la muestra. Si ha muestreado grupos de n personas repetidamente y verdaderamente al azar, las proporciones seguiría una distribución aproximadamente normal con media igual a la verdadera proporción p de acuerdo en la población y con una desviación estándar σ = (p (1 - p) n) 1 / 2. Grande los tamaños de muestra n son buenas porque la desviación estándar, como porcentaje del valor esperado, se hace más pequeño, lo que permite una estimación más precisa del parámetro desconocido p.
Poisson aproximación
La distribución binomial converge hacia la distribución de Poisson como el número de ensayos tiende a infinito, mientras que el producto np permanece fijo. Por lo tanto la distribución de Poisson con parámetro λ = np se puede utilizar como una aproximación a B (n, p) de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. De acuerdo con dos reglas de oro, esta aproximación es buena si n ≥ 20 y p ≤ 0,05, o si n ≥ 100 y np ≤ 10.
Límites de distribuciones binomiales
- Como n se acerca ∞ y p se aproxima a 0 mientras np permanece fijo en λ> 0 o al menos np se acerca λ> 0, entonces la Binomial (n, p) la distribución se aproxima a la distribución de Poisson con λ valor esperado.
- Como n enfoques ∞ mientras que p permanece fijo, la distribución de
- se aproxima a la distribución normal con valor esperado 0 y varianza 1 (esto es sólo un caso específico de la Límite Teorema Central).