Ir al contenido

Diferencia entre revisiones de «Distribución binomial»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Método del arcoseno: ; revirtiendo
m Revertida una edición de 132.248.139.94 (disc.) a la última edición de SeroBOT
Etiqueta: Reversión
 
(No se muestran 26 ediciones intermedias de 17 usuarios)
Línea 1: Línea 1:
{{Redirige aquí|Binomial|binomial (desambiguación)}}
{{Redirige aquí|Binomial|binomial (desambiguación)}}
{{referencias|t=20141224163111}}
{{Ficha de distribución de probabilidad
{{Ficha de distribución de probabilidad
|nombre = Distribución binomial
|nombre = Distribución binomial
Línea 22: Línea 21:
}}
}}


En [[teoría de la probabilidad]] y [[estadística]], la '''distribución binomial''' o '''distribución binómica''' es una [[distribución de probabilidad]] discreta que cuenta el número de éxitos en una secuencia de <math>n</math> ensayos de [[Experimento de Bernoulli|Bernoulli]] independientes entre sí con una probabilidad fija <math>p</math> de ocurrencia de éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser [[Dicotomía|dicotómico]], esto es, solo dos resultados son posibles, a uno de estos se le denomina “éxito” y tiene una probabilidad de ocurrencia <math>p</math> y al otro se le denomina “fracaso” y tiene una probabilidad <math>q=1-p</math>. <ref>{{cite book |last=Wadsworth |first=G. P. |title=Introduction to Probability and Random Variables |year=1960 |publisher=McGraw-Hill |location=New York |page=[https://archive.org/details/introductiontopr0000wads/page/52 52] |url=https://archive.org/details/introductiontopr0000wads }}</ref>
En [[teoría de la probabilidad]] y [[estadística]], la '''distribución binomial''' o '''distribución binómica''' es una [[distribución de probabilidad]] discreta que cuenta el número de éxitos en una secuencia de <math>n</math> ensayos de [[Experimento de Bernoulli|Bernoulli]] independientes entre sí con una probabilidad fija <math>p</math> de ocurrencia de éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser [[Dicotomía|dicotómico]], esto es, solo dos resultados son posibles, a uno de estos se le denomina “éxito” y tiene una probabilidad de ocurrencia <math>p</math> y al otro se le denomina “fracaso” y tiene una probabilidad <math>q=1-p</math>.<ref>{{cite book |last=Wadsworth |first=G. P. |title=Introduction to Probability and Random Variables |year=1960 |publisher=McGraw-Hill |location=New York |page=[https://archive.org/details/introductiontopr0000wads/page/52 52] |url=https://archive.org/details/introductiontopr0000wads }}</ref>


La distribución binomial se utiliza con frecuencia para modelizar el número de aciertos en una muestra de tamaño ''n'' extraída [[con reemplazo]] de una población de tamaño ''N''. Si el muestreo se realiza sin reemplazo, las extracciones no son independientes, por lo que la distribución resultante es una [[distribución hipergeométrica]], no una distribución binomial. Sin embargo, para ''N'' mucho mayores que ''n'', la distribución binomial sigue siendo una buena aproximación, y se utiliza ampliamente.
La distribución binomial se utiliza con frecuencia para modelizar el número de aciertos en una muestra de tamaño ''n'' extraída [[con reemplazo]] de una población de tamaño ''N''. Si el muestreo se realiza sin reemplazo, las extracciones no son independientes, por lo que la distribución resultante es una [[distribución hipergeométrica]], no una distribución binomial. Sin embargo, para ''N'' mucho mayores que ''n'', la distribución binomial sigue siendo una buena aproximación, y se utiliza ampliamente.

Más matemáticamente, la distribución binomial es una [[distribución discreta de probabilidad]] descrita por dos parámetros: {{math|''n''}} el número de experimentos realizados, y {{math|''p''}} la probabilidad de éxito. Para cada experimento llamado [[ensayo Bernoulli]], utilizamos una [[variable aleatoria]] que toma el valor {{math|1}} cuando se consigue un éxito y el valor {{math|0}} en caso contrario. La variable aleatoria, suma de todas estas variables aleatorias, cuenta el número de éxitos y sigue una distribución binomial. Es posible entonces obtener la probabilidad de {{math|''k''}} éxitos en una repetición de {{math|''n''}} experimentos:
:<math>\mathbb{P}(X = k)= {n \choose k} \, p^k (1-p)^{n-k}.</math>
En esta fórmula interviene el [[coeficiente binomial]] <math>{n\choose k}</math> del que se deriva el nombre de la ley.

La importancia de esta ley es en primer lugar histórica ya que fue objeto de estudio del [[Teorema de De Moivre-Laplace]], resultado del {{s-|xviii|e}} fundador de la [[Teoría de la probabilidad#Convergencias y resultados límite|teoremas de convergencia]]. Una distribución binomial también se puede utilizar para modelar situaciones simples de acertar o fallar, un juego de [[Cara o cruz| lanzar una moneda]], por ejemplo. El cálculo de su [[función de probabilidad]] se vuelve rápidamente tedioso cuando {{math|''n''}}} es grande, es posible entonces utilizar aproximaciones por otras [[Distribución de probabilidad| leyes de probabilidad|leyes de probabilidad]] como la [[distribución de Poisson]] o la [[distribución normal]] y utilizar tablas de valores.

La ley binomial se utiliza en diversos campos de estudio, especialmente a través de [[Contraste de hipótesis|pruebas estadísticas]] que permiten interpretar datos y tomar decisiones en situaciones que dependen del azar. Debido a su sencilla definición, es una de las leyes de probabilidad que se estudian en los cursos introductorios de teoría de la probabilidad.
== Explicación intuitiva ==
[[File:Pile ou face.png|thumb|vignette|Cara o cruz|199x199px]]
=== Primeros ejemplos ===
==== Cara o cruz ====
Consideremos ''n'' lanzamientos sucesivos de una moneda. Entonces el número de veces que la moneda aparece en la cara de la cruz sigue la distribución binomial donde el número de experimentos realizados es ''n'' y la probabilidad de éxito es <math>p = \frac 1 2</math>
==== Lanzar un dado ====
Consideremos ''n'' lanzamientos sucesivos de un dado de 6 caras. Entonces el número de veces que sale un 1 sigue la distribución binomial donde el número de experimentos realizados es ''n'' y la probabilidad de éxito es <math>p = \frac 1 6</math>.
=== Definición intuitiva ===
Una [[Distribución Bernoulli| ley de Bernoulli]] describe el comportamiento de un [[experimento aleatorio]] que tiene dos posibles resultados tradicionalmente llamados éxito y fracaso<ref name="gossett310">{{Harvsp|Gossett|2009|p=310}}.</ref>. Un experimento de este tipo se denomina [[ensayo de Bernoulli]]. Por ejemplo, en un lanzamiento de [[cara o cruz]], cara puede considerarse un éxito y cruz un fracaso. En este modelo, la probabilidad de éxito es un valor fijo, es decir, permanece constante en cada renovación del experimento aleatorio. Esta probabilidad de éxito se denomina "p".

Consideremos la situación en la que un experimento aleatorio de este tipo (dos resultados posibles y una probabilidad fija) se repite un cierto número de veces de forma independiente; denotemos {{math|''n''}} este número de veces. Esta repetición independiente de ensayos de Bernoulli se denomina [[ensayo de Bernoulli#Esquema de Bernoulli|Esquema de Bernoulli]] o simplemente [[ensayo de Bernoulli|Ensayos de Bernoulli]]<ref name="dodge175">{{Harvsp|Dodge|2007|p=175}}.</ref>. Una distribución binomial describe el número de veces que aparece el ''éxito'' en los {{math|''n''}} experimentos realizados. Dado que el número de éxitos obtenidos es un valor aleatorio, una distribución binomial se describe dando las probabilidades de que el éxito se produzca precisamente {{math|''k''}} veces en los {{math|''n''}} ensayos.
=== Árbol de probabilidades ===
[[File:Wiki arbre.svg|vignette|alt=arbre de probabilité|upright=1.5|[[Arbre de probabilité]] pour une loi binomiale associée à 3 épreuves de Bernoulli.|gauche]]
Una forma visual de representar una secuencia de experimentos es utilizar un [[árbol de probabilidad]]. Cada suceso está representado por dos ramas: una para el éxito y otra para el fracaso. En cada extremo, se añaden dos ramas (éxito y fracaso) para el siguiente ensayo. Esto se repite hasta que se alcanza el número total de sucesos. En cada extremo final, se puede contar el número de éxitos. Se multiplica el número de veces que {{math|''k''}} tiene éxito por la probabilidad de que {{math|''k''}} tenga éxito para obtener la probabilidad correspondiente de la distribución binomial.

== Definición ==
== Definición ==
=== Notación ===
=== Notación ===
Línea 38: Línea 60:
:<math>\!{n \choose x} = \frac{n!}{x!(n-x)!} \,\!</math>
:<math>\!{n \choose x} = \frac{n!}{x!(n-x)!} \,\!</math>


el [[coeficiente binomial]] y se lee “las combinaciones de <math>n \,\!</math> en <math>x \,\!</math>“.
el [[coeficiente binomial]] y se lee “las [[Combinación (matemáticas)|combinaciones]] de <math>n \,\!</math> en <math>x \,\!</math>“.


En ocasiones, para calcular las probabilidades binomiales se utiliza la siguiente fórmula recursiva para calcular <math>\operatorname{P}[X=x+1]</math> en términos de <math>\operatorname{P}[X=x]</math>
En ocasiones, para calcular las probabilidades binomiales se utiliza la siguiente fórmula recursiva para calcular <math>\operatorname{P}[X=x+1]</math> en términos de <math>\operatorname{P}[X=x]</math>
Línea 85: Línea 107:
En este problema un ensayo consiste en lanzar el dado una vez. Consideramos un éxito si obtenemos un 3 pero si no sale 3 lo consideramos como un fracaso. Defínase <math>X</math> como el número de veces que se obtiene un 3 en 51 lanzamientos.
En este problema un ensayo consiste en lanzar el dado una vez. Consideramos un éxito si obtenemos un 3 pero si no sale 3 lo consideramos como un fracaso. Defínase <math>X</math> como el número de veces que se obtiene un 3 en 51 lanzamientos.


En este caso tenemos <math>X\sim\operatorname{Bin}(51/6)</math> por lo que la probabilidad buscada es <math>\operatorname{P}[X=20]</math>
En este caso tenemos <math>X\sim\operatorname{Bin}(51, 1/6)</math> por lo que la probabilidad buscada es <math>\operatorname{P}[X=20]</math>


:<math>\operatorname{P}[X=20]={51 \choose 20}(1/6)^{20}(1-1/6)^{51-20}=0.0000744 \,\!</math>
:<math>\operatorname{P}[X=20]={51 \choose 20}(1/6)^{20}(1-1/6)^{51-20}=0.0000744 \,\!</math>



== Propiedades ==
== Propiedades ==
Línea 179: Línea 200:
Este estimador se encuentra utilizando [[Máxima verosimilitud| estimador de máxima verosimilitud]] y también el [[Método de momentos (estadística)|método de los momentos]]. Este estimador es [[Sesgo estadístico|insesgado]] y uniforme con [[Estimador insesgado de varianza mínima|mínima varianza]], demostrado mediante el [[Teorema de Lehmann–Scheffé]], ya que se basa en un estadístico [[Suficiencia (estadística)| mínimo suficiente]] y [[Completitud (estadística)|completo]] (es decir: ''x''). También es [[Estimador consistente|consistente]] tanto en probabilidad como en [[Error cuadrático medio|MSE]].
Este estimador se encuentra utilizando [[Máxima verosimilitud| estimador de máxima verosimilitud]] y también el [[Método de momentos (estadística)|método de los momentos]]. Este estimador es [[Sesgo estadístico|insesgado]] y uniforme con [[Estimador insesgado de varianza mínima|mínima varianza]], demostrado mediante el [[Teorema de Lehmann–Scheffé]], ya que se basa en un estadístico [[Suficiencia (estadística)| mínimo suficiente]] y [[Completitud (estadística)|completo]] (es decir: ''x''). También es [[Estimador consistente|consistente]] tanto en probabilidad como en [[Error cuadrático medio|MSE]].


También existe un [[estimador de Bayes]] de forma cerrada para ''p'' cuando se utiliza la [[distribución Beta]] como [[conjugada]] de la [[probabilidad a priori]]. Cuando se utiliza un <math>\operatorname{Beta}(\alpha, \beta)</math> a priori, el estimador medio posterior es:
También existe un [[estimador de Bayes]] de forma cerrada para ''p'' cuando se utiliza la [[distribución Beta]] como [[conjugada]] de la [[probabilidad a priori]]. Cuando se utiliza un <math>\operatorname{Beta}(\alpha, \beta)</math> ''a priori'', el estimador medio posterior es:
:<math> \widehat{p}_b = \frac{x+\alpha}{n+\alpha+\beta}.</math>
:<math> \widehat{p}_b = \frac{x+\alpha}{n+\alpha+\beta}.</math>
El estimador de Bayes es asintóticamente eficiente y a medida que el tamaño de la muestra se aproxima a infinito (''n'' → ∞), se aproxima a la solución de [[máxima verosimilitud]]. El estimador de Bayes es [[Sesgo estadístico|sesgado]], cuánto depende de los priores, admisible y [[Consistencia (estadística)|consistente]] en probabilidad.
El estimador de Bayes es asintóticamente eficiente y a medida que el tamaño de la muestra se aproxima a infinito (''n'' → ∞), se aproxima a la solución de [[máxima verosimilitud]]. El estimador de Bayes es [[Sesgo estadístico|sesgado]], cuánto depende de los priores, admisible y [[Consistencia (estadística)|consistente]] en probabilidad.


Para el caso especial de utilizar la [[distribución uniforme estándar]] como [[prior no informativo]], <math>operatorname{Beta}(\alpha=1, \beta=1) = U(0,1)</math>, el estimador de la media posterior se convierte en:
Para el caso especial de utilizar la [[Distribución uniforme continua#Función de distribución| distribución uniforme estándar]] como a [[Probabilidad a priori| priori no informativo]], <math>\operatorname{Beta}(\alpha=1, \beta=1) = U(0,1)</math>, el estimador de la media ''a posteriori'' se convierte en:
:<math> \widehat{p}_b = \frac{x+1}{n+2}.</math>
:<math> \widehat{p}_b = \frac{x+1}{n+2}.</math>
(Un [[estimador de Bayes#Media posterior|Media posterior]] sólo debería conducir al estimador estándar). Este método se denomina [[regla de sucesión]], que fue introducido en el siglo XVIII por [[Pierre-Simon Laplace]].
Este método se denomina [[regla de sucesión]], que fue introducido en el {{siglo|XVIII||s}} por [[Pierre-Simon Laplace]].


Cuando se estima ''p'' con sucesos muy raros y un ''n'' pequeño (por ejemplo: si x=0), entonces utilizar el estimador estándar conduce a <math> \widehat{p} = 0,</math> lo que a veces es poco realista y poco deseable. En estos casos existen varios estimadores alternativos.<ref>{{cite journal |last=Razzaghi |first=Mehdi |title=Sobre la estimación de la probabilidad de éxito binomial con ocurrencia cero en la muestra |journal=Journal of Modern Applied Statistical Methods |volume=1 |issue=2 |year=2002 |pages=326-332 |doi=10. 22237/jmasm/1036110000 |doi-access= }}</ref> Una forma es utilizar el estimador de Bayes, lo que lleva a:
Cuando se estima ''p'' con sucesos muy raros y un ''n'' pequeño (por ejemplo: si x=0), entonces utilizar el estimador estándar conduce a <math> \widehat{p} = 0,</math> lo que a veces es poco realista y poco deseable. En estos casos existen varios estimadores alternativos.<ref>{{cite journal |last=Razzaghi |first=Mehdi |title=Sobre la estimación de la probabilidad de éxito binomial con ocurrencia cero en la muestra |journal=Journal of Modern Applied Statistical Methods |volume=1 |issue=2 |year=2002 |pages=326-332 |doi=10.22237/jmasm/1036110000 |doi-access= }}</ref> Una forma es utilizar el estimador de Bayes, lo que lleva a:
:<math> \widehat{p}_b = \frac{1}{n+2}.</math>
:<math> \widehat{p}_b = \frac{1}{n+2}.</math>
Otro método consiste en utilizar el límite superior del [[intervalo de confianza]] obtenido mediante la [[Regla de tres (estadística)|regla de tres]]:
Otro método consiste en utilizar el límite superior del [[intervalo de confianza]] obtenido mediante la [[Regla de tres (estadística)|regla de tres]]:
:<math> \widehat{p}_{text{regla de 3}} = \frac{3}{n}.</math>
:<math> \widehat{p}_{\text{rule of 3}} = \frac{3}{n}.</math>

=== Intervalos de confianza ===
{{Main|Intervalo de confianza de la proporción binomial}}


=== Intervalos de confianza===
Incluso para valores bastante grandes de ''n'', la distribución real de la media es significativamente no normal.<ref name=Brown2001>{{Citation |first1=Lawrence D. |last1=Brown |first2=T. Tony |last2=Cai |first3=Anirban |last3=DasGupta |year=2001 |title = Estimación de intervalos para una proporción binomial |url=http://www-stat.wharton.upenn.edu/~tcai/paper/html/Binomial-StatSci. html |journal=Statistical Science |volume=16 |issue=2 |pages=101-133 |access-date = 2015-01-05 |doi=10.1214/ss/1009213286|citeseerx=10.1.1.323.7752 }}</ref> Debido a este problema se han propuesto varios métodos para estimar intervalos de confianza.
Incluso para valores bastante grandes de ''n'', la distribución real de la media es significativamente no normal.<ref name=Brown2001>{{Citation |first1=Lawrence D. |last1=Brown |first2=T. Tony |last2=Cai |first3=Anirban |last3=DasGupta |year=2001 |title = Estimación de intervalos para una proporción binomial |url=http://www-stat.wharton.upenn.edu/~tcai/paper/html/Binomial-StatSci. html |journal=Statistical Science |volume=16 |issue=2 |pages=101-133 |access-date = 2015-01-05 |doi=10.1214/ss/1009213286|citeseerx=10.1.1.323.7752 }}</ref> Debido a este problema se han propuesto varios métodos para estimar intervalos de confianza.


En las ecuaciones para intervalos de confianza que se presentan a continuación, las variables tienen el siguiente significado:
En las ecuaciones para intervalos de confianza que se presentan a continuación, las variables tienen el siguiente significado:
* ''n'' <sub>1</sub> es el número de aciertos de ''n'', el número total de ensayos.
* ''n'' <sub>1</sub> es el número de aciertos de ''n'', el número total de ensayos.
<math> \widehat{p\,} = \frac{n_1}{n}</math> es la proporción de aciertos
* <math> \widehat{p\,} = \frac{n_1}{n}</math> es la proporción de aciertos
* <math>z=1 - \tfrac{1}{2}\alpha</math> es el [[cuantil]] de una [[distribución normal estándar]] (es decir, [[probit]]) correspondiente a la tasa de error objetivo <math>\alpha</math>. Por ejemplo, para un [[nivel de confianza]] del 95% el error <math>\alpha</math>&nbsp;=&nbsp;0,05, por lo que <math>1 - \tfrac{1}{2}\alpha</math>&nbsp;=&nbsp;0,975 y <math>z</math>&nbsp;=&nbsp;1,96.
* <math>z=1 - \tfrac{1}{2}\alpha</math> es el [[cuantil]] de una [[Distribución normal| distribución normal estándar]] (es decir, [[probit]]) correspondiente a la tasa de error objetivo <math>\alpha</math>. Por ejemplo, para un [[nivel de confianza]] del 95% el error <math>\alpha</math>&nbsp;=&nbsp;0,05, por lo que <math>1 - \tfrac{1}{2}\alpha</math>&nbsp;=&nbsp;0,975 y <math>z</math>&nbsp;=&nbsp;1,96.

==== Método de Wald ====
{{Main|Intervalo de confianza de la proporción binomial#Intervalo de Wald}}
: <math> \widehat{p,} \pm z \sqrt{ \frac{ \widehat{p,} ( 1 -\widehat{p,} )}{ n } } .</math>

Puede añadirse una [[corrección de continuidad]] de 0,5/''n''.{{clarify|date=July 2012}}

==== Método de Agresti-Coull ====
{{Main|Intervalo de confianza de proporción binomial#Intervalo de Agresti-Coull}}
<ref name=Agresti1988>{{Citation |last1=Agresti |first1=Alan |last2=Coull |first2=Brent A. |date=May 1998 |title=La aproximación es mejor que la 'exacta' para la estimación por intervalos de proporciones binomiales |url = http://www.stat.ufl.edu/~aa/articles/agresti_coull_1998.pdf |journal=The American Statistician |volume=52 |issue=2 |pages=119-126 |access-date=2015-01-05 |doi=10.2307/2685469 |jstor=2685469 }}</ref>

: <math> \tilde{p} \pm z \sqrt{ \frac{ \tilde{p} ( 1 - \tilde{p} )}{ n + z^2 } } </math>

Aquí la estimación de ''p'' se modifica a

: <math> \tilde{p}= \frac{ n_1 + \frac{1}{2} z^2}{ n + z^2 } </math>

Este método funciona bien para <math>n>10</math> y <math>n_1\neq 0,n</math>.<ref>{cite web|last1=Gulotta|first1=Joseph|title=Método de intervalos de Agresti-Coull|url=https://pellucid. atlassian.net/wiki/spaces/PEL/pages/25722894/Agresti-Coull+Interval+Method#:~:text=El%20Método%20Agresti%2DCoull%20Interval%20,%2C%20o%20por%20100%2C000%2C%20etc|website=pellucid. atlassian.net|access-date=18 May 2021}</ref> Ver aquí para <math>n\leq 10</math>.<ref>{cite web|title=Intervalos de confianza|url=https://www.itl.nist.gov/div898/handbook/prc/section2/prc241.htm|website=itl.nist.gov|access-date=18 May 2021}</ref> Para <math>n_1 = 0,n</math> utilizar el método de Wilson (puntuación) a continuación.

==== Método de Wilson (puntuación) ====
{{Main|Intervalo de confianza de proporción binomial#Intervalo de puntuación de Wilson}}

La notación de la fórmula siguiente difiere de las fórmulas anteriores en dos aspectos:<ref name="Wilson1927">{{Citation |last = Wilson |first=Edwin B. |date = June 1927 |title = Probable inference, the law of succession, and statistical inference |url = http://psych.stanford.edu/~jlm/pdfs/Wison27SingleProportion.pdf |journal = Journal of the American Statistical Association |volume=22 |issue=158 |pages=209-212 |access-date= 2015-01-05 |doi = 10. 2307/2276774 |url-status=dead |archive-url = https://web.archive.org/web/20150113082307/http://psych.stanford.edu/~jlm/pdfs/Wison27SingleProportion.pdf |archive-date = 2015-01-13 |jstor = 2276774 }}</ref>
* En primer lugar, ''z''<sub>''x''</sub> tiene una interpretación ligeramente diferente en la fórmula siguiente: tiene su significado ordinario de 'el cuantil ''x'' de la distribución normal estándar', en lugar de ser una abreviatura de 'el (1&nbsp;-&nbsp;''x'')-ésimo cuantil'.
* En segundo lugar, esta fórmula no utiliza un más-menos para definir los dos límites. En su lugar, se puede utilizar <math>z = z_{\alpha / 2}</math> para obtener el límite inferior, o utilizar <math>z = z_{1 - \alpha/2}</math> para obtener el límite superior. Por ejemplo: para un nivel de confianza del 95% el error <math>\alpha</math>&nbsp;=&nbsp;0,05, por lo que se obtiene el límite inferior utilizando <math>z = z_{\alpha/2} = z_{0,025} = - 1,96</math>, y se obtiene el límite superior utilizando <math>z = z_{1 - \alpha/2} = z_{0,975} = 1,96</math>.

:: <math>\frac{
\widehat{p\,} + \frac{z^2}{2n} + z
\sqrt{
\frac {\widehat{p\,}(1 - \widehat{p\,})}{n} +
\frac{z^2}{4 n^2}
}
}{
1 + \frac{z^2}{n}
</math><ref>{cite book
| Capítulo = Intervalos de confianza
| chapter-url = http://www.itl.nist.gov/div898/handbook/prc/section2/prc241.htm
| Título = Engineering Statistics Handbook
| Editor = NIST/Sematech
| año = 2012
| access-date = 2017-07-23
}}</ref>

==== Comparación ====
El método llamado "exacto" ([[Binomial proportion confidence interval#Clopper-Pearson interval|Clopper-Pearson]]) es el más conservador.<ref name="Brown2001" /> (''Exacto'' no significa perfectamente exacto; más bien, indica que las estimaciones no serán menos conservadoras que el valor verdadero).

El método de Wald, aunque suele recomendarse en los libros de texto, es el más sesgado.{{clarify|reason=qué sentido tiene el sesgo|date=July 2012}}


== Véase también ==
== Véase también ==
Línea 261: Línea 233:
== Bibliografía==
== Bibliografía==
*{{cite book |first=Werner Z. |last=Hirsch |title=Introduction to Modern Statistics |location=New York |publisher=MacMillan |year=1957 |chapter=Binomial Distribution—Success or Failure, How Likely Are They? |pages=140–153 |chapter-url=https://books.google.com/books?id=KostAAAAIAAJ&pg=PA140 }}
*{{cite book |first=Werner Z. |last=Hirsch |title=Introduction to Modern Statistics |location=New York |publisher=MacMillan |year=1957 |chapter=Binomial Distribution—Success or Failure, How Likely Are They? |pages=140–153 |chapter-url=https://books.google.com/books?id=KostAAAAIAAJ&pg=PA140 }}
*{{cite book |first1=John |last1=Neter |first2=William |last2=Wasserman |first3=G. A. |last3=Whitmore |title=Applied Statistics |location=Boston |publisher=Allyn & Bacon |edition=Third |year=1988 |isbn=0-205-10328-6 |pages=185–192 }}
*{{cite book |first1=John |last1=Neter |first2=William |last2=Wasserman |first3=G. A. |last3=Whitmore |title=Applied Statistics |url=https://archive.org/details/appliedstatistic0000nete |location=Boston |publisher=Allyn & Bacon |edition=Third |year=1988 |isbn=0-205-10328-6 |pages=[https://archive.org/details/appliedstatistic0000nete/page/185 185]–192 }}
*{{cite book|autor=Patrick Bogaert|título=Probabilités pour scientifiques et ingénieurs|editorial=[[De Boeck Supérieur]]|year=2005|pages=402|isbn=2-8041-4794-0|lire en ligne=}}
*{{cite book|autor=Patrick Bogaert|título=Probabilités pour scientifiques et ingénieurs|editorial=[[De Boeck Supérieur]]|year=2005|pages=402|isbn=2-8041-4794-0|lire en ligne=}}



Revisión actual - 13:52 16 oct 2024

Distribución binomial

Función de masa de probabilidad

Función de masa de probabilidad
Función de probabilidad

Función de distribución acumulada

Función de distribución acumulada
Función de distribución de probabilidad
Parámetros número de ensayos (entero)
probabilidad de éxito (real)
Dominio
Función de probabilidad (fp)
Función de distribución (cdf)
Media
Mediana Uno de [1]
Moda
Varianza
Coeficiente de simetría
Curtosis
Entropía
Función generadora de momentos (mgf)
Función característica

En teoría de la probabilidad y estadística, la distribución binomial o distribución binómica es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de ensayos de Bernoulli independientes entre sí con una probabilidad fija de ocurrencia de éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, solo dos resultados son posibles, a uno de estos se le denomina “éxito” y tiene una probabilidad de ocurrencia y al otro se le denomina “fracaso” y tiene una probabilidad .[2]

La distribución binomial se utiliza con frecuencia para modelizar el número de aciertos en una muestra de tamaño n extraída con reemplazo de una población de tamaño N. Si el muestreo se realiza sin reemplazo, las extracciones no son independientes, por lo que la distribución resultante es una distribución hipergeométrica, no una distribución binomial. Sin embargo, para N mucho mayores que n, la distribución binomial sigue siendo una buena aproximación, y se utiliza ampliamente.

Más matemáticamente, la distribución binomial es una distribución discreta de probabilidad descrita por dos parámetros: n el número de experimentos realizados, y p la probabilidad de éxito. Para cada experimento llamado ensayo Bernoulli, utilizamos una variable aleatoria que toma el valor 1 cuando se consigue un éxito y el valor 0 en caso contrario. La variable aleatoria, suma de todas estas variables aleatorias, cuenta el número de éxitos y sigue una distribución binomial. Es posible entonces obtener la probabilidad de k éxitos en una repetición de n experimentos:

En esta fórmula interviene el coeficiente binomial del que se deriva el nombre de la ley.

La importancia de esta ley es en primer lugar histórica ya que fue objeto de estudio del Teorema de De Moivre-Laplace, resultado del xviii fundador de la teoremas de convergencia. Una distribución binomial también se puede utilizar para modelar situaciones simples de acertar o fallar, un juego de lanzar una moneda, por ejemplo. El cálculo de su función de probabilidad se vuelve rápidamente tedioso cuando n} es grande, es posible entonces utilizar aproximaciones por otras leyes de probabilidad|leyes de probabilidad como la distribución de Poisson o la distribución normal y utilizar tablas de valores.

La ley binomial se utiliza en diversos campos de estudio, especialmente a través de pruebas estadísticas que permiten interpretar datos y tomar decisiones en situaciones que dependen del azar. Debido a su sencilla definición, es una de las leyes de probabilidad que se estudian en los cursos introductorios de teoría de la probabilidad.

Explicación intuitiva

[editar]
Cara o cruz

Primeros ejemplos

[editar]

Cara o cruz

[editar]

Consideremos n lanzamientos sucesivos de una moneda. Entonces el número de veces que la moneda aparece en la cara de la cruz sigue la distribución binomial donde el número de experimentos realizados es n y la probabilidad de éxito es

Lanzar un dado

[editar]

Consideremos n lanzamientos sucesivos de un dado de 6 caras. Entonces el número de veces que sale un 1 sigue la distribución binomial donde el número de experimentos realizados es n y la probabilidad de éxito es .

Definición intuitiva

[editar]

Una ley de Bernoulli describe el comportamiento de un experimento aleatorio que tiene dos posibles resultados tradicionalmente llamados éxito y fracaso[3]​. Un experimento de este tipo se denomina ensayo de Bernoulli. Por ejemplo, en un lanzamiento de cara o cruz, cara puede considerarse un éxito y cruz un fracaso. En este modelo, la probabilidad de éxito es un valor fijo, es decir, permanece constante en cada renovación del experimento aleatorio. Esta probabilidad de éxito se denomina "p".

Consideremos la situación en la que un experimento aleatorio de este tipo (dos resultados posibles y una probabilidad fija) se repite un cierto número de veces de forma independiente; denotemos n este número de veces. Esta repetición independiente de ensayos de Bernoulli se denomina Esquema de Bernoulli o simplemente Ensayos de Bernoulli[4]​. Una distribución binomial describe el número de veces que aparece el éxito en los n experimentos realizados. Dado que el número de éxitos obtenidos es un valor aleatorio, una distribución binomial se describe dando las probabilidades de que el éxito se produzca precisamente k veces en los n ensayos.

Árbol de probabilidades

[editar]

arbre de probabilité Una forma visual de representar una secuencia de experimentos es utilizar un árbol de probabilidad. Cada suceso está representado por dos ramas: una para el éxito y otra para el fracaso. En cada extremo, se añaden dos ramas (éxito y fracaso) para el siguiente ensayo. Esto se repite hasta que se alcanza el número total de sucesos. En cada extremo final, se puede contar el número de éxitos. Se multiplica el número de veces que k tiene éxito por la probabilidad de que k tenga éxito para obtener la probabilidad correspondiente de la distribución binomial.

Definición

[editar]

Notación

[editar]

Si una variable aleatoria discreta tiene una distribución binomial con parámetros y con entonces escribiremos .

Función de Probabilidad

[editar]

Si entonces su función de probabilidad está dada por

para , siendo

el coeficiente binomial y se lee “las combinaciones de en “.

En ocasiones, para calcular las probabilidades binomiales se utiliza la siguiente fórmula recursiva para calcular en términos de

Función de Distribución Acumulada

[editar]

La función de distribución acumulada de una variable aleatoria está dada por

También puede ser expresada en términos de la función beta incompleta como

que es equivalente a la función de distribución acumulada de la distribución F.

La distribución binomial es la base del test binomial de significación estadística.

Experimento binomial

[editar]

Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). El valor de ambas posibilidades ha de ser constante en todos los experimentos, y se denotan como y respectivamente o como y de forma alternativa.

Se designa por a la variable que mide el número de éxitos que se han producido en los experimentos.

Cuando se dan estas circunstancias, se dice que la variable sigue una distribución de probabilidad binomial.

Ejemplo

[editar]

Supongamos que se lanza 51 veces un dado de 6 caras y queremos calcular la probabilidad de que el número 3 salga 20 veces.

En este problema un ensayo consiste en lanzar el dado una vez. Consideramos un éxito si obtenemos un 3 pero si no sale 3 lo consideramos como un fracaso. Defínase como el número de veces que se obtiene un 3 en 51 lanzamientos.

En este caso tenemos por lo que la probabilidad buscada es

Propiedades

[editar]

Si es una variable aleatoria discreta tal que entonces

La primera de ellas es fácil de demostrar, por definición de Esperanza

el primer término de la suma, es decir, para el término vale cero por lo que podemos iniciar la suma en

Dado que

para .

Reemplazando lo anterior en la expresión de obtenemos

Haciendo el cambio de índice obtenemos

Finalmente por la fórmula de Newton (Teorema del binomio)

Obtenemos

.

Distribuciones Relacionadas

[editar]

Suma de Binomiales

[editar]

Si y son variables aleatorias independientes con la misma probabilidad entonces la variable aleatoria también es una variable aleatoria con distribución binomial con parámetros y , es decir

Distribución Bernoulli

[editar]

Si son variables aleatorias independientes e idénticamente distribuidas tales que entonces

Lo anterior es equivalente a decir que la distribución Bernoulli es un caso particular de la distribución Binomial cuando , es decir, si entonces .

Distribuciones limitantes

[editar]

Teorema límite de Poisson

[editar]

Si y es tal que el producto entre ambos parámetros tiende a , entonces la distribución de la variable aleatoria binomial tiende a una distribución de Poisson de parámetro .

Si es una variable aleatoria con media y varianza entonces

conforme , esta aproximación es buena si y .

Propiedades reproductivas

[editar]

Si son variables aleatorias independientes tales que con entonces

Inferencia estadística

[editar]

Estimación de parámetros

[editar]

Cuando se conoce n, el parámetro p puede estimarse utilizando la proporción de aciertos:

Este estimador se encuentra utilizando estimador de máxima verosimilitud y también el método de los momentos. Este estimador es insesgado y uniforme con mínima varianza, demostrado mediante el Teorema de Lehmann–Scheffé, ya que se basa en un estadístico mínimo suficiente y completo (es decir: x). También es consistente tanto en probabilidad como en MSE.

También existe un estimador de Bayes de forma cerrada para p cuando se utiliza la distribución Beta como conjugada de la probabilidad a priori. Cuando se utiliza un a priori, el estimador medio posterior es:

El estimador de Bayes es asintóticamente eficiente y a medida que el tamaño de la muestra se aproxima a infinito (n → ∞), se aproxima a la solución de máxima verosimilitud. El estimador de Bayes es sesgado, cuánto depende de los priores, admisible y consistente en probabilidad.

Para el caso especial de utilizar la distribución uniforme estándar como a priori no informativo, , el estimador de la media a posteriori se convierte en:

Este método se denomina regla de sucesión, que fue introducido en el siglo XVIII por Pierre-Simon Laplace.

Cuando se estima p con sucesos muy raros y un n pequeño (por ejemplo: si x=0), entonces utilizar el estimador estándar conduce a lo que a veces es poco realista y poco deseable. En estos casos existen varios estimadores alternativos.[5]​ Una forma es utilizar el estimador de Bayes, lo que lleva a:

Otro método consiste en utilizar el límite superior del intervalo de confianza obtenido mediante la regla de tres:

Intervalos de confianza

[editar]

Incluso para valores bastante grandes de n, la distribución real de la media es significativamente no normal.[6]​ Debido a este problema se han propuesto varios métodos para estimar intervalos de confianza.

En las ecuaciones para intervalos de confianza que se presentan a continuación, las variables tienen el siguiente significado:

  • n 1 es el número de aciertos de n, el número total de ensayos.
  • es la proporción de aciertos
  • es el cuantil de una distribución normal estándar (es decir, probit) correspondiente a la tasa de error objetivo . Por ejemplo, para un nivel de confianza del 95% el error  = 0,05, por lo que  = 0,975 y  = 1,96.

Véase también

[editar]

Referencias

[editar]
  1. Hamza, K. (1995). The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions. Statist. Probab. Lett. 23 21–25.
  2. Wadsworth, G. P. (1960). Introduction to Probability and Random Variables. New York: McGraw-Hill. p. 52. 
  3. Gossett, 2009, p. 310.
  4. Dodge, 2007, p. 175.
  5. Razzaghi, Mehdi (2002). «Sobre la estimación de la probabilidad de éxito binomial con ocurrencia cero en la muestra». Journal of Modern Applied Statistical Methods 1 (2): 326-332. doi:10.22237/jmasm/1036110000. 
  6. Brown, Lawrence D.; Cai, T. Tony; DasGupta, Anirban (2001), html «Estimación de intervalos para una proporción binomial», Statistical Science 16 (2): 101-133, doi:10.1214/ss/1009213286, consultado el 5 de enero de 2015  Parámetro desconocido |citeseerx= ignorado (ayuda).

Bibliografía

[editar]

Enlaces externos

[editar]