Diferencia entre revisiones de «Distribución binomial de Poisson»
Página creada con «En teoría de la probabilidad y estadística, la '''distribución binomial de Poisson''' es la distribución de probabilidad discreta de una suma de independientes ensayos...» Etiquetas: Sin referencias sin categorizar |
Función de sugerencias de enlaces: 3 enlaces añadidos. Etiquetas: Edición visual Edición desde móvil Edición vía web móvil Tarea para novatos Sugerencia: añadir enlaces |
||
(No se muestran 30 ediciones intermedias de 9 usuarios) | |||
Línea 1: | Línea 1: | ||
En teoría de la probabilidad y estadística, la '''distribución binomial de Poisson''' es la distribución de probabilidad discreta de una |
En [[teoría de la probabilidad]] y estadística, la '''distribución binomial de Poisson''' es la [[distribución de probabilidad]] discreta del número de éxitos en una secuencia de ''n'' [[Ensayo de Bernoulli|ensayos de Bernoulli]] independientes. Su denominación es en honor al físico y matemático francés [[Siméon Denis Poisson]]. |
||
El resultado de un ensayo es una [[variable aleatoria]] de [[distribución de Bernoulli]] -cada una con su respectiva probabilidad de éxito <math>p_1, p_2, \dots , p_n</math>. La variable aleatoria de distribución binomial de Poisson es la suma de las ''n'' variables aleatorias de distribución de Bernoulli. |
|||
En otras palabras, es la distribución de probabilidad del número de éxitos en una secuencia de n independientes sí / no experimentos con éxito probabilidades pag 1 , pag 2 , ... , pag norte {\ displaystyle p_ {1}, P_ {2}, \ puntos, p_ {n}} p_ {1}, P_ {2}, \ puntos, p_ {n} . El ordinaria distribución binomial es un caso especial de la distribución binomial de Poisson, cuando todas las probabilidades de éxito son los mismos, es decir pag 1 = pag 2 = ⋯ = pag norte {\ displaystyle p_ {1} = p_ {2} = \ cdots = p_ {n}} p_ {1} = p_ {2} = \ cdots = p_ {n} . |
|||
La [[distribución binomial]] es un caso especial de la distribución binomial de Poisson, donde la probabilidad de éxito es la misma en todos los ensayos, es decir <math>p_1 = p_2 = \cdots = p_n</math>. |
|||
==Media y la varianza== |
|||
La media y la varianza de la variable aleatoria de distribución binomial de Poisson es igual a la suma de las medias y las varianzas de las ''n'' distribuciones de Bernoulli respectivamente: |
|||
: <math>\mu = \sum\limits_{i=1}^n p_i</math> |
|||
:<math>\sigma^2 =\sum\limits_{i=1}^n (1-p_i) p_i</math> |
|||
Para un mismo valor de la media (<math>\mu</math>) y tamaño (''n''), la varianza es máxima cuando todas las probabilidades de éxito son iguales, lo que corresponde a una distribución binomial. Cuando ''n'' es suficientemente grande y todos los valores de <math>p_{i}</math>son pequeños, la [[distribución de Poisson]] es una buena aproximación de la distribución binomial de Poisson. La varianza de la distribución de Poisson establece el límite superior de la varianza de la distribución binomial de Poisson cuando ''n'' tiende a infinito y tienen misma la media (<math>\mu</math>). |
|||
==Función de probabilidad== |
|||
La probabilidad de obtener ''k'' éxitos de un total de ''n'' ensayos puede representarse como la suma:<ref> |
|||
{{cita publicación |
|||
| volumen = 3 |
|||
| número = 2 |
|||
| páginas = 295–312 |
|||
| apellido = Wang |
|||
| nombre = Y. H. |
|||
| título = On the number of successes in independent trials |
|||
| publicación = Statistica Sinica |
|||
| año = 1993 |
|||
| url = http://www3.stat.sinica.edu.tw/statistica/oldpdf/A3n23.pdf |
|||
}} |
|||
</ref> |
|||
:<math>\Pr(K=k) = \sum\limits_{A\in F_k} \prod\limits_{i\in A} p_i \prod\limits_{j\in A^c} (1-p_j) </math> |
|||
donde <math>F_k</math> es el conjunto de todos los subconjuntos de ''k'' enteros que se pueden seleccionar. Por ejemplo, sea S = {1,2,3,...,''n''}, si ''n'' = 3 entonces <math>F_2=\left\{ \{1,2\},\{1,3\},\{2,3\} \right\}</math>. <math>A</math>es un subconjunto de S y <math>A^c</math>es el complemento de <math>A</math> respecto de S. |
|||
<math>F_k</math> contiene <math>n!/((n-k)!k!)</math>elementos en la sumatoria, lo cual limita el cálculo de la función en la práctica incluso para números de ensayos ''n'' moderados (ejemplo, si n=40, <math>F_{15}</math>contiene más de 10<sup>10</sup> elementos). Sin embargo, hay otras maneras más eficientes de calcular <math>\Pr(K=k)</math>. |
|||
Mientras ninguna de las probabilidades de éxito sea igual a uno, se puede calcular la probabilidad de ''k'' éxitos usando la fórmula recurrente<ref> |
|||
{{cita publicación |
|||
| volumen = 27 |
|||
| número = 3 |
|||
| páginas = 123–124 |
|||
| apellido = Shah |
|||
| nombre = B. K. |
|||
| título = On the distribution of the sum of independent integer valued random variables |
|||
| publicación = American Statistician |
|||
| año = 1994 |
|||
| jstor=2683639 |
|||
}} |
|||
</ref> |
|||
<ref> |
|||
{{cita publicación |
|||
| volumen = 81 |
|||
| número = 3 |
|||
| páginas = 457 |
|||
| apellido = Chen |
|||
| nombre = X. H. |
|||
|autor2=A. P. Dempster |autor3=J. S. Liu |
|||
| título = Weighted finite population sampling to maximize entropy |
|||
| publicación = Biometrika |
|||
| año = 1994 |
|||
| url = http://www.people.fas.harvard.edu/~junliu/TechRept/94folder/cdl94.pdf |
|||
| doi=10.1093/biomet/81.3.457 |
|||
}} |
|||
</ref> |
|||
:<math>\Pr (K=k)= \begin{cases} |
|||
\prod\limits_{i=1}^n (1-p_i) & k=0 \\ |
|||
\frac{1}{k} \sum\limits_{i=1}^k (-1)^{i-1}\Pr (K=k-i)T(i) & k>0 \\ |
|||
\end{cases} </math> |
|||
donde |
|||
: <math> T(i)=\sum\limits_{j=1}^n \left( \frac{p_j}{1-p_j} \right)^i.</math> |
|||
La fórmula recurrente no es numéricamente estable, y debe evitarse si ''n'' es mayor que aproximadamente 20. Otra posibilidad es usar la transformada discreta de Fourier.<ref> |
|||
{{cita publicación |
|||
| volumen = 46 |
|||
| número = 2 |
|||
| páginas = 803–817 |
|||
| apellido = Fernandez |
|||
| nombre = M. |
|||
|autor2=S. Williams |
|||
| título = Closed-Form Expression for the Poisson-Binomial Probability Density Function |
|||
| publicación = IEEE Transactions on Aerospace Electronic Systems |
|||
| año = 2010 |
|||
| doi = 10.1109/TAES.2010.5461658 |
|||
}} |
|||
</ref> |
|||
:<math>\Pr (K=k)=\frac{1}{n+1} \sum\limits_{l=0}^n C^{-lk} \prod\limits_{m=1}^n \left( 1+(C^l-1) p_m \right) </math> |
|||
donde <math>C=\exp \left( \frac{2i\pi }{n+1} \right)</math> ; <math>i=\sqrt{-1}</math>. |
|||
Otros métodos se describen en<ref>{{cita publicación|url=http://www3.stat.sinica.edu.tw/statistica/password.asp?vol=7&num=4&art=4|título=Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions|apellido=Chen|nombre=S. X.|autor2=J. S. Liu|publicación=Statistica Sinica|volumen=7|páginas=875–892|año=1997}}</ref> |
|||
== Entropía == |
|||
No existe una fórmula simple para la entropía de una distribución binomial de Poisson, pero la entropía está limitada por la entropía de una distribución binomial con el mismo parámetro numérico y la misma media. Por lo tanto, la entropía también está limitada por la entropía de una distribución de Poisson con la misma media. |
|||
<ref>{{cita publicación |
|||
| volumen = 47 | número = 5 |
|||
| páginas = 2039–2041 |
|||
| apellido = Harremoës |
|||
| nombre = P. |
|||
| título = Binomial and Poisson distributions as maximum entropy distributions |
|||
| publicación = IEEE Transactions on Information Theory |
|||
| año = 2001 |
|||
| url = http://www.harremoes.dk/Peter/poisson.pdf |
|||
| doi=10.1109/18.930936 |
|||
}}</ref> |
|||
La conjetura de Shepp-Olkin, creada por Lawrence Shepp e [[Ingram Olkin]] en 1981, establece que la entropía de una distribución binomial de Poisson es una función cóncava con probabilidades de éxito. <math>p_1, p_2, \dots , p_n</math>.<ref>{{Cita enciclopedia|apellido1=Shepp|apellido2=Olkin|nombre1=Lawrence|nombre2=Ingram|año=1981|editor1=J. |
|||
Gani|editor2=V.K. |
|||
Rohatgi|título=Entropy of the sum of independent Bernoulli random variables and of the multinomial distribution|url=https://books.google.co.uk/books?id=9qziBQAAQBAJ|editorial=Academic Press|isbn=0-12-274460-8|páginas=201–206|mr=0618689|ubicación=New York|enciclopedia=Contributions to probability: A collection of papers dedicated to Eugene Lukacs}}</ref> Esta conjetura fue probada por Erwan Hillion y Oliver Johnson en 2015.<ref>{{cita publicación |apellido=Hillion|nombre=Erwan|last2=Johnson|first2=Oliver|fecha=5 de marzo de 2015|título=A proof of the Shepp-Olkin entropy concavity conjecture |publicación=Bernoulli|volumen = 23|páginas = 3638-3649 | arxiv=1503.01570 |doi=10.3150/16-BEJ860}}</ref> |
|||
==Referencias== |
|||
{{listaref}} |
|||
{{Control de autoridades}} |
|||
[[Categoría:Distribuciones de probabilidad]] |
|||
[[Categoría:Temas factoriales y binomiales]] |
Revisión actual - 16:57 23 ene 2023
En teoría de la probabilidad y estadística, la distribución binomial de Poisson es la distribución de probabilidad discreta del número de éxitos en una secuencia de n ensayos de Bernoulli independientes. Su denominación es en honor al físico y matemático francés Siméon Denis Poisson.
El resultado de un ensayo es una variable aleatoria de distribución de Bernoulli -cada una con su respectiva probabilidad de éxito . La variable aleatoria de distribución binomial de Poisson es la suma de las n variables aleatorias de distribución de Bernoulli.
La distribución binomial es un caso especial de la distribución binomial de Poisson, donde la probabilidad de éxito es la misma en todos los ensayos, es decir .
Media y la varianza
[editar]La media y la varianza de la variable aleatoria de distribución binomial de Poisson es igual a la suma de las medias y las varianzas de las n distribuciones de Bernoulli respectivamente:
Para un mismo valor de la media () y tamaño (n), la varianza es máxima cuando todas las probabilidades de éxito son iguales, lo que corresponde a una distribución binomial. Cuando n es suficientemente grande y todos los valores de son pequeños, la distribución de Poisson es una buena aproximación de la distribución binomial de Poisson. La varianza de la distribución de Poisson establece el límite superior de la varianza de la distribución binomial de Poisson cuando n tiende a infinito y tienen misma la media ().
Función de probabilidad
[editar]La probabilidad de obtener k éxitos de un total de n ensayos puede representarse como la suma:[1]
donde es el conjunto de todos los subconjuntos de k enteros que se pueden seleccionar. Por ejemplo, sea S = {1,2,3,...,n}, si n = 3 entonces . es un subconjunto de S y es el complemento de respecto de S.
contiene elementos en la sumatoria, lo cual limita el cálculo de la función en la práctica incluso para números de ensayos n moderados (ejemplo, si n=40, contiene más de 1010 elementos). Sin embargo, hay otras maneras más eficientes de calcular .
Mientras ninguna de las probabilidades de éxito sea igual a uno, se puede calcular la probabilidad de k éxitos usando la fórmula recurrente[2] [3]
donde
La fórmula recurrente no es numéricamente estable, y debe evitarse si n es mayor que aproximadamente 20. Otra posibilidad es usar la transformada discreta de Fourier.[4]
donde ; .
Otros métodos se describen en[5]
Entropía
[editar]No existe una fórmula simple para la entropía de una distribución binomial de Poisson, pero la entropía está limitada por la entropía de una distribución binomial con el mismo parámetro numérico y la misma media. Por lo tanto, la entropía también está limitada por la entropía de una distribución de Poisson con la misma media. [6]
La conjetura de Shepp-Olkin, creada por Lawrence Shepp e Ingram Olkin en 1981, establece que la entropía de una distribución binomial de Poisson es una función cóncava con probabilidades de éxito. .[7] Esta conjetura fue probada por Erwan Hillion y Oliver Johnson en 2015.[8]
Referencias
[editar]- ↑ Wang, Y. H. (1993). «On the number of successes in independent trials». Statistica Sinica 3 (2): 295-312.
- ↑ Shah, B. K. (1994). «On the distribution of the sum of independent integer valued random variables». American Statistician 27 (3): 123-124. JSTOR 2683639.
- ↑ Chen, X. H.; A. P. Dempster; J. S. Liu (1994). «Weighted finite population sampling to maximize entropy». Biometrika 81 (3): 457. doi:10.1093/biomet/81.3.457.
- ↑ Fernandez, M.; S. Williams (2010). «Closed-Form Expression for the Poisson-Binomial Probability Density Function». IEEE Transactions on Aerospace Electronic Systems 46 (2): 803-817. doi:10.1109/TAES.2010.5461658.
- ↑ Chen, S. X.; J. S. Liu (1997). «Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions». Statistica Sinica 7: 875-892.
- ↑ Harremoës, P. (2001). «Binomial and Poisson distributions as maximum entropy distributions». IEEE Transactions on Information Theory 47 (5): 2039-2041. doi:10.1109/18.930936.
- ↑ Shepp, Lawrence; Olkin, Ingram (1981). «Entropy of the sum of independent Bernoulli random variables and of the multinomial distribution». En J. Gani; V.K. Rohatgi, eds. Contributions to probability: A collection of papers dedicated to Eugene Lukacs. New York: Academic Press. pp. 201-206. ISBN 0-12-274460-8. MR 0618689.
- ↑ Hillion, Erwan; Johnson, Oliver (5 de marzo de 2015). «A proof of the Shepp-Olkin entropy concavity conjecture». Bernoulli 23: 3638-3649. arXiv:1503.01570. doi:10.3150/16-BEJ860.