Ir al contenido

Diferencia entre revisiones de «Algoritmo esperanza-maximización»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Correto:https://en.wikipedia.org/wiki/Arthur_P._Dempster , Errado: https://es.wikipedia.org/wiki/Arthur_Dempster
InternetArchiveBot (discusión · contribs.)
Rescatando 1 referencia(s) y marcando 0 enlace(s) como roto(s)) #IABot (v2.0.9.5
 
(No se muestran 2 ediciones intermedias de 2 usuarios)
Línea 2: Línea 2:


== Historia ==
== Historia ==
El algoritmo EM fue expuesto por [[:en:Arthur_P._Dempster|Arthur Pentland Dempster]], [[Nan Laird]] y [[Donald Rubin]] de la [[Royal Statistical Society]] en una publicación de 1977. Los autores señalan que el método ya había sido "propuesto muchas veces en situaciones especiales" por otros autores, pero la publicación de 1977 generaliza el método y desarrolla la teoría detrás de él. A partir de ese momento muchas variantes y modificaciones del algoritmo original propuesto han aparecido, pero la base matemática subyacente no ha cambiado.
El algoritmo EM fue expuesto por [[Arthur_P._Dempster|Arthur Pentland Dempster]], [[Nan Laird]] y [[Donald Rubin]] de la [[Royal Statistical Society]] en una publicación de 1977. Los autores señalan que el método ya había sido "propuesto muchas veces en situaciones especiales" por otros autores, pero la publicación de 1977 generaliza el método y desarrolla la teoría detrás de él. A partir de ese momento muchas variantes y modificaciones del algoritmo original propuesto han aparecido, pero la base matemática subyacente no ha cambiado.


== Aplicaciones ==
== Aplicaciones ==
Línea 8: Línea 8:


== Enlaces externos ==
== Enlaces externos ==
* Código de ejemplo del EM en [http://www.mathworks.com/matlabcentral/fileexchange/loadFile.do?objectId=8636 MATLAB] y en [https://web.archive.org/web/20160214062151/http://lcn.epfl.ch/tutorial/english/mixtureModel/index.html Java].
* Código de ejemplo del EM en [http://www.mathworks.com/matlabcentral/fileexchange/loadFile.do?objectId=8636 MATLAB] {{Wayback|url=http://www.mathworks.com/matlabcentral/fileexchange/loadFile.do?objectId=8636 |date=20070926225741 }} y en [https://web.archive.org/web/20160214062151/http://lcn.epfl.ch/tutorial/english/mixtureModel/index.html Java].
* Implementación Real en C del algoritmo [https://github.com/juandavm/em4gmm Expectation Maximization] (EM) para estimar [https://github.com/juandavm/em4gmm Gaussian Mixture Models] (GMMs).
* Implementación Real en C del algoritmo [https://github.com/juandavm/em4gmm Expectation Maximization] (EM) para estimar [https://github.com/juandavm/em4gmm Gaussian Mixture Models] (GMMs).


Línea 266: Línea 266:


{{Control de autoridades}}
{{Control de autoridades}}
[[Categoría:Algoritmos|Esperanza maximizacion]]
[[Categoría:Algoritmos estadísticos|Esperanza maximización]]
[[Categoría:Optimización]]
[[Categoría:Optimización]]
[[Categoría:Estimación estadística]]
[[Categoría:Estimación estadística]]

Revisión actual - 10:01 16 feb 2024

El algoritmo esperanza-maximización o algoritmo EM se usa en estadística para encontrar estimadores de máxima verosimilitud de parámetros en modelos probabilísticos que dependen de variables no observables. El algoritmo EM alterna pasos de esperanza (paso E), donde se computa la esperanza de la verosimilitud mediante la inclusión de variables latentes como si fueran observables, y un paso de maximización (paso M), donde se computan estimadores de máxima verosimilitud de los parámetros mediante la maximización de la verosimilitud esperada del paso E. Los parámetros que se encuentran en el paso M se usan para comenzar el paso E siguiente, y así el proceso se repite.

Historia

[editar]

El algoritmo EM fue expuesto por Arthur Pentland Dempster, Nan Laird y Donald Rubin de la Royal Statistical Society en una publicación de 1977. Los autores señalan que el método ya había sido "propuesto muchas veces en situaciones especiales" por otros autores, pero la publicación de 1977 generaliza el método y desarrolla la teoría detrás de él. A partir de ese momento muchas variantes y modificaciones del algoritmo original propuesto han aparecido, pero la base matemática subyacente no ha cambiado.

Aplicaciones

[editar]

El algoritmo EM se utiliza frecuentemente para algoritmos de agrupamiento en aprendizaje automático y visión artificial, para aprender Modelos ocultos de Márkov y Mixturas de Gaussianas, utilizadas en procesos de clasificación o reconocimiento. De esta forma, por su capacidad para manejar información faltante y observar variables ocultas, se está convirtiendo en una herramienta importante en muchos procesos de aprendizaje automático. Además, en psicometría, es casi indispensable para estimación de parámetros de items y habilidades latentes de teoría de respuesta al ítem.

Enlaces externos

[editar]


Véase también

[editar]