Diferencia entre revisiones de «Estadístico muestral»
m Correcciones ortográficas con Replacer (herramienta en línea de revisión de errores) |
Función de sugerencias de enlaces: 2 enlaces añadidos. |
||
(No se muestran 14 ediciones intermedias de 11 usuarios) | |||
Línea 1: | Línea 1: | ||
En [[estadística]] un '''estadístico (muestral)''' es una [[Teoría de la medida|medida]] cuantitativa, derivada de un conjunto de datos de una [[Muestra estadística|muestra]], con el objetivo de estimar o inferir características de una [[Población estadística|población]] o [[Modelo matemático|modelo]] [[estadística|estadístico]]. |
En [[estadística]] un '''estadístico (muestral)''' o '''Estadígrafo''' es una [[Teoría de la medida|medida]] cuantitativa, derivada de un conjunto de datos de una [[Muestra estadística|muestra]], con el objetivo de estimar o inferir características de una [[Población estadística|población]] o [[Modelo matemático|modelo]] [[estadística|estadístico]]. |
||
Más formalmente un estadístico es una función medible ''T'' que, dada una muestra estadística de valores <math>(X_1,X_2,...,X_n)</math>, les asigna un número, <math>T(X_1,X_2,...,X_n)</math>, que sirve para estimar determinado parámetro de la distribución de la que procede la muestra. Así, por ejemplo, la media de los valores de una muestra ([[media muestral]]) sirve para estimar la [[media aritmética|media de la población]] de la que se ha extraído la misma; la varianza muestral podría usarse para estimar la varianza poblacional, etc.<ref>{{enlace roto|1={{cita libro |apellidos= Casas Sánchez |nombre= Jose M. | autor2 = Manzano Arrondo, Vicente | autor3 = Zamora Sanz, Ana Isabel | autor4 = |título= Inferencia Estadística |url= http://books.google.es/books?id=ly-EjOkkL9UC |fechaacceso= 14 de abril de 2009 |edición= 2, ilustrada |año= 1997 |editorial= Ramón Areces |isbn= 848004263X |página= 32 |capítulo= 1.3. Parámetros poblacionales y estadísticos muestrales |urlcapítulo = http://books.google.es/books?id=ly-EjOkkL9UC&printsec=frontcover&dq=inferencia+estad%C3%ADstica&as_brr=3#PPA32,M1}} |2=http://books.google.es/books?id=ly-EjOkkL9UC |bot=InternetArchiveBot }}</ref> Esto se denomina como realizar una [[Estimación estadística|estimación puntual]]. |
Más formalmente un estadístico es una función medible ''T'' que, dada una muestra estadística de valores <math>(X_1,X_2,...,X_n)</math>, les asigna un número, <math>T(X_1,X_2,...,X_n)</math>, que sirve para estimar determinado parámetro de la distribución de la que procede la muestra. Así, por ejemplo, la media de los valores de una muestra ([[media muestral]]) sirve para estimar la [[media aritmética|media de la población]] de la que se ha extraído la misma; la varianza muestral podría usarse para estimar la varianza poblacional, etc.<ref>{{enlace roto|1={{cita libro |apellidos= Casas Sánchez |nombre= Jose M. | autor2 = Manzano Arrondo, Vicente | autor3 = Zamora Sanz, Ana Isabel | autor4 = |título= Inferencia Estadística |url= http://books.google.es/books?id=ly-EjOkkL9UC |fechaacceso= 14 de abril de 2009 |edición= 2, ilustrada |año= 1997 |editorial= Ramón Areces |isbn= 848004263X |página= 32 |capítulo= 1.3. Parámetros poblacionales y estadísticos muestrales |urlcapítulo = http://books.google.es/books?id=ly-EjOkkL9UC&printsec=frontcover&dq=inferencia+estad%C3%ADstica&as_brr=3#PPA32,M1}} |2=http://books.google.es/books?id=ly-EjOkkL9UC |bot=InternetArchiveBot }}</ref> Esto se denomina como realizar una [[Estimación estadística|estimación puntual]]. |
||
== Ejemplos == |
== Ejemplos == |
||
Línea 17: | Línea 17: | ||
Si se tiene una [[muestra estadística]] de valores <math>(X_1,X_2,...,X_n)</math> para una [[variable aleatoria]] ''X'' con distribución de probabilidad ''F''(''x'',''θ'') (donde ''θ'' es un conjunto de parámetros de la distribución) se define la media muestral ''n''-ésima como: |
Si se tiene una [[muestra estadística]] de valores <math>(X_1,X_2,...,X_n)</math> para una [[variable aleatoria]] ''X'' con distribución de probabilidad ''F''(''x'',''θ'') (donde ''θ'' es un conjunto de parámetros de la distribución) se define la media muestral ''n''-ésima como: |
||
{{Ecuación|<math>\bar{X}_n = T(X_1,X_2,...,X_n) = \frac{1}{n} \sum_{i=1}^n X_i = \frac{X_1+X_2+...+X_n}{n}</math>||left}} |
{{Ecuación|<math>\bar{X}_n = T(X_1,X_2,...,X_n) = \frac{1}{n} \sum_{i=1}^n X_i = \frac{X_1+X_2+...+X_n}{n}</math>||left}} |
||
Ejemplo de una clase: |
|||
2533253 de menor a mayor abreviadamente es 2-5 que el dos es más bajo y el cinco es el más alto |
|||
=== Varianza muestral === |
=== Varianza muestral === |
||
De forma análoga a la media muestral y utilizando los mismos elementos que en la misma, la definición de varianza muestral es la siguiente: |
De forma análoga a la media muestral y utilizando los mismos elementos que en la misma, la definición de varianza muestral es la siguiente: |
||
{{Ecuación|<math> S_n^2 = T((X_1-\bar{X}_n)^2,(X_2-\bar{X}_n)^2,...,(X_n-\bar{X}_n)^2) = \frac{1}{n |
{{Ecuación|<math> S_n^2 = T((X_1-\bar{X}_n)^2,(X_2-\bar{X}_n)^2,...,(X_n-\bar{X}_n)^2) = \frac{1}{n} \sum_{i=1}^n (X_i-\bar{X_n})^2</math>||left}} |
||
=== Cuasi-varianza muestral === |
|||
Y la cuasi-varianza, que ofrece un estadístico menos sesgado que la varianza, es: |
|||
{{Ecuación|<math> S_{n-1}^2 = T((X_1-\bar{X}_n)^2,(X_2-\bar{X}_n)^2,...,(X_n-\bar{X}_n)^2) = \frac{1}{n-1} \sum_{i=1}^n (X_i-\bar{X_n})^2 </math>||left}} |
|||
=== Momentos muestrales === |
=== Momentos muestrales === |
||
Línea 37: | Línea 37: | ||
<!-- Entre las propiedades más importantes de los estadísticos están la completitud, consistencia, suficiencia, unbiasedness, minimum mean square error, low variance, robustness, and computational convenience.--> |
<!-- Entre las propiedades más importantes de los estadísticos están la completitud, consistencia, suficiencia, unbiasedness, minimum mean square error, low variance, robustness, and computational convenience.--> |
||
=== Suficiencia === |
=== Suficiencia === |
||
El concepto de '''estadístico suficiente''' fue introducido por [[Ronald Fisher|Fisher]] en |
El concepto de '''estadístico suficiente''' fue introducido por [[Ronald Fisher|Fisher]] en 1922, y como originalmente indicó, un estadístico es suficiente para los objetivos de la [[Estadística inferencial|inferencia estadística]] si contiene, en cierto sentido, toda la «información» acerca de la función de distribución a partir de la cual se ha generado la muestra. |
||
Formalmente si <math>X_1, X_2, ..., X_n\;</math> es una muestra de una variable aleatoria <math>X\;</math> cuya [[distribución de probabilidad]] pertenece a una familia de distribuciones dadas por un vector paramétrico <math>\mathcal{F} = \{F_\theta| \theta \in \Theta\}</math>, entonces se dice que un cierto estadístico <math>T = T(X_1, X_2, ..., X_n)\;</math> es '''suficiente''' para θ o para la familia si y |
Formalmente si <math>X_1, X_2, ..., X_n\;</math> es una muestra de una variable aleatoria <math>X\;</math> cuya [[distribución de probabilidad]] pertenece a una familia de distribuciones dadas por un vector paramétrico <math>\mathcal{F} = \{F_\theta| \theta \in \Theta\}</math>, entonces se dice que un cierto estadístico <math>T = T(X_1, X_2, ..., X_n)\;</math> es '''suficiente''' para θ o para la familia si y solo si, la distribución condicionada de <math>X_1, X_2, ..., X_n|T \;</math> no depende de <math>\Theta \;</math>. |
||
== Aplicaciones == |
== Aplicaciones == |
||
Línea 45: | Línea 45: | ||
{{AP|Estimador}} |
{{AP|Estimador}} |
||
La estimación puntual consiste en utilizar el valor de un estadístico, denominado '''estimador''', para calcular el valor de un parámetro desconocido de una población. Por ejemplo, cuando usamos la [[media muestral]] para estimar la media de una población, o la proporción de una muestra para estimar el parámetro de una distribución binomial. |
La estimación puntual consiste en utilizar el valor de un estadístico, denominado '''estimador''', para calcular el valor de un parámetro desconocido de una población. Por ejemplo, cuando usamos la [[media muestral]] para estimar la media de una población, o la proporción de una muestra para estimar el parámetro de una [[distribución binomial]]. |
||
Una '''estimación puntual''' de algún parámetro de una población es un solo valor obtenido a partir de un estadístico. |
Una '''estimación puntual''' de algún parámetro de una población es un solo valor obtenido a partir de un estadístico. |
||
Línea 67: | Línea 67: | ||
Y este valor se compara con un valor de referencia basado en el número de grados de libertad y el [[nivel de significación]]. Dicho valor de referencia se obtiene a partir de la distribución ''t'' de Student. |
Y este valor se compara con un valor de referencia basado en el número de grados de libertad y el [[nivel de significación]]. Dicho valor de referencia se obtiene a partir de la distribución ''t'' de Student. |
||
Al comparar las 2 medias, frecuentemente siempre se supone que el nivel de |
Al comparar las 2 medias, frecuentemente siempre se supone que el nivel de significación α sea menor que 0,05. |
||
{{VT|Distribución t de Student}} |
{{VT|Distribución t de Student}} |
Revisión actual - 14:05 26 dic 2024
En estadística un estadístico (muestral) o Estadígrafo es una medida cuantitativa, derivada de un conjunto de datos de una muestra, con el objetivo de estimar o inferir características de una población o modelo estadístico.
Más formalmente un estadístico es una función medible T que, dada una muestra estadística de valores , les asigna un número, , que sirve para estimar determinado parámetro de la distribución de la que procede la muestra. Así, por ejemplo, la media de los valores de una muestra (media muestral) sirve para estimar la media de la población de la que se ha extraído la misma; la varianza muestral podría usarse para estimar la varianza poblacional, etc.[1] Esto se denomina como realizar una estimación puntual.
Ejemplos
[editar]Media muestral
[editar]Si se tiene una muestra estadística de valores para una variable aleatoria X con distribución de probabilidad F(x,θ) (donde θ es un conjunto de parámetros de la distribución) se define la media muestral n-ésima como:
Varianza muestral
[editar]De forma análoga a la media muestral y utilizando los mismos elementos que en la misma, la definición de varianza muestral es la siguiente:
Cuasi-varianza muestral
[editar]Y la cuasi-varianza, que ofrece un estadístico menos sesgado que la varianza, es:
Momentos muestrales
[editar]Con las mismas notaciones usadas a la media y varianza muestral se define el estadístico momento muestral no centrado como:
Nótese que m1 es precisamente la media muestral. Análogamente se define el estadístico momento muestral centrado como:
que guarda las siguientes relaciones con estadísticos previamente definidos:
Propiedades
[editar]Suficiencia
[editar]El concepto de estadístico suficiente fue introducido por Fisher en 1922, y como originalmente indicó, un estadístico es suficiente para los objetivos de la inferencia estadística si contiene, en cierto sentido, toda la «información» acerca de la función de distribución a partir de la cual se ha generado la muestra.
Formalmente si es una muestra de una variable aleatoria cuya distribución de probabilidad pertenece a una familia de distribuciones dadas por un vector paramétrico , entonces se dice que un cierto estadístico es suficiente para θ o para la familia si y solo si, la distribución condicionada de no depende de .
Aplicaciones
[editar]Estimación puntual
[editar]La estimación puntual consiste en utilizar el valor de un estadístico, denominado estimador, para calcular el valor de un parámetro desconocido de una población. Por ejemplo, cuando usamos la media muestral para estimar la media de una población, o la proporción de una muestra para estimar el parámetro de una distribución binomial.
Una estimación puntual de algún parámetro de una población es un solo valor obtenido a partir de un estadístico.
Contraste de hipótesis
[editar]Prueba o test χ2 (chi-cuadrado)
[editar]Test t-Student
[editar]Es un test que permite decidir si dos variables aleatorias normales (gausianas) y con la misma varianza tienen medias diferentes. Dada la ubicuidad de la distribución normal o gausiana el test puede aplicarse en numerosos contextos, para comprobar si la modificación en las condiciones de un proceso (humano o natural) esencialmente aleatorio producen una elevación o disminución de la media poblacional. El test opera decidiendo si una diferencia en la media muestral entre dos muestras es estadísticamente significativa, y entonces poder afirmar que las dos muestras corresponden a distribuciones de probabilidad de media poblacional distinta, o por el contrario afirmar que la diferencia de medias puede deberse a oscilaciones estadísticas azarosas.
La eficacia del test aumenta con el número de datos del que constan las dos muestras, en concreto del número de grados de libertad conjunto de las dos muestras, este número viene dado por (siendo Ni el tamaño muestral, es decir, el número de datos en cada muestra i). La prueba consiste en examinar el estadístico t obtenido a partir de las dos muestras como:
Y este valor se compara con un valor de referencia basado en el número de grados de libertad y el nivel de significación. Dicho valor de referencia se obtiene a partir de la distribución t de Student.
Al comparar las 2 medias, frecuentemente siempre se supone que el nivel de significación α sea menor que 0,05.
Véase también
[editar]
Referencias
[editar]- ↑ Casas Sánchez, Jose M.; Manzano Arrondo, Vicente; Zamora Sanz, Ana Isabel (1997). «1.3. Parámetros poblacionales y estadísticos muestrales». Inferencia Estadística (2, ilustrada edición). Ramón Areces. p. 32. ISBN 848004263X. Consultado el 14 de abril de 2009. (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
- 'Introducción a la Estadística Económica y Empresarial. Teoría y Práctica.' de Fco. Javier Martín-Pliego López, Editorial Thomson, 2007 (Madrid).
- 'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero, María Eleftheriou, Luana Gava y Eva Romero. Editorial Delta Publicaciones. 2008 (Madrid).