Просмотр отдельных изменений

Фильтры правок (обсуждение) — это автоматизированный механизм проверок правок участников.
(Список | Последние изменения фильтров | Изучение правок | Журнал срабатываний)
Перейти к навигации Перейти к поиску

Эта страница позволяет вам проверить переменные, сгенерированные фильтром злоупотреблений, на предмет отдельного изменения.

Переменные, созданные для этого изменения

ПеременнаяЗначение
Была ли правка отмечена как «малое изменение» (больше не используется) (minor_edit)
false
Число правок участника (user_editcount)
null
Имя учётной записи (user_name)
'109.232.108.178'
Возраст учётной записи (user_age)
0
Группы (включая неявные) в которых состоит участник (user_groups)
[ 0 => '*' ]
Редактирует ли участник через мобильный интерфейс (user_mobile)
false
ID страницы (page_id)
802494
Пространство имён страницы (page_namespace)
0
Название страницы (без пространства имён) (page_title)
'F-тест'
Полное название страницы (page_prefixedtitle)
'F-тест'
Последние десять редакторов страницы (page_recent_contributors)
[ 0 => 'V danek', 1 => '89.189.120.246', 2 => 'Игорь Темиров', 3 => '91.192.70.35', 4 => 'Q-bit array', 5 => '94.230.35.24', 6 => '79.165.162.80', 7 => '77.47.207.28', 8 => '195.70.221.70', 9 => '176.226.148.153' ]
Действие (action)
'edit'
Описание правки/причина (summary)
'/* Пример */ '
Старая модель содержимого (old_content_model)
'wikitext'
Новая модель содержимого (new_content_model)
'wikitext'
Вики-текст старой страницы до правки (old_wikitext)
''''F-тестом''' или '''критерием Фишера''' (F-критерием, φ*-критерием) — называют любой [[статистический критерий]], тестовая статистика которого при выполнении [[Нулевая гипотеза|нулевой гипотезы]] имеет [[распределение Фишера]] (F-распределение). Статистика теста так или иначе сводится к отношению выборочных дисперсий (сумм квадратов, деленных на «степени свободы»). Чтобы статистика имела распределение Фишера, необходимо, чтобы числитель и знаменатель были независимыми случайными величинами и соответствующие суммы квадратов имели распределение [[Хи-квадрат]]. Для этого требуется, чтобы данные имели нормальное распределение. Кроме того, предполагается, что дисперсия случайных величин, квадраты которых суммируются, одинакова. Тест проводится путём сравнения значения статистики с критическим значением соответствующего распределения Фишера при заданном уровне значимости. Известно, что если <math>F \sim F(m,n)</math>, то <math>1/F \sim F(n,m)</math>. Кроме того, квантили распределения Фишера обладают свойством <math>F_{1-\alpha}=1/F_{\alpha}</math>. Поэтому обычно на практике в числителе участвует потенциально большая величина, в знаменателе — меньшая и сравнение осуществляется с «правой» квантилью распределения. Тем не менее тест может быть и двусторонним и односторонним. В первом случае при уровне значимости <math>\alpha</math> используется квантиль <math>F_{\alpha/2}</math>, а при одностороннем тесте <math>F_{\alpha}</math><ref>[http://www.vsetabl.ru/183.htm Таблица 15х20 критических значений критерия Фишера (F-критерия) для уровня значимости 0.05]</ref>. Более удобный способ проверки гипотез — с помощью [[p-значение|p-значения]] <math>p(F)</math> — вероятностью того, что случайная величина с данным распределением Фишера превысит данное значение статистики. Если <math>p(F)</math> (для двустороннего теста — <math>2p(F</math>)) меньше уровня значимости <math>\alpha</math>, то нулевая гипотеза отвергается, в противном случае принимается. == Примеры F-тестов == === F-тест на равенство дисперсий === ==== Две выборки ==== Пусть имеются две выборки объёмом m и n соответственно случайных величин X и Y, имеющих нормальное распределение. Необходимо проверить равенство их дисперсий. Статистика теста <math>F=\frac {\hat{\sigma}^2_X}{\hat{\sigma}^2_Y}~ \sim ~F(m-1,n-1)</math> где <math>{\hat{\sigma}^2}</math> — [[выборочная дисперсия]]. Если статистика больше критического, то дисперсии случайных величин признаются не одинаковыми. ==== Несколько выборок ==== Пусть выборка объёмом ''N'' случайной величины ''X'' разделена на ''k'' групп с количеством наблюдений <math>n_i</math> в ''i''-ой группе. Межгрупповая («объяснённая») дисперсия: <math>\hat{\sigma}^2_{BG}=\sum^k_{i=1} n_i (\overline {x_i}-\overline {x})^2/(k-1)</math> Внутригрупповая («необъяснённая») дисперсия: <math>\hat{\sigma}^2_{WG}=\sum^k_{i=1}\sum^{n_i}_{j=1} (x_{ij}-\overline {x}_i)^2/(N-k)</math> <math>F=\frac {\hat{\sigma}^2_{BG}}{\hat{\sigma}^2_{WG}}~\sim~F(k-1,N-k)</math> Данный тест можно свести к тестированию значимости регрессии переменной X на [[фиктивная переменная|фиктивные переменные]]-индикаторы групп. Если статистика превышает критическое значение, то гипотеза о равенстве дисперсий в выборках отвергается, в противном случае дисперсии можно считать одинаковыми. === Проверка ограничений на параметры регрессии === Статистика теста для проверки линейных ограничений на параметры классической нормальной линейной регрессии определяется по формуле: <math>F=\frac {(RSS_S-RSS_L)/q}{RSS_L/(n-k_L)}=\frac {(R^2_L-R^2_S)/q}{(1-R^2_L)/(n-k_L)}~\sim ~F(q,n-k_L)</math> где <math>q=k_L-k_S</math> -количество ограничений, n-объём выборки, k-количество параметров модели, ESS-сумма квадратов остатков модели, <math>R^2</math>-коэффициент детерминации, индексы S и L относятся соответственно к короткой и длинной модели (модели с ограничениями и модели без ограничений). ==== Замечание ==== Описанный выше F-тест является ''точным'' в случае нормального распределения случайных ошибок модели. Однако F-тест можно применить и в более общем случае. В этом случае он является асимптотическим. Соответствующую F-статистику можно рассчитать на основе статистик других асимптотических тестов — [[тест Вальда|теста Вальда]] (W), [[тест множителей Лагранжа|теста множителей Лагранжа]](LM) и [[тест отношения правдоподобия|теста отношения правдоподобия]] (LR) — следующим образом: <math>F=\frac {n-k}{q} W/n ~,~ F=\frac {n-k}{q} \frac {LM} {n-LM} ~,~F=\frac {n-k}{q}(e^{LR/n}-1)</math> Все эти статистики асимптотически имеют распределение F(q, n-k), несмотря на то, что их значения на малых выборках могут различаться. === Проверка значимости линейной регрессии === Данный тест очень важен в регрессионном анализе и по существу является частным случаем проверки ограничений. В данном случае нулевая гипотеза — об одновременном равенстве нулю всех коэффициентов при факторах регрессионной модели (то есть всего ограничений k-1). В данном случае короткая модель — это просто константа в качестве фактора, то есть коэффициент детерминации короткой модели равен нулю. Статистика теста равна: <math>F=\frac {R^2/(k-1)}{(1-R^2)/(n-k)}~\sim ~F(k-1,n-k)</math> Соответственно, если значение этой статистики больше критического значения при данном уровне значимости, то нулевая гипотеза отвергается, что означает статистическую значимость регрессии. В противном случае модель признается незначимой. ==== Пример ==== Пусть оценивается линейная регрессия доли расходов на питание в общей сумме расходов на константу, логарифм совокупных расходов, количество взрослых членов семьи и количество детей до 11 лет. То есть всего в модели 4 оцениваемых параметра (k=4). Пусть по результатам оценки регрессии получен коэффициент детерминации <math>R^2=41.2366%</math>. По вышеприведенной формуле рассчитаем значение F-статистики в случае, если регрессия оценена по данным 34 наблюдений и по данным 64 наблюдений: <math>F_1=\frac {0.412366/(4-1)}{(1-0.412366)/(34-4)}=0,70174*10=7,02</math> <math>F_2=\frac {0.412366/(4-1)}{(1-0.412366)/(64-4)}=0,70174*20=14.04</math> Критическое значение статистики при 1 % уровне значимости (в Excel функция FРАСПОБР) в первом случае равно <math>F_{1%}(3,30)=4,51</math>, а во втором случае <math>F_{1%}(3,60)=4,13</math>. В обоих случаях регрессия признается значимой при заданном уровне значимости. В первом случае P-значение равно 0,1 %, а во втором — 0,00005 %. Таким образом, во втором случае уверенность в значимости регрессии существенно выше (существенно меньше вероятность ошибки в случае признания модели значимой). === Проверка гетероскедастичности === См. [[Тест Голдфелда-Куандта]] == См. также == * [[Проверка статистических гипотез]] * [[Статистический критерий]] * [[Тест Вальда]] * [[Тест отношения правдоподобия]] * [[Тест множителей Лагранжа]] * [[Тест Голдфелда-Куандта]] == Примечания == {{Примечания}} == Ссылки == * [http://www.public.iastate.edu/~alicia/stat328/Multiple%20regression%20-%20F%20test.pdf Testing utility of model — F-test] * [http://rkb.home.cern.ch/rkb/AN16pp/node81.html F-test] * [http://www.psychol-ok.ru/statistics/fisher/ Автоматический расчет φ* критерия] * [http://www.vsetabl.ru/183.htm Таблица 15х20 критических значений критерия Фишера (F-критерия) для уровня значимости 0.05] {{статистика}} [[Категория:Статистические критерии]] [[Категория:Эконометрика]] [[Категория:Дисперсионный анализ]]'
Вики-текст новой страницы после правки (new_wikitext)
''''F-тестом''' или '''критерием Фишера''' (F-критерием, φ*-критерием) — называют любой [[статистический критерий]], тестовая статистика которого при выполнении [[Нулевая гипотеза|нулевой гипотезы]] имеет [[распределение Фишера]] (F-распределение). Статистика теста так или иначе сводится к отношению выборочных дисперсий (сумм квадратов, деленных на «степени свободы»). Чтобы статистика имела распределение Фишера, необходимо, чтобы числитель и знаменатель были независимыми случайными величинами и соответствующие суммы квадратов имели распределение [[Хи-квадрат]]. Для этого требуется, чтобы данные имели нормальное распределение. Кроме того, предполагается, что дисперсия случайных величин, квадраты которых суммируются, одинакова. Тест проводится путём сравнения значения статистики с критическим значением соответствующего распределения Фишера при заданном уровне значимости. Известно, что если <math>F \sim F(m,n)</math>, то <math>1/F \sim F(n,m)</math>. Кроме того, квантили распределения Фишера обладают свойством <math>F_{1-\alpha}=1/F_{\alpha}</math>. Поэтому обычно на практике в числителе участвует потенциально большая величина, в знаменателе — меньшая и сравнение осуществляется с «правой» квантилью распределения. Тем не менее тест может быть и двусторонним и односторонним. В первом случае при уровне значимости <math>\alpha</math> используется квантиль <math>F_{\alpha/2}</math>, а при одностороннем тесте <math>F_{\alpha}</math><ref>[http://www.vsetabl.ru/183.htm Таблица 15х20 критических значений критерия Фишера (F-критерия) для уровня значимости 0.05]</ref>. Более удобный способ проверки гипотез — с помощью [[p-значение|p-значения]] <math>p(F)</math> — вероятностью того, что случайная величина с данным распределением Фишера превысит данное значение статистики. Если <math>p(F)</math> (для двустороннего теста — <math>2p(F</math>)) меньше уровня значимости <math>\alpha</math>, то нулевая гипотеза отвергается, в противном случае принимается. == Примеры F-тестов == === F-тест на равенство дисперсий === ==== Две выборки ==== Пусть имеются две выборки объёмом m и n соответственно случайных величин X и Y, имеющих нормальное распределение. Необходимо проверить равенство их дисперсий. Статистика теста <math>F=\frac {\hat{\sigma}^2_X}{\hat{\sigma}^2_Y}~ \sim ~F(m-1,n-1)</math> где <math>{\hat{\sigma}^2}</math> — [[выборочная дисперсия]]. Если статистика больше критического, то дисперсии случайных величин признаются не одинаковыми. ==== Несколько выборок ==== Пусть выборка объёмом ''N'' случайной величины ''X'' разделена на ''k'' групп с количеством наблюдений <math>n_i</math> в ''i''-ой группе. Межгрупповая («объяснённая») дисперсия: <math>\hat{\sigma}^2_{BG}=\sum^k_{i=1} n_i (\overline {x_i}-\overline {x})^2/(k-1)</math> Внутригрупповая («необъяснённая») дисперсия: <math>\hat{\sigma}^2_{WG}=\sum^k_{i=1}\sum^{n_i}_{j=1} (x_{ij}-\overline {x}_i)^2/(N-k)</math> <math>F=\frac {\hat{\sigma}^2_{BG}}{\hat{\sigma}^2_{WG}}~\sim~F(k-1,N-k)</math> Данный тест можно свести к тестированию значимости регрессии переменной X на [[фиктивная переменная|фиктивные переменные]]-индикаторы групп. Если статистика превышает критическое значение, то гипотеза о равенстве дисперсий в выборках отвергается, в противном случае дисперсии можно считать одинаковыми. === Проверка ограничений на параметры регрессии === Статистика теста для проверки линейных ограничений на параметры классической нормальной линейной регрессии определяется по формуле: <math>F=\frac {(RSS_S-RSS_L)/q}{RSS_L/(n-k_L)}=\frac {(R^2_L-R^2_S)/q}{(1-R^2_L)/(n-k_L)}~\sim ~F(q,n-k_L)</math> где <math>q=k_L-k_S</math> -количество ограничений, n-объём выборки, k-количество параметров модели, ESS-сумма квадратов остатков модели, <math>R^2</math>-коэффициент детерминации, индексы S и L относятся соответственно к короткой и длинной модели (модели с ограничениями и модели без ограничений). ==== Замечание ==== Описанный выше F-тест является ''точным'' в случае нормального распределения случайных ошибок модели. Однако F-тест можно применить и в более общем случае. В этом случае он является асимптотическим. Соответствующую F-статистику можно рассчитать на основе статистик других асимптотических тестов — [[тест Вальда|теста Вальда]] (W), [[тест множителей Лагранжа|теста множителей Лагранжа]](LM) и [[тест отношения правдоподобия|теста отношения правдоподобия]] (LR) — следующим образом: <math>F=\frac {n-k}{q} W/n ~,~ F=\frac {n-k}{q} \frac {LM} {n-LM} ~,~F=\frac {n-k}{q}(e^{LR/n}-1)</math> Все эти статистики асимптотически имеют распределение F(q, n-k), несмотря на то, что их значения на малых выборках могут различаться. === Проверка значимости линейной регрессии === Данный тест очень важен в регрессионном анализе и по существу является частным случаем проверки ограничений. В данном случае нулевая гипотеза — об одновременном равенстве нулю всех коэффициентов при факторах регрессионной модели (то есть всего ограничений k-1). В данном случае короткая модель — это просто константа в качестве фактора, то есть коэффициент детерминации короткой модели равен нулю. Статистика теста равна: <math>F=\frac {R^2/(k-1)}{(1-R^2)/(n-k)}~\sim ~F(k-1,n-k)</math> Соответственно, если значение этой статистики больше критического значения при данном уровне значимости, то нулевая гипотеза отвергается, что означает статистическую значимость регрессии. В противном случае модель признается незначимой. ==== Пример ==== Пусть оценивается линейная регрессия доли расходов на питание в общей сумме расходов на константу, логарифм совокупных расходов, количество взрослых членов семьи и количество детей до 11 лет. То есть всего в модели 4 оцениваемых параметра (k=4). Пусть по результатам оценки регрессии получен коэффициент детерминации <math>R^2=41.2366%</math>. По вышеприведенной формуле рассчитаем значение F-статистики в случае, если регрессия оценена по данным 34 наблюдений и по данным 64 наблюдений: <math>F_1=\frac {0.412366/(4-1)}{(1-0.412366)/(34-4)}=0,70174*10=7,02</math> <math>F_2=\frac {0.412366/(4-1)}{(1-0.412366)/(64-4)}=0,70174*20=14.04</math> Критическое значение статистики при 1 % уровне значимости (в Excel функция FРАСПОБР) в первом случае равно <math>F_{1%}(3,30)=4,51</math>, а во втором случае <math>F_{1%}(3,60)=4,13</math>. В обоих случаях регрессия признается значимой при заданном уровне значимости. В первом случае P-значение равно 0,1 %, а во втором — 0,00005 %. Таким образом, во втором случае уверенность в значимости регрессии существенно выше (существенно меньше вероятность ошибки в случае признания модели значимой). купите робота === Проверка гетероскедастичности === См. [[Тест Голдфелда-Куандта]] == См. также == * [[Проверка статистических гипотез]] * [[Статистический критерий]] * [[Тест Вальда]] * [[Тест отношения правдоподобия]] * [[Тест множителей Лагранжа]] * [[Тест Голдфелда-Куандта]] == Примечания == {{Примечания}} == Ссылки == * [http://www.public.iastate.edu/~alicia/stat328/Multiple%20regression%20-%20F%20test.pdf Testing utility of model — F-test] * [http://rkb.home.cern.ch/rkb/AN16pp/node81.html F-test] * [http://www.psychol-ok.ru/statistics/fisher/ Автоматический расчет φ* критерия] * [http://www.vsetabl.ru/183.htm Таблица 15х20 критических значений критерия Фишера (F-критерия) для уровня значимости 0.05] {{статистика}} [[Категория:Статистические критерии]] [[Категория:Эконометрика]] [[Категория:Дисперсионный анализ]]'
Унифицированная разница изменений правки (edit_diff)
'@@ -61,4 +61,5 @@ Критическое значение статистики при 1 % уровне значимости (в Excel функция FРАСПОБР) в первом случае равно <math>F_{1%}(3,30)=4,51</math>, а во втором случае <math>F_{1%}(3,60)=4,13</math>. В обоих случаях регрессия признается значимой при заданном уровне значимости. В первом случае P-значение равно 0,1 %, а во втором — 0,00005 %. Таким образом, во втором случае уверенность в значимости регрессии существенно выше (существенно меньше вероятность ошибки в случае признания модели значимой). +купите робота === Проверка гетероскедастичности === '
Новый размер страницы (new_size)
12130
Старый размер страницы (old_size)
12104
Изменение размера в правке (edit_delta)
26
Добавленные в правке строки (added_lines)
[ 0 => 'купите робота' ]
Удалённые в правке строки (removed_lines)
[]
Была ли правка сделана через выходной узел сети Tor (tor_exit_node)
0
Unix-время изменения (timestamp)
1482223002