T-критерій Стьюдента

t-критерій Стьюдента/Ст'юдента — загальна назва для класу методів статистичної перевірки гіпотез (статистичних критеріїв), заснованих на порівнянні з розподілом Стьюдента. Найчастіші випадки застосування t-критерію пов'язані з перевіркою рівності середніх значень у двох вибірках[1].

Історія

Цей критерій розробив був Вільям Ґоссет для оцінки якості пива в компанії Гіннес. У зв'язку із зобов'язаннями перед компанією не розголошувати комерційної таємниці (якою керівництво Гіннесу вважало таке використання статистичного апарату в своїй роботі), стаття Ґоссета вийшла в 1908 році в журналі «Біометрика» під псевдонімом «Student» (Студент).[2]

Вимоги до даних

Для застосування названого критерію потрібно аби початкові дані мали нормальний розподіл. У разі застосування двовибіркового критерію для незалежних вибірок також потрібно дотримуватися умови рівности дисперсій. Існують, проте, альтернативи критерію Стьюдента для ситуації з нерівними дисперсіями.

Двовибірковий t-критерій для незалежних вибірок

У разі якщо розміри вибірок відрізняються мало, застосовують спрощену формулу наближених розрахунків:

t = | M 1 M 2 | σ 1 2 N 1 + σ 2 2 N 2 {\displaystyle t={\frac {|M_{1}-M_{2}|}{\sqrt {{\frac {\sigma _{1}^{2}}{N_{1}}}+{\frac {\sigma _{2}^{2}}{N_{2}}}}}}}

Коли розміри вибірок відрізняються значно, застосовується складніша і точніша формула:

t = | M 1 M 2 | ( N 1 1 ) σ 1 2 + ( N 2 1 ) σ 2 2 N 1 + N 2 2 ( 1 N 1 + 1 N 2 ) {\displaystyle t={\frac {|M_{1}-M_{2}|}{\sqrt {{\frac {(N_{1}-1)\sigma _{1}^{2}+(N_{2}-1)\sigma _{2}^{2}}{N_{1}+N_{2}-2}}({\frac {1}{N_{1}}}+{\frac {1}{N_{2}}})}}}}

Де M 1 , M 2 {\displaystyle M_{1},M_{2}}  — середнє арифметичне, σ 1 , σ 2 {\displaystyle \sigma _{1},\sigma _{2}}  — стандартне відхилення, а N 1 , N 2 {\displaystyle N_{1},N_{2}}  — розміри вибірок.

Кількість ступенів свободи розраховують як

d f = N 1 + N 2 2 {\displaystyle \,df=N_{1}+N_{2}-2}

Двовибірковий t-критерій для залежних вибірок

Для обчислення емпіричного значення t-критерію в ситуації перевірки гіпотези про відмінності між двома залежними вибірками (наприклад, двома пробами одного і того ж тесту з часовим інтервалом) застосовують таку формулу:

t = | M d | σ d / N {\displaystyle t={\frac {|M_{d}|}{\sigma _{d}/{\sqrt {N}}}}}

де M d {\displaystyle M_{d}}  — середня різниця значень, а σ d {\displaystyle \sigma _{d}}  — стандартне відхилення різниць.

Кількість ступенів свободи розраховують як

d f = N 1 {\displaystyle \,df=N-1}

Одновибірковий t-критерій

Застосовується для перевірки гіпотези про відмінність середнього значення M x {\displaystyle \,M_{x}} від деякого відомого значення A {\displaystyle \,A} :

t = | M x A | σ / N {\displaystyle t={\frac {|M_{x}-A|}{\sigma /{\sqrt {N}}}}}

Кількість ступенів свободи розраховують як

d f = N 1 {\displaystyle \,df=N-1}

Непараметричні аналоги

Аналогом двостороннього критерію для незалежних вибірок є U-критерій Манна-Уітні. Для ситуації із залежними вибірками аналогами є критерій знаків і T-критерій Вілкоксона.

Див. також

Посилання

  1. Ромакін В. В. Комп'ютерний аналіз даних — 6.2.1. Застосування критерію Стьюдента для порівняння середніх[недоступне посилання з червня 2019]
  2. Mankiewicz, Richard (2004). The Story of Mathematics (вид. Paperback). Princeton, NJ: Princeton University Press. с. 158. ISBN 9780691120461. Архів оригіналу за 11 травня 2017. Процитовано 13 листопада 2018.

Інтернет посилання

  • Ромакін В. В. Комп'ютерний аналіз даних: Навчальний посібник. — Миколаїв: Вид-во МДГУ ім. Петра Могили, 2006. — 144 с.
  • п
  • о
  • р
 
Неперервні дані
Центр
Розкид
Форма
Чисельні дані
Підсумкові таблиці
Залежність
Графіки
 
Планування дослідження
Методологія дослідження
Активні експерименти
Адаптивне планування
  • Адаптивне клінічне випробування[en]
  • Збільшувально-зменшувальні плани[en]
  • Стохастичне наближення[en]
Пасивні дослідження
 
Теорія статистики
Частотницьке висновування
Точкова оцінка
Інтервальне оцінювання[en]
Перевірка гіпотез
Параметричні критерії[en]
Спеціальні критерії
  • Z-критерій (нормальний)
  • t-критерій Стьюдента
  • F-критерій
Допасованість
Ранжувальні статистики
  • Знаків[en]
    • вибіркова медіана[en]
  • Знаковий ранг (Уілкоксона)[en]
    • оцінювач Ходжеса–Лемана[en]
  • Рангова сума (Манна–Уітні)
  • Непараметричний[en] дисперсійний аналіз
    • 1-бічний (Краскела–Уоліса)[en]
    • 2-бічний (Фрідмана)
    • впорядкована альтернатива (Джонкгіра–Терпстра)[en]
Баєсове висновування
 
Кореляція
Регресійний аналіз
Лінійна регресія
Нестандартні передбачувачі
Узагальнена лінійна модель[en]
  • Експоненційні сімейства[en]
  • Логістична (Бернуллі) / Біноміальна регресія[en] / Регресія Пуассона
Розбиття дисперсії[en]
  • Дисперсійний аналіз (ANOVA)
  • Коваріаційний аналіз
  • Багатовимірний дисперсійний аналіз (MANOVA)[en]
  • Ступені вільності
 
Категорійний
Багатовимірний
Часові ряди
Загальне
Спеціальні критерії
Часова область
  • Автокореляція (ACF)
  • Частинна автокореляція (PACF)[en]
  • Взаємна кореляція (XCF)
  • Авторегресійне ковзне середнє (ARMA)
  • Метод Бокса–Дженкінса (ARIMA)[en]
  • Авторегресивна умовна гетероскедастичність (ARCH)
  • Векторна авторегресія (VAR)
Частотна область
Виживаність
Функція виживаності[en]
  • Оцінювач Каплана–Меєра (границі добутку)[en]
  • Модель пропорційних ризиків[en]
  • Модель прискореного часу до відмови[en]
  • Момент першого влучання[en]
Інтенсивність відмов
  • Оцінювач Нельсона–Аалена[en]
Критерій
  • Логарифмічний ранговий критерій[en]
 
Біологічна статистика
Інженерна статистика
Соціальна статистика[en]
Просторова статистика
  • КатегоріяКатегорія
  •   Портал «Математика»
  • Сторінка ВікісховищаВікісховище