Много цифр

Краткий гайд по статистике в наших новостях

Основа любого экспериментального исследования — статистический анализ полученных данных. Без него не получится ни отличить хорошее лекарство от плохого, ни убедиться в существовании той или иной элементарной частицы, ни доказать, что курение опасно для здоровья. Ученым статистические метрики нужны, чтобы найти причинно-следственные связи, выявить факторы риска, оценить эффективность лечения и предсказать исходы болезней, а всем остальным — чтобы убедиться в достоверности их выводов.

Как правило, статистический анализ — рутинная и скучная работа, необходимая, но не показательная. Если статья по микробиологии или материаловедению добралась до статусного журнала, то можно быть уверенным, что минимальным обязательным статистическим критериям она удовлетворяет. Об этом важно не забывать, но не обязательно акцентировать на этом внимание. Однако есть области, в которых именно в статистике — сама суть работы. По полученным метрикам можно определить, насколько оправдано то или иное утверждение ученых. Именно поэтому N + 1 почти всегда приводит значения статистических показателей в заметках по медицине или психологии, а в новостях, скажем, про физику нейтрино они иногда пробираются даже в заголовки.

Необходимые, но сложные метрики мы стараемся прятать в сноски, а на самых важных — даже акцентируем внимание. В этом материале расскажем о самых частых показателях и объясним, почему не можем не указывать их в наших новостях и материалах. Для удобства мы разбили все величины на группы и спрятали описания по карточкам.

Индуктивная статистика

Индуктивную статистику используют для описания свойств выборки из большого числа однотипных экспериментов. По полученным параметрам можно потом либо просто описать общие свойства группы: разброс данных и среднее значение, либо — доказывать или отвергать выдвинутые гипотезы.

В подавляющем большинстве случаев, когда используется индуктивная статистика, экспериментальные данные распределены нормально — то есть если все полученные экспериментальные точки нанести на общий график, то их можно будет описать колоколообразной кривой Гаусса, как на графике выше. Если измеряемая величина — это результат других случайных слабо взаимозависимых величин, то она будет распределена нормально. О том, как можно проверить данные на нормальность, — читайте в карточке про стандартное отклонение.

Описательная статистика

В первом случае цель — организовать и обобщить данные, упростить их для интерпретации и сделать более управляемыми для дальнейшего анализа.

Проверка гипотезы

Для статистической проверки гипотезы есть понятная стандартная схема. В начале работы исследователь выдвигает нулевую гипотезу: утверждение, что между двумя распределениями (полученными из двух экспериментальных наборов данных — или модельного и экспериментального) нет различий по интересующему нас параметру. Альтернативная гипотеза будет утверждением, что такие различия ­есть. Соответственно, статистическое доказательство — либо доказательство нулевой гипотезы, либо (чаще) наоборот: доказательство того, что она неверна.

В медицине, биологии и психологии для этой проверки почти всегда используют P-значение. В физике — те же отличия чаще оценивают в числе среднеквадратичных отклонений.

Взаимосвязь величин

Другой набор метрик помогает установить, есть ли между несколькими параметрами взаимосвязь и влияет ли изменение одного параметра на изменение другого. При этом здесь важно отметить, что статистический анализ позволяет оценить только корреляцию, то есть показать, что изменение одной величины достоверно сопутствует изменению другой величины. А вот изучить причинно-следственные связи и доказать, что изменение одной величины приводит к изменению другой, — не позволяет.

Для оценки статистической взаимосвязи нескольких величин используют регрессионный анализ и оценивают корреляционные коэффициенты.

Размер эффекта

Статистическая значимость результатов клинических испытаний (в частности, p-значение) не всегда позволяет оценить реальную эффективность лечения. Например, если выборка достаточно большая, то результат будет значимым практически всегда. В таких случаях ученые используют показатели размера эффекта (effect size, ES). 

Все показатели размера эффекта можно разделить на , и . Их выбор зависит от исследуемых переменных (бинарные или количественные) и характеристик выборки.

Бинарные переменные

Эта группа параметров нужна для анализа величин, которые помогают ответить на вопрос, произошло ли событие. Например, снижает ли уменьшение массы тела риск диабета? Эти величины принимают только два значения: «да» или «нет».

Количественные переменные

Эта группа метрик относится к переменным, которые, в отличие от бинарных, выражаются числовыми показателями: например, на сколько миллимоль на литр снизился уровень глюкозы при приеме препарата по сравнению с плацебо.

Часто бывает, что стандартное отклонение изучаемого показателя в популяции неизвестно. В этом случае разброс данных определяют косвенно и получают вместо стандартизированной разницы средних (SMD) по той же формуле другие индексы эффекта: d Коэна (Cohen's d), g Хеджеса (Hedges's g) или ∆ Гласса (Glass’s ∆). Пороговые значения используют те же, что и для стандартизированной разницы средних. Как правило, порогом малого размера эффекта считают значение индексов 0,2; среднего — 0,5; большого — 0,8 и очень большого — 1,3, хотя в разных исследованиях эти границы могут немного различаться.

Джентльменский минимум на этом закрываем. Теперь можете смело возвращаться к новостям — уже понимая, когда британским ученым можно верить, а когда лучше еще раз перепроверить их выводы.

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
Физики опровергли представление о крепости яиц при ударе вдоль вытянутого направления

При падении с высоты восемь миллиметров горизонтально ориентированные яйца разбивались в 11 раз реже