Информация Фишера (Fisher Information)

Это фундаментальное понятие в математической статистике, которое количественно измеряет количество информации, которое несут наблюдаемые данные об неизвестном параметре статистической модели.

1. Основная идея (Интуиция)

Представьте, что вы настраиваете старый радиоприемник (параметр () — это точная частота станции). Вы крутите ручку и слушаете шипение (это ваши данные ()).

  • Информация Фишера — это мера того, насколько резко меняется “слышимость” станции при малейшем повороте ручки.
    • Если станция начинает резко звучать четко или резко пропадать при крошечном движении ручки (высокая чувствительность), это значит, что ваш слух (данные) дает вам много информации о точном положении ручки (параметре ). Информация Фишера велика.
    • Если при повороте ручки вы слышите лишь плавное изменение шипения (низкая чувствительность), то определить точное положение сложно. Информация Фишера мала.

Ключевая мысль: Информация Фишера измеряет ожидаемую чувствительность функции правдоподобия к изменению параметра.


2. Формальное определение

Пусть — случайная величина с функцией плотности вероятности (или вероятностной массой) , зависящей от неизвестного параметра .

Шаг 1: Функция правдоподобия (Likelihood)

Функция правдоподобия для одного наблюдения определяется как: Нас интересует, как эта вероятность меняется с изменением (\theta).

Шаг 2: Функция вклада (Score Function)

Функция вклада — это производная от логарифма правдоподобия по параметру:

  • Интерпретация: показывает, насколько быстро меняется логарифм правдоподобия при малом изменении параметра .
    • Большое по модулю значение означает высокую чувствительность и много информации.
    • Значение, близкое к нулю, означает мало информации.

Шаг 3: Информация Фишера (Expected Fisher Information)

Функция вклада — случайная величина. Информация Фишера определяется как дисперсия функции вклада (математическое ожидание ее квадрата, поскольку ):

Существует эквивалентная форма, через вторую производную (кривизну):

Эта форма подчеркивает, что информация Фишера измеряет вогнутость (кривизну) средней функции логарифмического правдоподобия. Чем “острее” и более выпукла вниз эта функция, тем больше информации.


3. Зачем она нужна? (Основное применение)

1. Неравенство Крамера-Рао (Cramér–Rao Bound)

Это фундаментальный предел точности для любой несмещенной оценки параметра.

Дисперсия любой несмещенной оценки параметра не может быть меньше, чем величина, обратная информации Фишера:

Интерпретация:

  • Если большая, то маленькая. Существует возможность создать очень точную оценку.
  • Если маленькая, то даже самая лучшая несмещенная оценка будет неточной.

2. Асимптотические свойства оценок максимального правдоподобия (ММП)

Оценки максимального правдоподобия () являются асимптотически эффективными. Для больших объемов выборки ():

  • Они являются несмещенными.
  • Их дисперсия достигает нижней границы Крамера-Рао:

Таким образом, информация Фишера напрямую определяет точность наилучшей возможной оценки для больших выборок.


4. Простой пример: Информация Фишера для распределения Бернулли

Пусть ( ), где ( ) — вероятность “успеха”. Мы хотим оценить ( ).

  • Функция правдоподобия для одного наблюдения:

  • Логарифм правдоподобия:

  • Функция вклада (первая производная):

  • Вторая производная:

  • Информация Фишера (ожидаемое значение с обратным знаком): Поскольку , подставляем:

Интерпретация результата:

  • Когда близко к 0 или 1, информация велика. Даже несколько наблюдений дают четкий сигнал о значении параметра.
  • Когда , информация минимальна. Требуется много данных, чтобы убедиться, что параметр действительно равен 0.5.

Итог

Информация Фишера — это:

  1. Мера информации:
  2. Мера точности: Задает теоретический предел точности оценок: .
  3. Мера чувствительности: Характеризует кривизну функции правдоподобия.

Это краеугольный камень современной теории статистического вывода.