РЕГРЕССИОННЫЙ АНАЛИЗ

Категория :

Описание

РЕГРЕССИОННЫЙ АНАЛИЗ — раздел математической статистики, изучающий статистическую зависимость одной случайной величины от другой независимой (случайной или неслучайной).

Методы Р. а. вместе с другими методами теории вероятностей (см. Диагностика машинная), профотбора, прогноза, контроля и управления. Принимая в качестве независимой переменной время, а в качестве зависимой — среднее значение, дисперсию или другие характеристики, изучают динамику популяционных, иммунных и др. процессов.

Функция регрессии у(х), или регрессия Y на X, есть какая-либо числовая характеристика условного распределения вероятностей случайной величины Y, заданная для каждого значения независимой переменной (регрессора) X. Чаще всего в качестве регрессии пользуются условным средним значением. Для построения регрессии применяются также медиана, мода и другие характеристики. Величины X и Y могут быть скалярами, векторами, функциями времени и пространства. Регрессии Y на X и X на Y обычно не совпадают и не являются взаимно обратными.

Основная практическая задача Р. а. — построение оценки у(х) неизвестной регрессии у(х) по заданным: а) экспериментальным измерениям (х, у) значений зависимой переменной Y и регрессора X; б) критерию и (или) методу построения; в) виду искомых оценок у(х).Вид искомой регрессии у(х) обычно выбирается на основе визуального анализа экспериментальных данных и априорной информации об исследуемой зависимости. Среди критериев оценки наиболее употребителен минимум суммы квадратов отклонений у(х) от наблюдаемых значений у (см. Наименьших квадратов метод). Регрессия в этом случае называется среднеквадратической. Регрессия, получаемая по методу наименьших квадратов в классе всех возможных функций, является условным средним значением (математическим ожиданием) у(х) = М (Y/x), а по минимуму суммы модулей отклонений у(х) от у — условной медианой. В классе линейных функций (а при нормальном совместном распределении X и Y в классе всех функций) по методу наименьших квадратов получается линейная регрессия:

y(х) = ул(х) = aух (х — Мх) + Му, где аух — ρухσух — коэффициент, Му и Мх — средние значения, σу и σх — дисперсии Y и X, а ρух — коэффициент корреляции между ними. Т. о., в этом случае Р. а. сводится к корреляционному анализу.

Для построения линейных и нелинейных регрессий существуют различные вычислительные методы и разработаны программы, входящие в математическое обеспечение корреляционного анализа (см.) начинается с составления корреляционных таблиц и последующей оценки соответствующих вероятностных характеристик в каждой клетке таблицы.

Р. а. исследует также статистические свойства оценок регрессий (несмещенность, состоятельность, эффективность). В расширенном понимании Р. а. включает проверку статистических гипотез о связи Y и X. При этом важно учитывать, что тесная регрессионная зависимость означает не только наличие непосредственной причинно-следственной связи, но может быть обусловлена опосредованными взаимосвязями и сопутствующими факторами.




Библиография: Гублер . В. Вычислительные методы анализа и распознавания патологических процессов, Л., 1978, библиогр.; Кендалл М. Д ж. и Стьюарт А. Статистические выводы и связи, пер. с англ., М., 1973; Крамер Г. Математические методы статистики, пер. с англ., М., 1975; М и с ю к Н. С., Маеты кин А. С. и Кузнецов Г. П. Корреляционно-регрессионный анализ в клинической медицине, М., 1975; Р а о С. Р. Линейные статистические методы и их применения, пер. с англ., М., 1968


В. Г. Лаптев.