ВЕРОЯТНОСТЕЙ ТЕОРИЯ

Категория :

Описание

ВЕРОЯТНОСТЕЙ ТЕОРИЯ — раздел математики, изучающий закономерности массовых случайных явлений, методы к-рого нашли широкое применение в мед. науке и практике. Методы В. т. называются вероятностными или статистическими. Они используются в разнообразных мед. исследованиях, напр, при обработке лабораторных и клинических данных, антропометрических и эпидемиологических исследованиях, при диагностике заболеваний и т. д. Статистические методы лежат в основе санитарной статистики (см.). В связи с широким внедрением электронной диагностической аппаратуры, ЭВМ и кибернетических методов резко возрастает поток информации, требующей статистической обработки, в силу чего методы статистического анализа приобретают особую роль.

Исходные данные для статистических расчетов получают экспериментальным путем. Методы анализа результатов опытов и оценка по ним статистических характеристик, напр, вероятностей событий, математических ожиданий, дисперсий, корреляционных моментов, берутся из математической статистики, являющейся одним из разделов В. т.

Основные понятия и законы. Опытом в В. т. называют совокупность действий, в результате которых наблюдается случайное явление, а любой качественный результат опыта называется событием. Частотой h нек-рого события А называется отношение числа т опытов, в которых появилось событие А, к числу n всех произведенных опытов (h=m/n). При большом числе опытов (см. Больших чисел закон) экспериментально обнаруживается основная закономерность массовых случайных явлений, состоящая в определенной устойчивости частот событий. Вероятностью события А, обозначаемой P (А), называют характерное для него число, около к-рого стабилизируется частота события, при неограниченном увеличении числа опытов. Вероятность невозможного события принимают равной 0, а достоверного события — равной 1. В общем случае 0≤Р(A)≤1. Вероятность — объективная числовая характеристика события, существующая независимо от конкретных опытов.

Вероятности событий подчиняются законам сложения и умножения вероятностей. Суммой событий A1, A2, ..., An называют событие, состоящее в появлении какого-нибудь одного события, безразлично какого именно. Закон сложения вероятностей утверждает, что вероятность суммы несовместных событий равна сумме вероятностей этих событий:

Нек-рая совокупность событий называется полной группой событий, если хотя бы одно из них обязательно появляется в результате опыта.

Произведением двух событий А1 и А2 называют событие, состоящее в совместном появлении обоих событий. Условной вероятностью события А2 относительно события А1 называют число Р(А2|А1), около к-рого стремится стабилизироваться частота появления события А·, вычисленная только для той части произведенных опытов, в к-рой наблюдалось событие А1.

Закон умножения вероятностей говорит о том, что вероятность произведения двух событий равна вероятности одного из них, умноженной на условную вероятность другого: Р(А1А2) = Р(А1)Р(А2|А1). Закон умножения вероятностей для любого конечного числа событий по индукции (см. Индуктивный вывод) выводится из закона умножения для двух событий. События А1, А 2,..., Аn называют независимыми, если каждое из них не зависит от каждого из остальных и от всех возможных произведений, составленных из них. Вероятность совместного появления независимых событий равна произведению их вероятностей:

Р (А1А2...Аn) = P (A1) P(А2)...Р(An).

Для вычисления вероятности некоторого события А в случае, если известны условные вероятности Р(А|Нi), где i= 1, 2, ...,n этого события относительно несовместных событий Н1, H2...,Hn, а также вероятности P (Hi),

где i = 1, 2, ...,n событий H1, H2, ..., Hn. применяется формула полной вероятности:

В тех случаях, когда требуется найти условные вероятности несовместных событий, образующих полную группу, относительно нек-рого наблюдаемого события, используется формула Бейеса (см. Бейеса правило).

Случайной величиной X называют такую величину, к-рая может принимать в результате опыта различные значения, причем заранее нельзя предвидеть, какое именно значение она примет. Для дискретной случайной величины ее возможные значения отделены одно от другого промежутками, не содержащими других возможных значений. Законом распределения такой случайной величины выражают соответствие между ее возможными значениями х1, х2,..., хN и вероятностями Р1, P1, ..., PN событий, состоящее в том, что случайная величина X примет эти значения. Для непрерывной случайной величины ее возможные значения сплошь заполняют числовую ось или некоторый ее интервал. В этом случае закон распределения вероятностей задают посредством плотности вероятности f(x), представляющей собой предел отношения вероятности попадания ее значения в бесконечно малый интервал (х, х+∆х) к длине этого интервала Ах при стягивании его в точку. Кривая, изображающая функцию f(x), называется кривой распределения. Наиболее широкое распространение имеет «нормальное распределение». При одновременном изучении нескольких случайных величин используют совместный закон распределения вероятностей этих случайных величин. Для решения многих задач практики вовсе не нужно знать закон распределения случайной величины, а достаточно знать лишь ее среднее значение и величину разброса относительно среднего значения.

Средним значение м, или математическим ожиданием, случайной величины (MX, или mx) называют сумму ее возможных значений, умноженных на их вероятности. Величину разброса случайной величины X характеризуют дисперсией Dx или средним квадратическим отклонeниeм σx = √Dx. . При этом дисперсией называется математическое ожидание квадрата отклонения от математического ожидания: Dx=М(Х—mx)2. При вычислении mx и Dx соответственно для дискретных и непрерывных случайных величин применяются формулы:

Для двух случайных величин Х1 и Х2 дополнительно определяют их корреляционный момент (ковариация) Кx1x2, представляющий собой математическое ожидание произведения отклонений случайных величии от их математических ожиданий: Kx1x2 = M(X1-mx1)(X2-mx2). Корреляционный момент характеризует линейную зависимость между случайными величинами. В случае, когда имеется несколько случайных величин, определяют корреляционные моменты между всеми величинами.

В. т. наряду со случайными величинами рассматривает также случайные процессы (см.), т. е. такие функции времени, которые в каждый момент времени являются случайными величинами. Раздел В. т., в к-ром ограничиваются рассмотрением только математических ожиданий, дисперсий и корреляционных моментов, называется корреляционной теорией.


Библиография: Боярский А. Я. Статистические методы в экспериментальных Ме-дицинских исследованиях, М., 1955; Вентце л ь Е. С. и Овчаров Л. А. Теория вероятностей, М., 1973; Гнеденко Б. В. Курс теории вероятностей, М., 1969, библиогр.; Гнеденко Б. В. и Хин-чин А. Я. Элементарное введение в теорию вероятностей, М., 1970; Каминский Л. С. Статистическая обработка лабораторных и клинических данных, Л., 1964; Кувшин ников П. А. Статистический метод в клинических исследованиях, М., 1955; Пугачев В. С. Введение в теорию вероятностей, М., 1968; Ф e л л e р В. Введение в теорию вероятностей и ее приложения, пер. с англ., т. i—2, М., 1967.

В. С. Пугачев, И. Н. Синицын.