Учебная работа № 1168. Математическая статистика

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (3 оценок, среднее: 4,67 из 5)
Загрузка...
Контрольные рефераты

Учебная работа № 1168. Математическая статистика

ИДА Кривой Рог IBM

Частное Учебное Заведение

Институт Делового Администрирования

Private Educational Institution

Institute of Business Managment

Кафедра информационных систем

и

высшей математики

Математическая cтатистика

Конспект лекций

для специальностей УА, ФК 1995

©Г.И. Корнилов

1997

1. в курс

1.1 Основные определения

Несмотря на многообразие используемых в литературе определений термина “статистика”, суть большинства из них сводится к тому, что статистикой чаще всего называют науку, изучающую методы сбора и обработки фактов и данных в области человеческой деятельности и природных явлений.

В нашем курсе, который можно считать введением в курс “Экономическая статистика”, речь будет идти о так называемой прикладной статистике, т.е. только о сущности специальных методов сбора, обработки и анализа информации и, кроме того, о практических приемах выполнения связанных с этим расчетов.

Великому американскому сатирику О’Генри принадлежит ироническое определение статистики: “Есть три вида лжи просто ложь, ложь злостная и …статистика!”. Попробуем разобраться в причинах, побудивших написать эти слова.

Практически всему живому на земле присуще воспринимать окружающую среду как непрерывную последовательность фактов, событий. Этим же свойством обладают и люди, с той лишь разницей, что только им дано анализировать поступающую информацию и (хотя и не всем из них это удается) делать выводы из такого анализа и учитывать их в своей сознательной деятельности. Поэтому можно смело утверждать, что во все времена, все люди занимались и занимаются статистическими “исследованиями”, даже не зная иногда такого слова “статистика”.

Все наши наблюдения над окружающем нас миром можно условно разделить на два класса:

· наблюдения за фактами событиями, которые могут произойти или не произойти;

· наблюдения за физическими величинами, значения которых в момент наблюдения могут быть различными.

И атеист и верующий в бога человек, скорее всего, согласятся с несколько необычным заявлением в окружающем нас мире происходят только случайные события, а наблюдаемые нами значения всех показателей внешней среды являются случайными величинами (далее везде – СВ) . Более того, далее будет показано, что иногда можно использовать только одно понятие случайное событие.

Не задерживаясь на раскрытии философской сущности термина “случайность” (вполне достаточно обычное, житейское представление), обратимся к чрезвычайно важному понятию вероятность . Этот термин обычно используют по отношению к событию и определяют числом (от 0 до 1), выражающим степень нашей уверенности в том, что данное событие произойдет. События с вероятностью 0 называют невозможными, а события с вероятностью 1 достоверными (хотя это уже ­– неслучайные, детерминированные события).

Иногда в прикладной статистике приходится иметь дело с так называемыми редкими (маловероятными) событиями. К ним принято относить события, значение вероятности которых не превышает определенного уровня, чаще всего – 0.05 или 5 %.

В тех случаях, когда профессионалустатистику приходится иметь дело со случайными величинами, последние часто делят на две разновидности:

· дискретные СВ, которые могут принимать только конкретные, заранее оговоренные значения (например, значения чисел на верхней грани брошенной игральной кости или порядковые значения текущего месяца);

· непрерывные СВ (чаще всего значения некоторых физических величин: веса, расстояния, температуры и т.п.), которые по законам природы могут принимать любые значения, хотя бы и в некотором интервале.

1.2 Вероятности случайных событий

Итак, основным “показателем” любого события (факта) А является численная величина его вероятности P(A), которая может принимать значения в диапазоне [0…1] в зависимости от того, насколько это событие случайно. Такое, смысловое, определение вероятности не дает, однако, возможности указать путь для вычисления ее значения.

Поэтому необходимо иметь и другое, отвечающее требованиям практической работы, определение термина “вероятность”. Это определение можно дать на основании житейского опыта и обычного здравого смысла.

Если мы интересуемся событиемA, то, скорее всего, можем наблюдать, фиксировать факты его появления. Потребность в понятии вероятности и ее вычисления возникнет, очевидно, только тогда, когда мы наблюдаем это событие не каждый раз, либо осознаем, что оно может произойти, а может не произойти. И в том и другом случае полезно использовать понятие частоты появления события fA как отношения числа случаев его появления (благоприятных исходов или частостей) к общему числу наблюдений.

Интуиция подсказывает, что частота наступления случайного события зависит не только от степени случайности самого события. Если мы наблюдали за событием всего пять раз и в трех случаях это событие произошло, то мало кто примет значение вероятности такого события равным 0.6 или 60 %. Скорее всего, особенно в случаях необходимости принятия каких–то важных, дорогостоящих решений любой из нас продолжит наблюдения. Здравый смысл подсказывает нам, что уж если в 100 наблюдениях событие произошло 14 раз, то мы можем с куда большей уверенностью полагать его вероятность равной 14 % .

Таким образом, мы (конечно же, не первые) сформулировали второе определение понятия вероятности события как предела, к которому стремится частота наблюдения за событием при непрерывном увеличении числа наблюдений. Теория вероятностей, специальный раздел математики, доказывает существование такого предела и сходимость частоты к вероятности при стремлении числа наблюдений к бесконечности. Это положение носит название центральной предельной теоремы или закона больших чисел.

Итак, первый ответ на вопрос как найти вероятность события, у нас уже есть. Надо проводить эксперимент и устанавливать частоту наблюдений, которая тем точнее даст нам вероятность, чем больше наблюдений мы имеем.

Ну, а как быть, если эксперимент невозможен (дорог, опасен или меняет суть процессов, которые нас интересуют)? Иными словами, нет ли другого пути вычисления вероятности событий, без проведения экспериментов?

Такой путь есть, хотя, как ни парадоксально, он все равно основан на опыте, опыте жизни, опыте логических рассуждений. Вряд ли кто либо будет производить эксперименты, подбрасывая несколько сотен или тысячу раз симметричную монетку, чтобы выяснить вероятность появления герба при одном бросании! Вы будете совершенно правы, если без эксперимента найдете вероятность выпадения цифры 6 на симметричной игральной кости и т.д., и т.п.

Этот путь называется статистическим моделированием – использованием схемы случайных событий и с успехом используется во многих приложениях теоретической и прикладной статистики. Продемонстрируем этот путь, рассматривая вопрос о вероятностях случайных величин дальше. Обозначим величину вероятности того, что событие A не произойдет. Тогда из определения вероятности через частоту наступления события следует, что

P(A)+ = 1, {1–1}

что полезно читать так вероятность того, что событие произойдет или не произойдет, равна 100 %, поскольку третьего варианта попросту нет.

Подобные логические рассуждения приведут нас к более общей формуле сложения вероятностей . Пусть некоторое случайное событие может произойти только в одном из 5 вариантов, т.е. пусть имеется система из трех несовместимых событий A, B и C .

Тогда очевидно, что:

P(A) + P(B) + P(C) = 1; {1–2} и столь же простые рассуждения приведут к выражению для вероятности наступления одного из двух несовместимых событий (например, A или B):

P(AÈB) = P(A) + P(B); {1–3} или одного из трех:

P(AÈBÈC) = P(A) + P(B) + P(C); {14} и так далее.

Рассмотрим чуть более сложный пример. Пусть нам надо найти вероятность события C, заключающегося в том, что при подбрасывании двух разных монет мы получим герб на первой (событие A) и на второй (событие B). Здесь речь идет о совместном наступлении двух независимых событий, т.е. нас интересует вероятность P(C) = P(AÇ B).

И здесь метод построения схемы событий оказывается чудесным помощником можно достаточно просто доказать, что

P(AÇB) =P(A)·P(B). {15} Конечно же, формулы {14} и {15} годятся для любого количества событий: лишь бы они были несовместными в первом случае и независимыми во втором.

Наконец, возникают ситуации, когда случайные события оказываются взаимно зависимыми. В этих случаях приходится различать условные вероятности:

P(A / B) – вероятность A при условии, что B уже произошло;

P(A / ) – вероятность A при условии, что B не произошло,

называя P(A) безусловной или полной вероятностью события A .

Выясним вначале связь безусловной вероятности события с условными. Так как событие A может произойти только в двух, взаимоисключающих вариантах, то, в соответствии с {1–3} получается, что

P(A) = P(A/B)·P(B) + P(A/)· P(). {1–6}

Вероятности P(A/B) и P(A/) часто называют апостериорными (“a posteriopri” – после того, как…), а безусловную вероятность P(A) – априорной (“a priori” – до того, как…).

Очевидно, что если первым считается событие B и оно уже произошло, то теперь наступление события A уже не зависит от B и поэтому вероятность того, что произойдут оба события составит

P(AÇB) = P(A/B)·P(B). {1–7} Так как события взаимозависимы, то можно повторить наши выводы и получить

P(B) = P(B/A)·P(A) + P(B/)·P(); {1–8}

а также P(AÇB) = P(B/A)·P(A). {1–9}

Мы доказали так называемую теорему Байеса

P(A/B)·P(B) = P(B/A)·P(B); {1–10} – весьма важное средство анализа, особенно в области проверки гипотез и решения вопросов управления на базе методов прикладной статистики.

Подведем некоторые итоги рассмотрения вопроса о вероятностях случайных событий. У нас имеются только две возможности узнать что либо о величине вероятности случайного события A:

· применить метод статистического моделирования построить схему данного случайного события и (если у нас есть основания считать, что мы правильно ее строим) и найти значение вероятности прямым расчетом;

· применить метод статистического испытания наблюдать за появлением события и затем по частоте его появления оценить вероятность.

На практике приходится использовать оба метода, поскольку очень редко можно быть абсолютно уверенным в примененной схеме события (недостаток метода моделирования) и столь же редко частота появления события достаточно быстро стабилизируется с ростом числа наблюдений (недостаток метода испытаний ).

2. Распределения вероятностей случайных величин

2.1 Шкалирование случайных величин

Как уже отмечалось, дискретной называют величину, которая может принимать одно из счетного множества так называемых “допустимых” значений. Примеров дискретных величин, у которых есть некоторая именованная единица измерения, можно привести достаточно много.

Прежде всего, надо учесть тот факт что все физические величины (вес, расстояния, площади, объемы и т.д.) теоретически могут принимать бесчисленное множество значений, но практически только те значения, которые мы можем установить измерительными приборами. А это значит, что в прикладной статистике вполне допустимо распространить понятие дискретных СВ на все без исключения численные описания величин, имеющих единицы измерения .

Вместе с тем надо не забывать, что некоторые СВ просто не имеют количественного описания, естественных единиц измерения (уровень знаний, качество продукции и т. п.).

Покажем, что для решения вопроса о “единицах измерения” любых СВ, с которыми приходится иметь дело в прикладной статистике, достаточно использовать четыре вида шкал.

·Nom . Первой из них рассмотрим так называемую номинальную шкалу — применяемую к тем величинам, которые не имеют природной единицы измерения. В ряде случаев нам приходится считать случайными такие показатели предметов или явлений окружающего нас мира, как марка автомобиля; национальность человека или его пол, социальное положение; цвет некоторого изделия и т.п.

В таких ситуациях можно говорить о случайном событии «входящий в магазин посетитель оказался мужчиной», но вполне допустимо рассматривать пол посетителя как дискретную СВ, которая приняла одно из допустимых значений на своей номинальной шкале.

Итак, если некоторая величина может принимать на своей номинальной шкале значения X, Y или Z, то допустимыми считаются только выражения типа: X # Y, X=Z , в то время как выражения типа X ³ Z, X + Z не имеют никакого смысла.

·Ord . Второй способ шкалирования – использование порядковых шкал . Они незаменимы для СВ, не имеющих природных единиц измерения, но позволяющих применять понятия предпочтения одного значения другому. Типичный пример: оценки знаний (даже при числовом описании), служебные уровни и т. п. Для таких величин разрешены не только отношения равенства (= или #), но и знаки предпочтения (> или <). Очень часто порядковые шкалы называют ранговыми и говорят о рангах значений таких величин.

·Int . Для СВ, имеющих натуральные размерности (единицы измерения в прямом смысле слова), используется интервальная шкала. Для таких величин, кроме отношений равенства и предпочтения, допустимы операции сравнения – т. е. все четыре действия арифметики. Главная особенность таких шкал заключается в том, что разность двух значений на шкале (36 и 12) имеет один смысл для любого места шкалы (28 и 4). Вместе с тем на интервальной шкале не имеют никакого смысла отрицательные значения, если это веса предметов, возраст людей и подобные им показатели.

·Rel . Если СВ имеет естественную единицу измерения (например, температура по шкале Цельсия) и ее отрицательные значения столь же допустимы, как и положительные, то шкалу для такой величины называют относительной .

Методы использования описанных шкал относится к специальному разделу – так называемой непараметрической статистике и обеспечивают, по крайней мере, два неоспоримых преимущества.

· Появляется возможность совместного рассмотрения нескольких СВ совершенно разной природы (возраст людей и их национальная принадлежность, марка телевизора и его стоимость) на единой платформе положения каждой из величин на своей собственной шкале.

· Если мы сталкиваемся с СВ непрерывной природы, то использование интервальной или относительной шкалы позволит нам иметь дело не со случайными величинами, а со случайными событиями — типа “вероятность того, что вес продукции находится в интервале 17 Кг”. Появляется возможность применения единого подхода к описанию всех интересующих нас показателей при статистическом подходе к явлениям окружающего нас мира.

2.2 Законы распределений дискретных случайных величин.

Пусть некоторая СВ является дискретной, т.е. может принимать лишь фиксированные (на некоторой шкале) значения X i. В этом случае ряд значений вероятностей P(X i )для всех (i=1…n) допустимых значений этой величины называют её законом распределения .

В самом деле, такой ряд содержит всю информацию о СВ, это максимум наших знаний о ней. Другое дело, откуда мы можем получить эту информацию, как найти закон распределения? Попытаемся ответить на этот принципиально важный вопрос, используя уже рассмотренное понятие вероятности.

Точно также, как и для вероятности случайного события, для закона распределения СВ есть только два пути его отыскания. Либо мы строим схему случайного события и находим аналитическое выражение (формулу) вычисления вероятности (возможно, кто–то уже сделал или сделает это за нас!), либо придется использовать эксперимент и по частотам наблюдений делать какие–то предположения (выдвигать гипотезы) о законе распределения.

Заметим, что во втором случае нас будет ожидать новый вопрос, а какова уверенность в том, что наша гипотеза верна? Какова, выражаясь языком статистики, вероятность ошибки при принятии гипотезы или при её отбрасывании?

Продемонстрируем первый путь отыскания закона распределения.

Пусть важной для нас случайной величиной является целое число, образуемое по следующему правилу: мы трижды бросаем симметричную монетку, выпадение герба считаем числом 1 (в противном случае 0) и после трех бросаний определяем сумму S.

Ясно, что эта сумма может принимать любое значение в диапазоне 0…3, но всё же каковы вероятности P(S=0), P(S=1), P(S=2), P(S=3); что можно о них сказать, кроме очевидного вывода их сумма равна 1?

Попробуем построить схему интересующих нас событий. Обозначим через p вероятность получить 1 в любом бросании, а через q=(1–p) вероятность получить 0. Сообразим, что всего комбинаций ровно 8 (или 23 ), а поскольку монетка симметрична, то вероятность получить любую комбинацию трех независимых событий (000,001,010…111) одна и та же: q3 = q2 ·p=…= p3 = 0.125 . Но если p # q , то варианты все тех же восьми комбинаций будут разными:

Таблица 11

Первое бросание 0 0 0 0 1 1 1 1
Второе бросание 0 0 1 1 0 0 1 1
Третье бросание 0 1 0 1 0 1 0 1
Сумма S 0 1 1 2 1 2 2 3
Вероятность P(S) q3 q2 ·p q2 ·p q·p2 q2 ·p q·p2 q·p2 p3

Учебная работа № 1168. Математическая статистика