Теория вероятностей и математическая статистика изучает. Основные понятия теории вероятностей и математической статистики

Основы теории вероятностей и математической статистики

Основы теории вероятностей и математической статистики Основные понятия теории вероятностей Предметом изучения теории вероятностей являются количественные закономерности однородных случайных явлений массового характера. Определение 1. Событием называется всякий возможный факт, о котором можно сказать, что он произойдет или не произойдет в данных условиях. Пример. Готовые ампулы, сошедшие с конвейера, могут оказаться либо стандартными, либо нестандартными. Один (любой) исход из указанных двух возможных называются событием. Различают три вида событий: достоверные, невозможные и случайные. Определение 2. Достоверным называют то событие, которое при соблюдении некоторых условий не может не произойти, т.е. обязательно произойдет. Пример. Если в урне содержатся только белые шары, то взятый наудачу из урны шар будет обязательно белый. В данных условиях факт появления белого шара будет достоверным событием. Определение 3. Невозможным называют то событие, которое при соблюдении некоторых условий не может произойти. Пример. Нельзя извлечь белый шар из урны, содержащей только черные шары. В этих условиях факт появления белого шара будет невозможным событием. Определение 4. Случайным называют событие, которое в одних и тех же условиях может произойти, но может и не произойти. Пример. Монета, брошенная вверх, может упасть так, что на ее верхней стороне окажется либо герб, либо цифра. Здесь появление сверху той или другой стороны монеты является случайным событием. Определение 5. Испытание - совокупность тех условий или действий, которые могут быть повторены бесконечное число раз. Пример. Подбрасывание монеты вверх - испытание, а возможный результат, т.е. выпадение на верхней стороне монеты либо герба, либо цифры является событием. Определение 6. Если события A i таковы, что при некотором данном испытании может произойти только одно из них и никаких других, не входящих в совокупность, то эти события называются единственно возможными. Пример. В урне лежат белые и черные шары и никаких других. Взятый наугад один шар может оказаться белым или черным. Эти события являются единственно возможными, т.к. появление шара другой окраски при данном испытании исключено. Определение 7. Два события A и B называются несовместными, если при данном испытании они не могут произойти вместе. Пример. Герб и цифра являются единственно возможными и несовместимыми событиями при однократном бросании монеты. Определение 8. Два события A и B называются совместными (совместимыми) при данном испытании, если появление одного из них не исключает возможность появления другого события при том же испытании. Пример. Возможно совместное появление орла и цифры при одном бросании двух монет. Определение 9. События A i называются равновозможными в данном испытании, если в силу симметрии есть основание считать, что ни одно из этих событий не является более возможным по сравнению с другими. Пример. Появление любой грани при одном бросании игральной кости является равновозможным событием (при условии, если кость сделана из однородного материала и имеет форму правильного шестигранника). Определение 10. События называются благоприятствующими (благоприятными) некоторому событию, если появление одного из этих события влечет появление данного события. Случаи, исключающие появление события, называются неблагоприятствующими этому событию. Пример. В урне имеется 5 белых и 7 черных шаров. При взятии наугад одного шара, в руках может оказаться или белый или черный шар. В данном случае появление белого шара благоприятствует 5 случаев, а появлению черного шара 7 случаев из общего количества 12 возможных случаев. Определение 11. Два единственно возможных и несовместимых событий называют противоположными друг другу. Если одно из этих событий обозначено A , то противоположное ему событие обозначают символом Ā. Пример. Попадание в цель и промах; выигрыш и проигрыш по билету лотереи - все это примеры противоположных событий. Определение 12. Если в результате какой-либо массовой операции, состоящей из n сходных между собой единичных опытов или наблюдений (испытаний), некоторое случайное событие появится m раз, то число m называют частотой случайного события, а отношение m / n называется его частостью. Пример. Среди первых 20 изделий, сошедших с конвейера, оказалось 3 изделия нестандартных (брак). Здесь число испытаний n =20, частота брака m =3, частость брака m / n = 3/20 = 0,15. Всякое случайное событие в заданных условиях имеет свою объективную возможность появления, причем у одних событий эта возможность появления больше, у других - меньше. Для количественного сравнения между собой событий по степени возможности их наступления с каждым случайным событием связывают некоторое действительное число, выражающего количественную оценку степени объективной возможности наступления данного события. Это число называют вероятностью события. Определение 13. Вероятность некоторого события есть числовая мера объективной возможности наступления этого события. Определение 14. ( Классическое определение вероятности ). Вероятностью события А называется отношение числа m случаев, благоприятствующих наступлению этого события, к числу n всех возможных случаев, т.е. Р(А) = m / n . Пример. Урна содержит 5 белых и 7 черных шаров, тщательно перемешанных. Какова вероятность того, что взятый наудачу из урны один шар окажется белым? Решение. В данном испытании имеется всего 12 возможных случаев, из них 5 благоприятствуют появлению белого шара. Поэтому вероятность появления белого шара Р=5/12. Определение 15. ( Статистическое определение вероятности ). Если при достаточно большом числе повторных испытаний по отношению к некоторому событию А будет замечено, что частость события колеблется около некоторого постоянного числа, то событие А имеет вероятность Р(А), приближенно равную частости, т.е. Р(А)~ m / n . Частость события при неограниченном числе испытаний называют статистической вероятностью. Основные свойства вероятности. 1 0 Если событие А влечет за собой событие В (А  В), то вероятность события А не превосходит вероятности события В. Р(А)≤Р(В) 2 0 Если события А и В равносильны (А  B , В  А, В=А), то их вероятности равны Р(А)=Р(В). 3 0 Вероятность любого события А не может быть отрицательным числом, т.е. Р(А)≥0 4 0 Вероятность достоверного события  равна 1. Р(  )=1. 5 0 Вероятность невозможного события  равна 0. Р(  )=0. 6 0 Вероятность любого случайного события А заключена между нулем и единицей 0<Р(А)<1 Основные формулы комбинаторики Определение 1 . Различные группы по m предметов, составленные из n однородных предметов ( m , n ), называются соединениями. Предметы, из которых составляют различные соединения, называют элементами. Существует 3 вида соединений: размещения, перестановки, сочетания. Определение 2. Размещениями по m элементов из данных n элементов ( m ≤ n ) называют такие соединения, которые отличаются друг от друга либо самими элементами, либо их порядком. Например, размещениями из трех предметов a , b и c по два будут следующие соединения: ab , ac , bc , ca , cb , ba . Число размещений из данных n элементов по m обозначают символом А n m = n ( n -1)( n -2)·....·( n - m +1). Пример. А 10 4 =10·9·8·7=5040. Определение 3. Перестановками из n элементов называют такие соединения, которые отличаются друг от друга только порядком элементов. Р n =А n n = n ( n -1)( n -2)...·3·2·1= n ! По определению 0!=1. Пример. Р 5 =5!=1·2·3·4·5=120. Определение 4. Сочетаниями из n элементов по m называются также соединения, которые отличаются друг от друга, по меньшей мере, одним элементом и каждое из которых содержит m различных элементов: C n m === Пример. Найти число сочетаний из 10 элементов по четыре. Решение. C 10 4 ==210. Пример. Найти число сочетаний из 20 элементов по 17. Решение. ==1040. Теоремы теории вероятностей Теорема сложения вероятностей Теорема 1 . Вероятность наступления одного какого-либо события из двух несовместимых событий А и В равно сумме вероятностей этих событий Р(А+В)=Р(А)+Р(В ). Пример. В урне 5 красных, 7 синих и 8 белых шаров, перемешанных между собой. Какова вероятность того, что взятый наугад один шар окажется не красным? Решение. Не красный шар - это или белый или синий шары. Вероятность появления белого шара (событие А) равна Р(А)= 8/20 = 2/5. Вероятность появления синего шара (событие В) равна Р(В)= 7/20. Событие, состоящее в появлении не красного шара, означает появление или А или В, т.к. события А и В несовместимы, то применима теорема 1. Искомая вероятность будет равна Р(А+В)=Р(А)+Р(В)=2/5+ +7/20=3/4. Теорема 2. Вероятность наступления одного из двух событий A или B равно сумме вероятностей этих событий минус вероятность их совместного появления P ( A + B )= P ( A )+ P ( B )+ P ( AB ). Теорема умножения вероятностей Определение 1. Два события A и B называются независимыми друг от друга, если вероятность одного из них не зависит от наступления или ненаступления другого. Пример. Пусть A - событие, состоящее в появлении герба при первом бросании монеты, а B - событие, состоящее в появлении герба при втором бросании монеты, то события A и B не зависят друг от друга, т.е. результат первого бросания монеты не может изменить вероятность появления герба при втором бросании монеты. Определение 2. Два события A и B называются зависящими друг от друга, если вероятность одного из них зависит от наступления или ненаступления другого. Пример. В урне 8 белых и 7 красных шаров, перемешанных между собой. Событие A - появление белого шара, а событие B - появление красного шара. Будем брать из урны наугад два раза по одному шару, не возвращая их обратно. До начала испытания вероятность появления события A равна P ( A )=8/15, и вероятность события B равна P ( B )=7/15. Если предположить, что в первый раз был взят белый шар (событие A ), то вероятность появления события B при втором испытании будет P ( B )=7/14=1/2. Если в первый раз был взят красный шар, то вероятность появления красного шара при втором извлечении равна P ( B )=6/14=3/7. Определение 3. Вероятность события B , вычисленная в предположении, что перед этим наступило связанное с ним событие A , называется условной вероятностью события B и обозначается PA ( B ). Теорема 3 . Вероятность совместного наступления двух зависимых событий ( A и B ) равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие произошло, т.е. P ( AB )= P ( A )· P A ( B )= P ( B )· P B ( A ). Теорема 4. Вероятность совместного наступления нескольких зависимых событий равно произведению вероятности одного из них на условные вероятности всех остальных событий, вычисленные в предположении, что все предыдущие события уже наступили: P(A 1 A 2 A 3 ...A k )=P(A 1 )·P A1 (A 2 )·P A1A2 ·P(A 3 )...·P A1A2…A k-1 (A k ) Теорема 5 . Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий P ( AB )= P ( A )· P ( B ). Теорема 6 . Вероятность совместного наступления нескольких независимых событий A 1 , A 2 , ... A k равна произведению их вероятностей, т.е. P ( A 1 A 2 ... A k )= P ( A 1 )· P ( A 2 )·...· P ( A k ). Пример. Два стрелка делают одновременно по одному выстрелу в одну цель. Какова вероятность того, что оба попадут, если известно, что первый стрелок в среднем дает 7 попаданий, а второй 8 попаданий на каждые 10 выстрелов? Какова вероятность поражения мишени? Решение. Вероятность попадания первого стрелка (событие A ) равна P ( A )=0,8, вероятность попадания второго стрелка (событие B ) равна P ( B )=0,7. События A и B независимы друг от друга, поэтому вероятность совместного наступления этих событий (совместное попадание в цель) найдем по теореме умножения для независимых событий: P ( AB )= P ( A ) P ( B )=0,8·0,7=0,56. Вероятность поражения мишени означает попадание в мишень хотя бы одного стрелка. Так как попадание в мишень первого и второго стрелков являются событиями совместными, то применение теоремы сложения вероятностей для совместных событий дает следующий результат: P(A+B)=P(A)+P(B)-P(AB)=P(A)+P(B)-P(A)·P(B)=0,8+0,7- 0,8·0,7=0,94. 5.3.3. Формула полной вероятности Определение 4. Если при некотором испытании может произойти одно какое-либо событие из нескольких несовместных A 1 , A 2 ,..., A k , и при этом никаких других событий быть не может, но одно из указанных событий обязательно произойдет, то группу событий A 1 , A 2 ,..., A k называют полной группой событий. Теорема 7. Сумма вероятностей событий, образующих полную группу, равна единице: P ( A 1 )+ P ( A 2 )+...+ P ( A k )=1. Следствие. Сумма вероятностей двух противоположных событий равна единице: P ( A )+ P ( A )=1. Если вероятность одного события обозначим через p , вероятность противоположного ему события обозначим через q , тогда p + q =1. Пример. Вероятность попадания в цель равна 0,94. Найти вероятность непопадания. Решение . Попадание в цель и непопадание являются противоположными событиями, поэтому, если p =0,94, то q =1- p =1-0,94=0,06. Теорема 8 . Если случайные события A 1 , A 2 ... A n образуют полную систему, и если событие B может осуществляться только совместно с каким-нибудь одним из этих событий, то вероятность наступления события B можно определить по формуле: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A n )P A n (B) Это равенство называется формулой полной вероятности . Пример. На склад готовой продукции поступили изделия из трех цехов, в том числе: 30% из I -го цеха, 45% из II цеха и 25% из III цеха. Среди изделий I цеха брак составляет 0,6%, по II цеху 0,4% и по III цеху-0,16%. Какова вероятность того, что взятое наугад для контроля одно изделие окажется с браком? Решение. Одно изделие может быть взято или из продукции I цеха (событие A 1 ), или из продукции II цеха (событие A 2 ), или из продукции III цеха (событие A 3 ). Вероятности этих событий будут: P ( A 1 )=0,30; P ( A 2 )=0,45; P ( A 3 )=0,25. Вероятность того, что изделие с браком (событие B ) будет взято из продукции I цеха, есть условная вероятность P A 1 ( B ). Она равна P A 1 ( B )=0,006. Вероятность того, что изделие с браком будет взято из продукции II цеха P A 2 ( B )=0,004 и из продукции III цеха P A 3 ( B )=0,0016. Теперь по формуле полной вероятности найдем вероятность того, что взятое наугад одно изделие будет с браком: P(B)=P(A 1 )P A1 (B)+P(A 2 )P A2 (B)+...+P(A 3 )P A3 (B) = 0,3·0,006+0,45·0,004+0,25·0,0016=0,004. Формула Бернулли Теорема 9. Пусть производится n независимых повторных испытаний по отношению к некоторому событию A . Пусть вероятность появления этого события в каждом отдельном испытании остается неизменно равной p , а вероятность появления противоположного события Ā, есть q . Тогда вероятность появления интересующего нас события A равно m раз при указанных n испытаниях рассчитывается по формуле Бернулли: P m , n = p m q n - m , так как, то P m , n = · p m · q n - m Пример. Коэффициент использования станка в среднем равен 0,8. В цехе имеется 5 станков. Какова вероятность того, что в некоторый момент времени окажутся работоспособными только 3 станка? Решение. Задача подходит под схему повторных испытаний и решается по формуле Бернулли: n =5, m =3, p =0,8 и q =1-0,8=0,2: P 3,5 = (0,8) 3 ·(0,2) 2 =0,2084. Асимптотическая формула Пуассона В статистической практике нередко встречаются такие примеры независимых испытаний, когда при большом числе n независимых испытаний вероятность Р появления события в каждом отдельном испытании оказывается сравнительно малой величиной, стремящейся к нулю с увеличением числа испытаний . При этих условиях для вычисления вероятности Р m , n появление события m раз в n испытаниях пользуются асимптотической формулой Пуассона : Р m,n ≈e -a , где a=np Пример. Доля брака всей продукции завода составляет 0,5%. Какова вероятность того, что в партии, состоящей из 400 изделий, окажется три изделия бракованных? Решение. В условии примера дано p =0,005, n =400, m =3, следовательно, a = np =400·0,005=2. Вероятность данного события найдем по формуле Пуассона Р m , n (3,400) = 0,1804. Случайные величины и их числовые характеристики Определение 1. Случайной величиной называется переменная величина, которая в результате опыта принимает одно значение, причем неизвестно заранее, какое именно. Определение 2. Дискретной называется случайная величина, которая может принимать лишь отдельные, изолированные друг от друга значения. Случайная дискретная величина задается законом распределения, связывающим принимаемые ею значения x i и вероятности их принятия p i . Закон распределения чаще всего задается в табличной форме. Графическое представление закона распределения случайной дискретной величины – многоугольник распределения . Числовые характеристики дискретной случайной величины. 1) Математическое ожидание. Определение 3. Математическое ожидание случайной дискретной величины X с конечным числом значений называется сумма произведений возможных ее значений на их вероятности: M ( X ) = μ = x 1 p 1 + x 2 p 2 +...+ x n p n = . Вероятности всех значений случайной дискретной величины удовлетворяют условию нормировки: Свойства математического ожидания. 1 0 Математическое ожидание постоянной (неслучайной) величины С равно самой постоянной M ( C )= C . 2 0 Математическое ожидание алгебраической суммы нескольких случайных величин равно алгебраической сумме математических ожиданий слагаемых M ( X 1 ± X 2 ±...± X n ) = M ( X 1 ) ± M ( X 2 ) ±…± M ( X n ). 3 0 Константу можно вынести за знак математического ожидания M ( CX )= CM ( X ). 4 0 Математическое ожидание произведения нескольких независимых случайных величин равно произведению математических ожиданий этих величин: M ( X 1 X 2 ... X n ) = M ( X 1 ) M ( X 2 )... M ( X ) n . 2) Дисперсия дискретной случайной величины. Определение 4. Дисперсией случайной дискретной величины X называется математическое ожидание квадрата отклонения этой величины от ее математического ожидания. D ( X ) = M {[ X - M ( X )] 2 } = , где M ( X ) = μ Для вычисления дисперсии более удобна формула: D ( X )= M ( X 2 )-[ M ( X )] 2 , т.е. дисперсия случайной величины равна разности между математическим ожиданием квадрата этой величины и квадратом ее математического ожидания. Свойства дисперсии. 1 0 Дисперсия постоянной величины равна нулю D (С) = 0. 2 0 Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D ( CX ) = C 2 D ( X ). 3 0 Дисперсия суммы нескольких независимых случайных величин равна сумме дисперсий этих величин: D ( X 1 +...+ X n ) = D ( X 1 )+...+ D ( X n ). 4 0 Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин D ( X - Y )= D ( X )+ D ( Y ). 3). Среднее квадратическое отклонение Определение 5 . Средним квадратическим отклонением случайной величины называется квадратный корень из дисперсии σ ( X )=. Пример. Найти математическое ожидание и дисперсию случайной величины X , которая задана следующим законом распределения: Решение. Найдем математическое ожидание: M ( x )=1·0,3+2·0,5+5·0,2=2,3. Найдем все возможные значения квадрата отклонения. [ x 1 - M ( x )] 2 =(1-2,3) 2 =1,69 [ x 2 - M ( x )] 2 =(2-2,3) 2 =0,09 [ x 3 - M ( x )] 2 =(5-2,3) 2 =7,29 Напишем закон распределения квадрата отклонения Найдем дисперсию: D ( x )=1,69·0,3+0,09·0,5+7,29·0,2=2,01. Числовые характеристики непрерывной случайной величины. Определение 6. Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Определение 7. Интегральной функцией распределения называют функцию F ( x ), определяющую для каждого значения x вероятность того, что случайная величина X примет значение меньше x , т.е. F ( x )= P ( X < x ). Свойства интегральной функции распределения 1 0 Значения интегральной функции распределения принадлежат отрезку 0≤ F ( x ) ≤1. 2 0 Функция распределения есть неубывающая функция. Следствие 1. Вероятность того, что случайная величина X попадет в интервал ( a , b ), равна приращению ее интегральной функции распределения на этом интервале P ( a < x < b )= F ( b )- F ( a ). Следствие 2. Вероятность того, что случайная непрерывная величина X примет одно определенное значение равна нулю P ( X = x 1 )=0. 3 0 Если возможные значения случайной величины X принадлежат интервалу ( a , b ), то F ( x )=0 при x ≤ a и F ( x )=1 при x ≥ a . Определение 8. Дифференциальной функцией распределения f ( x ) (или плотностью вероятности) называется производная от интегральной функции f ( x )= F "( x ). Интегральная функция является первообразной для дифференциальной функции, поэтому вероятность того, что случайная непрерывная величина x примет значение, принадлежащее интервалу ( a , b ), определяется равенством: P ( a < x < b )== F ( b )- F ( a )Зная дифференциальную функцию, можно найти функцию распределения: F ( x )= Свойства дифференциальной функции распределения 1 0 Дифференциальная функция распределения есть функция неотрицательная f ( x ) ≥0 2 0 Несобственный интеграл от дифференциальной функции распределения равен единице (условие нормировки): . 1) Математическое ожидание. Математическим ожиданием случайной непрерывной величины X , возможные значения которой прина д лежат отрезку ( a , b ), называется опр е деленный интеграл: M ( X ) = , где f ( x )-плотность вероятности случайной величины X . 2) Дисперсия. Дисперсия непрерывной случайной величины X есть математическое ожидание квадрата отклонения зтой величины от ее математического жидания D(X) = M{ 2 }.Следовательно, если возможные значения случайной величины X принадлежат отрезку ( a ; b ), то D ( x )= или D ( x )= 3) Среднее квадратическое отклонение определяется так: σ ( x ) = Пример. Найти дисперсию случайной величины X , заданной интегральной функцией F ( x )= Решение. Найдем дифференциальную функцию: f ( x )= F ’ ( x )= Выислим математическое ожидание M ( x ) = . Найдем искомую дисперсию D ( x ) = = = 2/4=4/3. Вероятность попадания нормально распределенной случайной величины X в заданный интервал Определение 9. Распределение вероятностей случайной непрерывной величины X называется нормальным, если плотность вероятности описывается формулой: , где μ - математическое ожидание, σ - среднее квадратическое отклонение. Определение 10. Нормальное распределение с параметрами μ = 0, σ = 1 называется нормированным или стандартным. Плотность вероятности нормированного нормального распределения описывается следующей формулой: . Значения данной функции для неотрицательных значений затабулированы. В силу четности функции φ ( x ) значения для отрицательных чисел легко определить φ (- x )= φ ( x ). Пример. Математическое ожидание нормального распределенной случайной величины X равно μ =3 и среднее квадратическое отклонение σ =2. Написать дифференциальную функцию X . Решение. f ( x )= Если случайная величина X распределена по нормальному закону, то вероятность ее попадания в интервал ( a , b ) определяется следующим о б разом: P(a S2=DB= = , которая является несмещенной оценкой генеральной дисперсииDГ. Для оценки среднего квадратического отклонения генеральной совокупности используют "исправленное" среднее квадратическое отклонение, которое равно квадратному корню из "исправленной" дисперсии. S= Определение 14. Доверительным называют интервал (θ*-δ;θ*+δ), который покрывает неизвестный параметр с заданной надежностью γ. Доверительный интервал для оценки математического ожидания нормального распределения при известном среднем квадратическом отклоненииσ выражаются формулой: =2Ф(t)=γ гдеε=tδ/ - точность оценки. Числоt определяется из уравнения: 2Ф(t)=γ по таблицам функции Лапласа. Пример. Случайная величинаX имеет нормальное распределение с известным средним квадратическим отклонениемσ=3. Найти доверительные интервалы для оценки неизвестного математического ожиданияμ по выборочным среднимX , если объем выборкиn=36 и дана надежность оценкиγ=0,95. Решение. Найдемt из соотношения 2Ф(t)=0,95; Ф(t)=0,475. Из таблиц находимt=1,96. Найдем точность оценкиσ =tδ/=1,96·3/= 0,98. Доверительный интервал (x -0,98;x +0,98). Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестномσ определяется с помощью распределения Стьюдента сk=n-1 степенями свободы: T= , гдеS - "исправленное" среднее квадратическое отклонение,n - объем выборки. Из распределения Стьюдента доверительный интервал покрывает неизвестный параметрμ с надежностьюγ: или, гдеtγ- коэффициент Стьюдента находится по значениямγ (надежности) иk (числу степеней свободы) из таблиц. Пример. Количественный признакX генеральной совокупности распределен нормально. По выборке объемаn=16 найдены выборочная средняяxB=20,2 и "исправленное среднее" квадратическое отклонениеS=0,8. Оценить неизвестное математическое ожиданиеm при помощи доверительного интервала с надежностьюγ=0,95. Решение. Из таблицы найдем:tγ=2,13. Найдем доверительные границы: =20,2-2,13·0,8=19,774 и =20,2+ +2,13·0,8/=20,626. Итак, с надежностью 0,95 неизвестный параметрμ находится в интервале 19,774<μ <20,626. .Элементы теории корреляции Определение 1. Статистической называют зависимость, при которой изменение одной из величин влечет изменение распределения другой. Определение 2. Если при изменении одной из величин изменяетсясреднее значение другой величины, то такая статистическая зависимость называется корреляционной. Пример. ПустьY-урожай зерна,X-количество удобрений. С одинаковых по площади участков земли при равных количествах внесенных удобрений снимают различный урожай, т.е.Y не является функциейX. Это объясняется влиянием случайных факторов (осадки, температура воздуха и т.д.) Вместе с тем средний урожай является функцией от количества удобрений, т.е.Y связан сX корреляционной зависимостью. Определение 3. Среднее арифметическое значение величиныY, вычисленное при условии, чтоX принимает фиксированное значение, называется условным средним и обозначается. Определение 4. Условным средним называют среднее арифметическое наблюдавшихся значенийx, соответствующихY=y. Можно составить таблицу, определяющую соответствие между значениямиxi и условными среднимиyxi, а затем в декартовой системе координат строят точкиM(xi;yxi) и соединяют их отрезками прямых. Полученная линия называется эмпирической линией регрессииY наX. Аналогично строится эмпирическая линия регрессииX наY. Если точкиMi(xi;yxi) иNi(xy;y) располагаются вдоль прямой, то линия регрессии называется линией прямой регрессии и операция "сглаживания" ломаной сводится к нахождению параметровa иb функцииy=ax+b. Из двух нормальных уравнений: находят коэффициентыa иb. ρxy=a== выборочный коэффициент регрессии признакаY наX. b== Уравнение прямой линии регрессии признакаY наX имеет вид: - =ρyx(x-). Проведя аналогичные расчеты, можно получить следующие математические выражения, характеризующие прямую регрессию признакаX наY:x=cy+d. ρyx=c= = - выборочный коэффициент регрессии признакаX наY. d= - свободный член уравнения. = - уравнение прямой линии регрессии признакаX наY. Показателем тесноты связи являетсякоэффициент корреляции, используемый только при линейной корреляции:r = =. Для решения задач удобна следующая формула: r == . В формуле для коэффициента корреляцииr = числитель дроби всегда меньше знаменателя, следовательно, коэффициент корреляции - всегда правильная дробь между нулем и единицей -1≤r≤+1. Положительное значениеr указывает на прямую связь между признаками; отрицательное - на обратную связь между ними. Данные для корреляционного анализа могут быть сгруппированы в виде корреляционной таблицы. Рассмотрим пример. Пусть проведено наблюдение двух признаков (X иY) у 15 объектов. Составлена следующая таблица первичных данных: Упорядочим первичные данные, поместив их в таблицу: В первом столбце запишем в порядке возрастания значенияxi: 8,9,10,11, а во второй строке - в том же порядке значенияyi: 18,20,24,27,30. На пересечении строк и столбцов запишем число повторений одинаковых пар (xi;yi) в ряду наблюдений. Требуется установить и оценить зависимость случайной величиныY от величиныX, используя данные корреляционной таблицы. n = 15 - объем выборки Используем формулы для корреляционных расчетов. Уравнение регрессииX наY: xy=cy +d =ρxyy+d, где ρxy=. Величина коэффициента корреляцииr=± С учетом частотnx иny формулы регрессионного анализа несколько видоизменяется: ρxy=, где; ; ; ; . .Проверка статистических гипотез. Определение 1. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известных распределений. Определение 2. Нулевой (основной) называют выдвинутую гипотезуH0. Определение 3. Конкурирующей (альтернативной) называют гипотезуH1, которая противоречит нулевой. Определение 4. Статистическим критерием называют специально подобранную величину, распределение которой известно (хотя бы приближенно), которая используется для проверки статистической гипотезы. Определение 5. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Определение 6. Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых нулевую гипотезу принимают. Основной принцип проверки статистических гипотез: если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают; если наблюдаемое значение критерия принадлежит области принятия гипотезы, то гипотезу принимают. Определение 7. Критическими точками (границами)kkp называют точки, отделяющие критическую область от области принятия гипотезы. Определение 8. Правосторонней называют критическую область, определяемую неравенствомK>kkp, гдеkkp>0. Определение 9. Левосторонней называют критическую область, определяемую неравенствомKk2 гдеk2>k1. Для отыскания критической области задаются уровнем значимостиα и ищут критические точки, исходя из следующих соотношений: а) для правосторонней критической областиP(K>kkp)=α; б) для левосторонней критической областиP(K<-kkp)=α; в) для двусторонней критической областиP(K>kkp)=α/2 иP(K<-kkp)=α/2. Пример. По двум независимым выборкам, объемы которыхn1=11 иn2=14, извлеченным из нормальных генеральных совокупностейX иY, найдены исправленные выборочные дисперсииSx2=0,76;Sy2=0,38. При уровне зависимостиα=0,05 проверить нулевую гипотезуH0:Д(x)=Д(y) о равенстве генеральных дисперсий, при конкурирующей гипотезе:H1:Д(x)>Д(y) Решение. Найдем отношение большой исправленной дисперсии к меньшей:Fнабл= =2. Так какH1:Д(x)>Д(y), то критическая область - правосторонняя. По таблице поα=0,05 и числам степеней свободыk1=n1-1=10;k2=n2-1=13 находим критическую точкуFкр(0,05;10,13)= 2,67. Tак какFнабл

Теория вероятностей и математическая статистика

  • Агекян Т.А. Основы теории ошибок для астрономов и физиков (2-е изд.). М.: Наука, 1972 (djvu , 2.44 M)
  • Агекян Т.А. Теория вероятностей для астрономов и физиков. М.: Наука, 1974 (djvu , 2.59 M)
  • Андерсон Т. Статистический анализ временных рядов. М.: Мир, 1976 (djvu , 14 M)
  • Бакельман И.Я. Вернер А.Л. Кантор Б.Е. Введение в дифференциальную геометрию "в целом". М.: Наука, 1973 (djvu , 5.71 M)
  • Бернштейн С.Н. Теория вероятностей. М.-Л.: ГИ, 1927 (djvu , 4.51 M)
  • Биллингсли П. Сходимость вероятностных мер. М.: Наука, 1977 (djvu , 3.96 M)
  • Бокс Дж. Дженкинс Г. Анализ временных рядов: прогноз и управление. Выпуск 1. М.: Мир, 1974 (djvu , 3.38 M)
  • Бокс Дж. Дженкинс Г. Анализ временных рядов: прогноз и управление. Выпуск 2. М.: Мир, 1974 (djvu , 1.72 M)
  • Борель Э. Вероятность и достоверность. М.: Наука, 1969 (djvu , 1.19 M)
  • Ван дер Варден Б.Л. Математическая статистика. М.: ИЛ, 1960 (djvu , 6.90 M)
  • Вапник В.Н. Восстановление зависимостей по эмпирическим данным. М.: Наука, 1979 (djvu , 6.18 M)
  • Вентцель Е.С. Введение в исследование операций. М.: Советское радио, 1964 (djvu , 8.43 M)
  • Вентцель Е.С. Элементы теории игр (2-е изд.). Серия: Популярные лекции по математике. Выпуск 32. М.: Наука, 1961 (djvu , 648 K)
  • Венцтель Е.С. Теория вероятностей (4-е изд.). М.: Наука, 1969 (djvu , 8.05 M)
  • Венцтель Е.С., Овчаров Л.А. Теория вероятностей. Задачи и упражнения. М.: Наука, 1969 (djvu , 7.71 M)
  • Виленкин Н.Я., Потапов В.Г. Задачник-практикум по теории вероятностей с элементами комбинаторики и математической статистики. М.: Просвещение, 1979 (djvu , 1.12 M)
  • Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике (3-е изд.). М.: Высш. шк., 1979 (djvu , 4.24 M)
  • Гмурман В.Е. Теория вероятностей и математическая статистика (4-е изд.). М.: Высшая школа, 1972 (djvu , 3.75 M)
  • Гнеденко Б.В., Колмогоров А.Н. Предельные распределения для сумм независимых случайных величин. М.-Л.: ГИТТЛ, 1949 (djvu , 6.26 M)
  • Гнеденко Б.В., Хинчин А.Я. Элементарное введение в теорию вероятностей (7-е изд.). М.: Наука, 1970 (djvu , 2.48 M)
  • Дуб Дж.Л. Вероятностные процессы. М.: ИЛ, 1956 (djvu , 8.48 M)
  • Дэйвид Г. Порядковые статистики. М.: Наука, 1979 (djvu , 2.87 M)
  • Ибрагимов И.А., Линник Ю.В. Независимые и стационарно связанные величины. М.: Наука, 1965 (djvu , 6.05 M)
  • Идье В., Драйард Д., Джеймс Ф., Рус М., Садуле Б. Статистические методы в экспериментальной физике. М.: Атомиздат, 1976 (djvu , 5.95 M)
  • Камалов М.К. Распределение квадратичных форм в выборках из нормальной совокупности. Ташкент: АН УзССР, 1958 (djvu , 6.29 M)
  • Кассандрова О.Н., Лебедев В.В. Обработка результатов наблюдений. М.: Наука, 1970 (djvu , 867 K)
  • Кац М. Вероятность и смежные вопросы в физике. М.: Мир, 1965 (djvu , 3.67 M)
  • Кац М. Несколько вероятностных задач физики и математики. М.: Наука, 1967 (djvu , 1.50 M)
  • Кац М. Статистическая независимость в теории вероятностей, анализе и теории чисел. М.: ИЛ, 1963 (djvu , 964 K)
  • Кендалл М., Моран П. Геометрические вероятности. М.: Наука, 1972 (djvu , 1.40 M)
  • Кендалл М., Стюарт А. Том 2. Статистические выводы и связи. М.: Наука, 1973 (djvu , 10 M)
  • Кендалл М., Стюарт А. Том 3. Многомерный статистический анализ и временные ряды. М.: Наука, 1976 (djvu , 7.96 M)
  • Кендалл М., Стюарт А. Том. 1. Теория распределений. М.: Наука, 1965 (djvu , 6.02 M)
  • Колмогоров А.Н. Основные понятия теории вероятностей (2-е изд.) М.: Наука, 1974 (djvu , 2.14 M)
  • Колчин В.Ф., Севастьянов Б.А., Чистяков В.П. Случайные размещения. М.: Наука, 1976 (djvu , 2.96 M)
  • Крамер Г. Математические методы статистики (2-е изд.). М.: Мир, 1976 (djvu , 9.63 M)
  • Леман Э. Проверка статистических гипотез. М.: Наука. 1979 (djvu , 5.18 M)
  • Линник Ю.В., Островский И.В. Разложения случайных величин и векторов. М.: Наука, 1972 (djvu , 4.86 M)
  • Лихолетов И.И., Мацкевич И.П. Руководство к решению задач по высшей математике, теории вероятностей и математической статистике (2-е изд.). Мн.: Выш. школа, 1969 (djvu , 4.99 M)
  • Лоэв М. Теория вероятностей. М.: ИЛ, 1962 (djvu , 7.38 M)
  • Малахов А.Н. Кумулянтный анализ случайных негауссовых процессов и их преобразований. М.: Сов. радио, 1978 (djvu , 6.72 M)
  • Мешалкин Л.Д. Сборник задач по теории вероятностей. М.: МГУ, 1963 (djvu , 1 004 K)
  • Митропольский А.К. Теория моментов. М.-Л.: ГИКСЛ, 1933 (djvu , 4.49 M)
  • Митропольский А.К. Техника статистических вычислений (2-е изд.). М.: Наука, 1971 (djvu , 8.35 M)
  • Мостеллер Ф., Рурке Р., Томас Дж. Вероятность. М.: Мир, 1969 (djvu , 4.82 M)
  • Налимов В.В. Применение математической статистики при анализе вещества. М.: ГИФМЛ, 1960 (djvu , 4.11 M)
  • Невё Ж. Математические основы теории вероятностей. М.: Мир, 1969 (djvu , 3.62 M)
  • Престон К. Математика. Новое в зарубежной науке No.7. Гиббсовские состояния на счетных множествах. М.: Мир, 1977 (djvu , 2.15 M)
  • Савельев Л.Я. Элементарная теория вероятностей. Часть 1. Новосибирск: НГУ, 2005 (

Математика включает целое множество областей, одной из которых, наряду с алгеброй и геометрией, является теория вероятности. Существуют термины, являющиеся общими для всех этих направлений, но, помимо них, есть и специфические, свойственные только одной конкретной «нише» слова, формулы, теоремы.

Словосочетание «теория вероятности» вызывает у неподготовленного студента панику. Действительно, воображение рисует картины, где фигурируют страшные объемные формулы, а решение одной задачи занимает целую тетрадь. Однако на практике всё вовсе не так ужасно: достаточно один раз понять смысл некоторых терминов и вникнуть в суть несколько своеобразной логики рассуждений, чтобы перестать бояться заданий раз и навсегда. В связи с этим мы рассмотрим основные понятия теории вероятностей и математической статистики - молодой, но крайне интересной области знаний.

Для чего учить понятия

Функция языка - передавать информацию от одного человека к другому так, чтобы он её понял, осознал и смог использовать. Каждое математическое понятие можно объяснить простыми словами, но в этом случае акт обмена данными занимал бы значительно больше времени. Представьте, что вместо слова «гипотенуза» вам всегда бы пришлось говорить «самая длинная сторона прямоугольного треугольника» - это крайне неудобно и долго.

Потому люди и придумывают новые термины для тех или иных явлений, процессов. Основные понятия теории вероятностей - событие, вероятность события и т. д. - появились точно так же. А значит, чтобы использовать формулы, решать задачи и применять навыки в жизни, необходимо не просто запомнить новые слова, но и понять, что означает каждое из них. Чем более глубоко вы осознаете их, вникаете в смысл, тем шире становятся рамки ваших возможностей, и тем полнее вы воспринимаете окружающий мир.

В чем смысл предмета

Познакомимся с основными понятиями теории вероятностей. Классическое определение вероятности звучит следующим образом: это отношение устраивающих исследователя исходов к общему числу возможных. Приведем простой пример: когда человек бросает кубик, тот может выпасть любой из шести сторон кверху. Таким образом, общее число исходов - шесть. Вероятность же того, что выпадет случайно выбранная сторона - 1/6.

Умение предсказывать появление того или иного результата является крайне важным для самых разных специалистов. Сколько бракованных деталей ожидается в партии? От этого зависит, сколько нужно произвести. Какова вероятность, что лекарство поможет побороть болезнь? Такая информация и вовсе является жизненно важной. Но не будем тратить время на дополнительные примеры и приступим к изучению новой для нас области.

Первое знакомство

Рассмотрим основные понятия теории вероятности и их использование. В праве, естественных науках, экономике представленные ниже формулы и термины используются повсеместно, поскольку имеют непосредственное отношение в статистике и погрешности измерений. Более подробное изучение этого вопроса откроет вам и новые формулы, полезные для более точных и сложных вычислений, однако начнем с простого.

Одним из самых базовых и основных понятий теории вероятностей и математической статистики является случайное событие. Объясним понятными словами: из всех возможных исходов эксперимента в результате наблюдается лишь один. Даже если вероятность наступления этого события значительно выше, чем другого, оно будет случайным, так как теоретически итог мог быть и иным.

Если мы провели серию экспериментов и получили некоторое количество исходов, то вероятность каждого из них рассчитывается по формуле: P(A) = m/n. Здесь m - это то, сколько раз в серии испытаний мы наблюдали появление интересующего нас результата. В свою очередь n - это общее количество проведенных экспериментов. Если мы бросили монетку 10 раз и 5 раз получили «решку», то m=5, а n=10.

Виды событий

Случается, что некоторый исход гарантированно наблюдается в каждом испытании - такое событие будет называться достоверным. Если оно не будет происходить никогда, то будет называться невозможным. Впрочем, такие события не используются в условиях задач по теории вероятности. Основные понятия, которые знать гораздо важнее - это совместные и несовместные события.

Случается, что при проведении эксперимента одновременно происходит сразу два события. Например, мы бросаем два кубика - в данном случае то, что на одном выпало «шесть», не гарантирует того, что на втором не выпадет другая цифра. Такие события будут называться совместными.

Если мы кидаем один кубик, то две цифры одновременно выпасть не смогут никогда. В данном случае исходы в виде выпавшей «единицы», «двойки» и т. д. будут рассматриваться как несовместные события. Очень важно различать, какие исходы имеют место в каждом конкретном случае - от этого зависит, какие формулы применять в задаче на нахождение вероятностей. Основные понятия теории вероятностей мы продолжим изучать спустя несколько абзацев, когда рассмотрим особенности сложения и умножения. Ведь без них ни одну задачу решить не удастся.

Сумма и произведение

Допустим, вы с другом бросаете кубик, и у него выпало «четыре». Вам, чтобы победить, необходимо получить «пять» или «шесть». В этом случае вероятности будут суммироваться: поскольку шансы выпадения обоих чисел равны 1/6, ответ будет выглядеть как 1/6 + 1/6 = 1/3.

А теперь представьте, что вы бросаете кубик по два раза, и ваш друг получил 11 очков. Теперь вам необходимо, чтобы два раза подряд выпало «шесть». События независимы друг от друга, поэтому вероятности понадобится перемножить: 1/6 * 1/6 = 1/36.

Среди основных понятий и теорем теории вероятностей следует обратить внимание на сумму вероятностей совместных событий, т. е. тех, которые могут происходить одновременно. Формула сложения в этом случае будет выглядеть так: P(A+B) = P(A) + P(B) - P(AB).

Комбинаторика

Очень часто нам требуется найти все возможные сочетания некоторых параметров объекта или вычислить количество каких-либо комбинаций (например, при подборе шифра). В этом нам поможет комбинаторика, теснейшим образом связанная с теорией вероятности. Основные понятия здесь включают некоторые новые слова, а ряд формул из этой темы вам наверняка пригодится.

Допустим, у вас есть три цифры: 1, 2, 3. Вам надо, используя их, написать все возможные трёхзначные числа. Сколько их будет? Ответ: n! (восклицательный знак означает факториал). Комбинации из некоторого количества разных элементов (цифр, букв и проч.), отличающиеся только порядком их расположения, называются перестановками.

Однако гораздо чаще мы сталкиваемся с такой ситуаций: имеется 10 цифр (от нуля до девяти), из которых составляется пароль или код. Предположим, его длина - 4 символа. Как рассчитать общее количество возможных кодов? Для этого существует специальная формула: (n!)/(n - m)!

Учитывая предложенное выше условие задачи, n=10, m=4. Далее требуются только простые математические расчёты. Кстати, называться такие комбинации будут размещением.

Наконец, существует понятие сочетаний - это последовательности, отличающиеся друг от друга хотя бы одним элементом. Высчитывается их число по формуле: (n!) / (m!(n-m)!).

Математическое ожидание

Важным понятием, с которым сталкивается студент уже на первых занятиях по предмету, является математическое ожидание. Оно представляет собой сумму всех возможных результирующих значений, помноженных на их вероятности. По сути, это среднее число, которое мы можем предсказать в качестве результата испытания. Например, есть три значения, для которых в скобках указаны вероятности: 0 (0,2); 1 (0,5); 2 (0,3). Посчитаем математическое ожидание: M(X) = 0*0,2 + 1*0,5 + 2*0,3 = 1,1. Таким образом, из предложенного выражения можно увидеть, что данная величина является постоянной и не зависит от исхода испытания.

Это понятие используется во многих формулах, и вы неоднократно с ним столкнетесь в дальнейшем. Работать с ним несложно: математическое ожидание суммы равно сумме мат. ожиданий - M(X+Y) = M(X) + M(Y). То же касается и произведения: M(XY) = M(X) * M(Y).

Дисперсия

Должно быть, со школьного курса физики вы помните, что дисперсия - это рассеяние. Каково её место среди основных понятий теории вероятностей?

Посмотрите на два примера. В одном случае нам дано: 10(0,2); 20(0,6); 30(0,2). В другом - 0(0,2); 20(0,6); 40(0,2). Математическое ожидание в обоих случаях будет одинаковое, как же тогда сравнивать эти ситуации? Ведь мы видим невооруженным глазом, что разброс значений во втором случае значительно больше.

Для этого и было введено понятие дисперсии. Чтобы получить её, необходимо рассчитать математическое ожидание от суммы разностей каждой случайной величины и математического ожидания. Возьмём числа из первого примера, записанного в предыдущем абзаце.

Сперва рассчитаем математическое ожидание: M(X) = 10*0,2 + 20*0,6 + 30*0,2 = 20. Тогда значение дисперсии: D(X) = 40.

Ещё одним из основных понятий статистики и теории вероятности является среднее квадратичное отклонение. Рассчитать его очень просто: нужно лишь взять корень квадратный из дисперсии.

Здесь же можно отметить такой простой термин, как размах. Это значение, обозначающее разницу между максимальным и минимальным значением в выборке.

Статистика

Некоторые базовые школьные понятия используются в науке очень часто. Двумя из них являются среднее арифметическое и медиана. Наверняка вы помните, как найти их значения. Но на всякий случай напомним: среднее арифметическое - это сумма всех значений, деленная на их количество. Если значений 10, то мы их складываем и делим на 10.

Медиана - это центральное значение в ряду всех возможных. Если мы имеем нечетное количество величин, то мы выписываем их в порядке возрастания и выбираем то, которое оказалось в середине. Если же у нас четное число значений, мы берем два центральных и делим на два.

Ещё два значения, располагающиеся между медианой и двумя крайними - максимальным и минимальным - значениями множества, именуются квартилями. Вычисляются они таким же образом - при нечетном количестве элементов берется число, располагающееся в середине ряда, а при четном - половина суммы двух центральных элементов.

Существует и специальный график, на котором можно увидеть все значения выборки, её размах, медиану, межквартальный интервал, а также выбросы - значения, не укладывающиеся в статистическую погрешность. Получающееся изображение носит весьма специфическое (и даже нематематическое) название - «ящик с усами».

Распределение

Распределение также относится к основным понятиям теории вероятности и математической статистики. Кратко говоря, оно представляет собой обобщенную информацию обо всех случайных величинах, которые мы можем увидеть в результате испытания. Главным параметром здесь будет вероятность появления каждого конкретного значения.

Нормальное распределение - это такое, которое имеет один центральный пик, в котором находится величина, встречающееся наиболее часто. От него дугами расходятся всё менее и менее вероятные исходы. В целом график со стороны похож на «горку». В дальнейшем вы узнаете, что с данным видом распределения теснейшим образом связана основополагающая для теории вероятности центральная предельная теорема. В ней описываются важные для рассматриваемого нами ответвления математики закономерности, очень полезные при разнообразных расчётах.

Но вернемся к теме. Существует ещё два вида распределений: ассиметричное и мультимодальное. Первое выглядит как половинка «нормального» графика, т. е. дуга спускается лишь в одну сторону от пиковой величины. Наконец, мультимодальное распределение - это такое, у которого существует несколько «верхних» значений. График, таким образом, то опускается, то поднимается. Наиболее частотное значение в любом распределении называется модой. Это также одно из основных понятий теории вероятностей и математической статистики.

Гауссово распределение

Гауссово, или нормальное, распределение - такое, в котором отклонение наблюдений от среднего подчиняется определенному закону.

Кратко говоря, основной разброс значений выборки экспоненциально стремится к моде - самому частотному из них. Ещё говорить точнее, то 99,6 % всех величин располагается в пределах трёх стандартных отклонений (помните, мы рассматривали это понятие выше?).

Гауссово распределение - одно из основных понятий теории вероятности. При помощи него можно понять, входит ли элемент по тем или иным параметрам в разряд «типичных» - так оценивается рост и вес человека в соответствии с возрастом, уровень интеллектуального развития, психологическое состояние и многое другое.

Как применить

Интересно, что «скучные» математические данные можно использовать с пользой для себя. Например, один молодой человек применил теорию вероятности и статистику, чтобы выиграть в рулетку несколько миллионов долларов. Правда, перед этим пришлось подготовиться - в течение нескольких месяцев записывать результаты игр в различных казино.

После проведения анализа он выяснил, что один из столов незначительно наклонен, а значит, ряд значений появляется статистически значимо чаще других. Немного расчётов, терпения - и вот владельцы заведения ломают головы, думая, как человеку может так повезти.

Есть целое множество повседневных бытовых задач, которые невозможно решить без обращения к статистике. Например, как определить, сколько магазину заказывать одежды разных размеров: S, M, L, XL? Для этого необходимо проанализировать, кто чаще покупает одежду в городе, в районе, в близлежащих магазинах. Если такую информацию не получить, владелец рискует потерять много денег.

Заключение

Мы рассмотрели целое множество основных понятий теории вероятностей: испытание, событие, перестановки и размещения, математическое ожидание и дисперсия, мода и нормальное распределение… Кроме того, мы рассмотрели ряд формул, на изучение которых в высшем учебном заведении отводится больше месяца занятий.

Не забывайте: математика необходима при изучении экономики, естественных наук, информационных технологий, инженерных специальностей. Статистику как одну из её областей здесь также нельзя обходить стороной.

Теперь дело за малым: практикуйтесь, решайте задачи и примеры. Даже основные понятия и определения теории вероятности забудутся, если не уделять время повторению. Кроме того, последующие формулы в значительной степени будут опираться на те, которые были нами рассмотрены. Поэтому постарайтесь их запомнить, тем более что их не так и много.

Многие, столкнувшись с понятием «теория вероятности», пугаются, думая, что это нечто непосильное, очень сложное. Но все на самом деле не так трагично. Сегодня мы рассмотрим основное понятие теории вероятности, научимся решать задачи на конкретных примерах.

Наука

Что же изучает такой раздел математики, как «теория вероятности»? Она отмечает закономерности и величин. Впервые данным вопросом заинтересовались ученые еще в восемнадцатом веке, когда изучали азартные игры. Основное понятие теории вероятности - событие. Это любой факт, который констатируется опытом или наблюдением. Но что же такое опыт? Еще одно основное понятие теории вероятности. Оно означает, что этот состав обстоятельств создан не случайно, а с определенной целью. Что касается наблюдения, то здесь исследователь сам не участвует в опыте, а просто является свидетелем данных событий, он никак не влияет на происходящее.

События

Мы узнали, что основное понятие теории вероятности - это событие, но не рассмотрели классификацию. Все они делятся на следующие категории:

  • Достоверные.
  • Невозможные.
  • Случайные.

Независимо от того, какие это события, за которыми наблюдают или создают в ходе опыта, все они подвержены данной классификации. Предлагаем с каждым из видов познакомиться отдельно.

Достоверное событие

Это такое обстоятельство, перед которым сделан необходимый комплекс мероприятий. Для того чтобы лучше вникнуть в суть, лучше привести несколько примеров. Этому закону подчинены и физика, и химия, и экономика, и высшая математика. Теория вероятности включает такое важное понятие, как достоверное событие. Приведем примеры:

  • Мы работаем и получаем вознаграждение в виде заработной платы.
  • Сдали хорошо экзамены, прошли конкурс, за это получаем вознаграждение в виде поступления в учебное заведение.
  • Мы вложили деньги в банк, при необходимости получим их назад.

Такие события являются достоверными. Если мы выполнили все необходимые условия, то обязательно получим ожидаемый результат.

Невозможные события

Сейчас мы рассматриваем элементы теории вероятности. Предлагаем перейти к пояснению следующего вида события, а именно - невозможного. Для начала оговорим самое важное правило - вероятность невозможного события равна нулю.

От данной формулировки нельзя отступать при решении задач. Для пояснения приведем примеры таких событий:

  • Вода замерзла при температуре плюс десять (это невозможно).
  • Отсутствие электроэнергии никак не влияет на производство (так же невозможно, как и в предыдущем примере).

Более примеров приводить не стоит, так как описанные выше очень ярко отражают суть данной категории. Невозможное событие никогда не произойдет во время опыта ни при каких обстоятельствах.

Случайные события

Изучая элементы особое внимание стоит уделить именно данному виду события. Именно их и изучает данная наука. В результате опыта может что-то произойти или нет. Кроме этого, испытание может проводиться неограниченное количество раз. Яркими примерами могут служить:

  • Бросок монеты - это опыт, или испытание, выпадение орла - это событие.
  • Вытягивание мячика из мешка вслепую - испытание, попался красный шар - это событие и так далее.

Таких примеров может быть неограниченное количество, но, в общем, суть должна быть понятна. Для обобщения и систематизирования полученных знаний о событиях приведена таблица. Теория вероятности изучает только последний вид из всех представленных.

название

определение

Достоверные

События, происходящие со стопроцентной гарантией при соблюдении некоторых условий.

Поступление в учебное заведение при хорошей сдаче вступительного экзамена.

Невозможные

События, которые никогда не произойдут ни при каких условиях.

Идет снег при температуре воздуха плюс тридцать градусов по Цельсию.

Случайные

Событие, которое может произойти или нет в ходе проведения опыта/испытания.

Попадание или промах при бросании баскетбольного мяча в кольцо.

Законы

Теория вероятности - это наука, изучающая возможность выпадения какого-либо события. Как и другие, она имеет некоторые правила. Существуют следующие законы теории вероятности:

  • Сходимость последовательностей случайных величин.
  • Закон больших чисел.

При расчете возможности сложного можно использовать комплекс простых событий для достижения результата более легким и быстрым путем. Отметим, что законы теории вероятности легко доказываются с помощью некоторых теорем. Предлагаем для начала познакомиться с первым законом.

Сходимость последовательностей случайных величин

Отметим, что видов сходимости несколько:

  • Последовательность случайных величин сходима по вероятности.
  • Почти невозможное.
  • Среднеквадратическая сходимость.
  • Сходимость по распределению.

Так, с лету, очень тяжело вникнуть в суть. Приведем определения, которые помогут разобраться в данной теме. Для начала первый вид. Последовательность называют сходимой по вероятности , если соблюдено следующее условие: n стремится к бесконечности, число, к которому стремится последовательность, больше нуля и приближена к единице.

Переходим к следующему виду, почти наверное . Говорят, что последовательность сходится почти наверное к случайной величине при n, стремящейся к бесконечности, и Р, стремящейся к величине, приближенной к единице.

Следующий тип - это сходимость среднеквадратическая . При использовании СК-сходимости изучение векторных случайных процессов сводится к изучению их координатных случайных процессов.

Остался последний тип, давайте разберем кратко и его, чтобы переходить непосредственно к решению задач. Сходимость по распределению имеет и еще одно название - «слабое», далее поясним, почему. Слабая сходимость — это сходимость функций распределения во всех точках непрерывности предельной функции распределения.

Обязательно выполним обещание: слабая сходимость отличается от всех вышеперечисленных тем, что случайная величина не определена на вероятностном пространстве. Это возможно потому, что условие формируется исключительно с использованием функций распределения.

Закон больших чисел

Отличными помощниками при доказательстве данного закона станут теоремы теории вероятности, такие как:

  • Неравенство Чебышева.
  • Теорема Чебышева.
  • Обобщенная теорема Чебышева.
  • Теорема Маркова.

Если будем рассматривать все эти теоремы, то данный вопрос может затянуться на несколько десятков листов. У нас же основная задача - это применение теории вероятности на практике. Предлагаем вам прямо сейчас этим и заняться. Но перед этим рассмотрим аксиомы теории вероятностей, они будут основными помощниками при решении задач.

Аксиомы

С первой мы уже познакомились, когда говорили о невозможном событии. Давайте вспоминать: вероятность невозможного события равна нулю. Пример мы приводили очень яркий и запоминающийся: выпал снег при температуре воздуха тридцать градусов по Цельсию.

Вторая звучит следующим образом: достоверное событие происходит с вероятностью, равной единице. Теперь покажем, как это записать с помощью математического языка: Р(В)=1.

Третья: Случайное событие может произойти или нет, но возможность всегда варьируется в пределах от нуля до единицы. Чем ближе значение к единице, тем шансов больше; если значение приближается к нулю, вероятность очень мала. Запишем это математическим языком: 0<Р(С)<1.

Рассмотрим последнюю, четвертую аксиому, которая звучит так: вероятность суммы двух событий равняется сумме их вероятностей. Записываем математическим языком: Р(А+В)=Р(А)+Р(В).

Аксиомы теории вероятностей - это простейшие правила, которые не составит труда запомнить. Попробуем решить некоторые задачи, опираясь на уже полученные знания.

Лотерейный билет

Для начала рассмотрим простейший пример - лотерея. Представьте, что вы купили один лотерейный билет на удачу. Какова вероятность, что вы выиграете не менее двадцати рублей? Всего в тираже участвует тысяча билетов, один из которых имеет приз в пятьсот рублей, десять по сто рублей, пятьдесят по двадцать рублей, а сто - по пять. Задачи по теории вероятности основаны на том, чтобы найти возможность удачи. Сейчас вместе разберем решение выше представленного задания.

Если мы буквой А обозначим выигрыш в пятьсот рублей, то вероятность выпадения А будет равняться 0,001. Как мы это получили? Просто необходимо количество "счастливых" билетов разделить на общее их число (в данном случае: 1/1000).

В - это выигрыш в сто рублей, вероятность будет равняться 0,01. Сейчас мы действовали по тому же принципу, что и в прошлом действии (10/1000)

С - выигрыш равен двадцати рублям. Находим вероятность, она равняется 0,05.

Остальные билеты нас не интересуют, так как их призовой фонд меньше заданного в условии. Применим четвертую аксиому: Вероятность выиграть не менее двадцати рублей составляет Р(А)+Р(В)+Р(С). Буквой Р обозначается вероятность происхождения данного события, мы в предыдущих действиях уже их нашли. Осталось только сложить необходимые данные, в ответе мы получаем 0,061. Это число и будет являться ответом на вопрос задания.

Карточная колода

Задачи по теории вероятности бывают и более сложными, для примера возьмем следующее задание. Перед вами колода из тридцати шести карт. Ваша задача - вытянуть две карты подряд, не перемешивая стопку, первая и вторая карты должны быть тузами, масть значения не имеет.

Для начала найдем вероятность того, что первая карта будет тузом, для этого четыре делим на тридцать шесть. Отложили его в сторону. Достаем вторую карту, это будет туз с вероятностью три тридцать пятых. Вероятность второго события зависит от того, какую карту мы вытянули первой, нам интересно, был это туз или нет. Из этого следует, что событие В зависит от события А.

Следующим действием находим вероятность одновременного осуществления, то есть перемножаем А и В. Их произведение находится следующим образом: вероятность одного события умножаем на условную вероятность другого, которую мы вычисляем, предполагая, что первое событие произошло, то есть первой картой мы вытянули туз.

Для того чтобы стало все понятно, дадим обозначение такому элементу, как события. Вычисляется она, предполагая, что событие А произошло. Рассчитывается следующим образом: Р(В/А).

Продолжим решение нашей задачи: Р(А * В)=Р(А) * Р(В/А) или Р(А * В)=Р(В) * Р(А/В). Вероятность равняется (4/36) * ((3/35)/(4/36). Вычисляем, округляя до сотых. Мы имеем: 0,11 * (0,09/0,11)=0,11 * 0,82=0,09. Вероятность того, что мы вытянем два туза подряд, равна девяти сотым. Значение очень мало, из этого следует, что и вероятность происхождения события крайне мала.

Забытый номер

Предлагаем разобрать еще несколько вариантов заданий, которые изучает теория вероятности. Примеры решения некоторых из них вы уже видели в данной статье, попробуем решить следующую задачу: мальчик забыл последнюю цифру номера телефона своего друга, но так как звонок был очень важен, то начал набирать все по очереди. Нам необходимо вычислить вероятность того, что он позвонит не более трех раз. Решение задачи простейшее, если известны правила, законы и аксиомы теории вероятности.

Перед тем как смотреть решение, попробуйте решить самостоятельно. Нам известно, что последняя цифра может быть от нуля до девяти, то есть всего десять значений. Вероятность набрать нужную составляет 1/10.

Далее нам нужно рассматривать варианты происхождения события, предположим, что мальчик угадал и сразу набрал нужную, вероятность такого события равняется 1/10. Второй вариант: первый звонок промах, а второй в цель. Рассчитаем вероятность такого события: 9/10 умножаем на 1/9, в итоге получаем также 1/10. Третий вариант: первый и второй звонок оказались не по адресу, только с третьего мальчик попал туда, куда хотел. Вычисляем вероятность такого события: 9/10 умножаем на 8/9 и на 1/8, получаем в итоге 1/10. Другие варианты по условию задачи нас не интересуют, по этому нам осталось сложить полученные результаты, в итоге мы имеем 3/10. Ответ: вероятность того, что мальчик позвонит не более трех раз, равняется 0,3.

Карточки с числами

Перед вами девять карточек, на каждой из которых написано число от одного до девяти, цифры не повторяются. Их положили в коробку и тщательно перемешали. Вам необходимо рассчитать вероятность того, что

  • выпадет четное число;
  • двухзначное.

Перед тем как переходить к решению, оговорим, что m - это число удачных случаев, а n - это общее количество вариантов. Найдем вероятность того, что число будет четным. Не составит труда посчитать, что четных чисел четыре, это и будет наша m, всего возможно девять вариантов, то есть m=9. Тогда вероятность равняется 0,44 или 4/9.

Рассматриваем второй случай: количество вариантов девять, а удачных исходов быть вообще не может, то есть m равняется нулю. Вероятность того, что вытянутая карточка будет содержать двухзначное число, так же равняется нулю.

для студентов 2 курса всех специальностей

Кафедра Высшей математики

Вводная часть

Уважаемые студенты!

Вашему вниманию предлагается обзорная (установочная) лекция профессора Н.Ш.Кремера по дисциплине «Теория вероятностей и математическая статистика» для студентов второго курса ВЗФЭИ.

В лекции обсуждаются задачи изучения теории вероятностей и математической статистики в экономическом вузе и ее место в системе подготовки современного экономиста, рассматривается организация самостоятельной работы студентов с использованием компьютерной обучающей системы (КОПР) и традиционных учебников, даются обзор основных положений данного курса, а также методические рекомендации по ее изучению.

Среди математических дисциплин, изучаемых в экономическом вузе, теория вероятностей и математическая статистика занимает особое положение. Во-первых, она является теоретической базой статистических дисциплин. Во-вторых, методы теории вероятностей и математической статистики непосредственно используются при изучении массовых совокупностей наблюдаемых явлений, обработке результатов наблюдений и выявлении закономерностей случайных явлений. Наконец, теория вероятностей и математическая статистика имеет важное методологическое значение в познавательном процессе , при выявлении общей закономерности исследуемых процессов, служит логической основой индуктивно-дедуктивного умозаключения.

Каждый студент второго курса должен иметь следующий набор (кейс) по дисциплине «Теория вероятностей и математическая статистика»:

1. Обзорную установочную лекцию по данной дисциплине.

2. Учебник Н.Ш. Кремера «Теория вероятностей и математическая статистика» – М.: ЮНИТИ – ДАНА, 2007 (в дальнейшем будем называть просто «учебник»).

3. Учебно-методическое пособие «Теория вероятностей и математическая статистика»/ под ред. Н.Ш. Кремера. – М.: Вузовский учебник, 2005 (в дальнейшем «пособие»).

4. Компьютерную обучающую программу КОПР по дисциплине (в дальнейшем – «компьютерная программа»).

На сайте института на странице «Корпоративные ресурсы» размещены интернет-версии компьютерной программы КОПР2, обзорной установочной лекции и электронной версии пособия. Кроме того, компьютерная программа и пособие представлены на CD - ROM ах для студентов второго курса. Поэтому в «бумажном виде» студенту необходимо иметь лишь учебник.

Поясним назначение каждого из учебно-методических материалов, входящий в указанный набор (кейс).

В учебнике изложены основные положения учебного материала дисциплины, иллюстрируемые достаточно большим числом решенных задач.

В пособии даны методические рекомендации по самостоятельному изучению учебного материала, выделены наиболее важные понятия курса и типовые задачи, даны контрольные вопросы для самопроверки по данной дисциплине, приведены варианты домашних контрольных работ, которые должен выполнить студент, а также методические указания по их выполнению.

Компьютерная программа призвана оказать Вам максимальную помощь в усвоении курса в режиме диалога программы со студентом с тем, чтобы в наибольшей степени восполнить отсутствие у Вас аудиторных занятий, соответствующего контакта с преподавателем.

Для студента, обучающегося по системе дистанционного обучения, первостепенное, определяющее значение имеет организация самостоятельной работы.

Приступая к изучению данной дисциплины, прочтитедо конца настоящую обзорную (установочную) лекцию. Это позволит Вам получить в целом представление об основных понятиях и методах, используемых в курсе «Теория вероятностей и математическая статистика», и требованиях, предъявляемых к уровню подготовки студентов ВЗФЭИ.

Перед изучением каждой темы ознакомьтесь с методическими рекомендациями к изучению данной темы по пособию. Здесь Вы найдете перечень учебных вопросов данной темы, которые Вам предстоит изучить; выясните, какие понятия, определения, теоремы, задачи являются наиболее важными, которые надо изучить и освоить в первую очередь.

Затем перейдите к изучению основного учебного материала по учебнику в соответствии с полученными методическими рекомендациями. Советуем конспектировать в отдельной тетради основные определения, формулировки теорем, схемы их доказательств, формулы и решения типовых задач. Формулы целесообразно выписывать в специальные таблицы для каждой части курса: теория вероятностей и математическая статистика. Регулярное пользование конспектом, в частности, таблицами формул, способствует их запоминанию.

Лишь после проработки основного учебного материала каждой темы по учебнику можно перейти к изучению этой темы с помощью компьютерной обучающей программы (КОПР2).

Обратите внимание на структуру построения компьютерной программы по каждой теме. После названия темы приводится перечень основных учебных вопросов темы по учебнику с указанием номеров параграфов и страниц, которые необходимо изучить. (Напомним, что перечень этих вопросов по каждой теме приведен также и в пособии).

Затем в краткой форме дается справочный материал по данной теме (или по отдельным параграфам этой темы) – основные определения, теоремы, свойства и признаки, формулы и т.п. В процессе изучения темы Вы также можете вызвать на экран те фрагменты справочного материала (по данной или предыдущим темам), которые необходимы в данный момент.

Затем Вам предлагается учебный материал и обязательно типовые задачи (примеры), решение которых рассматривается в режиме диалога программы со студентом. Функции ряда примеров ограничиваются выводом на экран по запросу обучаемого этапов правильного решения. Вместе с тем в процессе рассмотрения большинства примеров Вам будут задаваться вопросы того или иного характера. В качестве ответов на одни вопросы следует вводить с клавиатуры числовой ответ, на другие – выбирать правильный ответ (или ответы) из нескольких предложенных.

В зависимости от введенного Вами ответа программа подтверждает его правильность или предлагает, ознакомившись с подсказкой, содержащей необходимые теоретические положения, вновь попытаться дать правильные решение и ответ. Во многих заданиях установлено ограничение на количество попыток решения (при превышении этого ограничения на экран обязательно выводится правильный ход решения). Имеются и такие примеры, в которых количество информации, содержащееся в подсказке, возрастает по мере повторения неудачных попыток ответа.

После ознакомления с теоретическими положениями учебного материала и примерами, которые снабжены подробным разбором решения, Вы должны выполнить упражнения для самоконтроля, чтобы закрепить навыки решения типовых задач по каждой теме. Задания для самоконтроля также содержат элементы диалога со студентом. По завершению решения Вы можете ознакомиться с правильным ответом и сравнить его с тем, который Вы дали.

В завершение работы по каждой теме следует выполнить контрольные задания. Правильные ответы на них Вам не выводятся, а Ваши ответы записываются на жесткий диск компьютера для последующего ознакомления с ними преподавателя-консультанта (тьютора).

После изучения тем 1–7 Вы должны выполнить домашнюю контрольную работу № 3, а после изучения тем 8–11 – домашнюю контрольную работу № 4. Варианты указанных контрольных работ приведены в пособии (его электронной версии). Номер выполняемого варианта должен совпадать с последней цифрой номера Вашего личного дела (зачетной книжки, студенческого билета). По каждой контрольной работе Вы должны проходить собеседование, на котором необходимо показать умение решать задачи и знание основных понятий (определений, теорем (без доказательства), формул и т.п.) по теме контрольной работы. Завершается изучение дисциплины курсовым экзаменом.

Теория вероятностей – математическая наука, изучающая закономерности случайных явлений.

Предлагаемая для изучения дисциплина состоит из двух разделов «Теория вероятностей» и «Математическая статистика».

В продолжение темы:
Ленточный фундамент

Спагетти с соусом из рыбной консервы — этот недорогой рецепт мы увидели на пачке купленных нами спагетти. Рецепт показался нам очень простым, ну и мы решили попробовать...

Новые статьи
/
Популярные