Законы определения вероятности

Учебник по теории вероятностей

1.4. Сложение и умножение вероятностей

Событие А называется частным случаем события В, если при наступлении А наступает и В. То, что А является частным случаем В, записываем .

События А и В называются равными, если каждое из них является частным случаем другого. Равенство событий А и В записываем А = В.

Суммой событий А и В называется событие А + В, которое наступает тогда и только тогда, когда наступает хотя бы одно из событий: А или В.

Теорема о сложении вероятностей. Вероятность появления одного из двух несовместных событий равна сумме вероятностей этих событий.

Заметим, что сформулированная теорема справедлива для любого числа несовместных событий:

.

Если случайные события образуют полную группу несовместных событий, то имеет место равенство

.

Произведением событий А и В называется событие АВ, которое наступает тогда и только тогда, когда наступают оба события: А и В одновременно. Случайные события А и B называются совместными, если при данном испытании могут произойти оба эти события.

Теорема о сложении вероятностей 2. Вероятность суммы совместных событий вычисляется по формуле

.

События событий А и В называются независимыми, если появление одного из них не меняет вероятности появления другого. Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В или нет.

Теорема об умножении вероятностей. Вероятность произведения независимых событий А и В вычисляется по формуле:

.

Вероятность произведения зависимых событий вычисляется по формуле условной вероятности (см. следующий раздел).

Пример. В первом ящике 1 белый и 5 черных шаров, во втором 8 белых и 4 черных шара. Из каждого ящика вынули по шару. Найти вероятность того, что один из вынутых шаров белый, а другой – черный.

Решение. Обозначим события: А – вынули белый шар из первого ящика,
;

— вынули черный шар из первого ящика,
;

В – белый шар из второго ящика,
;

— черный шар из второго ящика,
.

Нам нужно, чтобы произошло одно из событий или . По теореме об умножении вероятностей
, .
Тогда искомая вероятность по теореме сложения будет
.

Пример. Вероятность попадания в цель у первого стрелка 0,8, у второго – 0,9. Стрелки делают по выстрелу. Найти вероятность: а) двойного попадания; б) двойного промаха, в) хотя бы одного попадания; г) одного попадания.

Пусть А – попадание первого стрелка, ;

В – попадание второго стрелка, .

Тогда — промах первого, ;

— промах второго, .

Найдем нужные вероятности.

а) АВ – двойное попадание,

б) – двойной промах, .

в) А+В – хотя бы одно попадание,

.

г) – одно попадание,

.

Пример. Студент разыскивает нужную ему формулу в трех справочниках. Вероятности того, что формула содержится в первом, втором и третьем справочниках равны 0,6; 0,7 и 0,8. Найти вероятности того, что формула содержится 1) только в одном справочнике; 2) только в двух справочниках; 3) во всех трех справочниках.

А – формула содержится в первом справочнике;

В – формула содержится во втором справочнике;

С – формула содержится в третьем справочнике.

Воспользуемся теоремами сложения и умножения вероятностей.

1.

2. .

3.

Пусть в результате испытания могут появиться n событий, независимых в совокупности, либо некоторые из них (в частности, только одно или ни одного), причем вероятности появления каждого из событий известны. Как найти вероятность того, что наступит хотя бы одно из этих событий? Например, если в результате испытания могут появиться три события, то появление хотя бы одного из этих событий означает наступление либо одного, либо двух, либо трех событий. Ответ на поставленный вопрос дает следующая теорема.

Теорема. Вероятность появления хотя бы одного из событий , независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий

Если события имеют одинаковую вероятность , то формула принимает простой вид:

.

Пример. Вероятности попадания в цель при стрельбе из трех орудий таковы: p1 = 0,8; p2 = 0,7; p3 = 0,9. Найти вероятность хотя бы одного попадания (событие А) при одном залпе из всех орудий.

Решение. Вероятность попадания в цель каждым из орудий не зависит от результатов стрельбы из других орудий, поэтому рассматриваемые события (попадание первого орудия), (попадание второго орудия) и (попадание третьего орудия) независимы в совокупности.

Вероятности событий, противоположных событиям , и (т. е. вероятности промахов), соответственно равны:

, ,

Искомая вероятность .

Пример. В типографии имеется 4 плоскопечатных машины. Для каждой машины вероятность того, что она работает в данный момент, равна 0,9. Найти вероятность того, что в данный момент работает хотя бы одна машина (событие А).

Решение. События «машина работает» и «машина не работает» (в данный момент) — противоположные, поэтому сумма их вероятностей равна единице:

Отсюда вероятность того, что машина в данный момент не работает, равна

Искомая вероятность

Так как полученная вероятность весьма близка к единице, то на основании следствия из принципа практической невозможности маловероятных событий мы вправе заключить, что в данный момент работает хотя бы одна из машин.

Пример. Вероятность того, что при одном выстреле стрелок попадает в цель, равна 0,4. Сколько выстрелов должен произвести стрелок, чтобы с вероятностью не менее 0,9 он попал в цель хотя бы один раз?

Решение. Обозначим через А событие «при n выстрелах стрелок попадает в цель хотя бы один раз». События, состоящие в попадании в цель при первом, втором выстрелах и т. д., независимы в совокупности, поэтому применима формула .

Приняв во внимание, что, по условию, (следовательно, ), получим

Прологарифмируем это неравенство по основанию 10:

Итак, , т.е. стрелок должен произвести не менее 5 выстрелов.

www.matburo.ru

Законы определения вероятности

1. Случайная величина (СВ) и вероятность события.

2. Закон распределения СВ.

3. Биномиальное распределение (распределение Бернулли).

4. Распределение Пуассона.

5. Нормальное (гауссовское) распределение.

6. Равномерное распределение.

7. Распределение Стьюдента.

2.1 Случайная величина и вероятность события

Математическая статистика тесно связана с другой математической наукой – теорией вероятности и базируется на ее математическом аппарате.

Теория вероятности – это наука, которая изучает закономерности, порожденные случайными событиями.

Педагогические явления относятся к числу массовых: они охватывают большие совокупности людей, повторяются из года в год, совершаются непрерывно. Показатели (параметры, результаты) педагогического процесса имеют вероятностный характер: одно и то же педагогическое воздействие может приводить к различным следствиям (случайные события, случайным величинам). Тем не менее, при многократном воспроизведении условий определенные следствия появляются чаще других, — это и есть проявление так называемых статистических закономерностей (изучением которых занимаются теория вероятностей и математическая статистика).

Случайная величина (СВ) – это численная характеристика, измеряемая по ходу опыта и зависящая от случайного исхода. СВ реализуемая по ходу опыта и сама является случайной. Каждая СВ задает распределение вероятностей.

Основным свойством педагогических процессов, явлений служит их вероятностный характер (при данных условиях они могут произойти, реализоваться, но могут и не произойти). Для таких явлений существенную роль играет понятие вероятности.

Вероятность (Р) показывает степень возможности осуществления данного события, явления, результата. Вероятность невозможного события равна нулю p = 0, достоверного — единице p = 1 (100%). Вероятность любого события лежит в пределах от 0 до 1, в зависимости от того, насколько это событие случайно.

Если мы интересуемся событием A, то, скорее всего, можем наблюдать, фиксировать факты его появления. Потребность в понятии вероятности и ее вычисления возникнет, очевидно, только тогда, когда мы наблюдаем это событие не каждый раз, либо осознаем, что оно может произойти, а может не произойти. И в том и другом случае полезно использовать понятие частоты появления события f(A) — как отношения числа случаев его появления (благоприятных исходов) к общему числу наблюдений. Частота наступления случайного события зависит не только от степени случайности самого события, но и от числа (количества) наблюдений за этой СВ.

Существует два вида выборок СВ: зависимые и независимые. Если результаты измерения некоторого свойства у объектов первой выборки не оказывают влияния на результаты измерения этого свойства у объектов второй выборки, то такие выборки считаются независимыми. В тех случаях, когда результаты одной выборки влияют на результаты другой выборки, выборки считают зависимыми. Классический способ получения зависимых измерений – это двукратное измерение одного и того же свойства (или разных свойств) у членов одной и той же группы.

Событие А не зависит от события В, если вероятность события А не зависит от того произошло или нет событие В. События А и В независимы, если Р(АВ)=Р(А)Р(В). На практике независимость события устанавливается из условий опыта, интуиции исследователя и практики.

СВ бывает дискретной (мы можем пронумеровать ее возможные значения), например, выпадение игральной кости = 4, 6, 2, и непрерывной (ее функция распределения F(x) – непрерывна), например, время службы лампочки.

Математическое ожидание – числовая характеристика СВ, приближенно равная среднему значению СВ:

2.2 Закон распределения СВ

Подчиняются ли каким-либо законам явления, носящие случайный характер? Да, но эти законы отличаются от привычных нам физических законов. Значения СВ невозможно предугадать даже при известных условиях эксперимента, мы можем лишь указать вероятности того, что СВ примет то или иное значение. Зато зная распределение вероятностей СВ, мы можем делать выводы о событиях, в которых участвуют эти случайные величины. Правда, эти выводы будут также носить вероятностный характер.

Пусть некоторая СВ является дискретной, т.е. может принимать лишь фиксированные значения Xi. В этом случае ряд значений вероятностей P(Xi) для всех (i=1…n) допустимых значений этой величины называют её законом распределения.

Закон распределения СВ — это отношение, устанавливающее связь между возможными значениями СВ и вероятностями, с которыми принимаются эти значения. Закон распределения полностью характеризует СВ.

При построении математической модели для проверки статистической гипотезы необходимо ввести математическое предположение о законе распределения СВ (параметрический путь построения модели).

Непараметрический подход к описанию математической модели (СВ не имеет параметрического закона распределения) менее точен, но имеет более широкую область применения.

Точно также, как и для вероятности случайного события, для закона распределения СВ есть только два пути его отыскания. Либо мы строим схему случайного события и находим аналитическое выражение (формулу) вычисления вероятности (возможно, кто–то уже сделал или сделает это до вас!), либо придется использовать эксперимент и по частотам наблюдений делать какие–то предположения (выдвигать гипотезы) о законе распределения.

Конечно же, для каждого из «классических» распределений уже давно эта работа проделана ­– широко известными и очень часто используемыми в прикладной статистике являются биномиальное и полиномиальное распределения, геометрическое и гипергеометрическое, распределение Паскаля и Пуассона и многие другие.

Для почти всех классических распределений немедленно строились и публиковались специальные статистические таблицы, уточняемые по мере увеличения точности расчетов. Без использования многих томов этих таблиц, без обучения правилам пользования ими последние два столетия практическое использование статистики было невозможно.

Сегодня положение изменилось – нет нужды хранить данные расчетов по формулам (как бы последние не были сложны!), время на использование закона распределения для практики сведено к минутам, а то и секундам. Уже сейчас существует достаточное количество разнообразных пакетов прикладных компьютерных программ для этих целей.

Среди всех вероятностных распределений есть такие, которые используются на практике особенно часто. Эти распределения детально изучены и свойства их хорошо известны. Многие из этих распределений лежат в основе целых областей знаний – таких, как теория массового обслуживания, теория надежности, контроль качества, теория игр и т.п.

2.3 Биномиальное распределение (распределение Бернулли)

Возникает в тех случаях, когда ставится вопрос: сколько раз происходит некоторое событие в серии из определенного числа независимых наблюдений (опытов), выполняемых в одинаковых условиях.

Для удобства и наглядности будем полагать, что нам известна величина p – вероятность того, что вошедший в магазин посетитель окажется покупателем и (1– p) = q – вероятность того, что вошедший в магазин посетитель не окажется покупателем.

Если X – число покупателей из общего числа n посетителей, то вероятность того, что среди n посетителей оказалось k покупателей равна

Формулу (1) называют формулой Бернулли. При большом числе испытаний биномиальное распределение стремиться к нормальному.

2.4 Распределение Пуассона

Играет важную роль в ряде вопросов физики, теории связи, теории надежности, теории массового обслуживания и т.д. Всюду, где в течение определенного времени может происходить случайное число каких-то событий (радиоактивных распадов, телефонных вызовов, отказов оборудования, несчастный случаях и т.п.).

Рассмотрим наиболее типичную ситуацию, в которой возникает распределение Пуассона. Пусть некоторые события (покупки в магазине) могут происходить в случайные моменты времени. Определим число появлений таких событий в промежутке времени от 0 до Т.

Случайное число событий, происшедших за время от 0 до Т, распределено по закону Пуассона с параметром l=аТ, где а>0 – параметр задачи, отражающий среднюю частоту событий. Вероятность k покупок в течение большого интервала времени, (например, – дня) составит

2.5 Нормальное (гауссовское) распределение

Нормальное (гауссовское) распределение занимает центральное место в теории и практике вероятностно-статистических исследований. В качестве непрерывной аппроксимации к биномиальному распределению его впервые рассматривал А.Муавр в 1733 г. Через некоторое время нор­мальное распределение снова открыли и изучили К.Гаусс (1809 г.) и П.Лаплас, которые пришли к нормальной функции в связи с ра­ботой по теории ошибок наблюдений.

Непрерывная случайная величина Х называется распределенной по нормальному закону, если ее плотность распределения равна

Значит, эта ордината убывает с возрастанием значения s (кривая «сжимается» к оси Ох) и возрастает с убыванием значения s (кривая «растягивается» в положительном направлении оси Оу). Изменение значений параметра

Нормальное распределение с параметрами

Для μ=0, σ=1 график принимает вид:

Эта кривая при μ=0, σ=1 получила статус стандарта, ее называют единичной нормальной кривой, то есть любые собранные данные стремятся преобразовать так, чтобы кривая их распределения была максимально близка к этой стандартной кривой.

Нормализованную кривую изобрели для решения задач теории вероятности, но оказалось на практике, что она отлично аппроксимирует распределение частот при большом числе наблюдений для множества переменных. Можно предположить, что не имея материальных ограничений на количество объектов и время проведения эксперимента, статистическое исследование приводится к нормально кривой.

2.6 Равномерное распределение

Равномерное распределение вероятностей является простейшим и может быть как дискретным, так и непрерывным. Дискретное равномерное распределение – это такое распределение, для которого вероятность каждого из значений СВ одна и та же, то есть:

где N – количество возможных значений СВ.

Распределение вероятностей непрерывной CВ Х, принимающие все свои значения из отрезка [а;b] называется равномерным, если ее плотность вероятности на этом отрезке постоянна, а вне его равна нулю:

2.7 Распределение Стьюдента

Это распределение связано с нормальным. Если СВ x1, x2, … xn – независимы, и каждая из них имеет стандартное нормальное распределение N(0,1), то СВ имеет распределение, называемое распределением Стьюдента:

sites.google.com

Одно из ограничений науки состоит в том, что она, по самой своей сути, имеет дело не с абсолютными доказательствами, а с вероятностью. В широко используемом учебнике по биологии Джордж Гейлорд Симпсон, один из его авторов, предупреждал студентов об этом факте, когда сказал:

Мы говорим о «принятом значении», «уверенности» и «вероятности», а не «доказательстве». Если под доказательством понимать установление вечной и абсолютной истины, неподверженной никаким возможным исключениям или изменениям, тогда доказательство не имеет места в естественных науках. С другой стороны, доказательство в естественной науке, как, например, в биологии, должно определяться как достижение высокой степени уверенности (1965, с. 16).

Несомненно, все ученые-практики согласятся с доктором Симпеоном. Наука по причине своей зависимости от индуктивного метода не может представить абсолютного доказательства. В течение многих лет исследователи успешно устанавливали то, что теперь известно как «законы вероятности». Основываясь на работах таких людей, как Блез Паскаль, знаменитый французский математик и ученый, другие выводили принципы, которые используются сегодня ежедневно практически во всех научных дисциплинах. Георгий Гамов был одним из них (1961). Также в их числе был Эмиль Борел. Доктор Борел, один из самых выдающихся специалистов мира по математической вероятности, сформулировал то, что ученые, так же как и математики, называют основным «законом вероятности», который мы рассмотрим в данной главе.

Однако, в начале любой дискуссии о вероятности возникают два вопроса. Во-первых, имеют ли вероятности какое-либо практическое значение? Во-вторых, полезны ли вероятности в полемике по поводу сотворения или эволюции? «Да,» — говорит Джеймс Коппедж, бывший руководитель исследования вероятностей, который прокомментировал, почему такое изучение имеет практическую сущность.

Вероятность это практическая концепция. Неопределенность и неуверенность оказывают влияние на наши жизни. Насколько вероятно то, что в день, на который вы запланировали поездку за город, пойдет дождь? Каковы шансы того, что ваш самолет окажется захваченным террористами? Возможно ли, что ваша машина не потребует значительного ремонта, если вы отложите покупку новой на шесть месяцев? Сколько потребуется наличных, чтобы взять с собой в планируемую зарубежную поездку? Какова вероятность того, что вы сдадите школьный экзамен без дополнительной подготовки? (1973, с. 39).

Доктор Коппедж сходным образом объяснил, что изучение вероятностей полезно в таких делах, как исчисление страховых сборов, анализирование принципов и/или цен на рынке ценных бумаг и других, которые представляют интерес для обычного человека. Более того, пользуясь словами Р.Л. Уайсонга, законы вероятности «подтверждены и заслуживают доверия. Наука в целом и ежедневная практическая жизнь основываются на вероятных событиях и том, что может быть» (1976, с. 81). Действительно, вне зависимости от того, понимают это люди или нет, на нашу повседневную жизнь оказывает влияние такое математическое исследование, иногда таким образом, что мы даже не знаем или не понимаем этого.

Но связаны ли проблемы вероятности с полемикой по поводу сотворения или эволюции? Да, это так. Хэрольд Моровитц, бывший преподаватель биофизики в Йельском университете, а в нынешнее время в Университете Джорджа Мейсона в Ферфаксе, Вирджиния, сказал, что:

Зачастую процесс оказывается таким сложным, или мы настолько плохо знаем ограничивающие его условия или законы, управляющие этим процессом, что мы можем предсказать результат этого процесса только при помощи статистики. . Случайность, в некотором смысле, это следствие незнания наблюдателя, тем не менее, сама случайность проявляет определенные признаки, которые превратились в мощные инструменты в изучении поведения систем атомов (1970, с. 64:45).

И, как утверждал Коппедж:

Эволюция это идеальный предмет, к которому можно применять законы случайности. Как было определено выше, эволюционное учение отрицает предварительный замысел и утверждает, что основной причинный источник это беспорядочный принцип «материи в движении». «Случайные мутации» представляют изменчивость, на которой в основном базируется нынешнее эволюционное мышление в Америке (1973, с. 44-45).

Таким образом, так как изучение вероятностей имеет дело со случайностью, и так как эволюция в целом основывается на концепции случайности, то кажется, что законы вероятности смогут пролить некоторый свет на вероятность возникновения эволюции, вот почему доктор Коппедж отметил: «Центральный вопрос, которым мы займемся, состоит в следующем: позволяют ли законы случайности рассматривать эволюцию как вполне возможную вероятность?» (с. 45).

Есть два важных вопроса, которые необходимо рассмотреть в этой главе, посвященной статистической вероятности. Во-первых, является ли вообще происхождение жизни посредством эволюционных механизмов статистически возможным (в соответствии с принятым использованием законов вероятности). Во-вторых, являются ли подобные сценарии логически возможными. Важно признать, что любое логически невозможное событие по определению является вероятностно невозможным. Следовательно, во-первых, мы обратим внимание на вопрос о том, является ли происхождение жизни (в том виде, в котором его постулируют эволюционисты) статистически возможным, в соответствии с принятыми нормами, установленными законами вероятности.

Закон вероятности Борела утверждает, что событие, у которого шансы осуществиться не превышают одного к одному с пятидесятые нулями, это такое событие, о котором мы можем сказать с уверенностью, что оно никогда не произойдет, вне зависимости от того, сколько времени ему отпущено и сколько мыслимых возможностей существуют для его осуществления (1962, главы 1 и 3; см. также 1965, с. 62). Доктор Борел, известный как математик-практик, отметил, что «принципы, на которых основывается исчисление вероятностей, чрезвычайно просты и так же интуитивны, как размышления, ведущие бухгалтера через его вычисления» (1962, с. 1). Хотя с этим не сразу согласятся нематематики, тем не менее, нам интересны принципы, заложенные здесь. И у нас есть хорошие основания. Кинг и Рид в своей замечательной работе «Дорога к вероятности» утверждали:

Мы склонны согласиться с П.С. Лапласом, сказавшим: «Мы видим . что теория вероятности это, по сути дела, всего-навсего здравый смысл, низведенный до уровня вычислений; это заставляет нас в точности оценить то, что разумное сознание чувствует как бы инстинктивно, зачастую даже будучи неспособным объяснить это» (1963, с. 130).

Имея это в виду, интересно отметить из научной литературы некоторые оценки вероятности возникновения жизни посредством только механистических процессов. Например, доктор Моровитц подсчитал, что вероятность случайного возникновения самой маленькой, простейшей формы известного живого организма это шанс 1×10 340000000 [то есть, один шанс из 1 с 340 000 000 нулей] (1968, с. 99). Размер этой цифры просто поражает, так как считается, что во всей Вселенной содержится только приблизительно 10 80 электронов!

Карл Саган вычислил, что шанс возникновения жизни на одной любой данной планете, такой как Земля, равняется 1х10 2000000000 [то есть, один шанс из 1 с двумя миллиардами нулей] (1973, с. 46). Это число так огромно, что потребовалось бы 6000 книг по 300 страниц каждая, чтобы только записать это число! Такое большое число настолько превосходит единицу с 50 нулями (верхний предел Борела для того, чтобы событие могло произойти), что это попросту устрашает. Следовательно, в соответствии с законом вероятности Борела, нет абсолютно никакого шанса, что жизнь на Земле могла «зародиться самопроизвольно».

Давайте далее рассмотрим следующие факты (по книге Морриса и Паркера, 1982, с. 236-239). Если предположить, что Вселенная в радиусе составляет 5 миллиардов световых лет, и предположить, что она наполнена крошечными частицами размером с электрон, было подсчитано, что во Вселенной могут существовать приблизительно 10 130 частиц. Каждая структура, каждый процесс, каждая система, каждое «событие» во Вселенной должно состоять из этих частиц в различных комбинациях и взаимодействиях. Если очень щедро предположить, что каждая частица может принять участие в 10 20 (то есть, в ста квинтиллионах) событий каждую секунду, а затем предоставить 10 20 секунд космической истории (это соответствовало бы 3 000 миллиардам лет или в 100-200 раз больше, чем современная оценка возраста Вселенной), то самое большое мыслимое количество отдельных событий, которые могли бы иметь место во всем космосе и времени, равнялось бы:

Почему именно так? Пусть объяснит доктор Гамов: «Здесь мы имеем правило «умножения вероятностей», которое утверждает, что, если вы хотите несколько различных вещей, вы можете определить математическую вероятность их получения посредством умножения математических вероятностей получения каждой отдельной вещи» (1961, с. 208). Или, как утверждал Адлер: «Разбейте эксперимент на последовательность маленьких шагов. Подсчитайте количество возможных результатов каждого шага. Затем перемножьте эти числа» (1963, с. 58-59). Для того чтобы появилась жизнь, одно из этих событий (или их некая комбинация) должно свести определенное количество этих частиц вместе в системе с достаточным порядком (или сохраненной информацией), чтобы она смогла сделать копию самой себя (воспроизвестись). И эта система должна появиться по чистой случайности.

Однако, проблема в том, что любая живая клетка или любой новый орган, который должен быть добавлен к любому существующему животному, — даже самая простая репликационная система, которую только можно представить, — должен был бы содержать гораздо больше сохраненной информации, чем представленное даже таким гигантским числом, как 10 170 . По сути дела, Марсель Э. Голе, ведущий ученый в области теории информации, подсчитал вероятность того, что такая система могла создать саму себя, и она равна 1 к 10 450 (1961, с. 23). Фрэнк Сэлисбери установил число 1 к 10 415 (1969, 1971). Если принять число доктора Голе, то шансы любого случайного упорядочения частиц в репликационную систему составляют по меньшей мере 1 к 10 450 . Это истинно даже в том случае, если это растянуть во времени и в виде целого ряда связанных событий. Голе получил это число на предположении о том, что это было достигнуто серией из 1 500 последовательных событий, причем каждое из них имеет довольно высокую степень вероятности 1⁄2 (обратите внимание, что 2 1500 =10 450 ). Вероятность этого была бы еще меньше, если бы это произошло в одном случайном событии! Следовательно, было бы справедливо прийти к выводу, что вероятность того, что самая простая репликационная система, которую только можно представить, произошла только однажды за все время во Вселенной благодаря случаю, равняется:

Когда вероятность того, что любое событие может произойти, меньше, чем одно из числа событий, которые вообще могли бы произойти, — то есть, как рассматривалось выше, меньше, чем 1/170, — то вероятность этого события считается математиками равной нулю. Следовательно, можно сделать вывод, что шансы происхождения жизни абсолютно невозможны. Почему так? Гамов, использовав в качестве примера простое подбрасывание монеты, объяснил причину истинности этого принципа.

Таким образом, если при 2, 3 или даже 4 подбрасываниях шансы выпадения только орла или только решки все еще заметны, то в 10 подбрасываниях даже 90 процентов орлов или решек слишком невероятны. Для еще большего количества подбрасываний, скажем, 100 или 1000, кривая вероятности становится острой, как игла, и возможность получения даже небольшого отклонения от равного распределения практически становится равной нулю (1961, с. 209).

Коппедж, комментируя это высказывание Гамова, отметил, что:

Теория вероятности применима в основном к длительным периодам. Если вы подбросите монету всего лишь несколько раз, то результаты могут значительно отличаться от усредненных. Однако, если вы продолжите эксперимент, он выровняется до почти абсолютной предсказуемости. Это называется «законом больших чисел». Длительный эксперимент служит для усреднения колебаний, которые вы можете получить в короткой серии опытов. Эти отклонения поглощаются средним числом, полученным в ходе длительных наблюдений. Когда речь идет о большом количестве попыток, то можно вполне положиться на закон средних чисел. Это правило, названное однажды «законом больших чисел», имеет центральное значение в этой области вероятности. Кстати, в широко распространенном смысле, теория вероятности, законы случайности и наука вероятности могут считаться просто различными выражениями одного общего предмета (1973, с. 47-48).

Генри Моррис в написанной им главе книги «Что такое наука сотворения?» говорит:

Иногда выдвигается возражение, что, даже если вероятность живой системы равна 10 -280 , любая другая особая комбинация частиц могла бы также иметь схожую вероятность, так что одна также вероятна, как и другая. Могут даже быть другие комбинации, отличные от тех, с которыми мы знакомы на земле, которые также могли бы оказаться живыми. Такие утверждения упускают из виду тот факт, что в любой группе частиц есть гораздо больше бессмысленных комбинаций, чем упорядоченных комбинаций. Например, если в системе есть четыре компонента, соединенных линейно, только у двух (1-2-3-4, 4-3-2-1) из 24 возможных комбинаций есть порядок, действительно имеющий смысл. Это соотношение быстро уменьшается при увеличении количества компонентов. Чем сложнее и упорядоченнее система, тем она уникальнее среди своих возможных соперников. Следовательно, это возражение лишено оснований. В примере, процитированном выше, смысл имела бы только одна комбинация. И будет 10 280 комбинаций, которые не имели бы смысла (1987, с. 272-273, выделено мной — Б.Т.).

Другие авторы подчеркивали эту же мысль. Например, Уай-сонг приходит к выводу:

В стремлении определить, будут ли получены желаемые результаты, всегда принимайте во внимание то, что дроби, используемые в вычислении вероятности, имеют две стороны. Одна говорит вам о возможности того, что что-то произойдет, а другая — то, что это же событие не произойдет; то есть, если шансы того, что определенное событие произойдет, равны 1 к 10 (10%), то, подобным образом, шансы того, что оно не произойдет, составляют 9 к 10 (90%). Кто может разумно полагать, что монета упадет орлом вверх сто раз подряд, когда шансы этого составляют:

www.scienceandapologetics.org