Байесова теорема: определение, формула и приложения в условната вероятност

Открийте Байесовата теорема: ясно обяснение, формула и практични приложения в условната вероятност за надежден анализ на хипотези и данни.

Автор: Leandro Alegsa

В теорията на вероятностите и приложенията теоремата на Бейс показва връзката между условна вероятност и нейната обратна форма. Например, вероятността за дадена хипотеза при някои наблюдавани доказателства и вероятността за тези доказателства при хипотезата. Тази теорема е кръстена на Томас Бейс (/ˈbeɪz/ или "Бейс") и често се нарича закон на Бейс или правило на Бейс.

Какво представлява Байесовата теорема

Байесовата теорема дава формула за изчисляване на условната вероятност P(A|B) — вероятността от събитие A, ако е известно, че е станало събитие B. В основна форма тя се записва така:

P(A|B) = P(B|A) · P(A) / P(B)

Тук:

  • P(A) е предварителната (априорната) вероятност за A — какво знаем за A преди да видим доказателствата B.
  • P(B|A) е вероятността за наблюдаваното доказателство B при условие, че A е вярно (наричана още вероятност на доказателството или likelihood).
  • P(B) е общата (маргинална) вероятност за B — сумата от вероятностите за B при всички възможни причини.
  • P(A|B) е постериорната (следна) вероятност за A при наличието на B — това, което искаме да определим.

Деривация (интуиция)

От дефиницията на условната вероятност: P(A∩B) = P(A|B)P(B) и също P(A∩B) = P(B|A)P(A). Приравняваме двата израза и разделяме на P(B), за да получим горната формула. Така Байесовата теорема просто извежда P(A|B) от познати P(B|A), P(A) и P(B).

Обобщение за множество хипотези

Ако имаме дискретен набор от взаимоизключващи и пълни хипотези H1, H2, ..., Hn, тогава за всяка Hi:

P(Hi|E) = P(E|Hi) · P(Hi) / Σ_j P(E|Hj) · P(Hj)

Дениоминаторът (сумата) е маргиналната вероятност за доказателството E, получена като сума на вероятностите на E при всички хипотези, претеглени с техните априорни вероятности.

Пример — медицински тест (числов)

Представете си: заболяване с честота (априорна вероятност) P(Д)=0.01 (1%). Тестът има чувствителност P(+)|Д = 0.99 и специфичност P(-)|¬Д = 0.95 (т.е. фалшиво положителен процент 5%). Каква е вероятността да имате болестта, ако тестът е положителен?

Използваме формулата:

P(Д|+) = P(+|Д)·P(Д) / [P(+|Д)·P(Д) + P(+|¬Д)·P(¬Д)]

P(+|¬Д) = 1 - специфичност = 0.05, P(¬Д) = 0.99.

Връщайки числата: P(Д|+) = 0.99·0.01 / (0.99·0.01 + 0.05·0.99) ≈ 0.0099 / 0.0594 ≈ 0.167 (≈16.7%).

Интуицията: въпреки високата чувствителност, ниската базова честота на болестта и относително високият процент фалшиви положителни дават ниска постериорна вероятност. Това илюстрира base rate fallacy (грешка при пренебрегване на базовия процент).

Приложения

  • Медицина — интерпретация на диагностични тестове и персонализирани оценки на риска.
  • Машинно обучение — Наивен Байес за класификация (spam филтриране, класифициране на текстове).
  • Форензика и юридическия анализ — оценка на вероятности при нови доказателства.
  • Икономика и финанси — обновяване на оценки при постъпване на нова информация.
  • Роботика и системи за наблюдение — адаптивни модели за възприемане и вземане на решения.

Байесов подход в статистиката (непрекъснат вариант)

За параметрични модели с непрекъснати променливи се използва плътностна форма: постериорната плътност f(θ|x) е пропорционална на likelihood f(x|θ) умножена по prior f(θ). Формално:

f(θ|x) ∝ f(x|θ) · f(θ)

За да стане това истинска плътност, се дели на нормализираща константа (множителя), която е интеграла на числителя по θ. В практиката често се използват конюгирани приори (conjugate priors), за да се получат аналитични решения.

Как да приложите Байесовата теорема — стъпка по стъпка

  • Определете хипотезите (напр. болен/неболен).
  • Определете априорните вероятности P(Hi) на базата на предишни данни или експертно мнение.
  • Оценете likelihood P(E|Hi) — какво е вероятно да наблюдавате при всяка хипотеза.
  • Изчислете маргиналната вероятност P(E) чрез сумиране (или интегриране) за всички хипотези.
  • Приложете формулата и интерпретирайте резултата като актуализирана (постериорна) вероятност.

Ограничения и често срещани грешки

  • Резултатът зависи от априорните вероятности — ако те са субективни или погрешни, постериорът ще бъде подвеждащ.
  • Високите изчислителни изисквания при мултидименсионални модели (необходимост от числено интегриране или MCMC).
  • В моделите като Наивен Байес, предположението за независимост на признаците често не е вярно и може да доведе до грешки в оценката, макар че методът работи добре в практиката за много задачи.
  • Пренебрегването на базовите честоти (base rate fallacy) води до неверни интуитивни заключения.

Заключение

Байесовата теорема е фундаментален инструмент за обновяване на вероятностите при постъпване на нови доказателства. Тя дава ясен формален начин да комбинираме предишни знания (априори) с наблюдения (likelihood) и да получим актуализирана оценка (постериор). Приложенията ѝ обхващат широк кръг от области — от медицина и право до изкуствен интелект и икономика. Винаги обаче трябва да се внимава с избора на априори и предположенията на модела.

Формула

Използваното уравнение е:

{\displaystyle P(A|B)={\frac {P(B|A)\,P(A)}{P(B)}}.}

Къде:

  • P(A) е предварителната вероятност или пределната вероятност на A. Тя е "предварителна" в смисъл, че не взема предвид никаква информация за B.
  • P(A|B) е условната вероятност за A при зададена B. Нарича се още апостериорна вероятност, тъй като се получава от (или зависи от) определената стойност на B.
  • P(B|A) е условната вероятност за B при A. Нарича се още вероятност.
  • P(B) е предварителната или пределна вероятност за B и действа като нормализираща константа.

В много случаи P(B) се изчислява косвено по формулата {\displaystyle P(B)=P(B|A)P(A)+P(B|A^{c})P(A^{c})}, което просто гласи, че вероятността за В е сумата от условните вероятности, основани на това дали А е настъпил или не.


 

Пример

Един прост пример е следният: Има 40% вероятност да вали в неделя. Ако вали в неделя, има 10% вероятност да вали в понеделник. Ако не вали в неделя, има 80% вероятност да вали в понеделник.

"Дъжд в неделя" е събитие А, а "Дъжд в понеделник" е събитие Б.

  • P( A ) = 0,40 = Вероятност за дъжд в неделя.
  • P( A` ) = 0,60 = Вероятност да няма дъжд в неделя.
  • P( B | A ) = 0.10 = Вероятност за дъжд в понеделник, ако в неделя е валяло.
  • P( B` | A ) = 0,90 = Вероятност да няма дъжд в понеделник, ако е валяло в неделя.
  • P( B | A` ) = 0.80 = Вероятност за дъжд в понеделник, ако в неделя не е валяло.
  • P( B` |A` ) = 0,20 = Вероятност да не вали в понеделник, ако не е валяло в неделя.

Първото нещо, което обикновено изчисляваме, е вероятността да вали в понеделник: Това ще бъде сумата от вероятностите "Дъжд в неделя и дъжд в понеделник" и "Без дъжд в неделя и дъжд в понеделник":

{\displaystyle 0.40\times 0.10+0.60\times 0.80=0.52=52\%} шанс

Ако обаче ни помолят да изчислим вероятността да е валяло в неделя, при положение че е валяло в понеделник, тогава се появява теоремата на Бейс. Тя ни позволява да изчислим вероятността за по-ранно събитие, като имаме предвид резултата от по-късен случай.

Използваното уравнение е:

{\displaystyle P(A|B)={\frac {P(B|A)\,P(A)}{P(B)}}.}

В нашия случай "Дъжд в неделя" е събитие А, а "Дъжд в понеделник" е събитие Б.

  • P(B|A) = 0.10 = Вероятност за дъжд в понеделник, ако е валяло в неделя.
  • P(A) = 0,40 = Вероятност за дъжд в неделя.
  • P(B) = 0,52 = Вероятност за дъжд в понеделник.

Така че, за да изчислим вероятността да е валяло в неделя, при положение че е валяло в понеделник, използваме формулата:

{\displaystyle P(A|B)={\frac {P(B|A)\,P(A)}{P(B)}}.}

или:

{\displaystyle P(A|B)={\frac {0.10*0.40}{0.52}}=.0769}

С други думи, ако в понеделник е валяло, има 7,69% вероятност да е валяло и в неделя.


 

Интуитивно обяснение

За да изчислим вероятността да е валяло в неделя, при положение че е валяло в понеделник, можем да направим следните стъпки:

  • Знаем, че в понеделник е валяло. Следователно общата вероятност е P(B).
  • Вероятността в неделя да е валяло е P(A).
  • Вероятността да е валяло в понеделник, при положение че е валяло в неделя, е P(B|A).
  • Вероятността да вали в неделя и да вали в понеделник е P(A)*P(B|A).
  • Следователно общата вероятност да е валяло в неделя, при положение че е валяло в понеделник, е равна на вероятността да е валяло в неделя и понеделник, разделена на общата вероятност да е валяло в понеделник.

Следователно,

{\displaystyle P(A|B)={\frac {P(B|A)\,P(A)}{P(B)}}.}

Друг начин за разглеждане на това, който показва откъде идва теоремата на Бейс, е да разгледаме вероятността P(AB) да вали в неделя и понеделник. Тя може да се изчисли по два различни начина, които дават един и същ отговор за P(AB):

{\displaystyle P(A)\,P(B|A)=P(B)\,P(A|B)}

В това отношение теоремата на Бейс е просто друг начин за записване на това уравнение.


 

Свързани страници

 

Въпроси и отговори

В: Какво представлява теоремата на Бейс?


О: Теоремата на Бейс е математическа формула, която показва връзката между една условна вероятност и нейната обратна форма.

В: Кой е бил Томас Бейс?


О: Томас Бейс е британски математик от XVIII век, който разработва тази теорема в теорията на вероятностите и приложенията.

В: Как се използва теоремата?


О: Теоремата се използва за изчисляване на вероятността на дадена хипотеза при някои наблюдавани доказателства, както и на вероятността на тези доказателства при хипотезата.

В: Какви други имена има тази теорема?


О: Тази теорема е известна също като закон на Бейс или правило на Бейс.

В: Кога Томас Бейс разработва тази теорема?


О.: Томас Бейс разработва тази теорема през XVIII век по време на работата си по теория на вероятностите и приложенията.


В: Как се произнася "Бейс"?


О: "Бейс" се произнася /ˈbeɪz/ или "бейс".


обискирам
AlegsaOnline.com - 2020 / 2025 - License CC3