Prawdopodobieństwo

rodzina miar służących do opisu częstości lub pewności zdarzenia

Prawdopodobieństwo – w znaczeniu potocznym, szansa na wystąpienie jakiegoś zdarzenia[1], natomiast w matematycznej teorii prawdopodobieństwa, rodzina miar służących do opisu częstości lub pewności tego zdarzenia.

W rozumieniu potocznym wyraz „prawdopodobieństwo” odnosi się do oczekiwania względem rezultatu zdarzenia, którego wynik nie jest znany (niezależnie od tego, czy jest ono w jakimś sensie zdeterminowane, miało miejsce w przeszłości, czy dopiero się wydarzy); w ogólności należy je rozumieć jako pewną miarę przewidywalności bądź pewności względem zjawiska (przy danej o nim wiedzy), co umożliwia ocenę potencjalnie związanego z nim ryzyka.

Prawdopodobieństwo w sensie matematycznym służy do modelowania doświadczeń losowych poprzez przypisanie poszczególnym zdarzeniom losowym liczb, zwykle z przedziału jednostkowego (często wyrażanych procentowo: od 0 do 100%), wskazujących szanse ich zajścia.

Istnieje wiele matematycznych interpretacji pojęcia prawdopodobieństwa[2], między innymi tzw. [3]:

  • obiektywne (częstościowe), jako obiektywną częstość zdarzenia w dużej liczbie prób losowych,
  • subiektywne (bayesowskie, od nazwiska T. Bayesa), jako reprezentację subiektywnej pewności, w oparciu o dotychczasową wiedzę i zaobserwowane dane.

Innym przykładem interpretacji jest prawdopodobieństwo skłonnościowe Karla Raimunda Poppera[4][5].

Teoria prawdopodobieństwa, nazywana również rachunkiem prawdopodobieństwa, jest ugruntowanym działem matematyki, który wyrósł z rozważań dotyczących gier losowych w XVII wieku i został sformalizowany oraz zaksjomatyzowany jako osobna dziedzina matematyki na początku XX wieku. Z punktu widzenia filozofii matematyki w swojej aksjomatycznej postaci twierdzenia matematyczne dotyczące teorii prawdopodobieństwa niosą ze sobą tę samą pewność epistemologiczną, co wszystkie inne twierdzenia matematyczne. Inną aksjomatyzację pojęcia prawdopodobieństwa w duchu bayesowskiego obiektywizmu podał Richard Threlkeld Cox, która przedstawiana jest często w postaci twierdzenia Coxa.

Rys historyczny edytuj

 
Christiaan Huygens pierwszy naukowo opisał prawdopodobieństwo

Początków rachunku prawdopodobieństwa należy upatrywać w hazardzie: obserwacja różnego rodzaju gier losowych doprowadziła do sformułowania pierwszych stwierdzeń i wniosków natury formalnej dotyczących możliwości i szans zajścia zdarzeń. Pierwsze ścisłe uwagi dotyczące prawdopodobieństwa wymieniali ze sobą w swojej korespondencji (1654) Pierre de Fermat i Blaise Pascal, stymulowani przez pytania Kawalera de Méré. Z kolei Christiaan Huygens (1657) jako pierwszy opisał zagadnienie z naukowego punktu widzenia. Jakob Bernoulli w swoim dziele Ars Conjectandi (pośmiertnie, 1713) i Abraham de Moivre w Doctrine of Chances (1718) traktują przedmiot jako dział matematyki.

To podejście doprowadziło do sformułowania przez Pierre’a Simona de Laplace’a klasycznej definicji prawdopodobieństwa (1812). Mimo tego, iż tłumaczyła ona wiele interesujących wtedy zagorzałych graczy zjawisk, a ponadto dawała poprawne odpowiedzi, to zawiera ona zasadniczy błąd logiczny. Odwołuje się ona do możliwości wyodrębnienia tzw. zdarzeń elementarnych, które mają być „jednakowo możliwe”, czyli „jednakowo prawdopodobne” – definiens odwołuje się do definiendum, jest to więc przykład błędnego koła w definiowaniu.

Pewnym rozwiązaniem bolączek definicji klasycznej była przedstawiona przez Georges’a-Louisa Leclerca, hrabiego Buffon definicja geometryczna (1733), która umożliwiała badanie prawdopodobieństw zdarzeń nieskończonych w oparciu o przypisanie im miar podzbiorów w zbiorze miary jednostkowej, np. długości sum odcinków leżących w odcinku jednostkowym, czy pól powierzchni figur zawartych w kwadracie o jednostkowym polu (zob. igła Buffona). Przy badaniu tej definicji Joseph Louis François Bertrand zauważył paradoksalny problem opisywany dzisiaj jego nazwiskiem, tzw. paradoks Bertranda, który jest w istocie pytaniem o właściwy dobór metody określania prawdopodobieństwa – to właśnie tego rodzaju paradoksom miały zapobiegać interpretacje częstotliwościowa i subiektywistyczna.

Definicja Laplace’a nie może też być stosowana w przypadku (potencjalnie) nieskończenie długich ciągów zdarzeń. Z problemem tym próbowano sobie poradzić na kilka sposobów. Jednym z nich była tzw. definicja częstotliwościowa Richarda von Misesa (1931), który zaproponował zdefiniowanie prawdopodobieństwa jako granicę ciągu częstości serii zdarzeń, czyli niejako ekstrapolowanie uzyskiwanych rezultatów doświadczalnych na przypadek nieskończony. Definicja ta również jest uważana za błędną, gdyż nie mówi ona nic o warunkach istnienia wspomnianej granicy; formalizacją tej zgodnej z intuicją definicji są różnorodne wersje prawa wielkich liczb.

Definicja geometryczna okazała się niejako najlepszym z powyższych pomysłów, gdyż korzystając z nowo powstałej teorii miary i teorii całkowania opracowanej przez Henriego Léona Lebesgue’a uogólniających pojęcia długości, pola powierzchni i objętości, Andriej Nikołajewicz Kołmogorow (1933) podał pierwszą aksjomatyczną definicję prawdopodobieństwa, która została szeroko przyjęta jako właściwe określenie tego pojęcia. Z tego punktu widzenia paradoks Bertranda jest źle zaadresowanym pytaniem: definicja Kołmogorowa nie rozstrzyga, który z modeli jest lepszy, lecz umożliwia wyznaczenie prawdopodobieństwa zgodnie z wybranym; pewne rozwiązanie paradoksu przedstawił Edwin Thompson Jaynes.

Alternatywnym do wspomnianej wyżej aksjomatyzacji sposobem wprowadzania formalnej teorii prawdopodobieństwa może być algebraiczna aksjomatyzacja zwana algebrą zmiennych losowych opisana przez Melvina Dale’a Springera w 1977 roku, choć nie jest to jedyna możliwość.

Definicje edytuj

Definicja Laplace’a edytuj

Niech dany będzie skończony zbiór   wszystkich możliwych zdarzeń elementarnych; dowolny podzbiór   zbioru   nazywa się wtedy zdarzeniem[a].

Prawdopodobieństwem   zajścia zdarzenia   nazywa się stosunek liczby zdarzeń elementarnych sprzyjających zdarzeniu   do liczby wszystkich możliwych zdarzeń elementarnych należących do zbioru   Definicja ta zakłada więc nie wprost, iż wszystkie zdarzenia elementarne wzajemnie się wykluczają, a ich wystąpienia równie możliwe. Innymi słowy prawdopodobieństwo zajścia zdarzenia   to liczba

 

gdzie   oznacza liczbę wszystkich elementów danego zbioru.

Definicja Buffona edytuj

Niżej przedstawiona definicja w przypadku jednowymiarowym (dla podzbiorów na prostej), jednak uogólnia się ona wprost na przypadek dwu- oraz trójwymiarowy (płaszczyzna i pole powierzchni). Nomenklatura nie odbiega od przyjętej wyżej w definicji klasycznej i częstotliwościowej.

Niech   oznacza podzbiór prostej, przy czym

  • może być to zbiór nieskończony (tzn. może posiadać nieskończenie wiele elementów, np. odcinek na prostej),
  • musi być ograniczony, tzn. musi mieć skończoną długość

W ten sposób zdarzenia   będą mieć skończoną miarę[b].

Jeżeli przyjąć, że   oznacza sumę długości wszystkich rozłącznych odcinków składających się na dany zbiór, to prawdopodobieństwo można określić, zupełnie jak w definicji klasycznej, wzorem

 

Definicja von Misesa edytuj

Definicja częstościowa (in. częstotliwościowa), sformułowana przez Richarda von Misesa, oparta jest na definicji Laplace’a, z tym iż   może być dowolnym (niekoniecznie skończonym) zbiorem. Liczbę zdarzeń elementarnych sprzyjających zdarzeniu   w   doświadczeniach (próbach) oznacza się   iloraz   nazywa się częstością zdarzenia  

Prawdopodobieństwem   zdarzenia   nazywa się wtedy liczbę będącą granicą ciągu częstości przy liczbie prób   rosnącej do nieskończoności, tzn.

 

Definicja ta stanowi podstawę wnioskowania częstościowego w statystyce, rozwijanego m.in. przez Ronalda Fishera.

Definicja Kołmogorowa edytuj

Osobny artykuł: definicja Kołmogorowa.

Jedynym niedostatkiem definicji Buffona było nieprecyzyjne określenie zdarzeń, którym można przypisać prawdopodobieństwo: nie było jasne, jaką postać mogą przyjmować zbiory odpowiadające zdarzeniom, a przez to, czy możliwe jest wskazanie ich długości[c]. Kluczem było wyraźne podanie założeń:

Niech dany będzie pewien zbiór   zdarzeń elementarnych. Prawdopodobieństwem nazywa się dowolną funkcję   przypisującą zdarzeniom wartości z przedziału jednostkowego, dla której   oraz   dla dowolnego przeliczalnego ciągu   zdarzeń parami wykluczających się[e]. Zdarzenia nie są dowolnymi podzbiorami zbioru   czyli elementami rodziny wszystkich podzbiorów zbioru   lecz elementami rodziny   która tworzy (w domyśle: jak największą) niepustą rodzinę zdarzeń w   która jest zamknięta na branie zdarzeń przeciwnych i przeliczalnych alternatyw zdarzeń (intuicyjnie: dla każdego zdarzenia istnieje zdarzenie będące jego negacją, a dla dowolnej, co najwyżej przeliczalnej, liczby zdarzeń istnieje zdarzenie będące ich alternatywą)[f][g]. Zrezygnowanie z możliwości określenia prawdopodobieństwa dla wszystkich zdarzeń wynika z problemów formalnych pojawiających się podczas rozpatrywania dość „patologicznych” ich przypadków[h].

Definicja Springera edytuj

Zobacz też: zmienna losowa.

Algebra zmiennych losowych – wychodząc nie od zdarzeń, lecz od zmiennych losowych – umożliwia rachunki symboliczne ułatwiające znajdowanie rozkładów prawdopodobieństwa, wartości oczekiwanych, wariancji, kowariancji itp. dla sum, iloczynów, czy ogólniejszych funkcji zmiennych losowych. Rozkłady prawdopodobieństwa wyznaczone są poprzez przypisanie wartości oczekiwanej każdej zmiennej losowej; przestrzeń mierzalna i miara prawdopodobieństwa z kolei powstają jako wynik zastosowania ugruntowanych twierdzeń reprezentacyjnych analizy[i]. Ponadto podejście to nie czyni formalizacji nieskończeniewymiarowych rozkładów prawdopodobieństwa trudniejszymi niż skończeniewymiarowych.

O zmiennych losowych[j] zakłada się, iż mają następujące własności:

  • stałe zespolone są zmiennymi losowymi,
  • suma i iloczyn dwóch zmiennych losowych są zmiennymi losowymi,
  • dodawanie i mnożenie zmiennych losowych są przemienne,
  • istnieje działanie   sprzężenia zmiennych losowych, które dla wszystkich zmiennych losowych   jest:
    • funktorialne, czyli spełnia  
    • inwolutywne, a więc  
przy czym pokrywa się ono ze sprzężeniem zespolonym w przypadku stałych.

Powyższe warunki czynią ze zmiennych losowych przemienną *-algebrę zespoloną. Samosprzężoną zmienną losową   tj. spełniającą   nazywa się rzeczywistą. Operator wartości oczekiwanej   na wspomnianej algebrze definiuje się jako znormalizowaną, dodatnią formę liniową, tzn.

  •   gdzie   oznacza stałą,
  •   dla dowolnej zmiennej losowej  [k],
  •   dla wszystkich zmiennych losowych  
  •   o ile   jest stałą.

Tak zdefiniowaną strukturę można uogólniać, opuszczając przykładowo warunek przemienności, co prowadzi do innych dziedzin prawdopodobieństwa nieprzemiennego, jak np. prawdopodobieństwo kwantowe, teoria macierzy losowych, czy wolne prawdopodobieństwo.

Definicja bayesowska edytuj

Prawdopodobieństwo w ujęciu bayesowskim (subiektywnym), również wywodzi się z definicji Laplace’a, i za Jaynesem, opiera się o rozszerzenie logicznego rachunku zdań o teorię prawdopodobieństwa, jako pomost między rozumowaniem dedukcyjnym a indukcyjnym[6].

Prawdopodobieństwo jest w tym przypadku interpretowane jako miara pewności, jaką można przypisać różnym hipotezom – modelowanej matematycznie jako rozkład prawdopodobieństwa.

Bayesowska interpretacja prawdopodobieństwa stanowi podstawę wnioskowania bayesowskiego w statystyce.

Przykłady edytuj

 
W definicji klasycznej zdarzeniu   polegającemu na wylosowaniu nieparzystej liczby oczek na symetrycznej kości sześciennej sprzyjają trzy spośród wszystkich sześciu równie prawdopodobnych możliwości (zdarzeń elementarnych), zatem   podobnie  

Przyjmując, iż rzut monetą może zakończyć się wyłącznie na dwa sposoby[l]: wyrzuceniem orła   albo reszki  [m], to zakładając, że te dwa zdarzenia elementarne są równie prawdopodobne można skorzystać z klasycznej definicji prawdopodobieństwa. Wtedy   jest dwuelementowy, zatem   Ponadto tak zdarzenie   jak i zdarzenie   są zbiorami jednoelementowymi, tzn.   dla   lub   co oznacza, że prawdopodobieństwo wyrzucenia tak orła, jak i reszki wynosi   czyli iż zdarzenia te istotnie są równie prawdopodobne. W przypadku rzutu dwoma monetami przestrzeń zdarzeń elementarnych   jest czteroelementowa,   podczas gdy każde ze zdarzeń   można uzyskać tylko na jeden sposób, skąd   Z kolei prawdopodobieństwo zdarzenia   polegającego na wyrzuceniu co najmniej jednego orła wynosi   gdyż zdarzeniu   sprzyjają zdarzenia elementarne  

Wykonując doświadczenie polegające na stukrotnym rzucie monetą, można uzyskać orła w   przypadkach, zaś w tysiąckrotnym – przykładowo   rzutów zakończyło się wyrzuceniem orła. Oznacza to, że częstość wypadania orła była zmienna i wynosiła odpowiednio   oraz   Kontynuowanie w nieskończoność doświadczenia przekonałoby niezbicie eksperymentatora, iż moneta jest symetryczna, w przypadku gdy równo połowa rzutów zakończyłaby się wyrzuceniem orła, bądź wprost przeciwnie, gdyby ostateczny wynik nie podzieliłby się równo między orła i reszkę. Intuicję tę próbuje oddać definicja von Misesa: stosunek liczby wyrzuconych orłów do liczby wszystkich prób przy kontynuowaniu doświadczenia w nieskończoność – jeżeli   to moneta będzie symetryczna. Tego rodzaju rozumowanie rodzi problemy natury poznawczej: prawdopodobieństwo dane jest a posteriori, a nie a priori, co uniemożliwia jakiekolwiek przewidywanie szans zajścia zdarzenia.

Wyrzucenie symetryczną monetą   razy z rzędu reszki nie oznacza bynajmniej, że bardziej prawdopodobne będzie wyrzucenie w   rzucie orła (tzw. „prawo serii”[7]), czy też reszki (przełamanie serii[n]). Z drugiej strony czy wyrzuciwszy   razy reszkę w   rzutach można mieć uzasadnione zastrzeżenia co do symetryczności monety, tzn. czy istotnie w każdym rzucie prawdopodobieństwo wyrzucenia orła   wynosi  ?

 

Prawdopodobieństwo losowego[o] wybrania punktu z przedziału   zawartego w przedziale   oznaczanego jako zdarzenie   jest równe stosunkowi możliwości wybrania punktu z pierwszego przedziału do wybrania punktu z drugiego, przy czym szanse te są intuicyjnie proporcjonalne do ich długości. Skoro długość przedziału   wynosi   to geometryczne prawdopodobieństwo zdarzenia   wynosi  

Doświadczenie losowego rzucania monetą w nieskończoność można sformalizować za Kołmogorowem przy pomocy przestrzeni probabilistycznej: wynikiem doświadczenia jest losowy ciąg elementów   oznaczających dwa możliwe wyniki pojedynczej próby, tzn.  [p]. Zdarzeniami są dowolne ciągi skończone tych elementów[q]: istotnie, zbiór wszystkich tego rodzaju ciągów spełnia definicję rodziny   ze sformułowania Kołmogorowa[r]. Nieskończone ciągi złożone z elementów   nie są więc uważane za zdarzenia.

Jeżeli prawdopodobieństwo wylosowania orła i reszki w jednym rzucie wynosi odpowiednio   oraz   (gdzie   wyżej przyjmowano  )[s] to na przestrzeni zdarzeń  [r] można określić miarę prawdopodobieństwa zgodnie z aksjomatami Kołmogorowa w następujący sposób: prawdopodobieństwo zaobserwowania danego ciągu  [t] jest dane wzorem   gdzie   są odpowiednio liczbami wystąpień   oraz   w ciągu[u]. Przy takim sformułowaniu prawdopodobieństwo wylosowania nieskończenie długiego ciągu zdarzeń jest równe zeru, gdyż granica ciągu   dąży do zera wraz z   dążącym do nieskończoności (ze względu na ograniczenie  ); innymi słowy jest ono zaniedbywalne[v]. Okazuje się więc, że nieskończone ciągi rzutów monetą nie są konieczne do rozpatrywania tego doświadczenia i to właśnie jest powodem wykluczenia ich z rodziny wszystkich zdarzeń[w]. Niemniej nadal można powiedzieć, że niektóre rodzaje nieskończonych ciągów rzutów są dużo bardziej prawdopodobne od innych, o czym mówi asymptotyczna zasada ekwipartycji[8][9].

Powyższy model można również oprzeć na definicji geometrycznej, rozważając przedział jednostkowy: wynik pierwszego rzutu odpowiada lewemu (orzeł) lub prawemu (reszka) podprzedziałowi[x], a kolejne rzuty – kolejnym podprzedziałom poprzednio wybranych podprzedziałów wybieranym jak przy pierwszym rzucie; nieskończone ciągi odpowiadają punktom, które mają zerową długość, czyli są zaniedbywalne zupełnie jak miało to miejsce w poprzednim przypadku.

Zobacz też edytuj

Uwagi edytuj

  1. Być może lepsze są nazwy, w których brak wyrazu „zdarzenie”, np. „możliwość”, „przypadek”, czy „wynik”, gdyż nie prowadzą one do błędnego przeświadczenia, iż zdarzenia elementarne są zdarzeniami (zdarzenia elementarne, jako elementy, składają się na zdarzenia, które są zbiorami; zob. zbiór i podzbiór). Chcąc uzyskać zdarzenie, które zawierałoby wyłącznie wybrane zdarzenie elementarne   należy wziąć zbiór jednoelementowy  
  2. W istocie wymaga się tu bardziej możliwości określenia długości, która ma być skończona. W domyśle przyjmuje się, że jest ona określana za pomocą tzw. miary Jordana, o ile nie zostanie zaznaczone wyraźnie inaczej; zob. kolejną sekcję.
  3. Przykładowo problematyczny jest zbiór liczb wymiernych należących do odcinka jednostkowego. Zgodnie z definicją miary Jordana na prostej mierzenie tego zbioru odbywa się poprzez wypełnienie go „od dołu” i pokrycie „od góry” skończoną liczbą odcinków o ustalonej długości. Z jednej strony „pokrycie od góry” tego nieskończonego zbioru zawsze prowadzi do pokrycia nimi całego odcinka jednostkowego, gdyż punkty wymierne są na nim gęsto rozmieszczone, a więc zbiór ten ma jednostkową miarę zewnętrzną; z drugiej strony punkty niewymierne również są na nim gęsto rozmieszczone, co oznacza, że dopełnienie mierzonego zbioru również pokrywa w całości odcinek jednostkowy – „wypełnienie od dołu” będące różnicą miary całego odcinka i miary dopełnienia ma więc miarę zerową. Miara zbioru liczb wymiernych na odcinku jednostkowy w sensie Jordana jest więc nieokreślona, choć intuicyjnie zbiór ten powinien mieć miarę zerową, gdyż jest tylko przeliczalny w przeciwieństwie do jego dopełnienia.
  4. Podana niżej definicja przenosi się niemal bez zmian na algebry Boole’a.
  5. Zob. ciąg zbiorów.
  6. W szczególności rodzina   może pokrywać się z   co ma np. miejsce w przypadku przeliczalnym i skończonym; uogólnia ona więc wszystkie poprzednie definicje.
  7. Rodzinę   o podanych własnościach nazywa się σ-ciałem podzbiorów zbioru  
  8. W przestrzeni euklidesowej istnieją zbiory, np. zbiór Vitalego, dla których określenie ich miary Lebesgue’a jest niemożliwe; rozpatrywanie σ-ciała   wyklucza tego rodzaju zbiory z dyskursu, dając przy tym wystarczająco bogaty zestaw zbiorów mierzalnych użyteczny do wszelkich zastosowań; ponieważ konstrukcja zbiorów niemierzalnych wymaga użycia szczególnych środków (aksjomat wyboru), bywa, iż w popularnym ujęciu pomija się te dywagacje, de facto rozmywając precyzję definicji Kołmogorowa do nieformalnej definicji Buffona.
  9. W gruncie rzeczy chodzi przede wszystkim o konstrukcję Gelfanda-Najmarka-Segala.
  10. Aby uzyskać wystarczający stopień ogólności można ograniczyć się do przestrzeni   określonych na zbiorze   zmiennych losowych o wszystkich momentach skończonych. Klasa ta jest zamknięta ze względu na mnożenie (zob. dalej) i wszystkie jej elementy mają skończony ślad (lub wartość oczekiwaną). Można by ograniczyć się dalej, do przestrzeni   (istotnie) ograniczonych zmiennych losowych (zob. przestrzenie Lebesgue’a), ale traci się w ten sposób traci ważne przykłady zmiennych losowych, w szczególności zmienne gaussowskie. Wybór   oznacza jednak rezygnację z jakiejś części struktury analitycznej, w szczególności w przeciwieństwie do   wskazana przestrzeń nie jest Banacha, jednakże w przypadku podejścia algebraicznego wydaje się to być rozsądną ceną.
  11. W języku algebr von Neumanna warunek ten (wraz z   będącym odpowiednikiem unormowania prawdopodobieństwa Kołmogorowa) oznacza, że   jest stanem.
  12. Rozpatrywana jest więc próba Bernoulliego.
  13. Zob. awers i rewers.
  14. Zob. paradoks hazardzisty i odwrotny paradoks hazardzisty.
  15. W tym momencie nie jest jasne co właściwie oznacza termin „losowo”: w ujęciu Kołmogorowa oznaczałoby to w tym przykładzie „zgodnie z rozkładem jednostajnym”.
  16. Zbiór   jest w istocie przeliczalnym iloczynem prostym   Rozpatruje się też wersję „dwustronną”  
  17. Na zbiorze   istnieje naturalna topologia nazywana topologią iloczynową; jej elementami są skończone ciągi elementów   – pozostałe (nieskończone) ciągi można uważać w niej za nieistotne. Zbiory ciągów skończonych są nazywane zbiorami cylindrycznymi w tej topologii.
  18. a b Chodzi tu o σ-ciało, mianowicie σ-ciało borelowskie.
  19. Oznacza to, że próby Bernoulliego mają rozkład dwupunktowy z prawdopodobieństwami   oraz  
  20. Formalnie   jest ciągiem   gdzie   wspomniana notacja jest używana w celu zachowania spójności z poprzednimi przykładami. Można ją sformalizować przyjmując, że zdarzenia opisywane są przez słowa nad alfabetem   (zob. język formalny).
  21. Wspomnianą miarę, która jest miarą iloczynową, nazywa się niekiedy „miarą Bernoulliego”; samo doświadczenie losowe nazywa się procesem Bernoulliego.
  22. To znaczy jest ono miary zero.
  23. Jest to najuboższa topologia umożliwiająca opis procesu Bernoulliego, bogatsze topologie zezwalające na rozpatrywanie ciągów nieskończonych mogą prowadzić do pewnych nieporozumień, czy paradoksów; zob. silna topologia.
  24. Lewy podprzedział oznacza podprzedział o wartościach bliższych zerach, prawy – o wartościach bliższych jedności.

Przypisy edytuj

  1. prawdopodobieństwo – Słownik języka polskiego PWN [online], sjp.pwn.pl [dostęp 2017-02-23] (pol.).
  2. Prawdopodobieństwo, [w:] Encyklopedia PWN [dostęp 2021-07-22].
  3. Hájek 2011 ↓.
  4. Wojciech Załuski. O Karla R. Poppera skłonnościowej interpretacji prawdopodobieństwa. „Semina Scientiarum”, 2002. 
  5. Załuski, Wojciech Zbigniew: Skłonnościowa interpretacja prawdopodobieństwa. Ośrodek Badań Interdyscyplinarnych przy Wydziale Filozoficznym Papieskiej Akademii Teologicznej, 2008. (pol.).
  6. E.T. Jaynes, Bayesian Methods: General Background, s. 1–25, DOI10.1017/cbo9780511569678.003 [dostęp 2017-02-23] (ang.).
  7. Tomasz Downarowicz: Prawo serii w ujęciu matematycznym. 12 stycznia 2011.
  8. Marek Czachor: Wstęp do teorii informacji: Wykład 8. 29 listopada 2011.
  9. Tadeusz Inglot: Teoria informacji a statystyka matematyczna. 3–7 grudnia 2012.

Bibliografia edytuj

Linki zewnętrzne edytuj