Wnioskowanie przyczynowe

Wnioskowanie przyczynowe (analiza przyczynowa, ang. causal inference) – zagadnienie m.in. epistemologii i metodologii nauk, obejmujące opis, preskrypcję i stosowanie metod systematycznego odkrywania i badania związków przyczynowych. Analiza przyczynowa ma pozwalać na możliwie rzetelną odpowiedź na pytania postaci: „co by było, gdyby…?” albo „jaką różnicę powoduje…?”[1].

Nie sprowadza się do wnioskowania statystycznego opartego o obserwacje ze statycznej sytuacji. Różne związki przyczynowe mogą objawiać się takimi samymi wzorami korelacji – do czego odwołują się aforyzmy typu „korelacja to nie przyczynowość”, i co grozi błędem logicznym post hoc. Wnioskowanie przyczynowe wymaga dodatkowego, specyficznego modelowania, a najlepszą podstawę stanowią dla niego obserwacje ze zmian sytuacji – zwłaszcza realizowanych w zamierzenie losowy sposób (warunkowo niezależnie od zmiennych zakłócających), tak jak w randomizowanym eksperymencie naukowym[2][3][4][5].

Współcześnie wnioskowanie przyczynowe rozwija się od lat 1970–1990 w parze z cybernetyką i wnioskowaniem statystycznym, i jest rozumiane jako proces tworzenia alternatywnych probabilistycznych modeli przyczynowych badanych zjawisk, i dokonywania pomiędzy nimi wyboru, w oparciu o konfrontowanie ich przewidywań z obserwacjami empirycznymi. Wśród głównych podejść do zagadnienia ważną rolę odgrywa model Neymana-Rubina (potencjalnych rezultatów), modele równań strukturalnych, i model Pearla (sieci bayesowskie)[6][7][1][8][9].

Zarys historii edytuj

Filozofia edytuj

Zawodność wnioskowań empirycznych rozpoznano już w starożytności – zagadnienie to nosi współcześnie nazwę problemu indukcji[10]. Wnioskowanie przyczynowe wiąże się z dodatkowym, ontologicznym pytaniem o definicję związków przyczynowych[11]. W historii prób konceptualizacji zarówno wnioskowania, jak i przyczynowości, różni autorzy nadawali każdemu z tych pojęć wąsko określone znaczenia[12]. Wczesne nowożytne definicje związków przyczynowych ewoluowały m.in. w pismach J.S. Milla i D. Hume’a. Kategoria ta była w trakcie XIX i na początku XX wieku w większości marginalizowana przez empirycystów i pozytywistów logicznych, oraz wpływowych statystyków takich jak K. Pearson i R.A. Fisher – skłaniali się oni bowiem do przekonania, że nauka może mówić jedynie o korelacjach. Analiza przyczynowa pozostawała jednak obecna w praktyce naukowej i społecznej w roboczych, intuicyjnych formach, np. w tzw. kryteriach Hilla, lub prawnych przesłankach odpowiedzialności[1][13].

Statystyka i nauki empiryczne edytuj

Dwudziestowieczni statystycy i metodolodzy kontynuowali zmagania filozofów z opisem kryteriów przyczynowości, rozróżnianiem i traktowaniem różnych typów zmiennych ubocznych, i sposobami rozstrzygania pozornych paradoksów (jak paradoks Berksona czy Simpsona). Wielu decydowało się na pragmatyczne odrzucenie kategorii przyczyny, ograniczając się do mówienia jedynie o korelacjach i funkcji predykcyjnej modeli; inni odnosili się do przyczynowości w oparciu o intuicyjne, jakościowe reguły[13]. Rozważania o determinizmie lub stanach kontrfaktycznych były uznawane np. przez K. Pearsona za zbędną metafizykę[14].

Badacze świadomi byli faktu, że modele uwzględniające różne zestawy zmiennych prowadzą do mocno różnych oszacowań korelacji. Proponowano doraźne techniki analizy i radzenia sobie z tzw. zmiennymi zakłócającymi i mediatorami, które nie oferowały jednak ogólnej konceptualizacji tych problemów. Za główną, relatywnie bezpieczną metodę analizy przyczynowej uznawano przede wszystkim randomizowany eksperyment naukowy – w wielu przypadkach niemożliwy jednak do zrealizowania ze względów praktycznych lub etycznych, a także niekoniecznie zdolny odzwierciedlać realistyczne warunki[15][13].

Znaczący postęp miał miejsce dopiero po latach 1970–1990, dzięki wprowadzeniu do dziedziny nowych narzędzi, po opracowaniu wnioskowania kontrfaktycznego przez zespół Rubina, i sieci bayesowskich opartych o skierowane grafy acykliczne przez zespół Pearla. Umożliwiło to m.in. rozwój technik quasi-eksperymentalnych[13].

Rolę w przełomie odegrały też badania heurystyk wnioskowania w ramach psychologii poznawczej. W ocenie np. Pearla i cytowanych przez niego osób, trudności jakie budzą pozorne paradoksy statystyczne świadczą o wrodzonej predyspozycji istot żywych do wnioskowania przyczynowego[7].

Współczesne podejścia edytuj

We współczesnej metodologii nauk i statystyce pracę naukową postrzega się często jako rozwój i ewaluację modeli. Wnioskowanie przyczynowe wpisuje się w ten schemat, jednak obejmuje szeroki wachlarz podejść, o różnym stosunku do danych i teorii. W uproszczeniu, część perspektyw zakłada prymat teorii, a część – danych[15][16].

Model Neymana-Rubina (potencjalne rezultaty) edytuj

Potoczne myślenie o przyczynowości wyraża się w pytaniach postaci „co by było, gdyby…?” Statystycy tacy jak Jerzy Neyman proponowali robocze ujęcia takich pytań w postaci tzw. stanów kontrfaktycznych[13][16]. Holland uznał za fundamentalny problem wnioskowania przyczynowego fakt, że nie jest możliwe poznanie możliwych historii, które nie miały miejsca: w przypadku konkretnej osoby znamy tylko rezultaty przebiegu zdarzeń, który naprawdę zaszedł[13]. Holland i Rubin opracowali na tej podstawie konceptualizację wnioskowania przyczynowych jako problemu brakujących danych z niezaobserwowanych (kontrfaktycznych) światów, a problemowi brakujących danych da się zaradzić statystycznie[17].

Jest to podejście, w którym naukowcy kierują się pytaniem badawczym i dostępnymi danymi. Czynniki te determinują kształt stosowanego modelu, raczej niż na odwrót. Rozwiązaniem idealnym jest realizacja randomizowanego eksperymentu; jeśli to niemożliwe, badacze mogą wykorzystać quasi-eksperymentalne odpowiedniki grupy kontrolnej i eksperymentalnej z danych obserwacyjnych. Typowa uzyskana odpowiedź to średni efekt przyczynowy (ATE, ang. average treatment effect), obliczony jako różnica między grupą kontrolną i (quasi-)eksperymentalną. Jeśli dobór do grup jest nieidealnie losowy, można uzyskać przynajmniej tzw. efekt lokalny (LATE). Przyjmuje się także pomocnicze założenia, jak o zaniedbywalności pominiętych zmiennych zakłócających, i stałości efektu, które zwiększają prawomocność wniosków przyczynowych. Tzw. atrybuty wsobne (np. płeć), które nie są obecnie w praktyce manipulowalne, uznaje się na niemożliwe do kontrfaktycznej analizy przyczynowej[1][13][7].

Filozoficzny status stanów kontrfaktycznych pozostaje przedmiotem debat. Także wśród autorów orędujących za prowadzeniem analiz przyczynowych są osoby, jak Dawid, argumentujące ze kontrfaktyczność to pojęcie, które wprowadza niepotrzebny ontologiczny zamęt[14]. Nie mają oni z reguły problemu z samymi technikami analizy, ale postulują stosowanie bardziej ostrożnego języka: np. wnioskowania decyzyjnego i „stanów hipotetycznych”[18][19].

Model Pearla (sieci bayesowskie) edytuj

 
Przykład grafu systemu przyczynowego w stylu Pearla, w którym badanemu związkowi przyczyny   ze skutkiem   towarzyszy mediator   zmienna zakłócająca   i kolider   Typowy problem pominiętej zmiennej polega na nieuwzględnieniu w modelu czynników typu   Dla kontrastu, statystyczne kontrolowanie zmiennych typu   i   jest generalnie także niepożądane, i również zwiększa błąd oszacowania – chyba że np. przedmiotem badania jest sam efekt mediacji.

Podejście Judei Pearla wywodzi się z jego pracy w obszarze cybernetyki i sztucznej inteligencji, i jego zdaniem jest uogólnieniem wszystkich stosowanych dotąd metod. Nawiązuje m.in. do analizy ścieżkowej S. Wrighta i modelowania równań strukturalnych, oraz neuropsychologicznych teorii działania ludzkiego umysłu[7].

Pearl poszukiwał matematycznego języka pozwalającego na uporządkowanie, opis – i docelowo, automatyzację – wnioskowania przyczynowego. Modelem który zadowolił jego wymagania były sieci bayesowskie oparte o skierowane grafy acykliczne, których wierzchołki reprezentują zmienne, a krawędzie ich związki przyczynowe[7].

Sieci bayesowskie umożliwiają porównanie dopasowania różnych modeli do danych, określenie, jakie rozstrzygnięcia są możliwe w oparciu o dostępne dane, i dokonanie dowolnych obliczeń diagnostycznych i prognostycznych. Wprowadzają systematyczną klasyfikację różnych ról zmiennych w modelu, odróżniając zmienne zakłócające, kolidery i mediatory. Wyznaczają warunki trafnego oszacowania związków przyczynowych, dzięki konceptualizacji „blokowania” lub „odblokowywania” szlaków grafu: opisują w jakich sytuacjach statystyczne kontrolowanie różnych zmiennych modyfikuje ich obserwowane w danych prawdopodobieństwa warunkowe w sposób który izoluje realny związek przyczynowy, a w jakich sytuacjach ignoruje lub „uwalnia” nieprzyczynowe zależności, i wprowadza pozorne korelacje[20][21][5][7][22].

Podejście Pearla kładzie nacisk na nadrzędność jakościowego modelowania przyczynowego nad ilościową analizą statystyczną[17]. Rubin i jego uczniowie, np. Gelman, argumentują jednak, że choć doceniają wartość teoretyczną tej perspektywy, to w praktyce naukowej badacze zajmujący się skomplikowanymi zjawiskami często radzą sobie sprawniej podążając od danych do teorii i modeli, a nie na odwrót[23][15][24].

Przypisy edytuj

  1. a b c d 1. Zarys dziejów kryterium przyczyny, [w:] Paweł Kawalec, Przyczyna i wyjaśnianie: studium z filozofii i metodologii nauk, Lublin: KUL, 2006, ISBN 83-7363-362-6, OCLC 162507559 [dostęp 2019-03-24].
  2. 1. The Ladder of Causation, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 62, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „The main point is this: while probabilities encode our beliefs about a static world, causality tells us whether and how probabilities change when the world changes, be it by intervention or by act of imagination.”.
  3. 3. From Evidence to Causes: Reverend Bayes Meets Mr. Holmes, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 146, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „Second, the graphical properties of the diagram dictate which causal models can be distinguished by data and which will forever remain indistinguishable, no matter how large the data. For example, we cannot distinguish the fork A ← B → C from the chain A → B → C by data alone, because the two diagrams imply the same independence conditions.”.
  4. 4. Confounding and Deconfounding: Or, Slaying the Lurking Variable, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 165–167, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „However, randomization does have one great advantage: it severs every incoming link to the randomized variable, including the ones we don?t know about or cannot measure (...) By contrast, in a nonrandomized study, the experimenter must rely on her knowledge of the subject matter. If she is confident that her causal model accounts for a sufficient number of deconfounders and she has gathered data on them, then she can estimate the effect of Fertilizer on Yield in an unbiased way. But the danger is that she may have missed a confounding factor, and her estimate may therefore be biased. All things being equal, RCTs are still preferred to observational studies, just as safety nets are recommended for tightrope walkers. But all things are not necessarily equal. In some cases, intervention may be physically impossible”.
  5. a b 6. Paradoxes Galore!, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 249, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „In short, sometimes a regression coefficient represents a causal effect, and sometimes it does not – and you can’t rely on the data alone to tell you the difference. Two additional ingredients are required to endow rY(X.Z) with causal legitimacy. First, the path diagram should represent a plausible picture of reality, and second, the adjusted variable(s) Z should satisfy the back-door criterion.”.
  6. Christopher Hitchcock, Causal Models, Edward N. Zalta (red.), [w:] The Stanford Encyclopedia of Philosophy, wyd. Fall 2018, Metaphysics Research Lab, Stanford University, 2018 [dostęp 2019-03-27].
  7. a b c d e f 6. Paradoxes Galore!, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 217, 220, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „It is a dependence that has no cause. It does not involve physical communication between the producers and us. It does not involve mental telepathy. It is purely an artifact of Bayesian conditioning: a magical transfer of information without causality. Our minds rebel at this possibility because from earliest infancy, we have learned to associate correlation with causation. (...) This is a general theme of Bayesian analysis: any hypothesis that has survived some test that threatens its validity becomes more likely. The greater the threat, the more likely it becomes after surviving.” (s. 217), „Our brains are just not wired to do probability problems very well, so I’m not surprised there were mistakes,” said Persi Diaconis, a statistician at Stanford University, in a 1991 interview with the New York Times. True, but there’s more to it. Our brains are not wired to do probability problems, but they are wired to do causal problems. And this causal wiring produces systematic probabilistic mistakes, like optical illusions.” (s. 220).
  8. Engines of Evidence: A Conversation With Judea Pearl [online], Edge.org, 24 października 2016 [dostęp 2019-03-27].
  9. 4. Typy ilościowych modeli przyczynowych, [w:] Paweł Kawalec, Przyczyna i wyjaśnianie: studium z filozofii i metodologii nauk, Lublin: KUL, 2006, ISBN 83-7363-362-6, OCLC 162507559 [dostęp 2019-03-24].
  10. Leah Henderson, The Problem of Induction, Edward N. Zalta (red.), [w:] The Stanford Encyclopedia of Philosophy, wyd. Spring 2019, Metaphysics Research Lab, Stanford University, 2019 [dostęp 2019-03-27].
  11. Jonathan Schaffer, The Metaphysics of Causation, Edward N. Zalta (red.), [w:] The Stanford Encyclopedia of Philosophy, wyd. Fall 2016, Metaphysics Research Lab, Stanford University, 2016 [dostęp 2019-03-27].
  12. Zbigniew Wolak, Rozumowania – między logiką, filozofią i terminologią, Marek Rembierz, Krzysztof Śleziński (red.), „Studia z Filozofii Polskiej”, 11, Cieszyn/Kraków: Scriptum, 2016, ISSN 1897-8584 [dostęp 2019-03-27] [zarchiwizowane z adresu 2019-03-27].
  13. a b c d e f g 3. Kryterium proceduralne jako uogólnienie jakościowych kryteriów przyczyny, [w:] Paweł Kawalec, Przyczyna i wyjaśnianie: studium z filozofii i metodologii nauk, Lublin: KUL, 2006, ISBN 83-7363-362-6, OCLC 162507559 [dostęp 2019-03-24].
  14. a b Judea Pearl, Causal Inference Without Counterfactuals: Comment, „Journal of the American Statistical Association”, 95 (450), 2000, s. 428, DOI10.2307/2669380, JSTOR2669380 [dostęp 2019-03-27].
  15. a b c Andrew Gelman, Reviews: Causality and Statistical Learning, „American Journal of Sociology”, 117 (3), 2011, s. 955–966, DOI10.1086/662659, ISSN 0002-9602 [dostęp 2019-03-27] (ang.).
  16. a b Andrew Gelman, Guido Imbens, Why ask Why? Forward Causal Inference and Reverse Causal Questions [online], National Bureau of Economic Research, listopad 2013 [dostęp 2019-03-27].
  17. a b 8. Counterfactuals: Mining Worlds That Could Have Been, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 310, 321, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „The ease and familiarity of such imputation techniques explain why Rubin’s conception of causal inference as a missing-data problem has enjoyed broad popularity. Alas, as innocuous as these interpolation methods appear, they are fundamentally flawed. They are data driven, not model driven. All the missing data are filled in by examining other values in the table. As we have learned from the Ladder of Causation, any such method is doomed to start with; no methods based only on data (rung one) can answer counterfactual questions (rung three).” (s. 310), „A model cast as a causal diagram can easily be tested for compatibility with the data, whereas a model cast in potential outcome language lacks this feature. The test goes like this: whenever all paths between X and Y in the diagram are blocked by a set of nodes Z, then in the data X and Y should be independent, conditional on Z. This is the d-separation property mentioned in Chapter 7, which allows us to reject a model whenever the independence fails to show up in the data. In contrast, if the same model is expressed in the language of potential outcomes (i.e., as a collection of ignorability statements), we lack the mathematical machinery to unveil the independencies that the model entails, and researchers are unable to subject the model to a test.” (s. 321).
  18. Philip Dawid, Causal inference isn’t what you think it is, „European Causal Inference Meeting 2019”, 27 marca 2019.
  19. A.P. Dawid, Causal Inference without Counterfactuals, „Journal of the American Statistical Association”, 95 (450), 2000, s. 407–424, DOI10.1080/01621459.2000.10474210, ISSN 0162-1459 [dostęp 2019-03-27] (ang.).
  20. 3. From Evidence to Causes: Reverend Bayes Meets Mr. Holmes, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 107, 128, 148, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „They are related to causal diagrams in a simple way: a causal diagram is a Bayesian network in which every arrow signifies a direct causal relation, or at least the possibility of one, in the direction of that arrow. Not all Bayesian networks are causal, and in many applications it does not matter. However, if you ever want to ask a rung-two or rung-three query about your Bayesian network, you must draw it with scrupulous attention to causality.” (s. 107), „There are three basic types of junctions, with the help of which we can characterize any pattern of arrows in the network.” (s. 128), „The relationships that were discovered between the graphical structure of the diagram and the data that it represents now permit us to emulate wiggling without physically doing so. Specifically, applying a smart sequence of conditioning operations enables us to predict the effect of actions or interventions without actually conducting an experiment.” (s. 148).
  21. 4. Confounding and Deconfounding: Or, Slaying the Lurking Variable, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 156, 157, 177, 180, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „But sometimes, you can control for too much. Sometimes you end up controlling for the thing you’re trying to measure.” (s. 156), „If you have identified a sufficient set of deconfounders in your diagram, gathered data on them, and properly adjusted for them, then you have every right to say that you have computed the causal effect X → Y (provided, of course, that you can defend your causal diagram on scientific grounds).” (s. 157).
  22. 7. Beyond Adjustment: The Conquest of Mount Intervention, [w:] Judea Pearl, Dana Mackenzie, The book of why: the new science of cause and effect, First edition, New York, NY: Hachette Book Group, 15 maja 2018, s. 264–268, ISBN 978-0-465-09760-9, OCLC 1003311466 [dostęp 2019-03-11], Cytat: np. „It tells us that if we cannot find a way to estimate P(Y | do(X)) from Rules 1 to 3, then a solution does not exist. In that case, we know that there is no alternative to conducting a randomized controlled trial. It further tells us what additional assumptions or experiments might make the causal effect estimable.” (s. 268).
  23. Andrew Gelman, Resolving disputes between J. Pearl and D. Rubin on causal inference [online], Statistical Modeling, Causal Inference, and Social Science, 5 czerwca 2009 [dostęp 2019-03-27].
  24. Andrew Gelman, “The Book of Why” by Pearl and Mackenzie [online], Statistical Modeling, Causal Inference, and Social Science, 8 stycznia 2019 [dostęp 2019-03-27] (ang.).