strona główna

Carl G. Hempel

FILOZOFIA NAUK PRZYRODNICZYCH

Philosophy of Natural Science, 1966, tłum. Barbara Stanosz (z tekstu usunięto przypisy)

Rozdział 2. Badanie naukowe: pomysł i test
Rozdział 3. Testowanie hipotezy: logika i moc uzasadniająca testu
Rozdział 5. Prawa i ich rola w wyjaśnianiu naukowym

Rozdział 2
BADANIE NAUKOWE: POMYSŁ I TEST

Przykładowy epizod z historii nauki

[1] Jako prostą ilustracją pewnych istotnych aspektów badania naukowego posłużymy się pracą badawczą Semmelweisa nad gorączką połogową. Ignacy Semmelweis, lekarz węgierskiego pochodzenia, praktykował w latach 1844-1848 w Wiedeńskim Szpitalu Powszechnym. Jako członek personelu lekarskiego pierwszego oddziału kobiecego tego szpitala Semmelweis był zaniepokojony faktem, że znaczna część kobiet, które wydały na świat dzieci na tym oddziale, zapadała na poważną i często śmiertelną chorobę znaną pod nazwą gorączki połogowej. W 1844 r. na tę chorobę zmarło aż 260 spośród 3157 położnic pierwszego oddziału, czyli 8,2%, w 1845 r. poziom śmiertelności wyniósł 6,8%, a w 1846 r. wzrósł do 11,4%. Liczby te były alarmujące, ponieważ na sąsiednim, drugim oddziale kobiecym tego samego szpitala, przyjmującym prawie tę samą liczbę kobiet co oddział pierwszy, śmiertelność spowodowana gorączką połogową była znacznie mniejsza: 2,3, 2,0 oraz 2,7% w tych samych latach. W napisanej później książce, poświeconej przyczynom gorączki połogowej i zapobieganiu jej, Semmelweis opisuje swoje zmagania z rozwiązaniem tej tragicznej zagadki.

[2] Punktem wyjścia jego poszukiwań były rozmaite ówczesne poglądy na przyczyny gorączki połogowej; niektóre z nich odrzucił natychmiast jako niezgodne z ustalonymi faktami, pozostałe poddał specjalnym testom.

[3] Według jednego z rozpowszechnionych poglądów zapadanie na gorączkę połogową należało tłumaczyć "wpływami epidemicznymi", które charakteryzowano jako bliżej nieokreślone "zmiany atmosferyczno-kosmiczno-telluryczne" zachodzące w całej okolicy i powodujące gorączkę połogową u położnic. Jakże to jednak możliwe - rozumował Semmelweis - aby wpływy tego rodzaju przez wiele lat dawały się we znaki na pierwszym oddziale, oszczędzając drugi? I w jaki sposób można by pogodzić ten pogląd z faktem, że szalejąca w szpitalu gorączka połogowa była poza tym w Wiedniu i jego okolicach zjawiskiem bardzo rzadkim; prawdziwa epidemia, taka jak cholera, nie byłaby w tym stopniu selektywna. Nadto Semmelweis zaobserwował, że wśród kobiet, które z powodu odległego miejsca zamieszkania urodziły dzieci w drodze do szpitala, a więc w bardzo niesprzyjających warunkach, procent zachorowań na gorączkę połogową był niższy niż przeciętny na pierwszym oddziale.

[4] Według innego poglądu przyczyną wysokiej śmiertelności położnic w pierwszym oddziale było jego nadmierne zagęszczenie. Semmelweis wykazał jednak, że w istocie na drugim oddziale tłok był większy, częściowo dlatego, że pacjentki desperacko broniły się przed przydzieleniem ich na osławiony pierwszy oddział. Odrzucił również dwa inne podobne przypuszczenia, stwierdziwszy, że oba oddziały nie różnią się między sobą ani pod względem stosowanej diety, ani też ogólnej opieki nad położnicami.

[5] W 1846 r. komisja powołana w celu zbadania tej sprawy orzekła, że przyczyną szerzenia się gorączki na pierwszym oddziale są skaleczenia powstające w wyniku nie dość ostrożnego badania położnic przez studentów medycyny, odbywających na tym oddziale praktykę w zakresie położnictwa. Semmelweis obalił i to wyjaśnienie, stwierdzając, że: (a) pęknięcia powstające w sposób naturalny podczas porodu są znacznie większe niż skaleczenia, które może spowodować nieostrożne badanie; (b) położne odbywające praktykę na drugim oddziale badają pacjentki niemal w ten sam sposób, nie powodując równie częstych zachorowań; (c) gdy w następstwie orzeczenia komisji liczbę studentów na pierwszym oddziale zmniejszono o połowę i ograniczono do minimum badanie przez nich pacjentek, śmiertelność - po krótkotrwałym spadku - wzrosła do poziomu wyższego niż kiedykolwiek przedtem.

[6] Wysuwano również rozmaite wyjaśnienia psychologiczne tego zjawiska. Jedno z nich opierało się na spostrzeżeniu, że pierwszy oddział miał taki rozkład, iż ksiądz niosący ostatni sakrament musiał minąć pięć sal, aby dostać się do pomieszczenia, w którym przebywała umierająca kobieta. Pojawienie się księdza, poprzedzane dźwiękiem dzwonka, wprawiało - według tego wyjaśnienia - pacjentki leżące w mijanych salach w stan przerażenia, którego następstwem była większa skłonność do zapadania na gorączkę połogową. Na drugim oddziale czynnik ten jakoby nie odgrywał roli, ponieważ ksiądz miał bezpośredni dostęp do sali umierających. Semmelweis postanowił sprawdzić to przypuszczenie. Nakłonił księdza, żeby chodził do chorych okrężną drogą i bez dzwonienia, tak by pacjentki nie wiedziały o jego wizytach. Lecz śmiertelność na pierwszym oddziale nie zmalała.

[7] Inną myśl podsunęło Semmelweisowi spostrzeżenie, że na pierwszym oddziale kobiety rodziły, leżąc na wznak, na drugim zaś, leżąc na boku. Choć wydawało mu się to mało prawdopodobne, postanowił - niczym przysłowiowy "tonący, który brzytwy się chwyta" - sprawdzić, czy różnica pozycji podczas porodu ma istotne znaczenie. Zarządził, by na pierwszym oddziale rodzące leżały na boku, lecz i po tej zmianie śmiertelność nie zmalała.

[8] Wreszcie na początku 1847 r. przypadek podsunął Semmelweisowi klucz do rozwiązania tego problemu. Jeden z jego kolegów, Kolletschka, został skaleczony skalpelem w palec przez studenta, wraz z którym dokonywał sekcji. Wkrótce potem zmarł, przy czym symptomy jego choroby były dokładnie takie same, jakie obserwowano u ofiar gorączki połogowej. Chociaż w owych czasach rola mikroorganizmów w infekcjach tego rodzaju była jeszcze nieznana, Semmelweis nabrał przekonania, że przyczyną śmiertelnej choroby Kolletschki była "trupia substancja", którą do jego krwi wprowadził skalpel studenta. Podobieństwo objawów choroby Kolletschki i gorączki, na którą zapadały pacjentki szpitala, naprowadziło Semmelweisa na myśl, że i one umierają z powodu takiego samego zatrucia krwi; on sam i jego koledzy, a także studenci praktykujący w szpitalu, są roznosicielami infekcyjnej substancji, przychodzą bowiem często do sal położnic bezpośrednio z pomieszczeń, w których dokonywali sekcji zwłok, i badają rodzące kobiety po powierzchownym tylko umyciu rąk, które zachowują jeszcze charakterystyczny zapach zgnilizny.

[9] Myśl tę Semmelweis również poddał sprawdzeniu. Doszedł do wniosku, że jeśli ma rację, to gorączce połogowej można zapobiec, usuwając chemicznie infekcyjną substancję, która pozostaje na rękach po sekcji. Wydał więc polecenie, żeby wszyscy studenci przed badaniem położnic myli ręce w roztworze wapna chlorowanego. Liczba zgonów z powodu gorączki połogowej natychmiast zaczęła maleć; w 1848 r. wynosiła już tylko 1,27% liczby rodzących na pierwszym oddziale, na drugim zaś - 1,33%.

[10] Za tym przypuszczeniem, czy też - jak będziemy często mówili - hipotezą, przemawiało również to, że tłumaczyła ona fakt systematycznie niższej liczby zgonów na drugim oddziale: pacjentkami opiekowały się tam położne, których praktyka nie obejmowała ćwiczeń z anatomii, wymagających dokonywania sekcji zwłok.

[11] Hipoteza ta tłumaczyła również mniejszą śmiertelność wśród kobiet, które urodziły dzieci w drodze do szpitala: po przybyciu już ich na ogół nie badano, dzięki czemu możliwość zakażenia była mniejsza.

[12] Ponadto hipoteza ta wyjaśniała fakt, że spośród nowo narodzonych dzieci ofiarami gorączki połogowej padały tylko te, których matki nabawiły się tej choroby podczas porodu: w tym przypadku bowiem infekcja mogła być przekazana dziecku przed urodzeniem, gdy krwiobieg matki i dziecka jest jeszcze wspólny; nie mogło się to zdarzyć dopóty, dopóki matka była zdrowa.

[13] Dalsze doświadczenia skłoniły Semmelweisa do rozszerzenia jego hipotezy. Na przykład pewnego razu badał on wraz z asystentami położnicę chorą na raka szyjki macicy; przed badaniem wszyscy, którzy brali w nim udział, starannie zdezynfekowali ręce. Później jednak obmyli je tylko powierzchownie, bez dezynfekcji, i przystąpili do zbadania dwunastu innych kobiet leżących w tej samej sali. Jedenaście z nich zmarło na gorączkę połogową. Semmelweis doszedł do wniosku, że przyczyną tej choroby mogą być nie tylko substancje pochodzące ze zwłok, lecz również "substancje gnilne z żywych organizmów".

Podstawowe kroki w testowaniu hipotezy

[14] Widzieliśmy, w jaki sposób Semmelweis badał rozmaite hipotezy, wysuwane jako możliwe odpowiedzi na pytanie o przyczynę gorączki połogowej. Jak dochodzi do sformułowania takich hipotez, to osobna interesująca kwestia, którą zajmiemy się nieco później. Przede wszystkim zastanówmy się, w jaki sposób hipoteza raz wysunięta jest poddawana testom sprawdzającym.

[15] Czasami procedura ta jest całkiem prosta. Weźmy pod uwagę przypuszczenie, że różnica liczby zgonów między dwoma oddziałami szpitala jest następstwem różnic w stopniu ich zagęszczenia, w rodzaju diety lub w ogólnej opiece nad pacjentkami. Semmelweis wykazał, że przypuszczenie to jest niezgodne z łatwymi do zaobserwowania faktami, nie ma bowiem takich różnic między obydwoma oddziałami. Hipoteza została więc odrzucona jako fałszywa.

[16] Zwykle jednak testowanie hipotezy bywa nie tak proste i bezpośrednie. Weźmy pod uwagę pogląd, zgodnie z którym wysoka liczba zgonów na pierwszym oddziale ma źródło w lęku, jakim napawa pacjentki pojawianie się księdza i jego pomocnika. Intensywność tego lęku, a zwłaszcza jego związek z gorączką połogową, nie da się ustalić w sposób tak bezpośredni jak różnica diety pacjentek lub zatłoczenia sal. Semmelweis posłużył się w tym przypadku pośrednią metodą testowania. Zadał sobie pytanie: czy istnieją łatwe do zaobserwowania fakty, które miałyby miejsce, gdyby hipoteza ta była prawdziwa? Jeżeli hipoteza ta jest prawdziwa - rozumował - to odpowiednia zmiana procedury odwiedzin księdza spowoduje spadek śmiertelności. Sprawdził tę implikację za pomocą prostego eksperymentu i stwierdził, że jest ona fałszywa; odrzucił przeto ową hipotezę.

[17] Podobnie chcąc sprawdzić przypuszczenie, że liczba ofiar gorączki połogowej zależy od pozycji podczas porodu, Semmelweis rozumował: jeżeli przypuszczenie to jest prawdziwe, to stosowanie pozycji bocznej na pierwszym oddziale spowoduje spadek śmiertelności. I w tym przypadku eksperyment wykazał fałszywość implikacji, hipoteza została więc odrzucona.

[18] W obu przypadkach test opiera się więc na rozumowaniu, które prowadzi do wniosku, że jeżeli rozważana hipoteza - oznaczmy ją przez organizmów - jest prawdziwa, to w określonych warunkach (np. gdy ksiądz przestanie przechodzić przez sale położnic lub gdy będą one rodzić, leżąc na boku) wystąpią pewne obserwowalne fakty, których się oczekuje. Umówmy się - dla wygody - mówić krótko, że I wynika lub daje się wywieść z H; nazwijmy przy tym implikacją testową hipotezy H (później scharakteryzujemy związek między I i H - w sposób bardziej ścisły).

[19] W ostatnich dwu przykładach eksperymenty wykazały, że implikacja testowa jest fałszywa, hipoteza została więc odrzucona. Rozumowanie, które prowadzi do odrzucenia hipotezy, można przedstawić schematycznie w następującej postaci:

Jeżeli H jest prawdziwa, to I jest prawdziwa.
(2a)     Ale (jak pokazuje doświadczenie)I nie jest prawdziwa   
H nie jest prawdziwa.

Wszelkie rozumowanie przeprowadzane według tego schematu (nazywanego w logice modus tollens) jest dedukcyjne, a więc niezawodne; znaczy to, że jeśli przesłanki takiego rozumowania (tj. zdania umieszczone nad poziomą kreską) są prawdziwe, również jego konkluzja (tj. zdanie znajdujące się pod kreską) jest niewątpliwie prawdziwa. O ile więc przesłanki rozumowania typu (2a) zostały zasadnie przyjęte, to hipoteza H, którą poddaje się testowi, musi być odrzucona.

[20] Rozważmy teraz przypadek, w którym obserwacja lub eksperyment potwierdza implikację tes­tową I. Wysunąwszy hipotezę, zgodnie z którą gorączka połogowa polega na zatruciu krwi substancjami pochodzącymi ze zwłok, Semmelweis doszedł do wniosku, że odpowiednia aseptyka zredukuje liczbę zachorowań. Eksperyment wykazał, że w tym przypadku implikacja testowa jest prawdziwa. Lecz pozytywny wynik tego eksperymentu nie dowiódł w sposób konkluzywny prawdziwości hipotezy, ponieważ rozumowanie, które prowadzi do takiego wniosku, podpada pod schemat:

Jeżeli H jest prawdziwa, to I jest prawdziwa.
(2b)    (Jak pokazuje doświadczenie) I jest prawdziwa.   
H jest prawdziwa.

Tymczasem ten sposób rozumowania nie jest dedukcyjny: konkluzja może okazać się fałszywa nawet wtedy, gdy przesłanki są prawdziwe. Doświadczenie Semmelweisa jest właśnie ilustracją tego faktu. Pierwsza wersja jego hipotezy, tłumaczącej gorączkę połogową jako pewnego typu zatrucie krwi, wskazywała substancje pochodzące ze zwłok jako jedyne źródło tej choroby. Rozumował on słusznie, sądząc, że jeśli hipoteza ta jest prawdziwa, to usuwanie owych substancji z rąk lekarzy za pomocą środków odkażających zmniejszy liczbę zgonów. Eksperyment wykazał, że implikacja testowa tej hipotezy jest prawdziwa. Zatem obie przesłanki rozumowania według schematu (2b) były prawdziwe. Jednakże hipoteza była fałszywa, bowiem - jak się później okazało - gorączkę połogową mogły spowodować również gnilne substancje pochodzące z żywych organizmów.

[21] Tak więc pozytywny wynik testu, tj. fakt, że wywnioskowana z hipotezy implikacja testowa okazuje się prawdziwa, nie dowodzi prawdziwości hipotezy. Nawet wówczas, gdy doświadczenie potwierdza wiele implikacji hipotezy, ona sama może jednak być fałszywa. Rozumowanie o schemacie:

            Jeżeli H jest prawdziwa, to I1, I2,…, In są prawdziwe.
(2c)        (Jak pokazuje doświadczenie) I1, I2,…, In są prawdziwe    
            H jest prawdziwa.

zawiera bowiem ten sam błąd co rozumowanie typu (2b).

[22] I w tym przypadku pierwsza wersja ostatniej hipotezy Semmelweisa może służyć jako ilustracja. Jak pamiętamy, jedną z jej implikacji testowych było twierdzenie, że wśród pacjentek pierwszego oddziału, które urodziły w drodze do szpitala, liczba zmarłych na gorączkę połogową powinna być niniejsza od przeciętnej. Inną implikacją była teza, że dzieci zdrowych matek nie zapadają na gorączkę połogową. Także i te implikacje zostały potwierdzone przez doświadczenie, mimo że pier­wsza wersja ostatniej hipotezy Semmelweisa była fałszywa.

[23] Jednakże stwierdzenie, że pozytywny wynik dowolnie wielu testów nie dowodzi prawidłowości hipotezy, nie powinno prowadzić do wniosku, że poddając hipotezę wielu testom i uzyskując same pozytywne wyniki, pozostajemy w tej samej sytuacji, w jakiej znajdowaliśmy się, zanim zaczęliśmy ją sprawdzać. Wszak każdy z naszych testów mógł mieć wynik negatywny, a więc prowadzić do odrzucenia hipotezy. Ogół pozytywnych wyników, które uzyskaliśmy przez ustalenie prawdziwości rozmaitych implikacji testowych I1, I2,…, In naszej hipotezy, świadczy o tym, że w każdym razie w zakresie tych właśnie implikacji hipoteza została potwierdzona. Mimo że w ten sposób nie otrzymuje się pełnego dowodu prawdziwości hipotezy, to jednak jest to pewne świadectwo na rzecz tej hipotezy, jej częściowe potwierdzenie, czyli konfirmacja. Stopień takiego potwierdzenia zależy od rozmaitych własności samej hipotezy i danych testowych. Będzie o tym mowa w rozdziale czwartym.

[24] Rozważmy jeszcze jeden przykład, który uświadomi nam pewne inne aspekty badań naukowych.

[25] Od czasów Galileusza, a być może jeszcze wcześniej, wiedziano, że prosta pompa ssąca, która ciągnie wodę ze studni za pomocą tłoka, może podnieść tę wodę nie wyżej niż ok. 10 m ponad powierzchnię studni. Galileusz, zaintrygowany tym ograniczeniem, podał pewne jego wyjaśnienie, które jednak okazało się błędne. Po śmierci Galileusza jego uczeń Torricelli wysunął nowe rozwiązanie. Twierdził on, że Ziemię otacza ocean powietrza, które wskutek swego ciężaru wywiera nacisk na powierzchnie znajdujące się pod nim, i że właśnie ten nacisk na powierzchnię wody w studni wtłacza ją do pompy w chwili, gdy tłok jest podnoszony. Maksymalna wysokość (10 m) słupa wody w pompie odpowiada po prostu wielkości ciśnienia atmosferycznego na powierzchni studni.

[26] Jest oczywiste, że nie sposób wskazać żadnej bezpośredniej obserwacji, która pozwoliłaby stwierdzić poprawność tego wyjaśnienia. Torricelli sprawdził je pośrednio. Doszedł do wniosku, że jeżeli jego przypuszczenie jest prawdziwe, to ciśnienie atmosfery powinno podtrzymywać proporcjonalnie krótszy słup rtęci; ponieważ ciężar właściwy rtęci jest ok. 14 razy większy niż wody, długość takiego słupka rtęci powinna wynosić ok. 10/14 m. Sprawdził tę implikację testową za pomocą prostego, lecz pomysłowego urządzenia, które było w istocie barometrem rtęciowym. Studnię z wodą zastępowało tu otwarte naczynie zawierające rtęć, pompę ssącą - zamknięta z jednej strony rurka szklana. Rurka została całkowicie napełniona rtęcią, eksperymentator zacisnął mocno palcem jej otwarty koniec, po czym odwrócił go, zanurzając ten koniec w rtęci, która znajdowała się w naczyniu, i cofnął palec; słupek rtęci w rurce opadł wówczas do wysokości ok. 75 cm - a więc prawie dokładnie tak, jak pozwalała przewidywać hipoteza Torricellego.

[27] Dalszą implikację testową tej hipotezy wskazał Pascal, który zauważył, że jeśli rtęć w barometrze Torricellego jest równoważona przez ciśnienie powietrza na otwarte naczynie, to wysokość słupka rtęci powinna być mniejsza na większych wysokościach, ponieważ ciężar otaczającego powietrza jest tam mniejszy. Następstwo to sprawdził na prośbę Pascala Périer. Zmierzył on wysokość słupka rtęci w barometrze Torricellego u stóp góry Puy-de-Dôme, liczącej 1450 m wysokości, po czym przeniósł aparat na szczyt góry i powtórzył pomiar, pozostawiając u jej podnóża barometr kontrolny pod opieką swego pomocnika. Périer stwierdził, że słupek rtęci był na szczycie o ponad 7 cm krótszy niż u podnóża, podczas gdy długość słupka rtęci w barometrze kontrolnym nie zmieniła się w ogóle w ciągu całego dnia.

Rola indukcji w badaniu naukowym

[28] Rozważaliśmy przykłady dociekań naukowych, w toku których poszukiwało się rozwiązania problemu, formułując próbne odpowiedzi w postaci hipotez, a następnie poddając je testom; testowanie to polegało na wywnioskowaniu z hipotez odpowiednich implikacji testowych i sprawdzeniu ich za pomocą obserwacji lub eksperymentu.

[29] Jak jednak dochodzi do sformułowania takiej hipotezy? Niektórzy utrzymują, że hipotezy są wyprowadzane z zebranych uprzednio danych za pomocą procedury zwanej wnioskowaniem indukcyjnym i przeciwstawianej wnioskowaniu dedukcyjnemu, które różni się od niej pod ważnymi względami.

[30] W poprawnym rozumowaniu dedukcyjnym stosunek zachodzący między konkluzją a przesłankami charakteryzuje się tym, że jeśli przesłanki są prawdziwe, to konkluzja nie może być fałszywa. Warunkowi temu czyni zadość np. każde rozumowanie, które przebiega według następującego ogólnego schematu:

Jeżeli p, to q.
    Nieprawda, że q.   
Nieprawda, że p.

Wystarczy krótki namysł, aby uprzytomnić sobie, że niezależnie od tego, jakie zdania występują na miejscach liter p i q, konkluzja ta będzie niewątpliwie prawdziwa, jeśli przesłanki są prawdziwe. Schemat powyższy reprezentuje formę wniosków zwaną modus tollens, na którą powoływaliśmy się już uprzednio.

[31] Inny rodzaj wnioskowań dedukcyjnych ilustruje następujący przykład:

Każda sól sodowa umieszczona w płomieniu palnika Bunsena zabarwia płomień na żółto.
                                 Ten oto kawałek soli kamiennej jest solą sodową                                                .
Ten kawałek soli kamiennej umieszczony w płomieniu palnika Bunsena zabarwi płomień na żółto.

[32] O rozumowaniach ostatniego rodzaju mówi się często, że prowadzą od ogółu (w tym przypadku od przesłanki o każdej soli sodowej) do szczegółu (w tym przypadku do konkluzji o pewnym określonym kawałku soli kamiennej). W przeciwieństwie do nich wnioskowania indukcyjne charakteryzuje się zwykle jako prowadzące od przesłanek o poszczególnych przypadkach do konkluzji, która jest ogólnym prawem lub zasadą; na przykład od przesłanek głoszących, że każda poszczególna porcja rozmaitych soli sodowych, które dotąd poddano próbie z płomieniem palnika Bunsena, powodowała zabarwienie się tego płomienia na kolor żółty, do ogólnej konkluzji w postaci twierdzenia, że każda sól sodowa umieszczona w płomieniu palnika Bunsena barwi płomień na żółto. Jednakże tutaj prawdziwość przesłanek nie gwarantuje, oczywiście, prawdziwości konkluzji; jeśli bowiem nawet jest tak, iż każda zbadana dotąd porcja soli sodowej powodowała żółte zabarwienie płomienia palnika Bunsena, to jednak pozostaje rzeczą całkiem możliwą, że znajdziemy taki nowy rodzaj soli sodowej, który zachowa się niezgodnie z tym ogólnym twierdzeniem. Nadto nawet te rodzaje soli sodowej, które zostały już zbadane z pozytywnym wynikiem, mogą nie spełnić powyższego uogólnienia w pewnych szczególnych warunkach (np. w bardzo silnym polu magnetycznym itp.), w których nie były dotąd badane. Z tego powodu mówi się często, że we wnioskowaniu indukcyjnym konkluzja wynika z przesłanek tylko z większym lub mniejszym prawdopodobieństwem, podczas gdy we wnioskowaniu dedukcyjnym wynika ona z przesłanek z całkowitą pewnością.

[33] Pogląd, zgodnie z którym rola wnioskowania indukcyjnego w badaniu naukowym polega na tym, iż od zebranych uprzednio danych empirycznych pozwala ono przejść do odpowiednich twierdzeń ogólnych, występuje wyraźnie w następującym opisie ideału postępowania badawczego:

Jeśli spróbujemy wyobrazić sobie, w jaki sposób posługiwałby się metodą naukową umysł o nadludzkiej sprawności i sile, a zarazem nie różniący się od ludzkiego pod względem logicznym, to proces ten przebiegałby, jak następuje: Najpierw byłyby obserwowane i opisywane wszystkie fakty, bez jakiejkolwiek selekcji i apriorycznych domysłów dotyczących ich względnej doniosłości. Następnie zaobserwowane i opisane fakty stałyby się przedmiotem analizy, porównań i klasyfikacji, bez udziału jakichkolwiek hipotez czy postulatów oprócz tych, które zakłada logika myślenia. W trzecim kroku z tej analizy faktów zostałyby indukcyjnie wyprowadzone uogólnienia dotyczące klasyfikacyjnych lub przyczynowych związków między faktami. Jako czwarte stadium wystąpiłyby procesy dedukcji i indukcji, których punktem wyjścia byłyby ustalone poprzednio uogólnienia. [A. B. Wolfe, "Functional Economics"]

[34] Zostały tu wyróżnione cztery stadia idealnego badania naukowego: (1) obserwacja i opis wszystkich faktów, (2) analiza i klasyfikacja tych faktów, (3) indukcyjne wywodzenie z nich uogólnień oraz (4) dalsze testowanie uogólnień. O pierwszych dwóch stadiach zakłada się przy tym, że nie odgrywają w nich roli żadne przypuszczenia czy hipotezy dotyczące wzajemnych związków między zaobserwowanymi faktami; warunek ten zdaje się być dyktowany przekonaniem, że takie aprioryczne domysły wniosłyby do badań tendencyjność, zagrażając ich naukowemu obiektywizmowi.

[35] Jednakże pogląd wyrażony w cytowanym frag­mencie - będziemy go nazywać wąskoindukcjonistyczną koncepcją badania naukowego - jest z wielu powodów nie do utrzymania. Krótki przegląd tych powodów pozwoli nam rozwinąć i uzupełnić poczynione poprzednio uwagi na temat procedury badań naukowych.

[36] Przede wszystkim tak rozumiane badanie naukowe jest w ogóle niewykonalne. Już pierwszej jego fazy nie można by nigdy zrealizować, gdyż na zebranie wszystkich faktów trzeba by czekać do końca świata; nawet wszystkich dotychczasowych faktów nie można by zgromadzić, ponieważ jest ich nieskończona ilość i rozmaitość. Czyż możemy np. zbadać wszystkie ziarenka piasku na wszystkich pustyniach i plażach świata, opisując kształt, ciężar i skład chemiczny każdego z nich, ich wzajemne odległości, stale zmieniającą się temperaturę i równie zmienną w czasie odległość od środka Księżyca? Czy jesteśmy w stanie zanotować wszystkie myśli, które przychodzą nam do głowy, gdy się nudzimy? Albo opisać kształty wszystkich chmur, które przepłynęły nad naszą głową, zmieniający się koloryt nieba czy też budowę i nazwy firmowe wszystkich naszych przyborów do pisania? Czy możemy sporządzić opis wszystkich wydarzeń z naszego własnego życia lub z życia naszych znajomych? A przecież wymienione tu fakty należą - wraz z niezliczoną ilością innych - do tych, które wydarzyły się dotychczas.

[37] Może zatem należy słabiej interpretować warunek stawiany pierwszej fazie badań, mianowicie jako postulat, żeby zebrane zostały wszystkie istotne fakty. Ale ze względu na co istotne? Choć autor o tym nie wspomina, załóżmy, że badanie dotyczy pewnego określonego problemu. Czy możemy je rozpocząć, zbierając wszystkie fakty - ściślej, wszystkie osiągalne dane - istotne dla tego problemu? Pojęcie to nadal nie ma wyraźnego sensu. Semmelweis szukał rozwiązania pewnego określonego problemu, a przecież zbierał różne rodzaje danych w rozmaitych stadiach swoich badań. I postępował słusznie, bowiem rodzaj danych, jakie należy gromadzić, nie jest wyznaczony przez problem, który chce się rozwiązać, lecz przez odpowiedź, przyjmowaną przez badacza na próbę, w formie przypuszczenia czy hipotezy. Przypuszczając, że liczbę ofiar gorączki połogowej zwiększa budzące grozę pojawienie się księdza i dźwięk żałobnego dzwonka, należało zebrać jako istotne dane te fakty, które dotyczyły następstw zmiany w procedurze wizyt księdza; mając na oku tę hipotezę, było rzeczą zupełnie niecelową sprawdzać, jakie konsekwencje mieć będzie systematyczne dezynfekowanie rąk przez lekarzy i studentów przystępujących do badania pacjentek. Natomiast te ostatnie dane były istotne ze względu na końcową hipotezę Semmelweisa, a dane poprzedniego rodzaju były dla niej całkowicie nieistotne.

[38] Tak więc "fakty" czy ustalenie empiryczne można kwalifikować jako logicznie istotne lub nieistotne tylko ze względu na określoną hipotezę, nie zaś ze względu na dany problem.

[39] Załóżmy, że jako próbną odpowiedź na jakiś problem badawczy wysunięto hipotezę H; jaki rodzaj danych jest istotny dla H? Rozważane wyżej przykłady sugerują następującą odpowiedź: fakt jest istotny dla H, jeśli z H można wywnioskować, że fakt ten wystąpi bądź że nie wystąpi. Weźmy np. hipotezę Torricellego. Jak wiemy, Pascal wyprowadził z niej wniosek, że wysokość słupka rtęci w barometrze wniesionym na szczyt góry powinna się zmniejszyć. Zatem istotne dla tej hipotezy było stwierdzenie, że tak właśnie w pewnym przypadku się stało. Istotne byłoby jednak również stwierdzenie, że podczas wspinania się na górę wysokość słupka rtęci w barometrze nie zmieniła się lub że malała, a następnie wzrosła, ustalenie bowiem każdego takiego faktu obaliłoby implikację testową Pascala, przecząc tym samym hipotezie Torricellego. Dane pierwszego rodzaju można by nazwać pozytywnie istotnymi, dane zaś drugiego rodzaju negatywnie istotnymi dla tej hipotezy.

[40] Wobec tego jednak zasada głosząca, że dane należy gromadzić, nie kierując się żadną wcześniej przyjętą hipotezą dotyczącą związku między badanymi faktami, jest wręcz samobójcza i z pewnością nie przestrzegana w praktyce badań naukowych. Przeciwnie, próbne hipotezy są nieodzowne do tego, by badaniu naukowemu nadać jakiś kierunek. Hipotezy takie określają m.in. rodzaj danych, które należy gromadzić w określonym stadium badania.

[41] Jest rzeczą interesującą, że socjologowie, którzy, chcąc sprawdzić jakąś hipotezę, sięgają do bogatego zasobu faktów odnotowanych przez Urząd Demograficzny lub inną organizację gromadzącą dane socjologiczne, często ku swemu rozczarowaniu stwierdzają, że wartości pewnej zmiennej, odgrywającej podstawową rolę w ich hipotezie, nie są nigdzie systematycznie notowane. Wspominamy o tym nie po to, oczywiście, aby krytykować pracowników instytucji gromadzących dane; na pewno starają się oni wybierać takie fakty, które mogą okazać się istotne dla wysuwanych w przyszłości hipotez. Powyższe spostrzeżenie jest po prostu ilustracją faktu, że zgromadzenie "wszystkich istotnych danych" jest niemożliwe dopóty, dopóki nie została sformułowana hipoteza, dla której dane te mają być istotne.

[42] Charakterystyce drugiego stadium badania naukowego, podanej w cytowanym fragmencie, można postawić podobne zarzuty. Zbiór faktów empirycznych można analizować i klasyfikować na wiele różnych sposobów, z których większość nie rzuca żadnego światła na problem będący przedmiotem badań. Semmelweis mógł pogrupować położnice w swoim szpitalu według takich kryteriów, jak wiek, miejsce zamieszkania, stan cywilny, rodzaj diety itp., lecz informacje tego typu nie dostarczyłyby mu odpowiedzi na pytanie, czy pacjentce grozi zachorowanie na gorączkę połogową. Tym, czego szukał Semmelweis, były kryteria związane wyraźnie z tą właśnie perspektywą, a dla tego celu - jak się ostatecznie okazało - istotne było wyodrębnienie kobiet badanych przez lekarzy i studentów o skażonych rękach; wysoka śmiertelność z powodu gorączki połogowej była bowiem związana właśnie z tą cechą czy też z odpowiadającą jej klasą pacjentek.

[43] Tak więc jeśli sposób analizowania i klasyfikowania faktów empirycznych ma prowadzić do wyjaśnienia badanych zjawisk, to musi on opierać się na jakiejś hipotezie dotyczącej wzajemnego związku tych zjawisk; jeśli hipotezy takiej nie ma, analiza i klasyfikacja jest bezcelowa.

[44] Nasza krytyka podanego w cytacie opisu pierwszych dwóch stadiów badania naukowego podważa także pogląd, że hipotezy wprowadzane są do badań tylko w trzecim stadium, w drodze indukcyjnego wywnioskowania ich ze zgromadzonych uprzednio danych. Warto jednak dodać jeszcze kilka uwag na ten temat.

[45] Indukcję pojmuje się czasem jako metodę, która przez mechaniczne stosowanie reguł prowadzi od zaobserwowanych faktów do odpowiednich twierdzeń ogólnych. Gdyby tak było, reguły wnioskowania indukcyjnego stanowiłyby efektywne kanony postępowania badawczego; indukcja byłaby mechaniczną procedurą o charakterze podobnym do znanej procedury mnożenia liczb całkowitych, która w wyniku skończenie wielu z góry ustalonych i mechanicznie wykonywanych kroków prowadzi od zadanych liczb do ich iloczynu. W rzeczywistości jednak żadną tak ogólną i mechaniczną procedurą indukcji dotąd nie dysponujemy; w przeciwnym wypadku wszystkie problemy badane tak pracowicie, jak np. zagadnienie przyczyn zachorowań na raka, na pewno byłyby już rozwiązane. Nie należy też oczekiwać, że procedura taka zostanie kiedyś odkryta. Jedną z przyczyn tego stanu rzeczy jest fakt, że hipotezy i teorie naukowe są zwykle formułowane przy użyciu terminów w ogóle nie występujących w opisie danych empirycznych, na których są one oparte i których wyjaśnieniu mają służyć. Na przykład teorie atomowej i wewnątrzatomowej struktury materii zawierają takie terminy, jak "atom", "elektron", "proton", "neutron", "funkcja Ψ" itp., a przecież opierają się na danych laboratoryjnych dotyczących widm rozmaitych gazów, śladów w komorach Wilsona i komorach pęcherzykowych, ilościowych aspektów reakcji chemicznych itp., a więc faktów, z których każdy można opisać bez użycia tych "terminów teoretycznych". Reguły indukcji w rozważanym tu ujęciu musiałyby więc stanowić mechaniczną procedurę konstruowania hipotez i teorii sformułowanych w zupełnie nowych terminach, nie występujących w ogóle w opisie danych empirycznych, które mają być punktem wyjścia tej procedury. Z całą pewnością nie należy oczekiwać, że taka ogólna mechaniczna procedura zostanie kiedykolwiek opracowana. Czyż może istnieć np. ogólna reguła, której zastosowanie do danych, jakimi dysponował Galileusz na temat ograniczonego działania pompy ssącej, doprowadzi automatycznie do hipotezy opartej na pojęciu ciśnienia atmosferycznego?

[46] Co prawda, dla pewnych szczególnych, względnie prostych typów sytuacji problemowych można wskazać takie mechaniczne procedury indukcyjnego "wywodzenia" hipotezy na podstawie danych empirycznych. Na przykład jeśli wykonano pomiary długości pręta miedzianego w rozmaitych temperaturach, to otrzymane pary odpowiadających sobie wartości temperatury i długości pręta można przedstawić jako punkty na płaszczyźnie w ustalonym układzie współrzędnych i poprowadzić przez nie krzywą, zgodnie ze stosowną regułą wyznaczania takiej krzywej. Krzywa ta będzie graficznym odpowiednikiem ogólnej hipotezy ilościowej, która wyraża długość pręta jako pewną określoną funkcję jego temperatury. Zauważmy jednak, że hipoteza ta nie zawiera żadnych nowych terminów: jest ona sformułowana za pomocą pojęć temperatury i długości, które występują także w opisie danych empirycznych. Nadto samo ustalanie "odpowiadających sobie" wartości temperatury i długości zakłada już pewną hipotezę przewodnią; a mianowicie że z każdą wartością temperatury związana jest dokładnie jedna wartość długości pręta miedzianego, tak iż jego długość jest istotnie funkcją temperatury. Mechaniczna procedura wyznaczania krzywej służy więc tylko do ustalenia tej szczególnej funkcji, która wchodzi tu w grę. Jest to nader istotne; załóżmy bowiem, że zamiast miedzianego pręta badamy pewną porcję azotu, która znajduje się w cylindrycznym pojemniku zamkniętym za pomocą ruchomego tłoka, i mierzymy jej objętość w rozmaitych temperaturach. Jeśli zechcemy zastosować tę procedurę w celu otrzymania na podstawie danych empirycznych ogólnej hipotezy wyrażającej objętość gazu jako funkcję jego temperatury, to popełnimy błąd; objętość gazu jest bowiem funkcją dwóch wielkości, mianowicie temperatury i ciśnienia wywieranego na gaz, tak że w tej samej temperaturze dana porcja gazu może mieć różną objętość.

[47] Tak więc nawet w tych prostych przypadkach mechaniczne procedury konstruowania hipotezy wypełniają tylko część zadania, zakładają bowiem istnienie uprzednio sformułowanej hipotezy (głoszącej, że pewna zmienna jest funkcją pewnej innej, jednej zmiennej), której sama ta procedura nie określa.

[48] Nie ma zatem żadnych ogólnie obowiązujących "reguł indukcji", za pomocą których hipotezy i teorie można by mechanicznie wywodzić czy wywnioskowywać z danych empirycznych. Przejście od danych do teorii wymaga udziału wyobraźni twórczej. Hipotezy i teorie naukowe nie są wywodzone z zaobserwowanych faktów, lecz wymyślane w celu ich wyjaśnienia. Są one domysłami dotyczącymi związków, które mogą zachodzić między badanymi zjawiskami, prawidłowości i zasad, które mogą rządzić ich występowaniem. "Szczęśliwe pomysły" tego rodzaju wymagają wielkiej wyobraźni, zwłaszcza wtedy, gdy są związane z radykalnym odejściem od przyjętego w nauce sposobu myślenia, czego przykładem jest teoria względności i teoria kwantów. Inwencji twórczej, nieodzownej w badaniu naukowym, pomaga dokładna znajomość osiągniętej już wiedzy w danej dziedzinie. Zupełni nowicjusze rzadko dokonują ważnych odkryć naukowych, ponieważ ich pomysły bywają najczęściej powtórzeniem czegoś, co brano już wcześniej pod uwagę, lub też kłócą się z ustalonymi w nauce faktami czy teoriami, które nie są im znane.

[49] Jednakże drogi, którymi dochodzi się do owocnych hipotez naukowych, różnią się zasadniczo od wszelkich procesów systematycznego wnioskowania. Chemik niemiecki Kekule pisze, że długo nie udawało mu się obmyślić strukturalnego wzoru benzenu, aż wreszcie pewnego wieczoru w 1865 r. znalazł rozwiązanie tego problemu podczas drzemki przy kominku. Tańczące płomienie ognia wydały mu się atomami, podobnymi do gromady poruszających się węży. W pewnej chwili jeden z węży utworzył pierścień, chwytając własny ogon, i zawirował wesoło. Kekule doznał nagle olśnienia: w jego umyśle zaświtała znana dziś powszechnie słynna idea przedstawiania struktury cząsteczki benzenu za pomocą sześciokątnego pierścienia. Resztę tej nocy spędził na wyprowadzaniu konsekwencji ze swej hipotezy.

[50] To ostatnie zdanie przypomina o ważnym aspekcie obiektywności nauki. Dążąc do rozwiązania problemu, uczony może puszczać wodze wyobraźni, a jego myśl twórcza może nawet pozostawać pod wpływem pojęć, których wartość naukowa jest wątpliwa; przykładem są badania Keplera nad ruchem planet, inspirowane przez wiarę w mistyczną teorię liczb i przez zamiar uchwycenia muzyki ciał niebieskich. Na straży obiektywności nauki stoi jednak zasada, że o ile hipotezy i teorie można w nauce swobodnie konstruować i proponować, o tyle akceptowane i wcielone do wiedzy naukowej mogą być one tylko wtedy, gdy przejdą próbę dokładnego, krytycznego badania, które w szczególności obejmuje sprawdzenie odpowiednich implikacji testowych za pomocą starannej obserwacji lub eksperymentu.

[51] Jest rzeczą interesującą, że wyobraźnia i pomysłowość odgrywają równie ważną rolę w tych dyscyplinach, których wyniki są uprawomocniane wyłącznie w drodze rozumowania dedukcyjnego, na przykład w matematyce, bowiem reguły wnioskowania dedukcyjnego również nie dostarczają mechanicznych metod dokonywania odkryć. Jak pokazuje przykład podanego wyżej modus tollens, reguły te formułowane są zwykle w postaci ogólnych schematów, których każdy przypadek szczególny jest poprawnym wnioskowaniem dedukcyjnym. Gdy dane są określone przesłanki, taki schemat istotnie wyznacza drogę prowadzącą do ich logicznej konsekwencji. Ale dla każdego zbioru przesłanek reguły wnioskowania dedukcyjnego wskazują nieskończenie wiele konkluzji dedukcyjnych. Weźmy np. pod uwagę prostą regułę, którą przedstawia schemat:

       p        
p
lub q

Schemat ten głosi, że ze stwierdzenia, iż zachodzi p, wynika, że zachodzi p lub q, przy czym p i q mogą być dowolnymi zdaniami. Termin "lub" występuje tu w sensie "nierozłącznym", tak iż "p lub q" znaczy tyle co "bądź p, bądź q, bądź jednocześnie p i q". Jeśli przesłanka we wnioskowaniu tego typu jest prawdziwa, to konkluzja również musi być prawdziwa, zatem każde takie wnioskowanie jest poprawne. Ale ta jedna reguła pozwala nam wyprowadzić z każdej przesłanki nieskończenie wiele różnych konsekwencji. Tak więc ze zdania "Księżyc nie ma atmosfery" wolno nam na mocy tej reguły wywnioskować dowolne zdanie postaci "Księżyc nie ma atmosfery lub q", w którym zamiast "q" możemy wpisać jakiekolwiek zdanie, niezależnie od tego, czy jest ono prawdą, czy fałszem; na przykład "warstwa atmosfery na Księżycu jest bardzo cienka", "Księżyc jest niezamieszkany", "złoto ma większą gęstość niż srebro", "srebro ma większą gęstość niż złoto" itd. (Jest rzeczą interesującą i łatwą do udowodnienia, że w każdym języku etnicznym można sformułować nieskończenie wiele różnych zdań; każde z nich może zająć miejsce zmiennej "q"). Inne reguły dedukcyjne wzbogacają oczywiście rozmaitość zdań, które można wywnioskować z danej przesłanki lub zbioru przesłanek. Gdy zatem mamy dany pewien zbiór zdań jako przesłanki, reguły dedukcji nie wyznaczają żadnego określonego kierunku w naszej procedurze wnioskowania. Nie wyodrębniają one żadnego zdania jako jedynej konkluzji, którą powinniśmy wywieść z posiadanych przesłanek, nie informują też, w jaki sposób otrzymywać konkluzje interesujące i ważne; nie dostarczają np. żadnych mechanicznych zasad wywodzenia doniosłych twierdzeń matematycznych z danych postulatów. Odkrycie ważnego, płodnego twierdzenia matematycznego, podobnie jak odkrycie doniosłej i owocnej teorii w nauce empirycznej, wymaga wyobraźni twórczej i szczęśliwego pomysłu. Ale i tutaj obowiązuje - w interesie obiektywności nauki - zasada obiektywnego uprawomocniania przypuszczeń. W matematyce jest to postulat przeprowadzenia dowodu na podstawie aksjomatów za pomocą wnioskowania dedukcyjnego. Gdy zaś pewne zdanie matematyczne zostaje wysunięte jako przypuszczenie, udowodnienie go lub obalenie wymaga również wyobraźni i pomysłowości, często bardzo wielkiej; reguły wnioskowania dedukcyjnego nie wyposażą nas bowiem w ogólną, mechaniczną procedurę konstruowania dowodów lub kontrdowodów. Ich rola jest raczej skromna, służą mianowicie tylko jako kryteria prawomocności wnioskowania, które ma być dowodem: wnioskowanie jest poprawnym dowodem matematycznym, jeśli prowadzi od aksjomatów do udowadnianego twierdzenia za pośrednictwem łańcucha kroków dowodowych, z których każdy jest uprawniony na mocy pewnej reguły dedukcyjnej. Sprawdzenie, czy dane wnioskowanie stanowi dowód w tym sensie poprawny, jest istotnie zadaniem czysto mechanicznym.

[52] Jak widzimy, wiedzy naukowej nie osiąga się przez stosowanie jakiejś indukcyjnej procedury inferencyjnej do zebranych uprzednio danych, lecz w drodze, która bywa często nazywana "metodą hipotezy", tj. przez obmyślanie próbnych rozwiązań badanego problemu i poddawanie ich empirycznemu testowi. Jednym z elementów takiego testu jest ustalenie, czy hipoteza została wysunięta na podstawie jakichś danych empirycznych, zebranych przed jej sformułowaniem; hipoteza, którą zamierza się przyjąć, powinna być zgodna z odpowiednimi, znanymi już faktami. Inny aspekt testowania polega na wywodzeniu z hipotezy nowych implikacji testowych i sprawdzaniu ich za pomocą odpowiednich obserwacji lub ekspe­rymentów. Jak już mówiliśmy, nawet wielokrotne poddawanie hipotezy takim próbom z wynikami wyłącznie pozytywnymi nie prowadzi do jej konkluzywnej weryfikacji, lecz jedynie potwierdza ją w mniejszym lub większym stopniu. Tak więc jakkolwiek badanie naukowe nie jest z pewnością indukcyjne w rozważanym tu, wąskim sensie, to jednak można je nazwać indukcyjnym w sensie szerszym, zawiera bowiem akceptację hipotez na podstawie danych, które nie dostarczają im konkluzywnych dowodów, lecz udzielają w rozmaitym stopniu "indukcyjnego poparcia", czyli konfirmacji. Wszelkie "reguły indukcji" powinny być traktowane - podobnie jak reguły dedukcji - raczej jako zasady uprawomocniania niż odkrywania prawd naukowych. Reguły te nie mają wpływu na powstawanie hipotez tłumaczących pewne dane empiryczne; możliwość ich zastosowania jest uwarunkowana wcześniejszym istnieniem zarówno owych danych, które są "przesłankami" wnioskowania indukcyjnego, jak i próbnej hipotezy reprezentującej "konkluzję" takiego wnioskowania. Reguły indukcji stanowią więc kryteria prawomocności wnioskowania. Według niektórych teorii indukcji reguły te wyznaczają stopień, w jakim hipoteza potwierdzona jest przez dane, i pozwalają wyrazić ten stopień w kategoriach prawdopodobieństwa. W następnych dwu rozdziałach rozważymy rozmaite czynniki, które wpływają na indukcyjne potwierdzenie i akceptowalność hipotez naukowych.

Rozdział 3
TESTOWANIE HIPOTEZY: LOGIKA I MOC UZASADNIAJĄCA TESTU

Testy eksperymentalne i nieeksperymentalne

[1] Zajmijmy się teraz bardziej szczegółowo rozumowaniem, na którym opierają się testy naukowe, oraz konkluzjami, do których upoważniają ich wyniki. Będziemy, podobnie jak poprzednio, określać terminem "hipoteza" każde twierdzenie testowalne, niezależnie od tego, czy jest ono opisem pewnego jednostkowego faktu lub zdarzenia, czy też ma wyrażać ogólne prawo albo jakiś inny, jeszcze bardziej złożony sąd.

[2] Zacznijmy od prostego spostrzeżenia, do którego będziemy się często odwoływać w dalszych naszych rozważaniach: implikacje testowe hipotez naukowych mają zazwyczaj charakter warunkowy; głoszą one, że w pewnych określonych warunkach wystąpi pewne określone zjawisko. Zdaniom takim można nadać postać explicite warunkową, formułując je według następującego schematu:

(3a)     Jeśli będzie spełniony warunek C, to wystąpi zdarzenie E.

[3] Na przykład jedna z hipotez, którą brał pod uwagę Semmelweis, miała jako implikację testową zdanie:

Jeśli pacjentki pierwszego oddziału będą rodzić, leżąc na boku, to śmiertelność spowodowana gorączką połogową zmaleje.

Jedna zaś z implikacji testowych jego ostatecznej hipotezy głosiła:

Jeśli osoby opiekujące się położnicami na pierwszym oddziale będą myły ręce w roztworze wapna chlorowanego, to śmiertelność spowodowana gorączką połogową zmaleje.

[4] Podobnie wśród implikacji testowych hipotezy Torricellego było zdanie warunkowe:

Jeśli barometr Torricellego będzie wnoszony na coraz większą wysokość, to słupek rtęci będzie opadał coraz niżej.

[5] Implikacje testowe tego rodzaju są więc implikacjami w dwojakim sensie: są one implikacjami hipotez, z których zostały wyprowadzone, a nadto mają postać zdań warunkowych, które w logice nazywa się zdaniami implikacyjnymi lub krótko implikacjami.

[6] W każdym z trzech cytowanych powyżej przykładów zrealizowanie odpowiedniego warunku C jest technicznie wykonalne i można je spowodować na życzenie; urzeczywistnienie tych warunków obejmuje przy tym możliwość kontrolowania czynnika (pozycja podczas porodu, występowanie lub niewystępowanie substancji infekcyjnych, wartość ciśnienia atmosferycznego), który - zgodnie z daną hipotezą - ma wpływ na badane zjawisko (wystąpienie gorączki połogowej w pierwszych dwu przypadkach, wysokość słupka rtęci w trzecim). Implikacje testowe tego rodzaju pozwalają więc wykonać test eksperymentalny, polegający na zrealizowaniu warunku C i sprawdzeniu, czy - zgodnie z testowaną hipotezą - występuje wówczas zjawisko E.

[7] Liczne hipotezy naukowe formułowane są w terminach ilościowych. W najprostszym przypadku wyrażają one wartość pewnej wielkości zmiennej jako matematyczną funkcję pewnej innej zmiennej. Na przykład klasyczne prawo dotyczące gazów, V = c T/P, wyraża objętość dowolnej porcji gazu jako funkcję jego temperatury i ciśnienia (c jest wartością stałą). Zdanie tego rodzaju ma nieskończenie wiele ilościowych implikacji testowych. W naszym przykładzie mają one następującą postać: jeśli temperatura danej porcji gazu wynosi T1, a ciśnienie P1, to jego objętość jest równa c ∙ T1/P1. Test eksperymentalny polega tu na zmienianiu wartości zmiennych "niezależnych" i sprawdzaniu, czy zmienna "zależna" przyjmuje wartości zgodne z hipotezą.

[8] Gdy sterowanie eksperymentalne jest niemożliwe, tj. gdy wymieniony w implikacji testowej warunek C nie może być na życzenie realizowany lub zmieniany za pomocą środków technicznych, którymi dysponujemy, wówczas hipotezę trzeba testować w sposób nieeksperymentalny, wyszukując lub oczekując na przypadki, w których natura sama zrealizuje ów warunek, i dopiero wtedy sprawdzając, czy E istotnie występuje.

[9] Mówi się niekiedy, że w eksperymentalnym teście hipotezy ilościowej tylko jedna z występujących w hipotezie wielkości zmienia się w czasie, natomiast wszystkie inne pozostają stałe. Jest to jednak nieosiągalne. Na przykład w teście eksperymentalnym podanego wyżej prawa dotyczącego gazów można zmieniać ciśnienie, zachowując stałą temperaturę, lub przeciwnie, lecz wiele innych czynników będzie podczas tej procedury ulegać zmianom; do takich czynników może należeć względna wilgotność, jaskrawość oświetlenia czy natężenie pola magnetycznego w laboratorium, a już na pewno odległość badanej porcji gazu od Słońca i Księżyca. Nie ma też powodu starać się o to, by jak najwięcej czynników tego typu pozostawało stałych, gdy eksperyment ma być testem owego prawa, głosi ono bowiem, że objętość danej porcji gazu jest całkowicie wyznaczona przez temperaturę i ciśnienie. Wynika stąd, że inne czynniki są w tym sensie "nieistotne dla objętości", iż ich zmiany nie mają wpływu na objętość gazu. Dopuszczając zmienność tych czynników, uwzględnia się tym samym szerszy zakres przypadków, które mogą podważyć badaną hipotezę.

[10] Jednakże eksperyment stosowany jest w nauce nie tylko jako metoda testowania, lecz także jako metoda odkrywania; jak zobaczymy za chwilę, w tym drugim przypadku warunek, by pewne czynniki pozostawały stałe, ma istotne znaczenie.

[11] Ilustracją posługiwania się eksperymentem jako metodą testowania są eksperymenty Torricellego i Périera. Najpierw wysunięto hipotezę, potem przeprowadzono eksperyment, który był jej testem. Natomiast w sytuacji, gdy żadna określona hipoteza nie została dotąd sformułowana, punktem wyjścia badań może być jakiś ogólnikowy domysł, eksperyment zaś może służyć do sprecyzowania tego domysłu. Chcąc ustalić, w jaki sposób drut metalowy jest rozciągany przez zawieszony na nim odważnik, badacz przypuszcza na wstępie, że wydłużenie się drutu zależy od jego początkowej długości, od wielkości przekroju, od rodzaju metalu, z którego drut jest wykonany, oraz od ciężaru zawieszonego na nim ciała. Wykonane następnie eksperymenty pozwalają badaczowi ustalić, czy czynniki te istotnie mają wpływ na wydłużenie drutu (eksperyment służy wtedy jako metoda testowania), a jeśli tak, to w jaki sposób wyznaczają one "zmienną zależną", tj. jaki jest dokładny wzór matematyczny tej zależności (eksperyment służy wówczas jako metoda odkrywania). Wiedząc, że długość drutu zmienia się wraz z jego temperaturą, eksperymentator zadba przede wszystkim o to, aby temperatura była stała, chce bowiem wyeliminować zakłócenia w eksperymencie powodowane przez ten czynnik (choć później może systematycznie zmieniać temperaturę po to, by przekonać się, czy wartości pewnych parametrów w funkcjach, które wiążą wzrost długości z innymi czynnikami, zależą od temperatury, czy nie). Wykonując eksperyment w stałej temperaturze, będzie on zmieniał kolejno każdy czynnik, który uzna za istotny, zachowując pozostałe bez zmian. Na podstawie otrzymanych w ten sposób wyników będzie formułował próbne uogólnienia wyrażające wzrost długości drutu jako funkcję jego długości przed obciążeniem, funkcję ciężaru zawieszonego ciała itd.; następnie może przystąpić do sformułowania bardziej ogólnego prawa, które wyrazi wzrost długości jako funkcję wszystkich badanych zmiennych.

[12] W przypadkach tego rodzaju, tj. wówczas, gdy eksperyment gra rolę heurystyczną, naprowadzając na właściwą hipotezę, postulat zachowania bez zmian wszystkich "istotnych czynników" z wyjątkiem jednego jest w pełni uzasadniony. Jednakże w najlepszym przypadku jest on, oczywiście, realizowany tylko w tym sensie, że oprócz jednego czynnika wszystkie spośród tych, które uznajemy za "istotne" (tj. mające wpływ na zjawisko badane), są stałe; zawsze istnieje możliwość, że któryś z istotnych w tym sensie czynników nie został wzięty pod uwagę.

[13] Jedną z najbardziej charakterystycznych własności nauk przyrodniczych, a zarazem jedną z ich najmocniejszych stron, jest to, że wiele hipotez formułowanych w tych naukach dopuszcza testy eksperymentalne. Jednakże możliwość eksperymentalnego testowania hipotez nie jest cechą, która odróżnia nauki przyrodnicze od pozostałych. Nie wyznacza ona granicy między naukami przyrodniczymi i społecznymi, ponieważ testy eksperymentalne stosowane są również w psychologii i - choć w mniejszym stopniu - w socjologii. Nadto zakres badań, w których możliwe są testy eksperymentalne, rozszerza się stale wraz z postępem techniki. Wreszcie nie wszystkie hipotezy w naukach przyrodniczych podlegają eksperymentalnemu testowaniu. Weźmy na przykład sformułowane przez Leavitta i Shapleya prawo okresowych zmian jasności pewnych gwiazd zmiennych, zwanych cefeidami klasycznymi. Prawo to głosi, że im dłuższy jest okres zmienności P takiej gwiazdy, tj. przedział czasowy między dwoma kolejnymi stanami jej maksymalnej jasności, tym większa jest jasność specyficzna tej gwiazdy; sformułowane w terminach ilościowych prawo to ma postać wzoru M = - (a + b ∙ log P), przy czym M jest wielkością, która na mocy definicji zmienia się odwrotnie niż jasność gwiazdy. Z prawa tego dedukcyjnie wynika dowolnie dużo zdań testowych stwierdzających, jaka jest wielkość cefeidy o takim a takim okresie zmienności, np. 5,3 dnia lub 17,5 dnia. Ale cefeid o danym okresie zmienności nie można stworzyć na życzenie, prawo to nie podlega zatem testowi eksperymentalnemu. Astronom musi ograniczyć się do poszukiwania nowych cefeid; znalazłszy je, może sprawdzić, czy ich wielkość i okres zmienności spełniają domniemane prawo.

Rola hipotez pomocniczych

[14] Powiedzieliśmy powyżej, że implikacje testowe są "wywodzone" lub "wywnioskowywane" z hipotezy, która ma być poddana testowi. Twierdzenie to jednak tylko z grubsza charakteryzuje stosunek zachodzący między hipotezą a zdaniami, które służą jako jej implikacje testowe. W niektórych przypadkach z hipotezy rzeczywiście można wywnioskować dedukcyjnie pewne zdania warunkowe nadające się do roli zdań testowych tej hipotezy. Tak więc, jak widzieliśmy, z prawa Leavitta-Shapleya wynikają dedukcyjnie zdania postaci: "jeśli gwiazda s jest cefeidą o takim a takim okresie zmienności, to jej wielkość jest taka a taka". Często jednak "wywodzenie" implikacji testowych nie jest procedurą ani tak prostą, ani tak konkluzywną. Weźmy na przykład hipotezę Semmelweisa, zgodnie z którą gorączka połogowa jest powodowana przez wprowadzenie do krwiobiegu substancji infekcyjnej, i rozważmy implikację testową, jaką jest zdanie: "jeśli osoby opiekujące się pacjentkami będą myły ręce w roztworze wapna chlorowanego, to śmiertelność wywołana gorączką połogową zmaleje". Zdanie to nie wynika dedukcyjnie z samej hipotezy; aby je wywieść, trzeba przyjąć dodatkową przesłankę, która głosi, że w przeciwieństwie do wody i mydła roztwór wapna chlorowanego usuwa substancję infekcyjną. Przesłanka ta, przyjęta milcząco w rozumowaniu Semmelweisa, odegrała przy wywodzeniu zdania testowego rolę tzw. założenia pomocniczego lub hipotezy pomocniczej. Nie mamy zatem prawa twierdzić, że jeśli hipoteza H jest prawdziwa, to prawdą musi być również implikacja testowa I, lecz tylko - że jeśli H oraz hipoteza pomocnicza są prawdziwe, to prawdą jest również I. Odwoływanie się do hipotez pomocniczych nie jest, jak zobaczymy, wyjątkiem, lecz raczej regułą przy testowaniu hipotez naukowych; ma też ono nader ważne konsekwencje dla zagadnienia, czy znalezienie testu negatywnego, tj. takiego, w którym I jest fałszywa, może być podstawą odrzucenia badanej hipotezy.

[15] Gdy hipoteza H sama implikuje I, a dane empiryczne wykazują fałszywość I, wówczas H musi być również uznana za fałszywą; prowadzi do tego rozumowanie według modus tollens (2a). Jeśli jednak I została wywiedziona z H w połączeniu z jedną lub więcej hipotez pomocniczych A, to schemat (2a) należy zastąpić następującym schematem:

Jeżeli H i A są jednocześnie prawdziwe, to I jest prawdziwa.
(3b)                Ale (jak pokazuje doświadczenie) I nie jest prawdziwa.            
            H i A nie są jednocześnie prawdziwe.

Tak więc ilekroć test wykazuje, że I jest fałszywa, możemy wywnioskować stąd tylko tyle, że albo hipoteza H, albo jedno z założeń pomocniczych A muszą być fałszywe; test nie jest zatem konkluzywną podstawą do odrzucenia H. Na przykład gdyby zarządzenia Semmelweisa w sprawie aseptyki nie pociągnęły za sobą spadku śmiertelności, to hipoteza Semmelweisa mimo to mogła być prawdziwa: o negatywnym wyniku testu mogła bowiem przesądzić nieskuteczność roztworu wapna chlorowanego jako środka dezynfekcyjnego.

[16] Sytuacje tego typu nie są jedynie abstrakcyjną możliwością. Astronom Tycho Brahe, którego ścisłe obserwacje stały się empiryczną podstawą sformułowanych przez Keplera praw ruchu planet, odrzucał koncepcję Kopernika, że Ziemia krąży dokoła Słońca. Uzasadniał to m.in. następująco: gdyby hipoteza Kopernika była prawdziwa, to kierunek, w którym o ustalonej porze dnia obserwuje się z Ziemi gwiazdy stałe, powinien się stopniowo zmieniać, ponieważ podczas rocznego obrotu Ziemi wokół Słońca punkt widzenia obserwatora przesuwałby się stale - podobnie jak punkt widzenia dziecka na karuzeli, które widzi twarze stojących wokół osób w stale zmieniającym się kierunku. Mówiąc ściślej, kierunek od obserwatora do gwiazdy powinien zmieniać się okresowo między dwoma ekstremami odpowiadającymi przeciwległym punktom orbity ziemskiej. Kąt wyznaczony przez te punkty i gwiazdę nazywany jest roczną paralaksą gwiazdy; im dalej od Ziemi znajduje się gwiazda, tym mniejsza jest jej paralaksa. Brahe, który dokonywał swoich obserwacji przed wynalezieniem teleskopu, próbował znaleźć - za pomocą najbardziej precyzyjnych ze swych instrumentów - świadectwa takiego "paralaktycznego ruchu" gwiazd stałych; nie znalazł ich jednak. Odrzucił więc hipotezę o ruchu Ziemi. Ale implikację testową, zgodnie z którą gwiazdy stałe podlegają obserwowalnemu ruchowi paralaktycznemu, można wywieść z hipotezy Kopernika tylko przy pomocniczym założeniu, że gwiazdy stałe znajdują się tak blisko Ziemi, iż ich ruch paralaktyczny jest dostatecznie duży, by dało się go wykryć za pomocą instrumentów Tychona Brahe. Brahe wiedział, że przyjmuje to pomocnicze założenie, był jednak przekonany, że można je uznać za prawdziwe. Czuł się więc uprawniony do odrzucenia koncepcji Kopernika. Później okazało się, że gwiazdy stałe wykazują przemieszczenia paralaktyczne, natomiast pomocnicza hipoteza Tychona Brahe jest błędna: nawet najbliższe gwiazdy stałe znajdują się znacznie dalej, niż sądził Brahe, wskutek czego pomiary ich paralaks wymagają potężnych teleskopów i precyzyjnych technik. Pierwszego ogólnie akceptowanego pomiaru paralaksy gwiezdnej dokonano dopiero w 1838 r.

[17] Znaczenie hipotez pomocniczych w testowaniu sięga jeszcze dalej. Załóżmy, że hipoteza H jest testowana przez sprawdzenie implikacji testowej "jeśli C, to E", wywiedzionej z H i zbioru A hipotez pomocniczych. Test polega ostatecznie na stwierdzeniu, czy E występuje, czy też nie występuje w sytuacji testowej, w której - według tego, co wiadomo badaczowi - spełnione są warunki C. Jeśli w rzeczywistości tak nie jest - ponieważ np. urządzenia testowe są uszkodzone lub niedostatecznie czułe - to E może nie wystąpić, mimo że H i A są prawdziwe. Dlatego można przyjąć, że do zbioru założeń pomocniczych należy także przypuszczenie, że sytuacja testowa spełnia warunki C.

[18] Jest to szczególnie ważne wówczas, gdy badana hipoteza została już potwierdzona przez testy wykonane poprzednio i jest istotnym składnikiem większego systemu wzajemnie powiązanych hipotez, za którym również przemawiają rozmaite dane empiryczne. W takim przypadku niewystąpienie E próbuje się zwykle wyjaśnić tym, że test nie spełnia pewnych warunków C.

[19] Jako przykład rozważmy hipotezę, która głosi, że ładunki elektryczne mają strukturę atomistyczną, przy czym każdy z nich jest całkowitą wielokrotnością ładunku atomu elektryczności, elektronu. Hipoteza ta znalazła bardzo mocne poparcie w eksperymentach dokonanych przez R. A. Millikana w 1909 r. i później. Eksperymenty te polegały na wyznaczaniu ładunków elektrycznych pojedynczych, bardzo małych kropli pewnych cieczy, takich jak oliwa lub rtęć, przez pomiar prędkości kropelek spadających w powietrzu pod wpływem ciążenia lub wznoszących się pod wpływem działającego w przeciwnym kierunku pola elektrycznego. Millikan ustalił, że wszystkie te ładunki albo są równe, albo stanowią małe wielokrotności pewnego podstawowego minimalnego ładunku, który wobec tego utożsamił z ładunkiem elektronu. Na podstawie wielu dokładnych pomiarów wyznaczył jego wartość w jednostkach elektrostatycznych: 4,774 x 10-10. Hipoteza ta została wkrótce zakwestionowana przez wiedeńskiego fizyka Ehrenhafta, który oświadczył, że powtórzył eksperyment Millikana i odkrył ładunki znacznie niniejsze niż wyznaczony przez Millikana ładunek elektronu. Analizując wyniki uzyskane przez Ehrenhafta, Millikan wskazał kilka prawdopodobnych źródeł błędu (tj. odchyleń od warunków testowych), tłumaczących pozornie sprzeczne z jego hipotezą dane eksperymentalne uzyskane przez Ehrenhafta: parowanie podczas obserwacji, które zmniejszyło ciężar kropel; tworzenie się warstwy tlenku na kroplach podczas eksperymentu; zakłócające działanie zawieszonych w powietrzu cząstek pyłu; zbaczanie kropel od ogniska teleskopu, który służył do obserwacji; odchylenia od wymaganego, kulistego kształtu małych kropel; nieuchronne błędy w pomiarze czasu ruchu małych cząstek. O dwóch odmiennych cząstkach, które zaobserwował i opisał pewien inny badacz, eksperymentujący z kroplami oliwy, Millikan stwierdził: "Jedynym możliwym wyjaśnieniem dotyczącym tych cząsteczek... jest to, że... nie były one kulkami oliwy", lecz cząstkami pyłu (dz. cyt., s. 169, 170). Millikan oświadcza dalej, że wszystkie wyniki dokładniejszych powtórzeń jego eksperymentu były zasadniczo zgodne z wynikami, które ogłosił wcześniej. Ehrenhaft przez wiele lat kontynuował eksperymenty, chcąc obronić i rozszerzyć swoje odkrycie dotyczące ładunków podelektronowych, ale żaden inny fizyk nie otrzymał takich jak on wyników, wobec czego atomistyczna koncepcja ładunku elektrycznego została utrzymana. Natomiast podana przez Millikana wartość liczbowa ładunku elektronu okazała się nieco za mała; jest rzeczą interesującą, że odchylenie to złożono na karb fałszywości jednej z hipotez pomocniczych Millikana: przypisał on zbyt małą wartość lepkości powietrza przy ocenie danych dotyczących kropli oliwy!

Testy krzyżowe

[20] Powyższe uwagi mają ważne konsekwencje także dla koncepcji tzw. testu krzyżowego, który można krótko scharakteryzować w następujący sposób. Załóżmy, że H1 i H2 są konkurencyjnymi hipotezami na ten sam temat, przy czym obie równie zadowalająco oparły się dotychczasowym testom; żadne z posiadanych świadectw empirycznych nie przemawia za jedną z tych hipotez mocniej niż za drugą. Rozstrzygnięcie może więc nastąpić wtedy, gdy wskaże się test, dla którego H1 i H2 przewidują przeciwne wyniki, tj. pierwsza hipoteza dla określonych warunków testowych C ma implikację testową "jeżeli C, to E1" druga zaś - "jeżeli C, to E2", przy czym El i E2 są wynikami wykluczającymi się nawzajem. Wykonanie odpowiedniego testu powinno zatem obalić jedną z tych hipotez, potwierdzając drugą.

[21] Klasycznym przykładem takiej sytuacji jest eksperyment dokonany przez Foucaulta w celu rozstrzygnięcia, która z dwóch konkurencyjnych koncepcji natury światła jest słuszna. Jedna z nich, wysunięta przez Huyghensa i rozwinięta później Fresnela i Younga, głosi, że światło jest falą poprzeczną, rozchodzącą się w sprężystym ośrodku zwanym eterem; drugą jest korpuskularna koncepcja Newtona, zgodnie z którą światło składa się z niezmiernie małych cząstek poruszających się z wielką prędkością. Każda z tych koncepcji jest zgodna z tezą, że "promienie" świetlne podlegają prawom prostoliniowego rozchodzenia się, odbicia i załamania. Ale koncepcja falowa implikuje tezę, że prędkość światła jest większa w powietrzu niż w wodzie, natomiast koncepcja korpuskularna prowadzi do przeciwnej konsekwencji. W 1850 r. Foucault przystąpił do wykonania eksperymentu, w toku którego prędkości światła w powietrzu i w wodzie zostały bezpośrednio porównane. Za pomocą promieni świetlnych, przechodzących - odpowiednio - przez wodę i powietrze i odbijanych przez bardzo szybko obracające się zwierciadło, wytworzono obrazy dwóch emitujących światło punktów. Zależnie od tego, czy prędkość światła w powietrzu jest większa, czy mniejsza niż w wodzie, obraz pierwszego źródła światła powinien pojawić się na prawo lub na lewo od drugiego. Przeciwne implikacje testowe, poddawane sprawdzeniu w tym eksperymencie, można więc sformułować krótko, jak następuje: "jeżeli wykona się eksperyment Foucaulta, to pierwszy obraz pojawi się na prawo od drugiego" oraz "jeżeli wykona się eksperyment Foucaulta, to pierwszy obraz pojawi się na lewo od drugiego". Eksperyment wykazał, że pierwsza z tych implikacji jest prawdziwa.

[22] Wynik ten został powszechnie uznany za definitywne obalenie korpuskularnej koncepcji światła i rozstrzygające potwierdzenie koncepcji falowej. Opinia ta, choć naturalna, przeceniała jednak moc dowodową tego testu. Twierdzenie, że światło porusza się szybciej w wodzie niż w powietrzu, nie wynika bowiem bezpośrednio z ogólnej koncepcji promieni świetlnych jako strumieni cząstek; samo to założenie jest zbyt nieokreślone, by mogło pociągać jakąkolwiek konsekwencję ilościową. Implikacje tego typu, jak prawa odbicia i załamania, a także twierdzenie o prędkościach światła w powietrzu i w wodzie, mogą być wywiedzione z ogólnej koncepcji korpuskularnej dopiero po uzupełnieniu jej pewnymi założeniami dotyczącymi cząstek i wpływu, który wywiera na nie ośrodek. Newton sformułował te założenia, budując w ten sposób określoną teorię rozchodzenia się światła. Dopiero cały układ takich podstawowych zasad teoretycznych prowadzi do konsekwencji, które można testować eksperymentalnie - takich jak zdania sprawdzane przez Foucaulta. Podobnie koncepcja falowa była sformułowana jako teoria oparta na zbiorze określonych założeń na temat rozchodzenia się fal eteru w różnych ośrodkach optycznych; tym, co implikowało prawa odbicia i załamania, a także twierdzenie, że światło ma większą prędkość w powietrzu niż w wodzie, był i w tym przypadku cały zbiór założeń teoretycznych. W konsekwencji - zakładając prawdziwość wszelkich innych hipotez pomocniczych - wynik eksperymentu Foucaulta uprawnia tylko do wniosku, że nie wszystkie podstawowe założenia (czy zasady) teorii korpuskularnej są prawdziwe; co najmniej jedno z nich musi być fałszywe. Nie informuje jednak, które założenie należy odrzucić. Dopuszcza zatem możliwość, że ogólna koncepcja korpuskularna światła daje się utrzymać w postaci zmodyfikowanej, po uzupełnieniu jej innym zbiorem podstawowych praw.

[23] Istotnie, w 1905 r. Einstein wysunął zmodyfikowaną wersję koncepcji korpuskularnej w postaci swojej teorii kwantów świetlnych, nazwanych później fotonami. Wśród świadectw empirycznych, na które powoływał się w uzasadnieniu tej teorii, był wynik eksperymentu wykonanego w 1903 r. przez Lenarda. Einstein określił ten eksperyment jako "drugi eksperyment krzyżowy" dotyczący koncepcji falowej i korpuskularnej i stwierdził, że "wyklucza" on klasyczną teorię falową, w której pojęcie sprężystych drgań w eterze należy zastąpić pojęciem poprzecznych fal elektromagnetycznych, pochodzącym od Maxwella i Hertza. Eksperyment Lenarda, w którym wykorzystuje się efekt fotoelektryczny, można traktować jako test dwu przeciwnych implikacji odnośnie do energii świetlnej wysyłanej przez promieniujący punkt P w ustalonej jednostce czasu na mały ekran, prostopadły do kierunku promieniowania. Według klasycznej teorii falowej energia ta stopniowo i nieprzerwanie maleje do zera, gdy ekran oddala się od punktu P; według teorii kwantów energia ta musi być co najmniej równa energii, którą przenosi pojedynczy foton - pod warunkiem że w danym przedziale czasu żaden foton nie uderza w ekran, wtedy bowiem otrzymana energia byłaby równa zeru; nie ma więc stopniowego malenia do zera. Eksperyment Lenarda to potwierdził. Jednakże i w tym przypadku koncepcja falowa nie została ostatecznie obalona: wynik eksperymentu świadczył tylko o tym, że w systemie podstawowych założeń teorii falowej konieczne są pewne zmiany. W istocie Einstein podjął próbę zmodyfikowania klasycznej postaci tej teorii w stopniu możliwie minimalnym. Mówiąc ogólnie, eksperyment tego rodzaju jak omówione wyżej przykłady nie może ostatecznie obalić jednej z dwu konkurencyjnych hipotez.

[24] Nie może również "dowieść", czyli ostatecznie wykazać prawdziwości drugiej z nich, ponieważ - na co wskazywaliśmy już w rozdziale drugim - ani hipotezy, ani teorie naukowe nie dają się nigdy udowodnić w sposób konkluzywny za pomocą świadectw empirycznych, niezależnie od ścisłości i zakresu tych świadectw. Jest to szczególnie oczywiste w przypadku hipotez i teorii, które wyrażają lub implikują prawa ogólne dotyczące procesów nie podlegających bezpośredniej obserwacji - co ilustruje przykład konkurencyjnych teorii światła - albo nawet zjawisk łatwych do zaobserwowania i zmierzenia, takich jak np. swobodne spadanie ciał. Prawo Galileusza dotyczy wszystkich przypadków swobodnego spadania - w przeszłości, w teraźniejszości i w przyszłości - natomiast ogół odpowiednich danych, którymi dysponujemy dowolnej chwili, odnosi się do stosunkowo niewielu przypadków (należących tylko do przeszłości), w których wykonano dokładne pomiary. I nawet jeśli wszystkie zaobserwowane przypadki potwierdzają prawo Galileusza, to oczywiście nie wyklucza to możliwości, że pewne nie obserwowane przypadki w przeszłości lub w przyszłości są z tym prawem niezgodne. Ostatecznie więc nawet najdokładniejszy i najbardziej uniwersalny test nie może ani obalić jednej z dwu hipotez, ani dowieść drugiej; zatem eksperyment krzyżowy w ścisłym sensie jest w nauce niemożliwy. Jednakże eksperymenty tego rodzaju, jak dokonane przez Foucaulta lub Lenarda, można uznać za krzyżowe w sensie praktycznym, mniej ścisłym: wskazują one, że jedna z dwu przeciwstawnych teorii jest w znacznej mierze nieadekwatna, dostarczając zarazem silnych argumentów na rzecz drugiej z nich; w efekcie wpływają często w sposób decydujący na kierunek dalszych badań teoretycznych i eksperymentalnych.

Hipotezy ad hoc

[25] Gdy dany sposób testowania hipotezy H zakłada hipotezy pomocnicze A1 , A2,..., An - tj. gdy hipotezy te są dodatkowymi przesłankami, na podstawie których wywodzi się z H odpowiednią implikację testową I - wówczas, jak już wiemy, negatywny wynik testu, okazujący fałszywość I, świadczy tylko o tym, że bądź H, bądź jedna z hipotez pomocniczych jest fałszywa; jeżeli rezultat testu ma być do takiego zbioru zdań przystosowany, trzeba ten zbiór jakoś zmodyfikować. Zmiana może polegać na modyfikacji lub całkowitym odrzuceniu H, ale może dotyczyć także systemu hipotez pomocniczych. W zasadzie zawsze istnieje możliwość zachowania hipotezy H - nawet wobec zdecydowanie negatywnych wyników testów - o ile zechcemy dokonać dostatecznie radykalnej i często kłopotliwej rewizji hipotez pomocniczych. Nauka nie jest jednak zainteresowana w podtrzymywaniu swych hipotez i teorii za wszelką cenę - i jest to uzasadnione ważnymi względami. Pokażmy to na przykładzie. Zanim Torricelli wystąpił ze swą koncepcją ciśnienia atmosferycznego, działanie pompy ssącej tłumaczono tym, że natura nie znosi próżni (koncepcja horror vacui): woda wznosi się w pompie, aby wypełnić próżnię spowodowaną przez podniesienie tłoka. Twierdzenie to służyło także do wyjaśnienia wielu innych zjawisk. Pisząc do Périera z prośbą o dokonanie eksperymentu na Puy-de-Dóme, Pascal wyraził przekonanie, że oczekiwany wynik będzie "ostatecznym" rozgromieniem tej koncepcji. "Jeśli okaże się, że wysokość rtęci jest mniejsza na szczycie niż u podnóża tej góry, (...) to wyniknie stąd w sposób konieczny, że jedyną przyczyną podtrzymywania rtęci jest ciężar i nacisk powietrza, nie zaś nieznoszenie próżni; jest bowiem zupełnie pewne, że na podnóże góry ciśnie znacznie więcej powietrza niż na jej szczyt, nikt zaś nie może poważnie twierdzić, że u stóp góry natura bardziej nie znosi próżni niż na wierzchołku". Jednakże ta ostatnia uwaga w istocie rzeczy wskazuje sposób uratowania koncepcji horror vacui w obliczu odkrycia Périera. Jego wyniki są zdecydowanie niezgodne z tą koncepcją tylko przy założeniu pomocniczym, które głosi, że intensywność niechęci natury do próżni nie zależy od miejsca. Chcąc pogodzić koncepcję horror vacui z pozornie sprzecznymi z nią danymi doświadczenia, wystarczy wprowadzić inną hipotezę, zgodnie z którą niechęć natury do próżni zmniejsza się wraz ze wzrostem wysokości. Choć jednak założenie to nie jest logicznie wykluczone ani jaskrawo fałszywe, ma ono bardzo wątpliwą wartość naukową. Przyjęcie go byłoby bowiem wprowadzeniem hipotezy ad hoc, tj. wyłącznie dla uratowania hipotezy poważnie zagrożonej przez świadectwo doświadczenia; założenie to nie zostało zasugerowane przez żadne inne dane empiryczne i nie prowadzi do żadnych dodatkowych implikacji testowych. Natomiast hipoteza ciśnienia powietrza ma takie dalsze implikacje. Pascal wspomina m.in., że częściowo napompowany balon wniesiony na szczyt góry powinien wydąć się mocniej.

[26] W połowie XVII wieku grupa fizyków podtrzymywała tezę, że próżnia nie może występować w przyrodzie; chcąc obronić tę tezę w obliczu eksperymentu Torricellego, jeden z nich wysunął hipotezę ad hoc, zgodnie z którą rtęć w barometrze jest podtrzymywana przez "funiculus" - niewidoczną nić, która łączy rtęć z górną częścią wewnętrznej powierzchni rurki szklanej. Według innej teorii - pierwotnie bardzo użytecznej - stworzonej na początku XVIII wieku, spalanie metali wyzwala substancję zwaną flogistonem. Koncepcję tę odrzucono ostatecznie po eksperymentach Lavoisiera, który wykazał, że produkt spalenia metalu waży więcej niż metal przez spaleniem. Ale niektórzy uparci adherenci teorii flogistonu próbowali pogodzić ją z odkryciem Lavoisiera, wysuwając hipotezę ad hoc, że flogiston ma ciężar ujemny, wskutek czego ulotnienie się flogistonu powoduje wzrost ciężaru pozostałości.

[27] Powinniśmy jednak pamiętać, że tylko z perspektywy czasu może wydawać się, iż odrzucenie pewnych sugestii naukowych jako hipotez ad hoc jest sprawą łatwą; w chwili, gdy są one wysuwane, ocena bywa bardzo trudna. Nie ma w istocie żadnego ścisłego kryterium, które pozwoliłoby odróżniać hipotezy ad hoc, choć istnieją odpowiednie wskazówki, o których była już mowa: czy hipoteza została wysunięta tylko dlatego, że pozwala zachować pewną przyjętą dotąd koncepcję mimo zaprzeczających jej świadectw doświadczenia, czy też wyjaśnia również jakieś inne zjawiska? Czy ma ona dalsze interesujące implikacje testowe? Istotny jest fakt następujący: gdy trzeba wprowadzać coraz więcej hipotez jakościowych, aby pogodzić pewną podstawową koncepcję z nowymi danymi doświadczenia, wtedy system jako całość staje się w końcu tak skomplikowany, że musi ustąpić miejsca prostszej koncepcji alternatywnej, gdy taka zostanie wysunięta.

Zasadnicza sprawdzalność i sens empiryczny

[28] Jak już mówiliśmy, żadnego twierdzenia czy zbioru twierdzeń T nie można poważnie traktować jako hipotezy lub teorii naukowej, jeżeli nie da się doń zastosować obiektywnego testu empirycznego, przynajmniej "w zasadzie". Znaczy to, że z T muszą wynikać - w przyjętym powyżej, szerokim znaczeniu - pewne implikacje testowe o schemacie: "jeżeli są spełnione warunki testowe C, to wystąpi wynik E". Ale warunki testowe nie muszą być zrealizowane ani nawet technicznie osiągalne w chwili, w której T jest wysuwane lub brane pod rozwagę. Weźmy np. hipotezę, zgodnie z którą odległość s przebywana w ciągu t sekund przez ciało spadające swobodnie w pobliżu powierzchni Księżyca wynosi 0,8 t2 metrów. Wynika z niej dedukcyjnie wiele implikacji testowych, które głoszą, że odległość przebyta przez takie ciało w ciągu l, 2, 3,... sekund wyniesie 0,8, 3,2, 7,2,... metra. Hipoteza ta jest zatem zasadniczo sprawdzalna, aczkolwiek na razie nie sposób wykonać testów, o których tu mowa [pisane w 1964 r.].

[29] Jeśli jednak twierdzenie (lub zbiór twierdzeń) zasadniczo nie podlega testowaniu, innymi słowy, jeśli w ogóle nie ma ono implikacji testowych, to nie może być poważnie wysunięte i podtrzymywane jako hipoteza (lub teoria naukowa), żadne bowiem dające się pomyśleć dane empiryczne nie będą z nim ani zgodne, ani sprzeczne. Nie ma ono żadnego związku ze zjawiskami empirycznymi, inaczej mówiąc - brak mu empirycznego sensu. Rozważmy np. pogląd, że wzajemne grawitacyjne przyciąganie się ciał fizycznych jest przejawem jakiegoś "upodobania lub naturalnej skłonności" spokrewnionej z miłością, a właściwej ciałom i czyniącej ich "naturalne ruchy zrozumiałymi i możliwymi". Jakie implikacje testowe można by wywieść z tej interpretacji zjawisk przyciągania? Uwzględniając pewne charakterystyczne cechy miłości w zwykłym sensie tego słowa, można sądzić, że według tego poglądu sympatia grawitacyjna winna być selektywna: nie każde dwa ciała fizyczne powinny się przyciągać. Podobnie intensywność sympatii jednego ciała do drugiego nie powinna zawsze równać się sile sympatii tego drugiego do pierwszego ani zależeć od masy ciał odległości, która je dzieli. Ponieważ jednak o wszystkich wymienionych zdaniach wiadomo, że są fałszywe, więc widocznie koncepcja, o której mowa, jest tak pomyślana, że zdania te z niej nie wynikają. W rzeczywistości koncepcja ta głosi tylko, że naturalne skłonności będące podstawą przyciągania grawitacyjnego są spokrewnione z miłością. Twierdzenie to jednak jest tak nieuchwytne, że uniemożliwia wywiedzenie jakiejkolwiek implikacji testowej. Żadne określone fakty nie przemawiają za taką interpretacją grawitacji; żadne możliwe dane, uzyskane z obserwacji lub eksperymentu, ani jej nie potwierdzają, ani nie obalają. W szczególności nie ma więc ona również implikacji dotyczących zjawisk grawitacyjnych; nie może zatem wyjaśniać tych zjawisk ani czynić ich "zrozumiałymi". Dla dalszej ilustracji załóżmy, że ktoś wysuwa tezę alternatywną, iż ciała fizyczne przyciągają się nawzajem i dążą do zbliżenia się do siebie z powodu spokrewnionej z nienawiścią, naturalnej tendencji do zderzenia się i zniszczenia drugiego obiektu fizycznego. Czy istnieje sposób rozsądzenia między tymi dwoma przeciwstawnymi poglądami? Oczywiście, nie. Żaden z nich nie pociąga implikacji, które można by poddać testom: doświadczenie nie wyróżnia więc żadnego z tych poglądów. Nie dlatego że są one "zbyt głębokie", by nauka mogła je rozstrzygnąć: te dwie werbalnie sprzeczne interpretacje po prostu niczego w ogóle nie stwierdzają. W związku z tym pytanie, czy są one prawdziwe, czy fałszywe, nie ma sensu i dlatego właśnie badanie naukowe nie może go rozstrzygnąć. Są to pseudohipotezy: hipotezy tylko z pozoru.

[30] Należy jednak przypomnieć, że hipoteza naukowa zwykle pociąga implikacje testowe dopiero po uzupełnieniu jej pewnymi założeniami pomocniczymi. Tak np. koncepcja Torricellego dotycząca ciśnienia wywieranego przez atmosferę ziemską pociąga za sobą określone implikacje testowe tylko przy założeniu, że ciśnienie powietrza podlega prawom analogicznym do praw ciśnienia wody; założenie to jest m.in. podstawą eksperymentu na Puy-de-Dôme. Chcąc więc rozstrzygnąć, czy dana hipoteza ma sens empiryczny, powinniśmy zadać sobie pytanie, czy jej kontekst zakłada explicite lub implicite jakieś hipotezy pomocnicze i czy w koniunkcji z nimi hipoteza ta ma implikacja testowe (różne od tych, które można wywieść z samych założeń pomocniczych).

[31] Nadto wprowadzane do nauki koncepcje, w swej pierwotnej postaci stwarzają często ograniczone i bardzo nikłe możliwości testowania; na podstawie takich pierwotnych testów hipotezy te przybierają stopniowo postać coraz bardziej określoną, precyzyjną i podlegającą rozmaitym testom.

[32] Z tych powodów - a także z pewnych innych, których omówienie wykracza poza zakres tej książki - nie jest możliwe przeprowadzenie wyraźnej linii granicznej między hipotezami i teoriami, które są zasadniczo sprawdzalne, a tymi, które nie mają tego waloru. Jednakże rozróżnienie to, choć niezbyt ścisłe, ma duże znaczenie i rzuca światło na problem kryteriów oceny doniosłości i mocy wyjaśniającej wysuwanych w nauce hipotez i teorii.

Rozdział 5
PRAWA I ICH ROLA W WYJAŚNIANIU NAUKOWYM

Dwa podstawowe warunki naukowego wyjaśniania

[1] Wyjaśnianie zjawisk świata fizycznego jest jednym z głównych celów nauk przyrodniczych. Niemal wszystkie przykłady badań naukowych, na które powoływaliśmy się dla ilustracji naszych rozważań w poprzednich rozdziałach, służyły właśnie wyjaśnieniu, nie zaś stwierdzeniu jakichś szczegółowych faktów; dotyczyły takich kwestii, jak: Dlaczego kobiety chorują na gorączkę połogową? Dlaczego wznoszenie się wody w pompie jest w charakterystyczny sposób ograniczone? Czemu przechodzenie światła z jednego ośrodka do drugiego przebiega według praw optyki geometrycznej? Itd. W niniejszym rozdziale i w następnym omówimy bardziej szczegółowo problem naukowego wyjaśniania i ten rodzaj zrozumienia zjawisk, który wyjaśnienie naukowe przynosi.

[2] O tym, że człowiek od dawna i wytrwale dążył do zrozumienia ogromnej rozmaitości często kłopotliwych, a niekiedy groźnych zjawisk otaczającego go świata, świadczą liczne mity i metafory, za pośrednictwem których tłumaczył sobie istnienie świata i siebie samego, życie i śmierć, ruch ciał niebieskich, regularne następowanie nocy po dniu i dnia po nocy, zmiany pór roku, pioruny i błyskawice, pogodę i deszcz. Niektóre z tych wyjaśnień opierały się na antropomorficznej koncepcji sił natury, inne odwoływały się do ukrytych, tajemniczych sił lub czynników, jeszcze inne do niezgłębionych planów boskich lub do przeznaczenia.

[3] Wyjaśnienia tego rodzaju mogły niewątpliwie dostarczać człowiekowi pewnego poczucia zrozumienia; przestawał się dziwić i w tym sensie otrzymywał "odpowiedź" na swoje pytanie. Ale niezależnie od tego, jak dalece odpowiedzi takie mogą być zadowalające w sensie psychologicznym, są one nieadekwatne ze względu na cele nauki, która dąży do uzyskania przejrzystego, opartego logicznie na doświadczeniu i dzięki temu sprawdzalnego obrazu świata. Dlatego wyjaśnienie naukowe musi czynić dość pewnym dwóm warunkom, które będziemy nazywać warunkiem istotności i warunkiem sprawdzalności.

[4] Astronom Francesco Sizi w następujący sposób uzasadnił tezę, że wbrew temu, co twierdził współczesny mu Galileusz na podstawie swych obserwacji nieba przez teleskop, Jowisz nie może mieć satelitów:

Jest siedem okien w głowie: dwie dziurki w nosie, dwoje uszu, dwoje oczu i usta; tak samo na niebie są dwie gwiazdy życzliwe, dwie nieżyczliwe, dwie oświetlające i jeden Merkury, niezdecydowany i obojętny. Stąd i na podstawie wielu podobnych zjawisk przyrody, takich jak siedem metali i inne, które można by wyliczać do znudzenia, wnosimy, że liczba planet musi być równa siedem... Nadto te satelity są niewidoczne gołym okiem, nie mogą więc wywierać żadnego wpływu na Ziemię, zatem byłyby bezużyteczne, a wobec tego nie istnieją.

Podstawowy brak tej argumentacji jest oczywisty: "fakty", które się w niej przytacza, jeśli nawet nie budzą wątpliwości, są zupełnie nieistotne dla problemu, o którym mowa: nie stanowią żadnej podstawy do twierdzenia, że Jowisz nie ma satelitów. Sugerowany przez słowa "więc", "zatem", i "wobec tego" związek tych faktów z istnieniem satelitów Jowisza jest czysto pozorny.

[5] Dla przeciwstawienia rozważmy przyjęte w fizyce wyjaśnienie zjawiska tęczy. Głosi ono, że tęcza powstaje w wyniku odbicia i załamania się białego światła słonecznego w kulistych kropelkach wody, które znajdują się w chmurze. Na podstawie odpowiednich praw optyki wyjaśnienie to pozwala oczekiwać pojawienia się tęczy zawsze, ilekroć mocne, białe światło, którego źródło znajduje się za obserwatorem, pada na mgłę, złożoną z drobnych kropel wody. Tak więc nawet gdybyśmy nigdy dotąd nie widzieli tęczy, informacja, której dostarcza fizykalne wyjaśnienie tego zjawiska, byłaby dostateczną podstawą przekonania, że w pewnych określonych okolicznościach pojawi się tęcza. Tę własność powyższego wyjaśnienia nazwiemy właśnie spełnianiem przezeń warunku istotności: przytoczona wyżej informacja, którą wyjaśnienie to zawiera, dostarcza racjonalnej podstawy do wiary, że zjawisko wyjaśniane rzeczywiście wystąpiło lub występuje. Warunek ten musi być spełniony, jeżeli chcemy zasadnie twierdzić: "jest to wyjaśnienie tego zjawiska - należało go oczekiwać w tych okolicznościach".

[6] Warunek istotności jest koniecznym, lecz niewystarczającym warunkiem adekwatnego wyjaśnienia. Na przykład liczne dane wskazujące na przesunięcie ku czerwieni w widmach odległych galaktyk są mocną podstawą przekonania, że galaktyki te oddalają się od naszej z ogromną szybkością, lecz nie tłumaczą, dlaczego tak jest.

[7] Zanim sformułujemy drugi podstawowy warunek, który musi spełniać wyjaśnianie naukowe, weźmy jeszcze raz pod uwagę koncepcję przyciągania grawitacyjnego jako przejawu naturalnej skłonności, zbliżonej do miłości. Jak już zauważyliśmy, koncepcja ta nie ma w ogóle implikacji testowych. Wobec tego żadne dane empiryczne nie mogą jej potwierdzić ani podważyć. Jako pozbawiona treści empirycznej koncepcja ta z pewnością nie dostarcza podstaw, by oczekiwać wystąpienia zjawisk przyciągania grawitacyjnego: brak jej obiektywnej siły wyjaśniającej. Podobne uwagi krytyczne stosują się do wyjaśnień sformułowanych w kategoriach nieodgadnionego przeznaczenia: odwołując się do takich pojęć, nie tylko nie osiąga się jakiegoś szczególnie głębokiego wglądu w rzeczywistość, lecz w ogóle rezygnuje się z wyjaśniania zjawisk. Natomiast twierdzenia, na których opiera się przytoczone powyżej fizykalne wyjaśnienie zjawiska tęczy, mają rozmaite implikacje testowe; dotyczą one np. warunków, w których tęcza jest na niebie widoczna, kolejności składających się na nią barw, pojawiania się tęczy w pyle wodnym, powstającym przy rozbijaniu się fal o skały oraz przy posługiwaniu się urządzeniem do polewania trawników itd. Przykłady te są ilustracją drugiego warunku, który musi spełniać wyjaśnianie naukowe, a który nazywamy warunkiem sprawdzalności: twierdzenia składające się na wyjaśnienie naukowe muszą podlegać testom empirycznym.

[8] Wspomnieliśmy już o tym, że ponieważ koncepcja grawitacji jako utajonej, uniwersalnej sympatii nie ma żadnych implikacji testowych, więc brak jej jakiejkolwiek siły wyjaśniającej: nie można na jej podstawie oczekiwać, że zjawisko grawitacji wystąpi lub że wykaże takie a takie charakterystyczne właściwości: gdyby bowiem koncepcja ta pociągała następstwa tego rodzaju - w dedukcyjnym lub choćby w słabszym, indukcyjno-probabilistycznym sensie - to byłaby sprawdzalna za pomocą tych następstw. Przykład ten wskazuje, że rozważane dwa warunki wyjaśniania naukowego nie są niezależne: wyjaśnienie, które spełnia warunek istotności, spełnia też warunek sprawdzalności (zależność przeciwna oczywiście nie zachodzi).

[9] Zobaczmy teraz, jakie formy przybierają wyjaśnienia naukowe i w jaki sposób czynią one zadość tym dwóm podstawowym warunkom.

Wyjaśnianie dedukcyjno- nomologiczne

[10] Przypomnijmy raz jeszcze wynik eksperymentu dokonanego przez Périera na Puy-de-Dôme: wykazał on, że długość słupka rtęci w barometrze Torricellego zmniejsza się w miarę wzrostu wysokości, na której znajduje się barometr. Koncepcja ciśnienia atmosferycznego wysuwana przez Torricellego i Pascala wyjaśniała to zjawisko; można ją wyłożyć nieco pedantycznie w następujących punktach:

a) W dowolnym miejscu ciśnienie, które wywiera słupek rtęci w zamkniętej części aparatu Torricellego na rtęć znajdującą się pod nim, równe jest ciśnieniu wywieranemu na powierzchnię rtęci w otwartym naczyniu przez słup powietrza nad tym naczyniem.
b) Ciśnienie wywierane przez słupki rtęci i powietrza jest proporcjonalne do ich ciężaru; im krótsze są te słupki, tym mniejsze są ich ciężary.
c) Gdy Périer wnosił aparat na szczyt góry, słup powietrza nad otwartym naczyniem stawał się coraz krótszy.
d) (Zatem) słupek rtęci w zamkniętym naczyniu stawał się w miarę wchodzenia na górę coraz krótszy.

Tak sformułowane wyjaśnienie jest rozumowaniem, w myśl którego zjawisko wyjaśniane, opisane w zdaniu d, jest właśnie tym, którego należy oczekiwać wobec faktów wyjaśniających, omówionych w zdaniach a, b i c; rzeczywiście, zdanie d wynika dedukcyjnie ze zdań wyjaśniających. Te ostatnie dzielą się na dwa rodzaje: zdania a i b mają charakter praw ogólnych, wyrażających stałe zależności empiryczne, natomiast zdanie c opisuje pewne fakty jednostkowe. Tak więc skrócenie słupka rtęci tłumaczy się tu, wskazując, że nastąpiło ono zgodnie z pewnymi prawami przyrody, w wyniku zajścia pewnych szczególnych okoliczności. Wyjaśnienie "dopasowuje" zjawisko wyjaśniane do pewnego układu prawidłowości przyrodniczych i wskazuje, że zjawiska tego należało oczekiwać przy założeniu określonych praw, w odpowiednich okolicznościach szczególnych.

[11] Zjawisko, które ma być wyjaśnione, będziemy odtąd nazywać także zjawiskiem-eksplanandum, zdanie zaś, które je opisuje - zdaniem-eksplanandum. Ilekroć kontekst wskazuje, o czym mowa, zarówno zjawisko wyjaśniane, jak i opisujące je zdanie, będzie nazwane krótko eksplnandum. Zespół zdań zawierających łącznie wyjaśnienie - taki, jak a, b i c w naszym przykładzie - będziemy określać mianem eksplanans.

[12] Jako drugi przykład rozważmy wyjaśnienie pewnej własności tworzenia się obrazu przez odbicie w zwierciadle kulistym; tej mianowicie, że ogólnie 1/u + 1/ν = 2/r przy czym u i ν;; są odpowiednio odległościami punktu-przedmiotu i punktu-obrazu od zwierciadła, r zaś jest promieniem krzywizny zwierciadła. W optyce geometrycznej wyjaśnia się tę prawidłowość za pomocą podstawowego prawa odbicia w zwierciadle płaskim, traktując odbicie promienia świetlnego w każdym punkcie zwierciadła kulistego jako odbicie na płaszczyźnie stycznej do powierzchni kuli. Wyjaśnienie to można sformułować jako rozumowanie dedukcyjne, którego konkluzją jest zdanie-eksplanandum, przesłanki zaś zawierają podstawowe prawa odbicia i prostoliniowego rozchodzenia się światła oraz zdanie stwierdzające, że powierzchnia zwierciadła jest częścią powierzchni kuli.

[13] Podobne rozumowanie, zawierające również wśród przesłanek prawo odbicia w zwierciadle płaskim, wyjaśnia, czemu światło, które pochodzi z małego źródła umieszczonego w ognisku zwierciadła paraboloidalnego, odbija się w postaci wiązki równoległej do osi paraboloidy (zasada ta jest wykorzystywana w technice przy konstrukcji przednich świateł samochodowych, reflektorów i innych urządzeń tego typu).

[14] Każde z przytoczonych wyjaśnień można więc traktować jako rozumowanie dedukcyjne, którego konkluzją jest zdanie-eksplanandum E, a układem przesłanek - eksplanans, składający się z praw ogólnych L1, L2,..., Lr, i ze zdań C1, C2,..., Ck, które stwierdzają pewne fakty szczegółowe. Formę takich rozumowań, będących jednym z typów wyjaśnienia naukowego, przedstawia następujący schemat :

L1, L2,..., Lr             
(D-N)          C1, C2,..., Ck         Eksplanans
                  E                         Eksplanandum

Wyjaśnienia tego rodzaju będziemy nazywać wyjaśnieniami dedukcyjnymi przez podciągnięcie pod prawa ogólne lub wyjaśnieniami dedukcyjno-nomologicznymi (termin "nomologiczny" pochodzi od słowa greckiego "nomos", czyli prawo). Prawa wchodzące w skład danego wyjaśnienia naukowego nazywamy też prawami obejmującymi zjawisko-eksplanandum, a o rozumowaniu wyjaśniającym mówimy, że podciąga eksplanandum pod te prawa.

[15] W wyjaśnianiu dedukcyjno-nomologicznym zjawisko-eksplanandum może być pojedynczym faktem, występującym w określonym miejscu i czasie, takim jak wynik eksperymentu Périera. Może być nim także pewna wykryta w przyrodzie regularność, taka jak stałe cechy charakterystyczne tęczy, lub też prawidłowość wyrażana przez prawo empiryczne tego typu, co prawa Galileusza lub Keplera. Wyjaśnienia dedukcyjne takich prawidłowości odwołują się do praw o szerszym zasięgu, takich jak prawa odbicia i załamania lub Newtonowskie prawa ruchu i grawitacji. Takie zastosowanie praw Newtona jest ilustracją faktu, że prawa empiryczne są często wyjaśniane za pomocą zasad teoretycznych dotyczących struktur i procesów leżących u podstaw wyjaśnianych prawidłowości. Do wyjaśnień tego rodzaju wrócimy jeszcze w następnym rozdziale.

[16] Wyjaśnienia dedukcyjno-nomologiczne spełniają warunek istotności w jego najmocniejszej wersji: ze zdań składających się na eksplanans wynika dedukcyjnie zdanie-eksplanandum, a więc wyjaśnienie takie jest logicznie niezawodną podstawą do oczekiwania zjawiska-eksplanandum (wkrótce zapoznamy się z przykładami wyjaśnień naukowych, które spełniają ten warunek tylko w słabszym, indukcyjnym sensie). Czynią one zadość również warunkowi sprawdzalności, eksplanans implikuje bowiem m.in. wystąpienie zjawiska-eksplanandum w określonych okolicznościach.

[17] Niektóre wyjaśnienia naukowe mają postać dokładnie odpowiadającą schematowi (D-N). Jest tak zwłaszcza wtedy, gdy pewne cechy ilościowe jakiegoś zjawiska wyjaśnia się przez matematyczne wyprowadzenie ich z odpowiednich praw ogólnych, jak było w przypadku odbicia światła w zwierciadłach kulistych i paraboloidalnych. Podobny charakter ma słynne wyjaśnienie (podane przez Leverriera oraz niezależnie przez Adamsa) pewnych nieregularności ruchu planety Uran, których na gruncie teorii Newtona nie można było wytłumaczyć przyciąganiem grawitacyjnym innych znanych wówczas planet. Leverrier wysunął przypuszczenie, że zakłócenia te są wynikiem działania grawitacyjnego niewykrytej dotąd planety zewnętrznej, i obliczył położenie, masę i inne cechy, które planeta ta musi mieć, aby zaobserwowane nieregularności dały się wyjaśnić ilościowo. Jego przypuszczenie zostało w pełni potwierdzone przez wykrycie w przewidywanym miejscu nowej planety, Neptuna, posiadającego wszystkie ilościowe własności przypisane mu przez Leverriera. I w tym przypadku wyjaśnienie miało charakter rozumowania dedukcyjnego, którego przesłanki obejmowały prawa ogólne - ściślej, Newtonowskie prawa grawitacji i ruchu - oraz zdania zawierające rozmaite dane szczegółowe na temat nieznanej planety zakłócającej ruch Urana.

[18] Nierzadko jednak wyjaśnienia dedukcyjno-nomologiczne przybierają formę eliptyczną; pomija się w nich pewne założenia, niezbędne dla wyjaśnienia, lecz traktowane w danym kontekście jako pewniki. Wyjaśnienia takie formułuje się czasem w postaci "E, ponieważ C", przy czym E jest zjawiskiem wyjaśnianym, C zaś pewnym wcześniejszym lub towarzyszącym mu zdarzeniem czy stanem rzeczy. Jako przykład może posłużyć zdanie: "Błoto na chodniku pozostaje płynne podczas mrozu, ponieważ zostało posypane solą". Wyjaśnienie to nie wymienia explicite żadnego prawa, ale zakłada milcząco co najmniej jedno: że temperatura zamarzania wody jest niższa, gdy rozpuści się w niej sól. Właśnie dzięki temu prawu fakt posypania błota solą może pełnić rolę wyjaśniającą, ściślej - przyczynową, przypisywaną mu w powyższym zdaniu. Jest ono eliptyczne także pod innymi względami: przyjmuje milcząco pewne założenia co do zwykłych warunków fizycznych, takich jak np. niezbyt niska temperatura. Gdy do zdania głoszącego, że błoto zostało posypane solą, dołączy się wymienione i inne jeszcze, przyjęte milcząco założenia, wówczas otrzyma się przesłanki dedukcyjno-nomologicznego wyjaśnienia faktu płynności błota.

[19] Podobne uwagi można wypowiedzieć w stosunku do podanego przez Semmelweisa wyjaśnienia gorączki połogowej jako powodowanej przez rozkładającą się substancję zwierzęcą, która zostaje wprowadzona do krwiobiegu przez otwartą ranę. Tak sformułowane, wyjaśnienie to nie wymaga żadnego prawa ogólnego, zakłada się w nim jednak, że zanieczyszczenie krwi ową substancją prowadzi zawsze do zakażenia, któremu towarzyszą charakterystyczne symptomy gorączki połogowej; to właśnie zawarte jest w twierdzeniu, że zanieczyszczenie powoduje gorączkę połogową. Semmelweis niewątpliwie przyjmował to uogólnienie jako pewne. Przyczyna choroby Kolletschki nie była dlań problemem etiologicznym: gdy substancja zakaźna została wprowadzona do krwiobiegu, zatrucie krwi musi nastąpić (Kolletschka nie był zapewne pierwszą ofiarą zatrucia krwi w wyniku skaleczenia skażonym skalpelem. Przez tragiczną ironię losu Semmelweis zmarł z tej samej przyczyny). Gdy wymieni się przemilczaną przesłankę, wówczas wyjaśnienie gorączki połogowej odwołuje się w widoczny sposób do pewnego prawa ogólnego.

[20] Powyższe przykłady wskazują, że prawa ogólne są zawsze założeniami wyjaśnień formułowanych za pomocą zdań o schemacie: dane zdarzenie rodzaju G (np. wzrost objętości gazu pod stałym ciśnieniem; przepływ prądu w obwodzie zamkniętym) zostało spowodowane przez pewne zdarzenie innego rodzaju F (np. wzrost temperatury gazu; przemieszczanie obwodu w polu magnetycznym). Aby to uznać, nie musimy wdawać się w skomplikowaną problematykę pojęcia przyczyny; wystarczy zauważyć, że ogólna zasada "ta sama przyczyna, ten sam skutek" w zastosowaniu do wyjaśniania głosi po prostu, że ilekroć występuje zdarzenie rodzaju F, tylekroć towarzyszy mu zdarzenie rodzaju G.

[21] Mówiąc, że wyjaśnienie opiera się na prawach ogólnych, nie twierdzimy bynajmniej, że znalezienie wyjaśnienia wymaga odkrycia praw. Wzbogacenie wiedzy, osiągnięte dzięki wyjaśnieniu, polega czasem na odkryciu pewnego jednostkowego faktu (np. istnienia nieznanej planety czy obecności substancji infekcyjnej na rękach badającego pacjentów lekarza), który za pośrednictwem przyjętych już praw ogólnych tłumaczy zjawisko-eksplanandum. Kiedy indziej (np. w przypadku linii w widmie wodoru) zdobycz nauki w postaci wyjaśnienia jest związana z odkryciem odpowiedniego prawa (Balmer) lub ewentualnie całej teorii (Bohr). W jeszcze innych przypadkach osiągnięcie polega na wykazaniu, że (i w jaki sposób) zjawisko-eksplanandum daje się wytłumaczyć za pośrednictwem praw i danych dotyczących jednostkowych faktów, które są już znane: przykładem takiej sytuacji jest wyjaśnienie polegające na wyprowadzeniu praw odbicia dla kulistego i paraboloidalnego zwierciadła z podstawowych praw optyki geometrycznej, w połączeniu z twierdzeniami dotyczącymi geometrycznych własności tych zwierciadeł.

[22] Problem, którego dotyczy zamierzone wyjaśnienie, nie wyznacza jeszcze rodzaju odkrycia, jakiego wyjaśnienie to wymaga. Tak np. Leverrier poszukiwał również przyczyn odchyleń ruchu Merkurego od toru, po którym zgodnie z teorią planeta ta powinna się poruszać; próbował, jak w przypadku Urana, wytłumaczyć te odchylenia grawitacyjnym oddziaływaniem nieznanej planety, Wulkana, która powinna być bardzo gęstym i bardzo małym ciałem, znajdującym się między Słońcem a Merkurym. Ale planety takiej nie odkryto, a zadowalające wyjaśnienie odchyleń ruchu Merkurego od drogi teoretycznej przyniosła znacznie później ogólna teoria względności, która tłumaczy je za pomocą nowego systemu praw, bez odwoływania się do szczegółowych czynników zakłócających.

Prawa ogólne a przypadkowe uogólnienia

[23] Jak widzieliśmy, prawa odgrywają istotną rolę w wyjaśnianiu nomologiczno-dedukcyjnym. Są one ogniwem, dzięki któremu okoliczności szczegółowe (oznaczone przez C1, C2,..., Ck) mogą służyć wyjaśnieniu występowania danego zjawiska. Kiedy zaś eksplanandum nie jest zjawiskiem jednostkowym, ale pewną prawidłowością, jak np. wspomniane wyżej własności zwierciadeł kulistych i paraboloidalnych, wówczas prawa wyjaśniające dotyczą prawidłowości ogólniejszych, w stosunku do których prawidłowość wyjaśniana jest przypadkiem szczególnym.

[24] Prawa, z których korzysta się w wyjaśnieniach dedukcyjno-nomologicznych, charakteryzują się pewną podstawową wspólną cechą: mają one, jak już mówiliśmy, formę zdań ogólnych. Z grubsza mówiąc, zdanie tego rodzaju stwierdza zachodzenie pewnego regularnie występującego związku między różnymi zjawiskami empirycznymi lub między różnymi aspektami tego samego zjawiska empirycznego. Jest to twierdzenie głoszące, że zawsze i wszędzie, gdzie występują określonego rodzaju warunki F, tam bez wyjątku występują również warunki pewnego innego rodzaju G. (Nie wszystkie prawa naukowe mają tę postać. W następnych punktach zapoznamy się z prawami o postaci probabilistycznej oraz z opieranymi na nich wyjaśnieniami).

[25] A oto kilka przykładów twierdzeń ogólnych: ilekroć przy stałym ciśnieniu rośnie temperatura gazu, tylekroć zwiększa się jego objętość; zawsze, gdy promień świetlny odbija się od płaskiej powierzchni, kąt odbicia jest równy kątowi padania; ilekroć namagnesowany pręt żelazny zostaje złamany na dwie części, każdy z kawałków staje się osobnym magnesem; ilekroć ciało pozostające poprzednio w spoczynku spada swobodnie w próżni w pobliżu powierzchni Ziemi, tylekroć odległość, którą przebywa ono w ciągu t sekund, wynosi 4,9 t2 metra. Większość praw nauk przyrodniczych ma charakter ilościowy; stwierdzają one zachodzenie pewnych określonych związków matematycznych między różnymi ilościowymi własnościami układów fizycznych (np. między objętością, temperaturą i ciśnieniem gazu) lub procesów (np. między czasem i odległością przy swobodnym spadaniu w przypadku prawa Galileusza; między okresem pełnego obrotu planety i jej średnią odległością od Słońca w przypadku trzeciego prawa Keplera; między kątami padania i odbicia w przypadku prawa Snella).

[26] Ściśle mówiąc, zdanie stwierdzające zachodzenie pewnego ogólnego związku traktuje się jako prawo tylko wtedy, gdy istnieją podstawy, by uznać je za prawdziwe: zwrot "fałszywe prawo natury" brzmi dość niezwykle. Gdyby jednak warunek ten był rygorystycznie przestrzegany, wówczas twierdzeń, które nazywamy prawem Galileusza i prawem Keplera, nie można byłoby kwalifikować jako praw, ponieważ według obecnej wiedzy fizykalnej są one spełnione tylko w przybliżeniu, przy czym, jak zobaczymy później, odpowiednia teoria tłumaczy, czemu tak jest. Analogiczne zastrzeżenia dotyczą praw optyki geometrycznej. Na przykład nawet w jednorodnym ośrodku światło nie rozchodzi się po liniach idealnie prostych: może ono zakrzywiać się w pobliżu załamań ośrodka. Dlatego terminem "prawo" będziemy posługiwać się w sposób dość liberalny, stosując go również do takich twierdzeń omawianego tu rodzaju, o których wiadomo, że obowiązują tylko w przybliżeniu i z pewnymi ograniczeniami. Do kwestii tej powrócimy w następnym rozdziale, omawiając wyjaśnianie praw za pomocą teorii.

[27] Stwierdziliśmy, że prawa występujące w wyjaśnieniach dedukcyjno-nomologicznych są twierdzeniami typu: "We wszystkich przypadkach, w których są zrealizowane warunki rodzaju F, zrealizowane są też warunki rodzaju G". Jest jednak rzeczą istotną, że nie wszystkie twierdzenia tej postaci - nawet spośród prawdziwych - można zaliczyć do praw przyrody. Na przykład zdanie: "wszystkie kamienie znajdujące się w tym oto pudle zawierają żelazo", mimo że ma formę ogólną (F jest warunkiem bycia kamieniem znajdującym się w danym pudle, G - warunkiem polegającym na zawieraniu żelaza), jeśli nawet jest prawdziwe, nie zostanie uznane za prawo, lecz za przypadkowe uogólnienie. Podobnie potraktowane będzie np. zdanie: "każdy przedmiot ze szczerego złota ma masę niniejszą niż 100 000 kilogramów". Nie ulega wątpliwości, że wszystkie znane złote przedmioty czynią zadość temu twierdzeniu; istnieje zatem bardzo wiele świadectw, które je potwierdzają, a żadne przypadki sprzeczne z nim nie są znane. W istocie rzeczy jest wielce prawdopodobne, że nigdy w historii świata nie było ani nie będzie przedmiotu ze szczerego złota o masie równej 100000 lub więcej kilogramów. W tym przypadku powyższe uogólnienie byłoby nie tylko mocno traktujemy jako przypadkową, a to dlatego, że żadne spośród praw uznawanych w nauce współczesnej za podstawowe nie wyklucza możliwości istnienia - a nawet możliwości wytworzenia przez nas samych - złotego przedmiotu o masie przekraczającej 100 000 kilogramów.

[28] Tak więc definicja określająca prawa naukowe jako prawdziwe twierdzenia ogólne byłaby nieadekwatna; podaje ona konieczny, lecz nie wystarczający warunek, który muszą spełniać prawa rozważanego tu rodzaju.

[29] Co różni właściwe prawa od uogólnień przypadkowych? Ten ciekawy problem był w ostatnich latach przedmiotem ożywionych dyskusji. Omówimy pokrótce niektóre spośród głównych poglądów reprezentowanych w tej wciąż jeszcze trwającej debacie.

[30] Jedna z tych różnic - dość przekonująca i znamienna - sformułowana została przez Nelsona Goodmana; polega ona na tym, że prawo, w przeciwieństwie do przypadkowego uogólnienia, może posłużyć do uzasadnienia nierzeczywistego okresu warunkowego, tj. zdania o postaci: "gdyby zdarzyło się A, to zdarzyłoby się B", gdy wiadomo, że w istocie A się nie zdarzyło. Tak np. twierdzenie: "gdyby ta oto świeca parafinowa została włożona do kotła z wrzącą wodą, to roztopiłaby się" może być uzasadnione za pomocą prawa głoszącego, że parafina topi się w temperaturze powyżej 60°C (oraz twierdzenia, że temperatura wrzenia wody wynosi 100°C). Natomiast zdanie: "każdy kamień znajdujący się w tym pudle zawiera żelazo" nie może uzasadnić nierzeczywistego okresu warunkowego: "gdyby ten oto kamień znalazł się w tym pudle, to zawierałby żelazo". Podobnie, w przeciwieństwie do prawdziwego, ale przypadkowego uogólnienia, prawo może służyć uzasadnieniu zdań warunkowych typu "jeśli wydarzy się A, to wydarzy się też B", w których kwestia, czy A w istocie się wydarzy, pozostaje otwarta. Przykładem jest tu zdanie: "jeśli ta świeca parafinowa zostanie włożona do wrzącej wody, to świeca ta rozpuści się".

[31] Ściśle związana z powyższą jest pewna inna różnica między prawami a przypadkowymi uogólnieniami, szczególnie interesująca z naszego punktu widzenia: otóż prawa, w przeciwieństwie do przypadkowych uogólnień, mogą być podstawą wyjaśniania. Tak np. rozpuszczenie się tej a tej świecy parafinowej po włożeniu jej do wrzącej wody można wyjaśnić według schematu (D-N), powołując się na wspomniane wyżej fakty szczegółowe oraz na prawo, które głosi, że parafina rozpuszcza się w temperaturze powyżej 60°C. Natomiast faktu, że określony kamień w danym pudle zawiera żelazo, nie da się wyjaśnić w analogiczny sposób, przez powołanie się na twierdzenie ogólne, że wszystkie kamienie w tym pudle zawierają żelazo.

[32] Na pierwszy rzut oka wydaje się, że - kontynuując wyliczanie różnic, o których mowa - to ostatnie zdanie można scharakteryzować jako dogodną, skrótową formę skończonej koniunkcji, mającej postać: "kamień kt zawiera żelazo i kamień k2 zawiera żelazo,... i kamień k63 zawiera żelazo"; natomiast uogólnienie dotyczące parafiny odnosi się do potencjalnie nieskończonego zbioru przypadków, a więc nie może być sformułowane jako skończona koniunkcja zdań o przypadkach indywidualnych. Rozróżnienie to jest sugestywne, lecą zwodnicze. Przede wszystkim bowiem uogólnienie "wszystkie kamienie w tym pudle zawierają żelazo" w istocie nie informuje o tym, ile kamieni jest w pudle, ani też żadnemu z tych kamieni nie nadaj nazwy k1, k2 itd. Zatem zdanie ogólne nie jest logicznie równoważne skończonej koniunkcji wspomnianego rodzaju. Chcąc sformułować taką koniunkcję, musimy dysponować dodatkową informacją, którą można uzyskać przez policzenie i oznaczenie kamieni znajdujących się w pudle. Nadto uogólnienie "każdy przedmiot ze szczerego złota ma masę mniejszą niż 100 000 kilogramów" nie zasługiwałoby na miano prawa nawet wtedy gdyby na świecie istniało nieskończenie wiele złotych przedmiotów. Zatem rozważane kryterium z wielu względów nie wytrzymuje krytyki.

[33] Zauważmy wreszcie, że twierdzenie ogólne może być prawem nawet wtedy, gdy w istocie rzeczy nie stosuje się do żadnych rzeczywistych przypadków. Dla przykładu rozważmy zdanie: "Na każdym ciele niebieskim o promieniu równym promieniowi Ziemi, lecz o dwukrotnie większej masie swobodne spadanie ze stanu spoczynku przebiega według wzoru s = 9,8 t2". Jest zupełnie prawdopodobne, że w całym wszechświecie nie istnieje ciało niebieskie o takich właśnie rozmiarach i masie, a jednak twierdzenie powyższe jest prawem, bowiem wynika ono (a raczej - podobnie jak w przypadku prawa Galileusza - jego przybliżenie) z Newtonowskiej teorii grawitacji i ruchu, połączonej z twierdzeniem, że przyspieszenie ziemskie wynosi 9,8 m/s2; ma więc mocną podstawę teoretyczną, podobnie jak wspomniane poprzednio prawo swobodnego spadku na Księżycu.

[34] Prawo to może służyć do uzasadniania zwykłych i nierzeczywistych okresów warunkowych, dotyczących jego możliwych zastosowań, tj. szczególnych przypadków, które mogą zachodzić lub mogłyby, a nie zachodzą. W podobny sposób teoria Newtona potwierdza nasze twierdzenie ogólne w wersji sugerującej, że ma ono status prawa: "Na każdym możliwym ciele niebieskim, które ma tę samą wielkość co Ziemia, lecz dwukrotnie większą masę, swobodne spadanie spełniałoby wzór s = 9,81 t2". Natomiast uogólnienie na temat kamieni nie daje się sformułować jako twierdzenie, że każdy kamień, który mógłby być w tym pudle, zawierałby żelazo; to ostatnie twierdzenie nie miałoby też, oczywiście, żadnej podstawy teoretycznej.

[35] Podobnie uogólnieniem dotyczącym masy złotych przedmiotów - oznaczmy je literą H - nie posłużylibyśmy się dla uzasadnienia takiego np. zdania: "Dwa przedmioty ze szczerego złota, których suma mas wynosi ponad 100 000 kg, nie mogą być połączone w jeden przedmiot; jeśli zaś połączenie byłoby możliwe, to masa otrzymanego w ten sposób przedmiotu będzie mniejsza niż 100 000 kg". Powszechnie przyjęte teorie fizyki i chemii ani nie wykluczają połączenia, o którym tu mowa, ani nie pozwalają przewidywać, że w przypadku takiego połączenia nastąpi utrata masy. Zatem nawet gdyby uogólnienie H było prawdziwe, tj. gdyby nigdy nie istniały żadne sprzeczne z nim przypadki, stanowiłoby ono jedynie przypadkową zbieżność z punktu widzenia nauki, która dopuszcza istnienie wyjątków wobec H.

[36] Tak więc to, czy twierdzenie wyrażone w formie ogólnej ma charakter prawa, zależy w pewnym stopniu od przyjętych w danej chwili teorii naukowych. Nie znaczy to, że "uogólnienia empiryczne" - twierdzenia ogólne uzasadniane empirycznie, lecz nie mające podstawy w teorii - nie są nigdy kwalifikowane jako prawa: prawa Galileusza, Keplera i Boyle'a są przykładami twierdzeń uznanych za prawa przed ich teoretycznym ugruntowaniem. Rola teorii w tym zakresie jest następująca: twierdzenie ogólne, potwierdzone empirycznie lub dotąd nie sprawdzane, będzie zakwalifikowane jako prawo, jeżeli wynika z przyjętej teorii (twierdzenia tego rodzaju nazywa się często prawami teoretycznymi); natomiast nawet wtedy, gdy jest mocno poparte przez doświadczenie i prawdopodobnie prawdziwe, nie zostanie zaliczone do praw, jeżeli wyklucza pewne hipotetyczne fakty (takie jak połączenie dwu złotych przedmiotów dające przedmiot o masie ponad 100 000 kg), które aktualnie przyjęta teoria uznaje za możliwe.

Wyjaśnianie probabilistyczne: podstawy

[37] Nie wszystkie wyjaśnienia naukowe opierają się na prawach mających formę zdań ściśle ogólnych. Na przykład fakt, że mały Jaś zachorował na odrę, tłumaczy się, mówiąc, że nabawił się tej choroby od swego brata, który przechodził odrę kilka dni wcześniej. Wyjaśnienie to wiąże zdarzenie-eksplanandum z pewnym zdarzeniem wcześniejszym, którym było zetknięcie się Jasia z odrą; to ostatnie zdarzenie można uznać za wyjaśnienie pierwszego, ponieważ istnieje związek między zetknięciem się z odrą i zarażeniem się nią. Związku tego nie wyraża jednak żadne prawo ogólne, ponieważ nie zawsze kontakt z chorym na odrę powoduje zarażenie. Można stwierdzić, że zarażenie się odrą przez osobę, która się z nią zetknęła, jest bardzo prawdopodobne, tj. zachodzi w przeważającej części wszystkich przypadków. Zdania ogólne tego rodzaju, którymi wkrótce zajmiemy się bardziej szczegółowo, będziemy nazywać prawami o postaci probabilistycznej lub krócej prawami probabilistycznymi.

[38] W naszym przykładzie eksplanans składa się więc z wymienionego wyżej prawa probabilistycznego oraz ze zdania, które głosi, że Jaś zetknął się z odrą. W przeciwieństwie do wyjaśnień dedukcyjno-nomologicznych eksplanans ten nie pociąga dedukcyjnie zdania-eksplanandum, które stwierdza, że Jaś zachorował na odrę; bowiem we wnioskowaniach dedukcyjnych, w których przesłanki są prawdziwe, wniosek również musi być prawdziwy, a w naszym przykładzie przy prawdziwych zdaniach składających się na eksplanans zdanie-eksplanandum mogłoby być fałszywe. W formie skrótowej powiemy, że eksplanans pociąga tu zdanie-eksplanandum nie z "dedukcyjną pewnością", lecz z wysokim prawdopodobieństwem.

[39] Powstające w ten sposób rozumowanie wyjaśniające można przedstawić w następującej postaci:

Prawdopodobieństwo nabawienia się odry przez osobę, która zetknęła się z tą chorobą, jest wysokie.
Jaś zetknął się z odrą.
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -      [czyni wysoce prawdopodobnym]
Jaś nabawił się odry.

W ogólnie przyjętym zapisie rozumowania dedukcyjnego przesłanki oddziela się od konkluzji pojedynczą linią (por. nasz schemat (D-N)), która wskazuje, że konkluzja wynika logicznie z przesłanek. Przerywana [w wydaniu książkowym: podwójna, W.S.] linia, którą zastosowaliśmy w ostatnim schemacie, ma wskazywać, że "przesłanki" (eksplanans) czynią "konkluzję" (zdanie-eksplanandum) mniej lub bardziej prawdopodobną; stopień tego prawdopodobieństwa jest scharakteryzowany w podanym obok nawiasie.

[40] Rozumowania tego rodzaju będziemy nazywać wyjaśnieniami probabilistycznymi. Zauważyliśmy już, że wyjaśnienie probabilistyczne indywidualnego zdarzenia ma pewne podstawowe cechy wspólne z odpowiednim wyjaśnieniem dedukcyjno-nomologicznym. W obu przypadkach tłumaczy się dane zdarzenie, powołując się na pewne inne, z którym zdarzenie-eksplanandum jest związane jakimś prawem. Ale w jednym przypadku prawo to ma formę ogólną, w drugim zaś - probabilistyczną i podczas gdy wyjaśnienie dedukcyjne wskazuje, że informacja, którą zawiera eksplanans, pozwala oczekiwać eksplanandum z "dedukcyjną pewnością", to wyjaśnienie probabilistyczne wskazuje tylko, że na podstawie informacji zawartej w eksplanansie należy oczekiwać eksplanandum z wysokim prawdopodobieństwem; często prawdopodobieństwo to jest równe "praktycznej pewności", dzięki czemu rozumowania tego rodzaju czynią zadość warunkowi istotności.

strona główna