DZIEJE RELIGII, FILOZOFII I NAUKI
indeks | antologia religijna | antologia filozoficzna | filozofia nauki
Paul K. FEYERABEND
Jak być dobrym empirystą? Wezwanie do tolerancji w kwestiach epistemologicznych
"How to Be a Good Empiricist — A Plea for Tolerance in Matters Epistemological", 1963
tłum.
Krystyna Zamiara, pominięto przypisy i bibliografię
1. Współczesny empiryzm może prowadzić do utrwalania się
dogmatycznej metafizyki
2. Dwa warunki współczesnego empiryzmu
3. Nieadekwatność warunków empirystycznych względem praktyki
naukowej
4. Nieracjonalność warunku zgodności
5. Względna autonomia faktów
6. Samozakłamianie związane w wszelką unifikacją
7. Nieracjonalność warunku niezmienności znaczenia
8. Pewne konsekwencje
9. Jak być dobrym empirystą?
"Fakty?" — powtórzył. "Niech pan wypije jeszcze odrobinę więcej grogu, panie Franklin, a przezwycięży pan słabość wierzenia w fakty!
Nieczysta gra, proszę pana!"
Wilkie Collins, Monsone
1. WSPÓŁCZESNY EMPIRYZM MOŻE PROWADZIĆ DO UTRWALANIA SIĘ DOGMATYCZNEJ METAFIZYKI
Empiryzm jest obecnie jawną filozofią licznych przedsięwzięć intelektualnych. Stanowi on rdzeń dyscyplin naukowych — tak przynajmniej się nas poucza — ponieważ jest odpowiedzialny zarówno za istnienie, jak i za rozwój wiedzy naukowej. Pogląd ten zaadoptowały wpływowe szkoły estetyczne, etyczne i teologiczne. Również w obrębie samej filozofii opracowano empiryczny punkt widzenia bardzo szczegółowo i nawet z większą precyzją. Ta skłonność do empiryzmu wynika zarówno z założenia, że tylko dokładna procedura obserwacyjna może wykluczyć oderwane od rzeczywistości spekulacje i pustą metafizykę, jak i z oczekiwania, że stanowisko empirystyczne będzie najskuteczniej przeciwdziałać stagnacji i ułatwiać postęp wiedzy. Celem niniejszego artykułu jest wykazanie, że empiryzm, w postaci, w jakiej obecnie się go uprawia, nie może spełnić tego oczekiwania.
Mówiąc skrótowo, sądzę, że współczesna doktryna empiryzmu natknęła się na trudności i stworzyła sprzeczności, które są bardzo podobne do trudności i sprzeczności tkwiących w niektórych wersjach doktryny demokracji. Te ostatnie są zjawiskiem powszechnie znanym. Mianowicie, wiadomo powszechnie, że środki o charakterze wyraźnie totalitarnym reklamuje się często jako konieczne konsekwencje zasad demokratycznych. Co gorsza, nierzadko ten totalitarny charakter owych środków nie jest przedstawiany explicite, lecz bywa ukrywany pod nazwą "demokratyczny", przy czym w takich wypadkach termin "demokratyczny" użyty jest w nowy, nieco mylący sposób. Ta metoda (świadomego, względnie nieświadomego) kamuflażu werbalnego funkcjonuje na tyle dobrze, że zmyliła niektórych zagorzałych zwolenników prawdziwej demokracji. Mniej znany natomiast jest fakt, że współczesny empiryzm znajduje się dokładnie w takiej samej, kłopotliwej sytuacji. Mianowicie, niektóre metody tej orientacji, wyprowadzane z ducha antydogmatyzmu i postępu, prowadzą do utrwalenia się dogmatycznej metafizyki i do stworzenia mechanizmów obronnych, zabezpieczających ją przed obaleniem drogą badań eksperymentalnych. To prawda, że w procesie utrwalania się takich metafizyk słowa: "empiryczny", lub "doświadczenie" pojawiają się często, ale ich sens jest zniekształcony, tak samo jak sens słowa "demokratyczny", gdy jest ono używane przez niektórych zamaskowanych obrońców nowej tyranii. Tak więc, moje oskarżenie brzmi następująco: będąc dalekim od wyeliminowania dogmatu i metafizyki, a przez to od popierania postępu, współczesny empiryzm odkrył nowy sposób uczynienia dogmatu i metafizyki czymś godnym szacunku, mianowicie, przez nazywanie ich "dobrze potwierdzonymi teoriami" i rozwijanie metody konfirmacji, w której badania eksperymentalne odgrywają dużą, chociaż dobrze kontrolowaną rolę. Pod tym względem, stanowisko to różni się w sposób istotny od empiryzmu Galileusza, Faradaya i Einsteina, chociaż, oczywiście, usiłuje przedstawiać tych uczonych jako realizujących jego paradygmat praktyki badawczej, co prowadzi do dalszego zagmatwania sprawy.
Z tego, co powiedzieliśmy dotąd, wynika, że walkę o tolerancję i postęp w nauce należy jeszcze kontynuować. Zmieniła się tylko nazwa wrogów. Kilka dziesięcioleci temu byli nimi księża czy filozofowie scholastyczni. Dziś nazywają oni siebie "filozofami nauki" lub "logicznymi empirystami". Istnieje również wielu badaczy, których praca zmierza w tym samym kierunku. Utrzymuję, że wszystkie te grupy działają przeciwko rozwojowi nauki. Jednakże, podczas gdy pierwsi czynili to otwarcie i mogli być łatwo rozpoznani, ci ostatni rozwijają swą działalność pod szyldem postępu i empiryzmu, oszukując w ten sposób wielu swych zwolenników. Tak więc, chociaż ich obecność jest dostatecznie dostrzegalna, można ich niemal porównać do piątej kolumny, której cel należy wyeksponować, aby można było w pełni oszacować szkodliwe skutki ich działalności. Zadaniem tego artykułu jest przyczynienie się do ujawnienia owych skutków.
Spróbuję również podać pozytywną metodologię nauk empirycznych, która nie będzie już dłużej sprzyjać utrwalaniu dogmatów w imię doświadczenia. Mówiąc krótko, odpowiedź na pytanie zawarte w tytule artykułu, jaką metoda ta podaje, jest następująca: możesz być dobrym empirystą jedynie wtedy, gdy będziesz skłonny pracować raczej z wieloma alternatywnymi teoriami, niż z jednym teoretycznym punktem widzenia i z "doświadczeniem". Ta wielość teorii nie powinna być uważana za wstępne stadium wiedzy, które kiedyś w przyszłości zostanie zastąpione przez Jedną Prawdziwą Teorię. Zakłada się, że teoretyczny pluralizm jest istotną cechą wszelkiej wiedzy, która zgłasza pretensje do obiektywności. Nie można też zadowalać się pluralizmem, który jest jedynie abstrakcją, i który powstał przez zaprzeczanie raz tego, a raz innego składnika dominującego poglądu teoretycznego. Ujęcia alternatywne należy raczej rozwijać na tyle drobiazgowo, aby problemy już "rozwiązane" przez akceptowaną teorię mogły być znowu rozpatrzone w nowy i ewentualnie także — bardziej szczegółowy sposób. Oczywiście rozwój taki jest przedsięwzięciem czasochłonnym, stąd — na przykład — niemożliwe byłoby natychmiastowe skonstruowanie teorii alternatywnych w stosunku do obecnej teorii kwantów, które byłyby z nią porównywalne pod względem bogactwa i wyrafinowania. Jednakże, byłoby rzeczą bardzo nierozsądną zatrzymywanie tego procesu na samym początku z uwagi na to, iż niektóre z proponowanych, nowych idei są nierozwinięte, ogólne, metafizyczne. Zbudowanie dobrej teorii wymaga czasu (oczywistość, o której — jak się zdaje — zapomnieli niektórzy obrońcy Kopenhaskiej Interpretacji teorii kwantów); potrzeba również czasu na rozwinięcie ujęcia alternatywnego w stosunku do dobrej teorii. Jednakowoż, funkcją tych konkretnych, alternatywnych poglądów teoretycznych jest dostarczenie środków do krytykowania akceptowanej teorii w sposób wykraczający poza krytycyzm wchodzący w grę przy porównywaniu danej teorii "z faktami". Faktualną adekwatność danej teorii można bowiem stwierdzić jedynie po skonfrontowaniu jej z teoriami alternatywnymi. O jej adekwatności nie świadczy natomiast to, iż wydaje się ona możliwie dokładnie odzwierciedlać fakty, posiada uniwersalne zastosowanie i uważana jest za coś koniecznego przez osoby posługujące się odpowiednim językiem teoretycznym. Dlatego wymyślanie i szczegółowe opracowywanie punktów widzenia alternatywnych względem danej teorii, musi poprzedzać wszelkie ostateczne kwalifikacje jej praktycznego sukcesu i faktualnej adekwatności. Metodologicznym uzasadnieniem pluralizmu teoretycznego jest więc to, iż umożliwia on znacznie ostrzejszą krytykę akceptowanych idei, aniżeli ten, jaki wchodzi w grę przy porównywaniu ich z dziedziną "faktów", których znajomość uważa się za coś, co można osiągnąć niezależnie od rozważań teoretycznych. Stosownie do tego, można następująco określić rolę niezwykłych metafizycznych idei, które są konstruowane w niedogmatyczny sposób, a następnie rozpracowywane na tyle szczegółowo, aby (alternatywnie) wyjaśnić nawet najbardziej potoczne sytuacje eksperymentalne i obserwacyjne: odgrywają one decydującą rolę w krytyce i rozwoju tego, w co się powszechnie wierzy, co jest "dobrze potwierdzone"; z tego względu powinny one występować w każdym okresie rozwoju naszej wiedzy! Nauka wolna od metafizyki jest na najlepszej drodze do przekształcenia się w dogmatyczny system metafizyczny. Tyle jak dotąd streszczenia metody, którą wyjaśnię i obronię w tym artykule.
Oczywiste jest, że w metodzie tej pozostaje jeszcze istotny element empiryzmu: wybór między alternatywnymi teoriami oparty jest na eksperymencie krzyżowym. Jednocześnie musi ona ograniczyć zakres takich eksperymentów. Eksperymenty krzyżowe są efektywne w odniesieniu do teorii o niskim stopniu ogólności, których zasady nie mają związku z zasadami, na których opiera się ontologia wybranego języka obserwacyjnego. Są efektywne w wypadku, gdy tego rodzaju teorie są porównywane na tle teorii ogólniejszej, która dostarcza stałego znaczenia zdaniom obserwacyjnym. Jednakże teoria służąca jako tło, jak każda inna, również wymaga krytyki. Krytyka musi stosować teorie alternatywne. Te ostatnie będą tym skuteczniejsze, im radykalniej różnią się one od rozpatrywanego poglądu teoretycznego! Zdarzyć się może wówczas, że teorie alternatywne nie będą podzielały ani jednego zdania z teoriami krytykowanymi. Oczywiście w tej sytuacji eksperyment krzyżowy jest niemożliwy. Jest niemożliwy nie dlatego, że środki eksperymentalne są zbyt złożone, lub że obliczenia prowadzące do eksperymentalnych przewidywań są zbyt trudne; jest niemożliwy, ponieważ nie ma zdania, które byłoby zdolne wyrazić to, co wynika z obserwacji. Tej konsekwencji, która poważnie ogranicza zakres empirycznej dyskusji, nie da się uniknąć za pomocą żadnej z metod, które są obecnie stosowane i które usiłują używać względnie stałego języka obserwacyjnego. Moment ten wskazuje, że próba uczynienia z empiryzmu uniwersalnej podstawy całej naszej wiedzy faktualnej jest niewykonalna. Rozważenie tej sytuacji wykracza poza zakres tego artykułu.
Na ogół artykuł ten jest zwięzłym streszczeniem wyników, które analizowałem bardziej szczegółowo w następujących swych esejach: "Explanation, Reduction and Empiricism", "Problems of Microphysics", "Problems of Empiricism, Linguistic Philosophy and the Mind-Body Problem". Wszystkie należne wyrazy wdzięczności można tam znaleźć. Niech mi będzie wolno tutaj jedynie powtórzyć, że moje ogólne stanowisko wywodzi się z prac K.R. Poppera (Londyn) i Dawida Bohma (Londyn) oraz moich z nimi dyskusji. Było ono bardzo dokładnie sprawdzone w dyskusji z moim kolegą T. S. Kuhnem (Berkeley). Jego zręczna obrona naukowego konserwatyzmu była bezpośrednim powodem dwu artykułów, z obecnym włącznie. Krytyka A. Naessa (Oslo), D. Rynina (Berkeley), Roy Edgleya (Bristol) i J. W. N. Watkinsa (Londyn) jest przyczyną pewnych zmian, które wprowadziłem do ostatecznej wersji.
2. DWA WARUNKI WSPÓŁCZESNEGO EMPIRYZMU
W tej części zamierzam przedstawić zarys pewnych założeń współczesnego empiryzmu, które zostały szeroko zaakceptowane. W następnych paragrafach wykażę, że te pozornie nieszkodliwe założenia, sformułowane explicite przez paru empirystów logicznych, które zdają się także sterować praktyką badawczą znacznej liczby fizyków, niewątpliwie prowadzą do tych rezultatów, jakie nakreśliliśmy powyżej. Mianowicie, prowadzą one do dogmatycznego skostnienia i utrwalania się — na tzw. "empirycznym gruncie" — niepodatnej na zmiany metafizyki.
Jednym z kamieni węgielnych współczesnego empiryzmu jest teoria wyjaśniania. Teoria ta stanowi opracowanie kilku prostych i z pozoru słusznych idei, po raz pierwszy wysuniętych przez Poppera. Można ją przedstawić następująco: Niech T i T' będą dwiema różnymi teoriami naukowymi, T' — teorią wymagającą wyjaśnienia, czyli eksplanandum oraz T — teorią wyjaśniającą, czyli eksplanansem. Wyjaśnianie (teorii T') polega na dedukcyjnym wyprowadzeniu T' z T oraz warunków początkowych, określających dziedzinę D', w której teoria T' jest stosowalna.(Powyższy warunek wyprowadzalności wydaje się prima facie bardzo naturalny, ponieważ "w przeciwnym razie eksplanans nie stanowiłby adekwatnej podstawy dla wyjaśniania" (Hempel). Implikuje on dwie rzeczy: po pierwsze — że konsekwencje zadowalającego eksplanansu T wewnątrz dziedziny D' muszą być zgodne z eksplanandum T' oraz — po drugie — że główne terminy deskryptywne tych konsekwencji muszą albo zgadzać się co do znaczenia z głównymi terminami deskryptywnymi teorii T', albo przynajmniej muszą być z nimi powiązane za pomocą hipotez empirycznych. Ten ostatni wymóg można również sformułować jako twierdzenie, że znaczenie teorii T' musi pozostać nienaruszone w procesie wyjaśniania. "Jest sprawą najwyższej wagi", pisze profesor Nagel podkreślając ten moment, "aby wyrażenia charakterystyczne dla danej nauki posiadały znaczenia ustalone przez jej własne procedury, dzięki czemu wyrażenia te byłyby rozumiane zgodnie z jej własnymi regułami lub zwyczajami językowymi, niezależnie od tego, czy nauka ta była, czy będzie wyjaśniona w. oparciu o inną dyscyplinę".
Jeśli teraz przyjmiemy za oczywiste samo przez się to, iż teorie ogólne wprowadza się zawsze w celu wyjaśnienia tych funkcjonujących dotąd teorii, które odniosły sukces, wtedy każda nowa teoria powinna spełniać dwa wspomniane właśnie warunki. Sformułujmy je wyraźniej:
1. w danej dziedzinie dopuszczalne są tylko takie teorie, które bądź zawierają w sobie teorie dotąd w tej dziedzinie stosowane, bądź też są przynajmniej z nimi zgodne wewnątrz owej dziedziny;
2. znaczenia powinny pozostawać niezmienne w procesie rozwoju wiedzy, inaczej mówiąc, wszystkie przyszłe teorie winny być formułowane w taki sposób, aby ich zastosowanie w wyjaśnianiu nie naruszały tego, co głoszą wyjaśniane teorie lub raporty obserwacyjne.
Pierwszy z tych warunków będę nazywał warunkiem zgodności, drugi natomiast — warunkiem niezmienności znaczenia.
Oba warunki są restryktywne i dlatego muszą mieć głęboki wpływ na rozwój wiedzy. Ukażę, że rzeczywisty rozwój nauki bardzo często narusza je i to dokładnie tam, gdzie skłonni bylibyśmy dostrzegać imponujący postęp wiedzy. Ukażę również, że żaden z tych warunków nie może być uzasadniony z punktu widzenia tolerancyjnego empiryzmu. Jednakże, zanim to uczynię, chciałbym nadmienić, iż oba te warunki sporadycznie przenikają do praktyki naukowej, gdzie są używane w atakach przeciwko nowym propozycjom teoretycznym, a nawet w samym procesie konstrukcji teorii. Szczególnie dzisiaj odgrywają one bardzo ważną rolę zarówno w konstruowaniu, jak i w obronie pewnych teoretycznych ujęć w mikrofizyce.
Jako jeden z wcześniejszych przykładów może tu służyć następująca wypowiedź Ernesta Macha z Wärmelehre: "Uwzględniając fakt, że w czysto mechanicznym systemie idealnie elastycznych atomów brak realnej analogii do wzrostu entropii, trudno zataić myśl, że podważenie drugiego prawa byłoby możliwe, gdyby taki mechaniczny system stanowił rzeczywistą podstawę procesów termodynamicznych".
Powołując się na fakt, iż drugie prawo jest bardzo dobrze potwierdzone empirycznie, daje on następnie do zrozumienia (w swoim Zwei Aufsaetze), że z tego względu hipoteza mechaniczna nie powinna być traktowana zbyt poważnie. Wiele podobnych zastrzeżeń podniesiono także wobec kinetycznej teorii ciepła. Ostatnio Max Born oparł swoje argumenty przeciwko możliwości powrotu do determinizmu na warunku zgodności i założeniu, które przyjmiemy tutaj jako oczywiste, że mechanika falowa nie daje się pogodzić z determinizmem.
"Gdyby jakakolwiek przyszła teoria była deterministyczna, nie mogłaby być ona modyfikacją obecnej, lecz musiałaby być zupełnie inna. Kłopotanie się o to, w jaki sposób można by to osiągnąć bez równoczesnego poświęcania całego skarbca dobrze ustalonych wyników (tj. bez negowania dobrze potwierdzonych praw fizykalnych, a przeto — naruszania warunku zgodności); pozostawiam deterministom".
Większość członków tzw. Kopenhaskiej szkoły teorii kwantów argumentowałaby w podobny sposób. Według nich, zasada komplementarności i wyrażający ją formalizm kwantowania, nie zawierają żadnych elementów hipotetycznych, jako iż są "w sposób jednoznaczny określone przez fakty". Każda teoria, która przeczy tej zasadzie, jest nieadekwatna względem faktów i musi być odrzucona. Odwrotnie, podstawą akceptacji zaproponowanego wyjaśnienia zasady komplementarności jest bądź to, iż zawiera ono tę zasadę, bądź przynajmniej to, iż jest z nią zgodne. W taki oto sposób warunek zgodności jest stosowany w krytyce takich teorii jak Bohma, de Broglie'a i Vigiera.
Jednakowoż zastosowanie warunku zgodności nie ogranicza się do takich ogólnych uwag. Najważniejszy składnik samej teorii kwantów, mianowicie postulat projekcji, jest wynikiem tego, iż usiłowano wyjaśnić określoność makroobiektów i makrozdarzeń stosownie do warunku zgodności. Wpływ warunku niezmienności znaczenia sięga jeszcze dalej. "Kopenhaska interpretacja teorii kwantów" — stwierdza Heisenberg — "zaczyna się od paradoksu. Każdy eksperyment w fizyce, czy dotyczy on zjawisk potocznych, czy zdarzeń atomowych, musi być opisany w terminach fizyki klasycznej ... Nie możemy i nie powinniśmy zastępować tych pojęć przez żadne inne (podkreślenie moje). Jednakże zastosowanie tych pojęć jest ograniczone przez relację nieoznaczności. Musimy pamiętać o tym ograniczonym zakresie stosowalności pojęć klasycznych, gdy ich używamy, ale nie możemy i nie powinniśmy podejmować prób ulepszania ich".
Oznacza to, iż znaczenie terminów klasycznych musi pozostać niezmienne z uwagi na jakiekolwiek przyszłe wyjaśnienie mikrozjawisk. Teorie dotyczące mikrozjawisk muszą być formułowane w taki sposób, aby tę niezmienność zagwarantować. Zasadę korespondencji i związany z nią formalizm kwantowania obmyślono wyraźnie dla spełnienia tego wymogu. Ogólnie rzecz biorąc, teoria kwantów wydaje się być pierwszą teorią po upadku fizyki Arystotelesa, którą konstruowano wyraźnie z uwzględnieniem warunku zgodności i warunku niezmienności (empirycznego) znaczenia. Pod tym względem różni się ona bardzo choćby od teorii względności, która narusza oba warunki w odniesieniu do wcześniejszych teorii. Większość argumentów używanych dla obrony zwyczajowej interpretacji teorii kwantów również zależy od prawomocności obu tych warunków; stąd przy zniesieniu ich, argumenty te upadają. Zbadanie owych warunków jest więc zadaniem niezwykle aktualnym i musi mieć istotny wpływ na obecne spory w mikrofizyce. Rozważania rozpocznę od ukazania, że najbardziej interesujące przypadki rozwoju fizyki teoretycznej, jakie miały miejsce w przeszłości, naruszały oba warunki.
3. NIEADEKWATNOŚC WARUNKÓW EMPIRYSTYCZNYCH WZGLĘDEM PRAKTYKI NAUKOWEJ
Z warunkiem zgodności można rozprawić się w kilku słowach. Wiadomo powszechnie (szczegółowo wykazał to również Duhem), że teoria Newtona jest niezgodna z prawem swobodnego spadania Galileusza i z prawami Keplera; podobnie — statystyczna termodynamika jest niezgodna z drugim prawem fenomenalistycznej teorii ciepła, a optyka falowa — z optyką geometryczną, etc. Zauważmy, że to, co się tutaj stwierdza, jest logiczną niezgodnością. Może bowiem się zdarzyć, że różnice w przewidywaniach są zbyt małe na to, by były wykrywalne eksperymentalnie. Odnotujmy także, że to, co się tutaj stwierdza, nie jest niezgodnością między — powiedzmy — teorią Newtona a prawem Galileusza, lecz raczej — niezgodnością między pewnymi konsekwencjami teorii Newtona w dziedzinie ważności prawa Galileusza a prawem Galileusza. W tym ostatnim przypadku sytuacja jest szczególnie jasna. Prawo Galileusza stwierdza, że przyspieszenie swobodnie spadającego ciała jest stałe, podczas gdy zastosowanie teorii Newtona do ciał znajdujących się blisko powierzchni Ziemi przewiduje przyspieszenie, które nie jest stale, lecz maleje (chociaż niedostrzegalnie) wraz z odległością od środka Ziemi. Wniosek stąd jest taki, że jeśli rzeczywisty sposób postępowania badawczego ma być miarą metody naukowej, to warunek zgodności jest nieadekwatny.
Przypadek warunku niezmienności znaczenia wymaga nieco dłuższej argumentacji, nie dlatego, iż jest on z natury trudniejszy, ale ponieważ wydaje się być o wiele ściślej związany z głęboko zakorzenionymi przesądami. Przypuśćmy, że konieczne jest wyjaśnienie, w terminach szczególnej teorii względności, klasycznego prawa zachowania masy odnoszącego się do wszystkich reakcji w zamkniętym systemie S. Jeśli m1, m2, m3 ... mi ... są masami części P1, P2, P3 ... Pi systemu S, to tym czego poszukujemy, jest wyjaśnienie
∑ mi = const.
dla wszystkich reakcji wewnątrz S. Widzimy od razu, że warunek zgodności nie może być spełniony, ponieważ według szczególnej teorii względności ∑ mi będzie zmieniać się zawsze wraz z prędkościami części zależnie od systemu współrzędnych, w którym przeprowadzane są obserwacje i całkowita masa S będzie również zależała od relatywnych energii potencjalnych tych części. Jednakże, jeżeli prędkości i wzajemne oddziaływania (siły) nie są zbyt duże, wtedy przewidywana przez teorię względności zmienność ∑ mi będzie zbyt mała na to, by można ją było wykryć eksperymentalnie. Powróćmy teraz do znaczenia terminów w prawie relatywistycznym i w odpowiadającym mu prawie klasycznym. Pierwszego wskaźnika możliwej zmiany znaczenia można upatrywać w tym, że w prawie klasycznym masa pewnego zespołu elementów równa się sumie mas owych elementów:
M (∑ Pi) = ∑ M (P i).
Nie jest tak zaś w przypadku teorii względności, według której relatywne prędkości i relatywne energie potencjalne przyczyniają się do równowagi masy. To, iż relatywistyczne pojęcia masy faktycznie różni się bardzo od klasycznego, staje się jasne, gdy uwzględnimy ponadto fakt, że to pierwsze denotuje relację, obejmującą relatywne prędkości między jakimś obiektem a systemem współrzędnych, podczas gdy to drugie denotuje własność samego obiektu jako takiego, niezależną od jego zachowania się w systemach współrzędnych. Prawdą jest, że podejmowano próby relacyjnego ujęcia właśnie klasycznego pojęcia (Mach). Jednakże, żadna z tych prób nie prowadzi do koncepcji relatywistycznej, uzależniającej prędkość od systemu współrzędnych; koncepcję tę trzeba by przeto dołączyć właśnie do relacyjnego ujęcia masy klasycznej. Usiłowania zidentyfikowania masy klasycznej z relatywistyczną masą spoczynkową są również daremne. Chociaż bowiem obie mogą mieć taką samą wartość liczbową, druga jest jeszcze zależna od wybranego systemu współrzędnych (w którym znajduje się w spoczynku i ma tę specyficzną wartość), podczas gdy pierwsza nie jest uzależniona w ten sposób. W konsekwencji musimy więc przyjąć, że "(m)k" i "(m)r" oznaczają dwie rzeczy, a "(∑ mi)k = const." i "(∑ mi)r = const." są bardzo różnymi twierdzeniami. W takim razie wyprowadzenie z teorii względności bądź równości (1), bądź prawa, które implikuje nieco odmienne przewidywania ilościowe niż użyte w sposób klasyczny ∑ mi, powinno być możliwe jedynie po dołączeniu dalszej przesłanki, ustalającej związek między (m)k i (m)r. Takie "prawo pomostowe" — i to jest główne założenie teorii redukcji Nagla — jest hipotezą, "według której wystąpienie własności denotowanej przez pewne wyrażenie w przesłankach (eksplanansu) jest warunkiem wystarczającym, względnie — wystarczającym i koniecznym, dla wystąpienia własności denotowanych przez wyrażenia (eksplanandum)".
W zastosowaniu do rozważanego obecnie przypadku oznaczałoby to, iż w pewnych warunkach wystąpieniu danej wielkości masy relatywistycznej towarzyszy wystąpienie masy klasycznej charakteryzującej się wielkością odpowiadającą poprzedniej. Twierdzenie to jest niezgodne z innym fragmentem eksplanansu, mianowicie z teorią względności. Przecież teoria ta twierdzi, że nie istnieją niezmienniki, które byłyby bezpośrednio powiązane z pomiarami masy, a więc twierdzi, że "(m)k" nie wyraża realnych własności systemów fizycznych. W sposób nieunikniony dochodzimy więc do wniosku, że prawo zachowania masy nie może być wyjaśnione w oparciu o teorię względności (czy — "zredukowane" do teorii względności) bez naruszenia warunku niezmienności znaczenia. Gdyby ktoś zareplikował, podobnie jak czynili to niektórzy krytycy tez zawartych w niniejszym artykule, że niezmienność znaczenia jest istotnym składnikiem zarówno redukcji, jak i wyjaśniania, wtedy odpowiedzią będzie po prostu stwierdzenie, że równania (1) nie można ani wyjaśnić w oparciu o teorię względności, ani do niej zredukować. Jakichkolwiek użyjemy słów, opisując tę sytuację, faktem pozostanie, że rzeczywista praktyka badawcza nie przestrzega warunku niezmienności znaczenia.
Argumentacja powyższa jest całkowicie ogólna i niezależna od tego, czy terminy, których znaczenie się rozważa, są czy też nie są obserwacyjne. Jest więc ona mocniejsza, niż może się wydawać na pierwszy rzut oka. Są empirycy, którzy przyznaliby, że znaczenie terminów teoretycznych może ulec zmianie w toku rozwoju nauki. Jednakże niewielu jest ludzi gotowych rozszerzyć zmienność znaczenia także na terminy obserwacyjne. Z grubsza rzecz biorąc, u podstaw tego stanowiska leży założenie, że znaczenie terminów obserwacyjnych jest całkowicie określone przez procedury takie jak patrzenie, słuchanie i temu podobne. Procedury te pozostają poza zasięgiem postępu teoretycznego. Stąd również i znaczenia terminów obserwacyjnych pozostają nienaruszone przez postęp teoretyczny. Przeoczony jest tutaj fakt, że "logiki" terminów obserwacyjnych nie wyczerpują procedury związane ze stosowaniem ich "na bazie obserwacji". Jak z czasem się okaże, zależy ona również od ogólniejszych idei, określających "ontologię" (w znaczeniu Quine'a) naszych wypowiedzi. Te ogólne idee mogą się zmieniać nie pociągając za sobą zmiany związanych z nimi procedur obserwacyjnych. Na przykład, możemy zmienić nasze koncepcje na temat natury, czy ontologicznego statusu (własność, relacja, obiekt, proces, itp.) koloru samoświecących obiektów, nie zmieniając metod konstatowania owego koloru (na przykład przez patrzenie). Oczywiście, zmiana taka ma istotny wpływ na znaczenie naszych terminów obserwacyjnych.
Wszystko to ma wyraźny związek z niektórymi współczesnymi koncepcjami dotyczącymi interpretacji teorii naukowych. Zgodnie z tymi koncepcjami, terminy teoretyczne uzyskują swoje znaczenie poprzez reguły korespondencji, łączące je z językiem obserwacyjnym, który został ustalony wcześniej, niezależnie od struktury teorii, która ma być zinterpretowana. Z kolei, nasza dotychczasowa analiza zdawałaby się wskazywać, że gdy interpretujemy teorie naukowe w sposób przyjęty przez społeczność naukową, większość owych reguł korespondencji okazuje się albo fałszywa, albo bezsensowna. Będą one fałszywe, jeśli przypisują istnienie rzeczom, w które dana teoria wątpi; będą bezsensowne, jeśli z góry owo istnienie założą. Odwracając argumentację możemy również powiedzieć, że próba zinterpretowania rachunku jakiejś teorii, którą pozbawiono znaczenia przypisanego jej przez społeczność naukową, za pomocą systemu dwóch języków, prowadzi do zupełnie innej teorii. Jako przykład weźmy znów teorię względności. Można śmiało przyjąć, że "fizykalny język rzeczy" Carnapa i wszelki analogiczny spośród tych, jakie proponowano na język obserwacyjny, nie jest inwariantem Lorentza. Próba zinterpretowania rachunku relatywistycznego na jego gruncie nie może więc prowadzić do teorii względności takiej, jak rozumiał ją Einstein. To, co osiągniemy, będzie co najwyżej interpretacją Lorentza z właściwymi jej asymetriami. Tego niepożądanego rezultatu nie da się uniknąć przez postawienie warunku, by zastosować inny, bardziej adekwatny język obserwacyjny. Koncepcja systemu dwóch języków zakłada, że teorie, które nie są związane z jakimś językiem obserwacyjnym, nie posiadają interpretacji. Warunek powyższy zakłada, że ją posiadają i żąda, by dobrać do niej najodpowiedniejszy język obserwacyjny. Odwraca to tę relację między teorią a doświadczeniem, jaką zakłada metoda interpretacji teorii za pomocą dwóch języków, a to oznacza porzucenie owej metody. Tak więc współczesny empiryzm nie doprowadził do żadnego zadowalającego ujęcia problemu znaczeń teorii naukowych.
W dotychczasowych rozważaniach wykazaliśmy, że dwa warunki wymienione w paragrafie 2 są często naruszane w praktyce badawczej, szczególnie zaś w okresach rewolucji naukowej. Argumentacja nasza nie jest jeszcze dostatecznie mocna. Prawdę mówiąc, istnieją filozofowie o skłonnościach empirycznych, którzy czerpią pewną satysfakcję z założenia, że wydobywają jedynie na jaw to, co jest implicite zawarte w praktyce naukowej. Dlatego bardzo ważne jest ukazanie, że praktyka naukowa nie jest tym, za co ją oni uważają. Ponadto, ścisłe przestrzeganie w praktyce zasady niezmienności znaczenia i zgodności, uniemożliwiłoby w wielu wypadkach niezwykle doniosły postęp w fizyce teoretycznej, taki, jaki miał miejsce przy przejściu od fizyki Arystotelesa do fizyki Galileusza i Newtona. Jednakże, skąd wiemy (niezależnie od faktu, że są, mają jakąś strukturę i są bardzo wpływowe — okoliczność, do której jedynie oportuniści przywiązują dużą wagę), że teorie naukowe są zjawiskiem pożądanym, przyczyniają się do postępu wiedzy, a wobec tego analizowanie ich pozwoli sformułować szereg racjonalnych wymogów metodologicznych? Poza tym, czyż nie wynika z rozważań w poprzednim paragrafie, że niektórzy badacze przyjęli warunek niezmienności znaczenia i zgodności? Rzeczywista praktyka naukowa nie może być przeto naszym ostatecznym autorytetem. Musimy zbadać, czy zgodność i znaczeniowa niezmienność są pożądanymi warunkami, i to całkiem niezależnie od tego, kto je akceptuje i chwali oraz jak wiele nagród Nobla zostało zdobytych z ich pomocą. Tego rodzaju analiza będzie kontynuowana w następnych paragrafach.
4. NIERACJONALNOŚĆ WARUNKU ZGODNOŚCI
Prima facie wydaje się, że z warunkiem zgodności można rozprawić się w kilku słowach. Rozważmy w tym celu teorię T', która zadowalająco opisuje sytuację w dziedzinie D'. Możemy stąd wnosić, że (a) T' jest zgodna ze skończoną ilością obserwacji (niech będzie to klasa F) i (b) T' jest zgodna z tymi obserwacjami jedynie w ramach marginesu M błędu. Każda teoria alternatywna, która przeczy T' poza F i w zakresie M, posiada poparcie ze strony tych samych obserwacji i dlatego o tyle można ją zaakceptować, o ile można było T' (przyjmijmy, że F obejmuje wszystkie dostępne obserwacje). Warunek zgodności jest o wiele mniej tolerancyjny. Eliminuje teorię nie dlatego, że jest ona niezgodna z faktami, eliminuje ją dlatego, że jest niezgodna z inną teorią, co więcej — z taką, z którą podziela przypadki potwierdzające. Warunek ten czyni przeto miarą prawomocności — nie sprawdzoną dotychczas część owej teorii. Jedyną różnicę między ową miarą a nowszą teorią stanowi to, iż ta pierwsza jest starsza i dobrze znana. Gdyby młodsza teoria pojawiła się wcześniej, warunek zgodności działałby na jej korzyść. Pod tym względem warunek zgodności prowadzi do podobnego efektu jak bardziej tradycyjne metody w rodzaju transcendentnej dedukcji, analizy istoty, analizy fenomenologicznej czy lingwistycznej. Przyczynia się on do zachowywania tego, co stare i znane, nie z powodu jakichś właściwych mu zalet — na przykład dlatego, że ma ono lepsze poparcie w obserwacji niż świeżo zaproponowana teoria alternatywna, lub też jest bardziej eleganckie — lecz właśnie dlatego, że jest stare i znane. Nie jest to jedyny wypadek, gdy przy bliższym zbadaniu ujawnia się nader zdumiewające podobieństwo między współczesnym empiryzmem a pewnymi krytykowanymi przezeń szkołami filozoficznymi.
Wydaje mi się, że te zwięzłe rozważania, chociaż prowadzą do interesującej taktycznie krytyki warunku zgodności, nie docierają jeszcze do istoty rzeczy. Wskazują one, że teoria alternatywna w stosunku do zaakceptowanego poglądu teoretycznego, która podziela z nim dane potwierdzające, nie może być wyeliminowana przez rozumowanie odwołujące się do faktów. Nie wskazują one, że taka alternatywna teoria nadaje się do akceptacji; tym bardziej zaś nie wskazują, że powinna być stosowana. Zwolennik warunku zgodności mógłby zauważyć, iż nie jest dobrze, jeśli zaakceptowany pogląd teoretyczny nie posiada pełnego poparcia empirycznego. Sytuacji nie poprawi dodanie nowych, równie niezadowalających pod tym względem teorii; niewielki też sens ma usiłowanie zastąpienia zaakceptowanych teorii przez niektóre z ewentualnych teorii alternatywnych względem nich. Zastąpienie takie nie byłoby rzeczą łatwą. Może trzeba by przyswoić sobie nowy formalizm i zgodnie z nim rozważyć na nowo znane problemy. Podręczniki musiałyby być napisane na nowo, programy uniwersyteckie przeredagowane, rezultaty eksperymentalne zreinterpretowane. I cóż byłoby efektem tego całego wysiłku? Inna teoria, która — z empirycznego punktu widzenia — nie posiada w ogóle żadnej przewagi nad teorią przez nią zastąpioną. Jedyna realna korzyść — tak rozumowałby dalej obrońca warunku zgodności — bierze się w tym wypadku z dołączenia nowych faktów. Fakty takie będą bądź popierały aktualnie akceptowane teorie, bądź zmuszą nas do zmodyfikowania ich, ponieważ dokładnie wskażą zakres ich fałszywości. W obu wypadkach przyspieszą one realny postęp, a nie jedynie arbitralną zmianę. Właściwa procedura winna więc polegać na konfrontacji akceptowanej teorii z możliwie licznym zbiorem stosownych faktów. Wykluczenie alternatywnych poglądów teoretycznych jest więc pożądane z uwagi na wygodę. Wymyślanie ich nie tylko nie przynosi korzyści, ale nawet powstrzymuje postęp, angażując czas i ludzkie umiejętności, które można by poświęcić lepszej sprawie. Rola warunku zgodności polega dokładnie na tym. Eliminuje on takie bezowocne dyskusje i zmusza badaczy do koncentrowania się na faktach, które — ostatecznie — stanowią jedyną możliwą do przyjęcia podstawę oceny teorii. W ten sposób badacz-praktyk będzie bronił swego zaangażowania się w badania związane z pojedynczą teorią, wykluczające wszelkie, empirycznie możliwe koncepcje alternatywne.
Warto powtórzyć sądy składające się na racjonalne jądro tego rozumowania. Teorie nie powinny być zmieniane, jeśli nie ma po temu pilnych powodów. Jedynym pilnym powodem zmiany teorii jest jej niezgodność z faktami. Rozważanie sprzecznych faktów będzie zatem prowadzić do postępu, a rozważanie niezgodnych teorii alternatywnych — nie. Ilościowy wzrost stosownych faktów jest więc trafną procedurą. Nie jest procedurą trafną zwiększanie liczby adekwatnych względem faktów, wzajemnie niezgodnych teorii alternatywnych. Mógłby ktoś ewentualnie dodać, iż nie powinno się wykluczać takich formalnych ulepszeń, jak wzrost elegancji, prostoty, ogólności i spójności. Jednakże z chwilą wprowadzenia tych ulepszeń, zbieranie faktów dla celów empirycznego testu zdaje się być faktycznie jedyną rzeczą pozostawioną badaczowi.
5. WZGLĘDNA AUTONOMIA FAKTÓW
Jest tak, jak wyżej powiedziano, pod warunkiem, że fakty są względnie autonomiczne, dostępne niezależnie od tego, czy się rozpatruje czy też nie ujęcia alternatywne w stosunku do teorii, która ma być sprawdzana. To założenie, od którego w sposób decydujący zależy prawomocność rozumowania w poprzednim paragrafie, będę nazywał założeniem względnej autonomii faktów, lub zasadą autonomii. Zasada ta nie stwierdza, że odkrycie i opis faktów są niezależne od wszelkiego teoretyzowania. Stwierdza tylko, że fakty stanowiące o treści empirycznej jakiejś teorii są dostępne niezależnie od tego, czy uwzględnia się teorie alternatywne względem niej. Nie słyszałem, aby to bardzo ważne założenie było kiedykolwiek explicite formułowane jako oddzielny postulat metody empirycznej. Jednakże jest ono oczywiście milcząco przyjęte w prawie wszystkich badaniach dotyczących kwestii sprawdzania i empirycznego testu. Wszystkie te badania stosują model, w którym pojedyncza teoria jest porównywana z klasą faktów (czy zdań obserwacyjnych), o których przyjmuje się, że są jakoś "dane". Zakładam, że jest to zbyt uproszczony obraz rzeczywistej sytuacji. Fakty i teorie są ze sobą o wiele ściślej powiązane niż zezwala na to zasada autonomii. Nie tylko opis każdego poszczególnego faktu zależy od jakiejś teorii (która może być, oczywiście, zupełnie różna od teorii sprawdzanej). Istnieją również fakty, które mogą być odkryte tylko i wyłącznie za pomocą teorii alternatywnych w stosunku do tej, która podlega sprawdzaniu; stają się one niedostępne, jeśli tylko wykluczy się takie alternatywne teorie. Sugeruje to, iż metodologiczną jednostkę, do której musimy odwołać się przy rozważaniu kwestii empirycznego testu i empirycznej treści, konstytuuje cały zbiór częściowo pokrywających się, adekwatnych w stosunku do faktów, lecz wzajemnie niezgodnych teorii. W niniejszym artykule zostanie naszkicowany jedynie zarys takiego modelu sprawdzania. Jednocześnie zanim to uczynię, chciałbym omówić przykład, który bardzo jasno ukazuje rolę alternatywnych teorii w odkrywaniu faktów.
Wiadomo dobrze, że cząsteczka Browna jest perpetuitm mobile drugiego rodzaju, i że jej istnienie obala drugie prawo fenomenalistyczne. Dlatego zjawisko to należy do dziedziny faktów związanych z tym prawem. Czy związek między nim a cząsteczką Browna mógłby być wykryty w sposób bezpośredni, na przykład — przez badanie obserswacyjnych konsekwencji fenomenalistycznej teorii, bez uwzględnienia alternatywnego ujęcia zjawisk ciepła? Pytanie powyższe łatwo rozbić na dwa następujące: (1) czy związek cząsteczki Browna z drugim prawem mógłby być odkryty w ten sposób? (2) czy można byłoby wykazać, że obala ona faktycznie drugie prawo? Odpowiedź na pierwsze pytanie brzmi: nie wiadomo. Niemożliwością jest stwierdzić, co mogłoby się zdarzyć, gdyby teoria kinetyczna nie została rozważona przez pewnych fizyków. Przypuszczam jednakże, że w takim wypadku cząsteczkę Browna uznano by za dziwactwo, tak samo jak za dziwactwo uważa się niektóre z późniejszych, zdumiewających wyników profesora Ehrenhafta, i że zjawisko to nie zajęłoby tak ważnego miejsca, jakie ma we współczesnej teorii. Odpowiedź na drugie pytanie jest prosta — nie. Rozważmy, czego wymagałoby odkrycie sprzeczności między cząsteczką Browna a drugim prawem. Wymagałoby (a) pomiaru dokładnego ruchu cząsteczki w celu ustalenia zmian jej energii kinetycznej, plus energii zużytej na pokonanie oporu cieczy, oraz (b) precyzyjnych pomiarów temperatury i transferu ciepła w otaczającym ośrodku w celu ustalenia, czy każda strata tu występująca została faktycznie skompensowana przez wzrost energii poruszającej się cząsteczki i jej pracy przeciw oporowi cieczy. Takie pomiary są poza możliwościami eksperymentalnymi. Nie jest bowiem możliwe przeprowadzenie dokładnych pomiarów transferu ciepła, ani też nie można zbadać drogi cząsteczki z pożądaną precyzją. Stąd "bezpośrednie" obalenie drugiego prawa jedynie przy uwzględnieniu fenomenalistycznej teorii i "faktów" ruchu Browna jest niemożliwe. Jak wiadomo, wymienione prawo faktycznie obalono zupełnie inaczej. Obalono za pomocą teorii kinetycznej, którą Einstein wykorzystał do obliczenia statystycznych właściwości ruchu Browna. W toku tej procedury fenomenalistyczna teoria (T') została włączona w szerszy kontekst fizyki statystycznej (T) w taki sposób, że warunek zgodności został naruszony; i wówczas przeprowadzono eksperyment krzyżowy (badania Svedberga i Perrina).
Wydaje mi się, że ten przykład jest typowy dla relacji między dość ogólnymi teoriami czy poglądami, a "faktami". To, czy szereg rozstrzygających faktów posiada związek ze sprawdzanym punktem widzenia i ma charakter obalający, można ustalić jedynie za pomocą innych teorii, które, jakkolwiek faktualnie adekwatne, są jednak niezgodne z poglądem poddawanym sprawdzeniu. Skoro tak jest, to ujawnienie takich obalających faktów przypuszczalnie musi być poprzedzone wymyśleniem i sformułowaniem ujęć alternatywnych do owego poglądu. Empiryzm domaga się zwiększania treści empirycznej wszelkiej posiadanej przez nas wiedzy tak dalece, jak to jest tylko możliwe Stąd tworzenie dodatkowych ujęć alternatywnych w stosunku do poglądu znajdującego się w centrum rozważań stanowi istotny składnik metody empirycznej. Przeciwnie, fakt, że warunek zgodności eliminuje ujęcia alternatywne, wskazuje teraz, iż jest on niezgodny z empiryzmem, a nie tylko z praktyką naukową. Przez wykluczanie wartościowych testów pomniejsza on treść empiryczną tych teorii, którym zezwala się pozostać (i które — jak wykazaliśmy powyżej — będą zwykle teoriami sformułowanymi najwcześniej), a szczególnie — zmniejsza ilość faktów, które mogłyby ukazać ich ograniczenia. Ten ostatni moment związany z określonym zastosowaniem warunku zgodności jest aktualnie szczególnie interesujący. Równie dobrze może być tak, że obalenie zasady nieoznaczoności mechaniki kwantowej zakłada właśnie takie włączenie obecnej teorii w szerszy kontekst, który nie jest już dłużej zgodny z koncepcją komplementarności, sugerując tym samym nowe, rozstrzygające eksperymenty. Może być również tak, że skuteczne upieranie się większości współczesnych fizyków przy warunku zgodności na zawsze zabezpieczy zasadę nieoznaczoności przed obaleniem. W ten właśnie sposób współczesny empiryzm może ostatecznie doprowadzić do tego, że pewien pogląd przekształci się w dogmat, ponieważ został — w imię doświadczenia — całkowicie usunięty z zasięgu wszelkiej, dającej się pomyśleć krytyki.
6. SAMOZAKŁAMANIE ZWIĄZANE Z WSZELKA UNIFIKACJĄ
Warto w sposób nieco bardziej szczegółowy przeanalizować tę pozornie empiryczną obronę dogmatycznego stanowiska. Załóżmy, że fizycy przyjęli, świadomie czy nieświadomie, ideę niezbędności zasady komplementarności i wobec tego opracowują w szczegółach ortodoksyjny punkt widzenia, odmawiając rozważania ujęć alternatywnych. Początkowo takie postępowanie może być zupełnie nieszkodliwe. Ostatecznie człowiek nie może robić wszystkiego naraz i lepiej jest, gdy uprawia raczej teorię, która go interesuje, niż tę, która go nudzi. Przypuśćmy teraz, że badania oparte o wybraną teorię doprowadziły do sukcesu i że teoria ta w zadowalający sposób wyjaśniła okoliczności, które były przez jakiś czas niezrozumiałe. Stanowi to empiryczne poparcie koncepcji, która na początku zdawała się posiadać jedną tylko zaletę, mianowicie to, iż była interesująca i intrygująca. Skoncentrowanie się na tej teorii będzie się teraz wzmacniać, stosunek do teorii alternatywnych stanie się mniej tolerancyjny. Otóż, jeżeli jest prawdą, jak wykazaliśmy w poprzednim paragrafie, że wiele faktów staje się dostępnych jedynie za pomocą takich teorii alternatywnych, to wówczas odmowa rozważenia ich spowoduje eliminację potencjalnie obalających faktów. Przede wszystkim zaś spowoduje eliminację tych faktów, których odkrycie ukazałoby, iż dana teoria jest całkowicie, w nie dający się usunąć sposób, nieadekwatna. Gdy sprawi się, że tego rodzaju fakty będą niedostępne, dana teoria objawi się nam jako nieskażona błędem i będzie się zdawało, że "wszystkie dane empiryczne wskazują z bezwzględną precyzją ... [że] wszystkie procesy, łącznie z ... nieznanymi interakcjami, podlegają podstawowemu prawu kwantowemu". To zaś z kolei wzmocni przekonanie o niezbędności akceptowanej obecnie teorii i całkowitej bezpłodności wszelkiego odmiennego ujęcia teoretycznego. Żywiąc silne przekonanie, że istnieje tylko jedna dobra mikrofizyka, fizycy spróbują wyjaśniać na jej gruncie nawet pewne fakty przeczące jej i nie przejmą się tym, że takie wyjaśnienia będą czasami nieco niezdarne. Do lego czasu sukces teorii zostanie podany do publicznej wiadomości. Książki popularnonaukowe (w tym liczne prace z zakresu filozofii nauki) rozpowszechnią podstawowe postulaty teorii; zastosuje się ją w odległych dziedzinach. Bardziej niż kiedykolwiek będzie się zdawało, że teoria posiada olbrzymie poparcie empiryczne. Szansę na rozpatrywanie teorii alternatywnych są teraz faktycznie bardzo nikle. Wydawać się będzie, iż ostateczny sukces podstawowych założeń teorii kwantów i zasady komplementarności jest zagwarantowany.
Jednocześnie w świetle rozważań z poprzedniego paragrafu oczywiste jest, że ten pozór sukcesu nie może być w najmniejszej mierze uważany za oznakę prawdy i zgodności z naturą. Przeciwnie, powstaje podejrzenie, że brak poważnych trudności jest rezultatem zubożenia empirycznej treści, które powstało wskutek eliminacji ujęć alternatywnych i faktów wykrywalnych jedynie za ich pomocą. Innymi słowy, powstaje podejrzenie, że ten rzekomy sukces spowodowany jest faktem, że w procesie zastosowania do nowych dziedzin teoria zamienila się w system metafizyczny. Oczywiście, system taki zostanie "uwieńczony powodzeniem", jednakże nie z uwagi na jego wyjątkową zgodność z faktami, lecz dlatego, że nie określono dokładnie faktów, które mogłyby stanowić dlań test empiryczny, niektóre zaś z owych faktów nawet usunięto. Jego sukces jest całkowicie dziełem człowieka. Zdecydowano się obstawać przy pewnych ideach, skutkiem czego było, naturalnie, przetrwanie owych idei. Otóż, jeśli ta początkowa decyzja ulegnie zapomnieniu, lub będzie tylko implicite przyjmowana, wtedy przetrwanie owego systemu będzie uważane za niezależne poparcie, co wzmocni decyzję, czy też przekształci ją w stanowisko jawne, w ten sposób zamykając koło. Tak właśnie "świadectwa" empiryczne mogą zostać stworzone przez procedurę, która przytacza na swoje uzasadnienie te same świadectwa, które wytworzyła na początku.
W tym punkcie teoria "empiryczna" opisanego powyżej rodzaju (a należy zawsze pamiętać, że podstawowe założenia obecnej teorii kwantów, szczególnie zaś zasada komplementarności, są niepokojąco bliskie tego, by być taką teorią), staje się prawie nieodróżnialna od mitu. Aby zdać sobie z tego sprawę, wystarczy tylko zauważyć, że mit w rodzaju zespołu mniemań dotyczących czarów i opętania demonicznego, wskutek tego, iż przenikał niemal wszystko, posiadał wysoki stopień potwierdzenia na gruncie obserwacji. Takiego mitu uczono przez długi czas; jego treść była wzmacniana zarówno przez strach, przesąd i ignorancję, jak przez zawistnych i okrutnych księży. Przenikał on większość dialektów potocznych, zatruwał wszelkie sposoby myślenia i wiele decyzji, które miały duże znaczenie w życiu ludzkim. Dostarczał modeli wyjaśniania każdego dającego się pomyśleć zdarzenia, to znaczy, dającego się pomyśleć przez tych, którzy go zaakceptowali. W takim wypadku, kluczowe pojęcia mitu ustalane są w sposób jednoznaczny i pogląd (który przede wszystkim może doprowadzić do takiej procedury), że są one kopiami rzeczy nie ulegających zmianom, a gdyby miała miejsce zmiana ich znaczenia, byłaby ona spowodowana ludzkim błędem — staje się teraz pozornie wielce prawdopodobny. Takie pozorne prawdopodobieństwo wzmacnia wszystkie środki stosowane w celu utrzymania mitu (z eliminacją oponentów włącznie). Gdy pojęciowy aparat teorii i emocje związane z jego stosowaniem przenikną wszystkie środki porozumiewania się, wszystkie działania i w gruncie rzeczy całe życie społeczne, takie metody jak transcendentna dedukcja, analiza użycia wyrażeń, analiza fenomenologiczna (które są środkami dalszego krzepnięcia mitu) mają niesłychane powodzenie. Wskazuje to, nawiasem mówiąc, że wszystkie te metody, które były znakami firmowymi różnych starych i nowych szkół filozoficznych, mają jedną wspólną cechę: dążą do utrzymania status quo życia intelektualnego. Również wyniki obserwacji przemawiają na korzyść tej teorii, jako że są sformułowane w jej terminach. Wydawać się będzie, że w końcu dotarto do prawdy. Jednocześnie jest oczywiste, że kontakt ze światem został utracony całkowicie, a osiągnięta stabilność, ten pozór prawdy absolutnej, jest niczym innym jak tylko rezultatem absolutnego konformizmu. Jakże bowiem możemy sprawdzić lub ulepszyć teorię tak, by była prawdziwa, jeżeli jest ona zbudowana w taki sposób, że każde możliwe do pomyślenia zdarzenie może być opisane i wyjaśnione na gruncie jej zasad? Jedynym sposobem zbadania takich wszystko-ogarniających zasad jest porównanie ich z innym zespołem również wszystko-ogarniających zasad — ale ta droga została wykluczona już na samym początku. Mit nie ma więc żadnego obiektywnego związku z rzeczywistością, a przedłużenie jego istnienia jest wyłącznie wynikiem wysiłku społeczności wyznawców i ich przywódców, czy są nimi księża, czy też zdobywcy nagrody Nobla. Powodzenie mitu jest całkowicie dziełem człowieka. Myślę, że jest to najbardziej decydujący argument przeciwko każdej metodzie, która popiera unifikację, czy jest ona empiryczna czy też nie. Każda taka metoda jest ostatecznie metodą oszustwa. Popiera nie-oświecony konformizm i mówi o prawdzie; prowadzi do obniżania się zdolności intelektualnych i siły wyobraźni, a mówi o głębokim wglądzie; niszczy najcenniejszy talent młodych — potężną siłę ich wyobraźni, a mówi o kształceniu.
Podsumujmy. Jednomyślność opinii może być odpowiednia dla Kościoła, albo przestraszonych ofiar jakiegoś (starodawnego czy nowoczesnego) mitu, względnie dla słabych, uległych zwolenników jakiegoś tyrana, różnorodność opinii jest cechą konieczną wiedzy obiektywnej i metoda, która popiera różnorodność, jest również jedyną metodą zgodną z humanistycznym poglądem na świat. W zakresie, w jakim warunek zgodności (i, jak się okaże, warunek niezmienności znaczenia) ogranicza różnorodność, zawiera on element teologiczny (który tkwi oczywiście w ubóstwianiu "faktów", tak charakterystycznym dla całego niemal empiryzmu).
7. NIERACJONALNOŚĆ WARUNKU NIEZMIENNOŚCI ZNACZENIA
To, co osiągnęliśmy dotąd, ma bezpośrednie zastosowanie w kwestii, czy znaczenie pewnych kluczowych terminów powinno być utrzymywane w stanie niezmiennym w toku rozwoju i ulepszania naszej wiedzy. Ostatecznie, znaczenie każdego używanego przez nas terminu zależy od teoretycznego kontekstu, w którym się pojawia. Stąd, jeśli rozważamy dwa konteksty, których podstawowe zasady albo zaprzeczają sobie nawzajem, albo prowadzą do sprzecznych konsekwencji w pewnych dziedzinach, powinniśmy się spodziewać, że niektóre terminy pierwszego kontekstu nie pojawią się w drugim kontekście w dokładnie tym samym znaczeniu. Co więcej, jeśli nasza metodologia domaga się stosowania wzajemnie niezgodnych, częściowo pokrywających się i empirycznie adekwatnych teorii, to żąda tym samym również stosowania systemów pojęciowych, które są wzajemnie nieredukowalne (ich terminy pierwotne nie mogą być łączone przez prawa pomostowe, które byłyby sensowne i zgodne z faktami). Domaga się także, aby utrzymać plastyczność znaczeniową terminów i nie narzucać żadnych wiążących ograniczeń jakiemuś zespołowi pojęć.
Bardzo ważną rzeczą jest uświadomienie sobie, że takie tolerancyjne podejście do sprawy znaczenia, czy zmiana znaczenia w przypadku, gdy jeden z konkurencyjnych systemów pojęciowych ma być porzucony, nie musi być rezultatem bezpośrednio napotkanych trudności obserwacyjnych. Prawo bezwładności tzw. teorii impetusu w późnym średniowieczu i prawo bezwładności Newtona doskonale zgadzają się pod względem ilościowym. Oba stwierdzają, że obiekt nie znajdujący się pod wpływem żadnej zewnętrznej siły będzie poruszał się po linii prostej ze stałą prędkością. Jednakże, pomimo to, pojęcie teorii Newtona wiąże się z rewizją pojęciową, która zmusza nas do porzucenia prawa bezwładności należącego do teorii impetusu, i to nie dlatego, że jest ono ilościowo niepoprawne, lecz dlatego, że prowadzi do poprawnych przewidywań z pomocą nieadekwatnych pojęć. Prawo to stwierdza, że impetus obiektu, który jest poza zasięgiem oddziaływania sił zewnętrznych, pozostaje stały. Impetus jest interpretowany jako siła wewnętrzna, która porusza obiekt. W ramach teorii impetusu taka siła jest wyobrażalna, ponieważ zakłada się tutaj, że siły determinują prędkości, a nie przyspieszenia. Pojęcie impetusu jest więc skonstruowane w zgodzie z prawem (siły determinują prędkości), a prawo to jest niezgodne z prawami teorii Newtona i musi być odrzucone z chwilą, gdy przyjmie się tę ostatnią. W taki oto sposób rozwój naszej wiedzy może prowadzić do pojęciowych rewizji, u podstaw których nie leżą żadne bezpośrednio dostępne racje obserwacyjne. Występowanie takich zmian w sposób oczywisty obala twierdzenie niektórych filozofów, że niezmienność użycia wyrażeń w trywialnych, nieinteresujących kontekstach prywatnego życia niezbyt inteligentnych i nieciekawych ludzi, wskazuje na niezmienność znaczenia i powierzchowność wszelkich naukowych zmian. Jest to również bardzo poważny zarzut przeciwko każdemu niewyszukanemu ujęciu o charakterze operacjonistycznym, zarówno terminów obserwacyjnych, jak i teoretycznych.
To, co powiedzieliśmy, stosuje się nawet do pojedynczych twierdzeń obserwacyjnych. Empirycznie adekwatne stwierdzenia, które są rezultatem obserwacji (takie jak "tu jest stół") mogą być poddane reinterpretacji nie z powodu odkrycia, iż nie wyrażają one adekwatnie tego, co się widzi, słyszy, czuje, lecz z uwagi na pewne zmiany w nieraz dość odległych partiach schematu pojęciowego, do którego należą. Czary stanowią tu znów bardzo dobry przykład. Liczni naoczni świadkowie twierdzili, że widzieli diabła, lub że doznali demonicznego wpływu. Nie ma żadnego powodu by dopuszczać, że kłamali. Nic ma teź powodu, aby przyjąć, że byli niedbałymi obserwatorami, ponieważ zjawiska leżące u podstaw przekonania o demonicznym wpływie są tak oczywiste, że błąd jest prawie niemożliwy (opętanie, rozdwojenie czy utrata osobowości, słyszenie głosów, etc.). Zjawiska te są dziś dobrze znane. W schemacie pojęciowym powszechnie przyjętym w XV i XVI wieku jedynym sposobem ich opisania, czy przynajmniej środkiem, który zdawał się wyrażać je najtrafniej, było odwołanie się do demonicznych wpływów. Znaczna część tego schematu pojęciowego została zmieniona z powodów filozoficznych, jak również z uwagi na dane empiryczne zgromadzone przez naukę. Materializm Kartezjusza odegrał decydującą rolę w zdyskredytowaniu wierzeń w zlokalizowane przestrzennie duchy. Język demonicznych wpływów nie wchodzi w skład nowego schematu pojęciowego, który stworzono w ten sposób. Z tych względów, konieczne było przeformułowanie i reinterpretacja nawet najbardziej potocznych twierdzeń "obserwacyjnych". Wracając do uwag zawartych na początku obecnego paragrafu, zdajemy sobie teraz sprawę, że zgodnie z metodą klas alternatywnych teorii powinno się podchodzić wyrozumiale do znaczeń wszystkich używanych przez nas terminów. Nie powinniśmy przywiązywać zbyt wielkiej wagi do tego, "co rozumiemy" przez dany zwrot, będąc gotowi zmienić cokolwiek powiedzieliśmy odnośnie owego rozumienia, gdy tylko powstanie taka potrzeba. Zbyt intensywne zajmowanie się znaczeniami może doprowadzić jedynie do dogmatyzmu i bezpłodności.Podatność na zmiany, a nawet niedbałość w sprawach semantycznych, jest wstępnym warunkiem rozwoju naukowego.
8. PEWNE KONSEKWENCJE
Spośród rezultatów dotychczas uzyskanych na bardziej szczegółowe rozpatrzenie zasługują trzy konsekwencje. Pierwszą z nich jest ocena metafizyki, różniąca się krańcowo od standardowej wersji stanowiska empirystycznego w tej sprawie. Jak wiadomo, niektórzy empiryści domagają się, aby punktem wyjścia nauki były obserwowalne fakty, poddawane następnie uogólnianiu; nie dopuszczają oni idei metafizycznych w jakimkolwiek punkcie tej procedury. Sądzą, że tylko taki system myślenia, który został zbudowany w sposób czysto indukcyjny, może być uważany za autentyczną wiedzę. Teorie częściowo metafizyczne czy "hipotetyczne" są podejrzane i najlepiej byłoby wcale ich nie stosować. Stanowisko to najjaśniej sformułował Newton w odpowiedzi na drugi list Pardiesa związany z teorią koloru: "jeśli hipotezy mają możliwość sprawdzania prawdy i realności rzeczy, nie widzę w jaki sposób można osiągnąć pewność w jakiejkolwiek nauce, ponieważ mogą być wymyślane liczne hipotezy, które będą zdawały się przezwyciężać nowe trudności".
To radykalne stanowisko, które zależy wyraźnie od wymogu monizmu teoretycznego, nie jest już tak popularne jak było niegdyś. Uważa się teraz za rzecz oczywistą, że rozważania metafizyczne mogą mieć znaczenie przy wymyślaniu nowej teorii fizykalnej; przyjmuje się, że wymyślanie takie jest w większym lub mniejszym stopniu aktem irracjonalnym, obejmującym najróżnorodniejsze składniki. Niektóre z tych składników są, i być może muszą być, ideami metafizycznymi. Jednakże wskazuje się także, że z chwilą gdy teoria zostanie sformułowana w sposób formalnie zadowalający i uzyska potwierdzenie wystarczające, aby uznać ją za empirycznie adekwatną, to równocześnie powinna stać się ona niezależna od swojej metafizycznej przeszłości; metafizyczne spekulacje musi teraz zastąpić argumentacja empiryczna.
"Z jednej strony chciałbym podkreślić (pisze Ernest Mach w tej sprawie), że dosłownie każda koncepcja jest dopuszczalna jako środek badawczy, o ile okaże się w tym pomocna; z drugiej jednakże strony, należy zauważyć, że od czasu do czasu konieczne jest pominięcie w sposobie przedstawiania wyników badań wszelkich nieistotnych dodatków".
Oznacza to, że dociekaniom empirycznym ciągle przyznaje się prymat nad rozumowaniem metafizycznym. Szczególnie w przypadku niezgodności między metafizyką a jakąś dobrze potwierdzoną teorią empiryczną rozstrzyga się, jako rzecz oczywistą, że dana teoria lub dany wynik obserwacji muszą pozostać, a system metafizyczny należy usunąć. Prostym przykładem może być sposób, w jaki niektórzy oponenci osądzali stanowisko materialistyczne. Dla materialisty świat składa się z materialnych cząsteczek poruszających się w przestrzeni oraz ze zbiorów takich cząsteczek. Wrażenia, tak jak odbierane są w introspekcji przez ludzi, nie wyglądają jak zbiory cząsteczek i dlatego zakłada się, że zaobserwowanie ich obala, a przeto i usuwa, metafizyczną doktrynę materializmu. Innym przykładem, który zanalizowałem w Problems of Microphysics jest próba eliminacji pewnych ogólnych idei dotyczących natury mikroobiektów w oparciu o stwierdzenie, że są one niezgodne "z ogromną częścią doświadczenia" i że "sprzeciwianie się lekcji, jakiej dostarcza doświadczenie, przez apelowanie do metafizycznych uprzedzeń jest nienaukowe".
Metodologia, którą tu rozwijamy, prowadzi do zupełnie innej oceny metafizyki. Systemy metafizyczne są teoriami naukowymi w ich najbardziej pierwotnym stadium. Jeżeli przeczą dobrze potwierdzonemu poglądowi, wskazuje to na ich użyteczność jako ujęcia alternatywnego w stosunku do tego poglądu. Alternatywne poglądy są konieczne dla celów krytyki. Stąd, systemy metafizyczne, które przeczą wynikom obserwacji lub dobrze potwierdzonym teoriom, stanowią najbardziej pożądane punkty wyjścia do krytyki. Nie są one spalonymi na panewce próbami antycypowania czy doszukiwania się słabych stron w badaniach empirycznych, które słusznie przedstawiano przez powołanie się na doświadczenie. Są one jedynymi w naszej dyspozycji środkami dla sprawdzania tych składników naszej wiedzy, które stały się już obserwacyjne, a przez to niedostępne dla krytyki "na gruncie obserwacji".
Drugą konsekwencją jest twierdzenie, że należy zająć nowe stanowisko wobec problemu indukcji. Problem ów sformułować można w pytaniu o to, co stanowi uzasadnienie twierdzenia o prawdziwości zdania S, gdy wiadomo, iż prawdziwe jest inne zdanie — S', posiadające węższą treść niż S. Można uznać za oczywiste, że ci, którzy chcą uzasadnić prawdziwość S przyjmą również, że po uzasadnieniu prawdziwość S będzie znana. Wiedza o tym, że jest tak, jak głosi S, pociąga za sobą trwałość S (nie powinniśmy zmieniać, usuwać, krytykować tego, o czym wiemy, że jest prawdą). Metoda, którą rozważamy obecnie nie może dopuszczać takiej trwałości. Wynika stąd, że problem indukcji jest — przynajmniej w niektórych sformułowaniach — problemem, którego rozwiązanie prowadzi do niepożądanych rezultatów. Można więc go określić jako pseudo-problem.
Trzecia konsekwencja, bardziej specyficzna, polega na tym, że argumenty odwołujące się do synonimiczności (czy wspólnej konotacji), nie będąc miarą adekwatności — jak zwykle się je przedstawia - mogą poważnie zahamować rozwój wiedzy. Osądzają one bowiem system teoretyczny czy jakiś punkt widzenia, nie ze względu na jego zdolność imitowania świata, lecz raczej ze względu na zdolność imitowania terminów deskryptywnych innego punktu widzenia, który z jakichś powodów został przychylnie przyjęty. Tak na przykład, próba materialistycznego, czy inaczej — czysto fizjologicznego ujęcia psychiki ludzkiej jest krytykowana na tej podstawie, że materializm czy fizjologia nie mogą dostarczyć synonimów dla wyrażeń "umysł", "ból", "widzę czerwone", "myślę o Wiedniu" — w znaczeniu, w jakim terminy te są używane w języku potocznym (założywszy, że istnieje dobrze ustalony zwyczaj językowy odnośnie użycia tych terminów, w co osobiście wątpię) lub w jakimś bardziej ezoterycznym języku mentalistycznym. Oczywiście, tego rodzaju krytyka zakłada milcząco zasadę niezmienności znaczenia, czyli twierdzenie, że znaczenie przynajmniej niektórych podstawowych terminów musi pozostać niezmienione w toku rozwoju naszej wiedzy. Dlatego też krytyki tej nie można uznać za uzasadnioną.
Powinniśmy jednakże, i musimy, pójść jeszcze dalej. Tezy, do których powyżej doszliśmy są dostatecznie mocne, aby można było z ich pomocą nie tylko odrzucić wymóg synonimiczności, gdziekolwiek jest on stawiany, ale również poprzeć wymóg nieredukowalności (w tym znaczeniu, w jakim pojęcie to zostało wprowadzone w paragrafie 7). W tym drugim wypadku uzasadnienie stanowi fakt, iż nieredukowalność zakłada wysoką zdolność krytyczną tego fragmentu danego punktu widzenia, który okazał się nieredukowalny do innego. Zewnętrzną oznaką takiej nieredukowalności, która jest dość uderzająca w przypadku ataku na powszechnie zaakceptowane idee, jest poczucie absurdalności. Absurdalne wydaje się nam to, co jest sprzeczne z dobrze utrwalonymi zwyczajami językowymi; brak relacji synonimiczności wiążących nowo wprowadzony zespół idei z fragmentami akceptowanego poglądu. Poczucie absurdalności wskazuje więc, że nowe idee nadają się do krytyki, tj. że są one odpowiednie, aby doprowadzić bądź do mocnego potwierdzenia wcześniejszych teorii, bądź przeciwnie — do rewolucyjnego odkrycia. Brak synonimiczności, rozbieżność znaczeń, absurdalność — są rzeczą pożądaną. Występowanie synonimiczności, przemawianie do intuicji, zgodność ze zwyczajowymi sposobami mówienia, nie będąc filozoficznymi cnotami, wskazują, iż miał miejsce nieznaczny postęp, ponieważ zadanie przebadania powszechnie zaakceptowanych poglądów nie zostało nawet rozpoczęte.
9. JAK BYĆ DOBRYM EMPIRYSTĄ
Ostateczna odpowiedź na tytułowe pytanie niniejszego artykułu brzmi więc następująco. Dobry empirysta nie zadowoli się teorią znajdującą się w centrum uwagi i bezpośrednio dostępnymi testami empirycznymi owej teorii. Wiedząc, że najbardziej podstawową i ogólną krytyką jest ta, jaką można przeprowadzić z pomocą teorii alternatywnych, będzie starał się je wymyśleć. Oczywiście, nie jest możliwe natychmiastowe skonstruowanie teorii, która byłaby formalnie porównywalna z głównym poglądem teoretycznym i która prowadziłaby do równie wielu przewidywań Pierwszym krokiem naszego empirysty będzie więc sformułowanie dość ogólnych założeń, które nie będą jeszcze bezpośrednio związane z obserwacjami. Oznacza to, iż pierwszym jego krokiem będzie wymyślenie nowej metafizyki. Metafizykę tę musi on następnie opracować na tyle szczegółowo, aby mogła ona konkurować z badaną teorią pod względem ogólności, szczegółów związanych z przewidywaniami, precyzji sformułowań. Możemy oba rodzaje czynności potraktować łącznie, mówiąc, że dobry empirysta musi być krytycznym metafizykiem. Eliminacja wszelkiej metafizyki, nie przyczyniając się do zwiększania treści empirycznej zachowywanych teorii, może zamienić owe teorie w dogmaty. Rozważanie alternatywnych teorii wraz z próbą skrytykowania każdej z nich w oparciu o doświadczenie, prowadzi również do poglądu, że znaczenia nie odgrywają istotnej roli, a rozumowania winny być oparte raczej na założeniach faktualnych niż na (archaicznej, chociaż — być może — bardzo precyzyjnej) analizie znaczeń. Nie należy również nie doceniać wpływu owego poglądu na rozwój ludzkich możliwości. Tam, gdzie popiera się spekulację i wymyślanie alternatywnych punktów widzenia, jest szansa na pojawienie się dużej liczby błyskotliwych idei; idee te mogą następnie doprowadzić do zmiany nawet najbardziej "podstawowych" składników naszej wiedzy, tj. do zmiany założeń, które bądź są tak bliskie obserwacji, że ich prawdziwość wydaje się być dyktowana przez "fakty", bądź — tak bliskie powszechnym przesądom, że wydają się "oczywiste", a ich negacje "absurdalne". Można będzie wówczas zdać sobie sprawę z tego, że ani "faktów", ani abstrakcyjnych idei nie da się nigdy wykorzystać do obrony pewnych zasad, jakiekolwiek by nie były. Gdziekolwiek fakty odgrywają jakąś rolę w tego rodzaju dogmatycznej obronie, powinniśmy podejrzewać nieczystą grę (zob. motto) — nieczystą grę tych, którzy usiłują dobrą naukę zamienić w złą — bo nie podlegającą zmianie — metafizykę. Ostatecznie więc, być dobrym empirystą znaczy tyle, co być krytycznym i opierać swój krytycyzm nie po prostu na abstrakcyjnej zasadzie sceptycyzmu, lecz na konkretnych propozycjach teoretycznych, wskazujących w każdym poszczególnym przypadku, jak zaakceptowany punkt widzenia można dalej sprawdzać i badać, przygotowujących przeto następny krok w rozwoju naszej wiedzy.