DZIEJE RELIGII, FILOZOFII I NAUKI
indeks | antologia religijna | antologia filozoficzna | filozofia nauki
Thomas S. KUHN
Struktura rewolucji naukowych
The Structure of Scientific Revolutions,
The University of Chicago Press 1962; wyd. 2 z dodanym Postscriptum-1969,
UCP 1970
przekład Helena Ostrołęcka, Postscriptum przełożyła Justyna Nowotniak
(z tekstu usunąłem przypisy, a tu i ówdzie poprawiłem ten dość wadliwy przekład)
Przedmowa
1. Wstęp: o rolę dla historii
2. Droga do nauki normalnej
3. Natura nauki normalnej
4. Nauka normalna jako rozwiązywanie łamigłówek
5. Priorytet paradygmatów
6. Anomalie a pojawianie się odkryć naukowych
7. Kryzys a powstawanie teorii naukowych
8. Odpowiedź na kryzys
9. Natura i nieuchronność rewolucji naukowych
10. Rewolucje jako zmiany poglądu na świat
11. Niedostrzegalność rewolucji
12. Skutki rewolucji
13. Postęp poprzez rewolucje
Postscriptum
[1] Niniejsza rozprawa jest pierwszą pełną publikacją zdającą sprawę z badań, których projekt obmyśliłem niemal piętnaście lat temu. Byłem wówczas dyplomantem wydziału fizyki teoretycznej i żywiłem nadzieję na szybką dysertację. Szczęśliwy pomysł poprowadzenia eksperymentalnego wykładu fizyki przeznaczonego dla nienaukowców sprawił, że po raz pierwszy zetknąłem się z historią nauki. Ku memu zdziwieniu zapoznanie się z przestarzałymi teoriami i praktykami naukowymi radykalnie podważyło moje podstawowe wyobrażenia na temat natury nauki i przyczyn jej szczególnych sukcesów.
[2] Wyobrażenia te ukształtowane zostały częściowo przez samo kształcenie naukowe, a częściowo przez wieloletnie amatorskie zainteresowania filozofią nauki. Jakoś, niezależnie od tych czy innych walorów pedagogicznych i abstrakcyjnej wiarygodności, nie pasowały one zupełnie do tego, co odsłoniły studia historyczne. Wobec tego jednak, że były one i są nadal podstawą niejednej dyskusji o nauce, wydawało mi się, że warto prześledzić przyczyny, dla których rozmijały się one z prawdą. W rezultacie moje plany zawodowe uległy zasadniczej zmianie. Moje zainteresowania przeniosły się z fizyki na historię nauki, by następnie od stosunkowo prostych problemów historycznych przesunąć się ku kwestiom bardziej filozoficznym, które uprzednio popchnęły mnie ku problematyce historycznej. Niniejsza rozprawa, jeśli nie liczyć kilku artykułów, jest moją pierwszą ogłoszoną drukiem pracą, w której dominują te wczesne niepokoje. Jest ona w pewnej mierze próbą wyjaśnienia sobie i przyjaciołom, jak to się stało, że porzuciłem naukę dla jej historii.
[3] Pierwszą okazją do pogłębienia niektórych z poglądów, jakie niżej przedstawię, był trzyletni staż w charakterze Junior Fellow w Harvard University. Bez tego okresu swobody przerzucenie się do nowej dziedziny badań byłoby bez porównania trudniejsze, a może nawet nieosiągalne. Część swego czasu w tych latach poświęciłem bezpośrednio historii nauki. W szczególności prowadziłem studia nad pismami Alexandre'a Koyré oraz po raz pierwszy zetknąłem się z dziełami Emile'a Meyersona, Hélène Metzger i Anneliese Maier. Jaśniej niż większość współczesnych uczonych wykazali oni, na czym polegał naukowy sposób myślenia w czasach, gdy kanony myśli naukowej były zupełnie inne niż dzisiaj. Chociaż niektóre z ich historycznych interpretacji budzą we mnie coraz większe wątpliwości, to jednak gdy chodzi o kształtowanie się mych poglądów na to, czym może być historia nauki, te właśnie prace, łącznie z Wielkim łańcuchem bytu A.O. Lovejoya, zajęły miejsce czołowe, tuż za materiałami źródłowymi.
[4] Równocześnie poświęcałem w owych latach wiele czasu poznawaniu dziedzin, które wydają się nie wiązać z historią nauki, natomiast badania nad nimi ujawniają problemy podobne do tych, jakie ongiś w niej właśnie dojrzałem. Przypadkowo napotkany odnośnik zwrócił moją uwagę na doświadczenia Jeana Piageta ukazujące zarówno różne światy rozwijającego się dziecka, jak i proces przechodzenia od jednego z nich do drugiego. Jeden z kolegów namówił mnie do zapoznania się z pracami z dziedziny psychologii percepcji, w szczególności psychologii postaci; inny wskazał mi na spekulacje B. L. Whorfa dotyczące wpływu języka na pogląd na świat; W. V. O. Quine wprowadził mnie w filozoficzne łamigłówki związane z rozróżnianiem analityczne-syntetyczne. Society of Fellows umożliwia prowadzenie takich właśnie nieuporządkowanych poszukiwań; tylko dzięki nim natknąć się mogłem na prawie nieznaną monografię Ludwika Flecka Entstehung und Entwicklung einer wissenschaftlichen Tatsache (Powstanie i rozwój faktu naukowego, Bazylea 1935), antycypującą wiele moich własnych idei. Praca Flecka, tudzież uwagi Francisa X. Suttona (również stażysty na Harvardzie) uzmysłowiły mi, że te idee ująć trzeba chyba w ramy socjologii wspólnoty naukowej. Chociaż czytelnicy napotkają w tekście odsyłacze do tych prac i rozmów, to zawdzięczam im więcej niż to potrafię obecnie odtworzyć i docenić.
[5] W ostatnim roku mego stażu jako Junior Fellow zaproszono mnie do wygłoszenia wykładów w Lowell Institute w Bostonie. Dało mi to pierwszą sposobność przedstawienia moich wciąż rozwijających się poglądów na naukę. Wynikiem było osiem publicznych wykładów pod tytułem The Quest for Physical Theory (W poszukiwaniu teorii fizycznej) wygłoszonych w marcu 1951 roku. W następnym roku zacząłem już wykładać historię nauki i przez prawie dziesięć lat problemy związane z nauczaniem tej dyscypliny, której nigdy nie studiowałem systematycznie, pozostawiały mi mało czasu na jasne sformułowanie pomysłów, od których zaczęło się moje nią zainteresowanie. Na szczęście, pomysły te zrodziły z czasem określone stanowiska i stały się zasadniczym kośćcem późniejszych wykładów. Winienem przeto podziękować studentom za to, że pozwolili mi wystawić na próbę moje poglądy i szukać odpowiedniego dla nich wyrazu. Miało to dla mnie nieocenione znaczenie. Te same problemy i to samo podejście łączą ze sobą pozornie odrębne prace, głównie o problematyce historycznej, które opublikowałem po moim stażu. Jedne dotyczą integralnej roli, jaką w twórczych badaniach naukowych odegrały poszczególne systemy metafizyczne, w innych zajmuję się tym, w jaki sposób doświadczalne podstawy nowej teorii są kumulowane i przyswajane przez ludzi wiernych nie dającej się z nią pogodzić teorii dawniejszej. Przy okazji ilustrują one ten typ rozwoju, który później nazwałem "wyłanianiem się" [emergence] nowej teorii lub odkrycia. Istnieją też inne tego rodzaju związki.
[6] Ostatnie stadium opracowywania niniejszej monografii przypadło na lata 1958-1959, kiedy zaproszono mnie na rok do Center for Advanced Studies in the Behavioral Sciences. Raz jeszcze mogłem poświęcić się wyłącznie zagadnieniom, o których niżej mowa. Co ważniejsze, rok spędzony w środowisku złożonym głównie ze specjalistów od nauk społecznych uświadomił mi różnice między tą zbiorowością a środowiskiem przyrodników, w którym wcześniej przebywałem. Uderzyła mnie zwłaszcza wielość i zakres występujących tu kontrowersyjnych opinii na temat naukowo uprawnionych problemów i metod. Zarówno historia, jak i obserwacje wynikające z osobistych znajomości nasuwały mi wątpliwość, czy rzeczywiście odpowiedzi udzielane na tego typu pytania przez przyrodników odznaczają się większą pewnością i trwałością. Jednak bądź co bądź praktyka w dziedzinie astronomii, fizyki, chemii czy biologii nie wywołuje na ogół tylu polemik dotyczących kwestii podstawowych, jakie nagminnie występują wśród psychologów czy socjologów. Wysiłki zmierzające do odszukania źródła tych różnic doprowadziły mnie do odkrycia roli pewnych istotnych dla badań naukowych czynników, które od tej pory nazwałem "paradygmatami". Nazywam w ten sposób mianowicie powszechnie uznawane osiągnięcia naukowe, które w pewnym czasie dostarczają wspólnocie badaczy modelowych problemów i rozwiązań. Z chwilą kiedy ten fragment mojej łamigłówki trafił na właściwe miejsce, szybko powstał szkic niniejszej pracy.
[7] Nie ma potrzeby odtwarzać dalszej historii tego szkicu, należy jednak poświęcić parę słów jego formie, którą zachował po wielu redakcjach. Nim pierwsza wersja została ukończona i bardzo dokładnie skorygowana, zakładałem, że tekst zostanie wydrukowany wyłącznie jako tom Encyclopedia of Unified Science. Wydawcy tej pionierskiej pracy najpierw prosili mnie o to, później wciągnęli mnie do ścisłej współpracy, wreszcie z nadzwyczajnym taktem i cierpliwością oczekiwali na wynik moich poczynań. Wiele im zawdzięczam, a zwłaszcza Charlesowi Morrisowi, który dodawał mi otuchy i udzielał rad dotyczących gotowego już rękopisu. Ograniczone ramy Encyklopedii zmuszały jednak do wysławiania się w formie nadzwyczaj skondensowanej, schematycznej. Aczkolwiek dalsze wydarzenia rozluźniły nieco te restrykcje i umożliwiły jednoczesne niezależne publikacje, niniejsza praca pozostała raczej esejem niż pełną monografią, jakiej właściwie wymaga mój temat.
[8] Ponieważ zależało mi przede wszystkim na tym, by zainicjować zmianę sposobu widzenia i oceniania dobrze znanych faktów, schematyczny charakter tej pierwszej próby nie musi być wadą. Przeciwnie, ci czytelnicy, których własne badania przygotowały do tego rodzaju reorientacji poglądów, jakiej tu bronię, mogą uznać, że forma eseju jest i bardziej przekonywająca, i łatwiej zrozumiała. Mą ona jednak i swoje złe strony. Dlatego właśnie od samego początku staram się wskazać kierunek, w jakim pragnąłbym rozszerzyć i pogłębić moje rozważania, nadając im pełniejszy kształt. Rozporządzam znacznie większą ilością historycznych danych niż ta, jaką, ze względu na brak miejsca, mogłem tu wykorzystać. Co więcej, dane te zaczerpnąłem zarówno z historii nauk biologicznych, jak i fizycznych. Moja decyzja wykorzystania tutaj wyłącznie tych ostatnich wynikła po części z chęci nadania tej pracy większej spójności, po części zaś z aktualnych moich kompetencji. Ponadto pogląd na naukę, jaki zamierzam tu przedstawić, odsłania potencjalne możliwości badań nowego typu, zarówno historycznych, jak i socjologicznych. Na przykład dokładnego zbadania wymaga sposób, w jaki odchylenia od przewidywań teoretycznych lub ich pogwałcenie przyciągają uwagę wspólnoty naukowej, oraz związek, jaki zachodzi między nieudanymi próbami pogodzenia tych anomalii z istniejącymi teoriami a kryzysami w nauce. Dalej, jeśli mam rację, że każda rewolucja naukowa zmienia historyczną perspektywę społeczności, która ją przeżywa, to zmiana tej perspektywy powinna wpływać z kolei na strukturę podręczników i prac badawczych okresu porewolucyjnego. Jednym z takich wartych przeanalizowania wskaźników dokonywania się rewolucji może być zmiana częstości, z jaką poszczególne prace cytowane są w odnośnikach nowych publikacji badawczych.
[9] Konieczność skrajnej zwięzłości wywodów zmusiła mnie również do zdawkowego potraktowania niektórych istotnych problemów. Na przykład moje odróżnienie okresów przed- i postparadygmatycznych jest stanowczo zbyt schematyczne. Każda ze szkół, których współzawodnictwo stanowi charakterystyczną cechę okresów przedrewolucyjnych, kieruje się czymś bardzo zbliżonym do paradygmatu. W niektórych okolicznościach - sądzę jednak, że rzadko - zdarza się, że w okresach późniejszych dwa paradygmaty mogą ze sobą pokojowo współistnieć. Samo występowanie paradygmatu nie jest jeszcze dostatecznym kryterium ewolucyjnego przeobrażenia omawianego w rozdziale drugim. Co ważniejsze, poza przygodnymi wzmiankami nie omawiałem roli, jaką w rozwoju nauki odgrywa postęp techniczny oraz zewnętrzne warunki społeczne, ekonomiczne i intelektualne. Wystarczy jednak przypomnieć chociażby Kopernika i sprawę układania kalendarza, aby zobaczyć, że warunki zewnętrzne mogą się przyczynić do przekształcenia zwykłej anomalii w źródło ostrego kryzysu. Ten sam przykład wyjaśniłby, w jaki sposób czynniki pozanaukowe wyznaczać mogą zakres alternatywnych rozwiązań dostępnych temu, kto usiłuje przezwyciężyć kryzys za pomocą takiej lub innej rewolucyjnej reformy. Przypuszczam, że dokładne rozpatrzenie tych kwestii nie zmieniłoby głównych tez niniejszej rozprawy, ale w istotnym wymiarze pogłębiłoby analizę i rozumienie postępu naukowego.
[10] Wreszcie, co być może najważniejsze, w książce zabrakło miejsca na należyte omówienie filozoficznych implikacji przedstawianej tu historycznie zorientowanej wizji nauki. Oczywiście, takie implikacje istnieją; próbowałem wskazać i udokumentować te najistotniejsze. Czyniąc to, wstrzymywałem się jednak zwykle od szczegółowego omawiania różnych stanowisk, jakie w poszczególnych kwestiach zajmują współcześni filozofowie. Jeśli przejawiałem niekiedy sceptycyzm, to częściej w stosunku do postawy filozoficznej niż do jakiegoś określonego stanowiska będącego jej wyrazem. W rezultacie ci, którzy znają lub akceptują któryś z tych poglądów, sądzić by mogli, że nie uchwyciłem ich punktu widzenia. Przypuszczam, że się mylą, ale praca ta nie ma na celu przekonania ich o tym. Wymagałoby to napisania zupełnie innej, o wiele dłuższej książki.
[11] Otwierające niniejszą przedmowę uwagi autobiograficzne miały wskazać na te prace uczonych i te instytucje, którym zawdzięczam najwięcej, jeśli chodzi o kształtowanie się mojej myśli. Resztę tego długu postaram się spłacić poprzez odpowiednie odnośniki w tekście. Cokolwiek bym jednak powiedział, będzie to co najwyżej odnotowanie ilości i rodzaju moich osobistych zobowiązań w stosunku do wielu osób, których wskazówki i krytyka przy różnych okazjach podtrzymywały mój rozwój intelektualny i nadawały mu kierunek. Zbyt wiele upłynęło już czasu od chwili, kiedy zaczęły się kształtować myśli zawarte w niniejszej rozprawie. Lista osób, które mogłyby doszukać się na jej kartach śladu swego wpływu, pokrywałaby się niemal z listą moich znajomych i przyjaciół. Muszę więc ograniczyć się do wymienienia tych, którzy wywarli wpływ tak istotny, że nawet zawodność pamięci nie zdołała zatrzeć jego śladów.
[12] Mam tu na myśli Jamesa B. Conanta, rektora Harvard University, który pierwszy zapoznał mnie z historią nauki, inicjując w ten sposób zmianę moich poglądów na istotę postępu naukowego. Od samego początku hojnie obdarowywał mnie swymi pomysłami, uwagami krytycznymi i czasem, m.in. czytając rękopis i sugerując wprowadzenie ważnych zmian. Leonard K. Nash, wraz z którym przez pięć lat prowadziłem historycznie zorientowane wykłady zainicjowane przez Conanta, był moim bliskim współpracownikiem w okresie, kiedy moje pomysły zaczęły nabierać kształtu, i bardzo mi go brakowało w późniejszym stadium ich rozwoju. Na szczęście, kiedy opuściłem Cambridge, zastąpił go mój kolega z Berkeley Stanley Cavell, inspirując mnie w dalszych poczynaniach. To, iż Cavell, filozof interesujący się głównie etyką i estetyką, dochodził do wniosków tak zbieżnych z moimi, było dla mnie źródłem ciągłej inspiracji i zachęty. Co więcej, był jedynym człowiekiem, z którym rozumiałem się w pół słowa, kiedy dyskutowaliśmy na temat moich poglądów. To właśnie tego typu porozumienie sprawiło, że pomógł mi on pokonać lub ominąć wiele przeszkód, jakie napotkałem, przygotowując pierwszą wersję tekstu.
[13] Kiedy wersja ta już powstała, wielu innych przyjaciół pomogło mi ją redagować. Myślę, że wybaczą mi, jeśli wspomnę tylko nazwiska tych, których udział był największy i decydujący. Są to: Paul K. Feyerabend z Berkeley University, Ernest Nagel z Columbia University, H. Pierre Noyes z Lawrence Radiation Laboratory oraz mój student John L. Heilbron, który ściśle ze mną współpracował przy przygotowywaniu do druku ostatniej wersji. Uważam, że wszystkie ich zastrzeżenia i sugestie nadzwyczaj mi pomogły, ale nie mam podstaw, by sądzić (a mam pewne podstawy, by wątpić), że aprobowaliby oni wynikły stąd tekst w całej jego rozciągłości.
[14] Ostatnie słowa podziękowań kieruję do moich rodziców, żony i dzieci. Muszą one być oczywiście innego rodzaju. Każde z nich miało intelektualny udział w tej pracy, który mi samemu najtrudniej ocenić. Uczynili poza tym, w różnym stopniu, coś jeszcze ważniejszego: aprobowali moją pracę i podtrzymywali mój zapał. Tylko ktoś, kto zmagał się z takimi projektami jak mój, orientuje się, ile to ich musiało niekiedy kosztować. Nie wiem, jak mam wyrazić im wdzięczność.
Berkeley, Kalifornia, luty 1962
[1] Wiedza historyczna, jeśli nie traktować jej wyłącznie jako składnicy chronologicznie uporządkowanych anegdot, zmienić może w zasadniczy sposób obraz nauki, jaki zawładnął naszym myśleniem. Został on niegdyś ukształtowany, zresztą przy udziale samych naukowców, głównie na podstawie analizy gotowych osiągnięć nauki, w tej postaci, w jakiej przedstawia się je czy to w dziełach klasycznych, czy też - w nowszych czasach - w podręcznikach, na których kształci się każde nowe pokolenie naukowców. Dzieła takie mają wszakże przede wszystkim cele informacyjne i pedagogiczne. Oparty na nich pogląd na istotę nauki daje takie mniej więcej wyobrażenie o rzeczywistości, jak obraz kultury narodowej wysnuty z przewodników turystycznych czy też z tekstów do nauki języka. W rozprawie tej zamierzam wykazać, że w sposób zupełnie zasadniczy wprowadzały nas one w błąd. Chcę naszkicować zupełnie inną koncepcję nauki, jaka wyłonić się może z historycznych źródeł dotyczących samej działalności naukowej.
[2] Jednak nawet ta wyprowadzona z historii nowa koncepcja nie wniesie nic nowego, o ile dane historyczne będą nadal dobierane i rozpatrywane głównie ze względu na stereotypowo ahistoryczne pytania zaczerpnięte z tekstów naukowych. Często na przykład teksty te sugerują, jakoby na treść nauki składały się wyłącznie obserwacje, prawa i teorie omawiane na ich kartach. Niemal równie często prace te odczytywano jako ilustrację poglądu, że metody naukowe to nic innego jak po prostu techniki doświadczalne stosowane przy gromadzeniu podręcznikowych danych oraz operacje logiczne, za pomocą których wiąże się je z wyłożonymi w podręcznikach uogólnieniami teoretycznymi. W rezultacie uzyskiwano obraz nauki implikujący daleko idące wnioski co do jej istoty i rozwoju.
[3] Skoro zgodnie z tym poglądem nauka jest zbiorem faktów, teorii i metod przedstawianych w aktualnych podręcznikach, to naukowcy są ludźmi, którzy, z powodzeniem lub nie, usiłują dorzucić do tego zbioru ten lub inny szczegół. Tak więc postęp naukowy polegałby na stopniowym dokładaniu tych elementów - pojedynczo lub po kilka - do wciąż rosnącego zasobu technik i wiedzy naukowej. Historia nauki zaś stałaby się kroniką rejestrującą kolejne zdobycze oraz przeszkody w ich kumulacji. Historykowi postępu naukowego pozostawałyby wówczas dwa główne zadania. Przede wszystkim miałby dochodzić, przez kogo i kiedy zostały odkryte znane współcześnie fakty naukowe, prawa czy teorie. Po drugie, miałby opisywać i wyjaśniać, jakie błędy, mity i przesądy hamowały szybsze narastanie dorobku współczesnej nauki. Takie były rzeczywiście, i często są nadal, cele wielu badań w tej dziedzinie.
[4] Wszelako w ostatnich latach okazało się, że niektórym historykom nauki coraz trudniej jest się wywiązać z tych obowiązków, jakie nakłada na nich koncepcja rozwoju nauki drogą kumulacji. Doszli oni do wniosku, że dodatkowe drobiazgowe badania nie ułatwiają, lecz przeciwnie - utrudniają kronikarzom tego procesu znalezienie odpowiedzi na pytania tego rodzaju jak: "Kiedy odkryto tlen?", "Kto pierwszy wpadł na pomysł sformułowania zasady zachowania energii?". Stopniowo niektórzy z nich zaczęli przypuszczać, że są to po prostu źle postawione pytania. Być może nauka nie rozwija się poprzez kumulację indywidualnych odkryć i wynalazków. Równocześnie współcześni historycy stanęli wobec rosnących trudności związanych z odróżnieniem "naukowej" komponenty dawnych obserwacji i twierdzeń od poglądów, które ich poprzednicy pochopnie opatrywali etykietką "błąd" czy "przesąd". Im dokładniej studiowano dynamikę Arystotelesa, chemię flogistonową czy teorię cieplika, tym bardziej utwierdzano się w przekonaniu, że owe niegdyś powszechne poglądy na świat ani nie były w sumie mniej naukowe, ani nie wynikały bardziej niż współczesne z jakichś specjalnych ludzkich uprzedzeń. Gdyby te przestarzałe poglądy miały być mitami, znaczyłoby to, że mit może być tworzony za pomocą tego samego rodzaju metod i utrzymywać się na mocy tego samego rodzaju racji, jakie współcześnie prowadzą do wiedzy naukowej. Jeśli natomiast poglądy te zaliczyć mamy do nauki, to będzie ona zawierała zespoły przekonań absolutnie niezgodnych z tymi, którym hołdujemy obecnie. Historyk postawiony wobec takiej alternatywy musi wybrać drugą ewentualność. Nieaktualne teorie nie są z zasady nienaukowe tylko dlatego, że je odrzucono. Taka decyzja utrudnia jednak potraktowanie rozwoju nauki jako procesu kumulacji. Te same historyczne badania, które wskazują na kłopoty związane z wyodrębnieniem indywidualnych pomysłów i odkryć, nasuwają również poważne wątpliwości co do kumulatywnego charakteru procesu, jaki wedle rozpowszechnionego mniemania miał włączać do nauki indywidualne osiągnięcia.
[5] Wynikiem tych wątpliwości i trudności jest historiograficzna rewolucja w badaniach nad rozwojem nauki, rewolucja, która dopiero się zaczyna. Stopniowo, często nawet nie zdając sobie z tego sprawy, historycy nauki zaczęli formułować pytania innego rodzaju i wytyczać naukom inne, często mniej kumulatywne linie rozwoju. Zamiast dążyć do odtworzenia ciągłej linii rozwoju w minionych epokach - rozwoju, który doprowadzić miał do stanu obecnego - próbują wykryć historyczną integralność nauki w poszczególnych okresach. Nie pytają na przykład, jaki zachodzi związek między nauką Galileusza i wiedzą współczesną, lecz raczej o to, jak się miały poglądy Galileusza do poglądów jego grupy naukowej, tj. jego mistrzów, rówieśników i bezpośrednich kontynuatorów. Co więcej, kładą szczególny nacisk na to, aby poglądy tej grupy i innych jej podobnych badać z takiego punktu widzenia - zwykle odbiegającego znacznie od stanowiska współczesnej nauki - który nada im maksymalną spoistość wewnętrzną i możliwie największą zgodność z przyrodą. Nauka, jaką przedstawiają prace wynikające z takiego podejścia - najlepszym chyba przykładem są tu prace Alexandre'a Koyré - wydaje się czymś całkiem innym niż ta opisywana przez historyków hołdujących starej tradycji historiograficznej. Tak więc tego rodzaju studia historyczne sugerują przynajmniej możliwość stworzenia nowego obrazu nauki. Celem tej rozprawy jest właśnie próba jego zarysowania poprzez wyraźne przedstawienie niektórych implikacji tej nowej historiografii.
[6] Jakie aspekty nauki wysuwają się przy tym podejściu na plan pierwszy? Po pierwsze - by wymienić je w tej kolejności, w jakiej się nimi zajmiemy - okazuje się, że same tylko dyrektywy metodologiczne nie pozwalają sformułować wiążących wniosków w wypadku wielu problemów naukowych. Ktoś, kto zabierze się do badania zjawisk elektrycznych lub chemicznych, nie mając żadnej wiedzy w tych dziedzinach, ale wiedząc, na czym polega metoda naukowa, dojść może z równym powodzeniem do jednego z wielu sprzecznych ze sobą wniosków. To zaś, do którego spośród wszystkich tych zasadnych wniosków dojdzie, zdeterminowane będzie zapewne przez doświadczenie, które zdobył poprzednio w innych dziedzinach, przez przypadki towarzyszące badaniom naukowym i przez jego własną, indywidualną postawę. Jakie na przykład poglądy na gwiazdy wnosi on do swych badań z dziedziny chemii i elektryczności? Które z właściwych nowej dziedzinie doświadczeń postanowi wykonać najpierw? Jakie aspekty złożonego zjawiska, będącego wynikiem tych doświadczeń, wydadzą mu się szczególnie doniosłe dla zrozumienia istoty reakcji chemicznej lub powinowactwa elektrycznego? Co najmniej w wypadku jednostek, a niekiedy również i grup uczonych, odpowiedzi na tego rodzaju pytania są, jak się zdaje, zasadniczymi determinantami rozwoju nauki. W rozdziale drugim ujrzymy na przykład, że w wielu naukach wczesne fazy rozwoju charakteryzowała stała rywalizacja między różnymi poglądami na świat, z których każdy częściowo wywodził się z postulatów naukowej obserwacji i metody, a wszystkie były z grubsza zgodne z nimi. Tym, co różniło te rozmaite szkoły, były nie takie czy inne braki metody - w tym sensie wszystkie one były "naukowe" - lecz to, co nazywać będziemy niewspółmiernością sposobów widzenia świata i uprawiania w nim nauki. Obserwacje i doświadczenia mogą i muszą ostro ograniczać zakres dopuszczalnych w nauce poglądów, w przeciwnym razie nauka w ogóle by nie istniała. Nie mogą one jednak same wyznaczać poszczególnych zespołów przekonań. Arbitralne czynniki, na które składają się przygodne okoliczności osobiste i historyczne, zawsze wywierają wpływ na poglądy wyznawane przez daną społeczność uczonych w określonym czasie.
[7] Element dowolności nie znaczy jednak, że jakakolwiek grupa naukowa prowadzić może badania, nie przejmując pewnego zespołu przeświadczeń od swoich poprzedników. Nie pomniejsza on również znaczenia tego szczególnego układu, w który dana społeczność naukowa jest aktualnie uwikłana. Owocne prace badawcze rzadko kiedy dochodzą do skutku, nim wspólnota naukowa uzna, że osiągnęła już zdecydowaną odpowiedź na takie pytania jak: "Z jakich podstawowych składników zbudowany jest wszechświat?", "W jaki sposób oddziałują one jedne na drugie oraz na nasze zmysły?", "Jakie dotyczące ich pytania można zasadnie formułować i jakich technik używać, poszukując na nie odpowiedzi?". Przynajmniej w naukach dojrzałych odpowiedzi (lub ich substytuty) na tego rodzaju pytania przekazywane są przyszłym badaczom w trakcie ich zawodowego kształcenia. Wobec tego zaś, że kształcenie to jest i rygorystyczne, i surowe, przekazywane odpowiedzi wywierają głęboki wpływ na umysłowość przyszłego badacza. Ich wpływ tłumaczy w znacznej mierze zarówno szczególną efektywność normalnej pracy badawczej, jak i właściwe jej w każdym okresie ukierunkowanie. Kiedy w rozdziale trzecim, czwartym i piątym przystąpimy do rozważań nad nauką normalną, będziemy starali się przedstawić takie badania jako zawzięte, uparte próby wtłoczenia przyrody w pojęciowe szufladki uformowane przez zawodowe wykształcenie. Jednocześnie wątpić można, czy prace badawcze byłyby w ogóle możliwe bez tych szufladek, niezależnie od arbitralnych czynników, jakie historycznie mogły brać udział w ich powstaniu i niekiedy w dalszym rozwoju.
[8] Jednakże ten element dowolności rzeczywiście istnieje i również wywiera poważny wpływ na rozwój nauki. Mówić o tym będziemy w rozdziale szóstym, siódmym i ósmym. Nauka normalna, tj. działalność, której większość uczonych w nieunikniony sposób poświęca prawie cały swój czas, opiera się na założeniu, że społeczność uczonych wie, jaki jest świat. Wiele sukcesów tej działalności wynika z gotowości do obrony tego mniemania, w razie potrzeby nawet dużym kosztem. Nauka normalna często na przykład tłumi zasadnicze innowacje, gdyż podważają one fundamentalne dla niej przeświadczenia. Mimo to w tej mierze, w jakiej przeświadczenia te zachowują element arbitralności, sama natura badań normalnych gwarantuje, że innowacji nie będzie się tłumić zbyt długo. Niekiedy jakiś zupełnie prosty problem nadający się do rozwiązania za pomocą utartych zasad i metod opiera się ponawianym atakom najzdolniejszych przedstawicieli kompetentnego w tej sprawie środowiska. Kiedy indziej znów jakiś szczegół wyposażenia zaprojektowanego i wykonanego dla celów normalnych badań funkcjonuje zupełnie inaczej, niż można się było tego spodziewać, i ujawnia taką anomalię, która mimo ponawianych wysiłków nie daje się uzgodnić z przewidywaniami. Tym samym nauka normalna raz po raz trafia w ślepy zaułek. A kiedy to się dzieje, to znaczy gdy grupa specjalistów nie potrafi już unikać anomalii burzących obowiązującą tradycję praktyki naukowej, rozpoczynają się nadzwyczajne badania, w wyniku których zostaje w końcu wypracowany nowy zespół założeń, dostarczający podstawy nowej praktyki badawczej. Właśnie takie nadzwyczajne zdarzenia, polegające na zasadniczym zwrocie w zawodowych przekonaniach, nazywam w niniejszej rozprawie rewolucjami naukowymi. Ponieważ rozbijają one tradycję, są dopełnieniem przywiązanej do tradycji nauki normalnej.
[9] Najbardziej oczywistymi przykładami rewolucji naukowych są słynne wydarzenia w rozwoju nauki, które dotąd zwykło się określać tym mianem. Dlatego w rozdziałach dziewiątym i dziesiątym, kiedy przejdziemy bezpośrednio do omówienia istoty rewolucji naukowych, wielokrotnie będzie mowa o zasadniczych dla rozwoju nauki punktach zwrotnych, związanych z nazwiskami Kopernika, Newtona, Lavoisiera czy Einsteina. Jaśniej niż większość innych wydarzeń tego typu w historii - przynajmniej jeśli chodzi o nauki fizyczne - ukazują one, na czym polega rewolucja naukowa. Każde z nich pociągało za sobą konieczność odrzucenia przez całą grupę uczonych jakiejś wysoko cenionej dotąd teorii naukowej na rzecz innej, sprzecznej z nią. Każde powodowało przesunięcia w problematyce badań naukowych i zmianę wzorców, według których specjaliści określali, co uznać można za uprawnione pytanie i za zasadną odpowiedź. Każde z nich przekształcało wyobraźnię naukową w taki sposób, że ostatecznie powinniśmy ująć te zmiany jako przeobrażenia świata, w którym uprawiano działalność naukową. Takie przemiany, łącznie z niemal zawsze towarzyszącymi im kontrowersjami, są definicyjnymi cechami rewolucji naukowych.
[10] Cechy te występują szczególnie wyraźnie w wypadku, dajmy na to, rewolucji newtonowskiej czy rewolucji chemicznej. Jedna z podstawowych tez niniejszej rozprawy głosi jednak, że można je spotkać również i w wielu innych wypadkach, nie tak wyraźnie rewolucyjnych. Równania Maxwella były dla zainteresowanej nimi wąskiej grupy specjalistów równie rewolucyjne jak prawa Einsteina i wskutek tego spotkały się z równie silnym sprzeciwem. Odkrycia innych nowych teorii z zasady napotykają taki sam opór niektórych specjalistów, w których domenę badań wkraczają. Dla tych ludzi nowa teoria oznacza dokonanie zmian w regułach, które rządziły dotychczasową praktyką nauki normalnej. To zaś nieuchronnie stawia w niekorzystnym świetle znaczną część ich dotychczasowej pracy naukowej. Właśnie dlatego rzadko kiedy, a może nawet nigdy nie zdarza się, aby nowa teoria - bez względu na to, jak wąski byłby zakres jej zastosowania - po prostu zwiększała zasób dawnych informacji. Jej asymilacja wymaga rekonstrukcji dawnych teorii i przewartościowania uprzednio znanych faktów. Jest to proces rewolucyjny, którego nie może zazwyczaj dokonać jeden człowiek i który na pewno nie zachodzi z dnia na dzień. Nic więc dziwnego, że historycy muszą się bardzo nabiedzić, aby ściśle określić datę takiego długotrwałego procesu, który przyjęta terminologia każe im traktować jako indywidualne zdarzenie.
[11] Odkrycia nowych teorii nie są jedynymi zdarzeniami w nauce wywierającymi rewolucyjny wpływ na specjalistów z dziedziny, w której zostały dokonane. Założenia, na których opiera się nauka normalna, określają nie tylko, z jakiego rodzaju bytów składa się świat, lecz również z jakich się nie składa. Wynika stąd - choć wymaga to dokładniejszego omówienia - że takie osiągnięcia jak odkrycie tlenu czy promieni X nie polegają tak po prostu na wprowadzeniu do świata uczonego nowego rodzaju bytu. To jest dopiero efekt końcowy. Dochodzi do tego dopiero wówczas, kiedy społeczność zawodowa dokona przewartościowania tradycyjnych procedur doświadczalnych, kiedy zmieni bliskie jej dotychczas poglądy na budowę świata i w końcu przekształci siatkę teoretyczną, za pomocą której ujmuje świat. Fakt naukowy i teoria nie dadzą się ściśle od siebie oddzielić, chyba że w obrębie pojedynczej tradycji normalnej praktyki naukowej. Dlatego właśnie niespodziewane odkrycie ma znaczenie nie tylko faktyczne; świat uczonego przekształca się jakościowo i wzbogaca ilościowo zarówno w wyniku odkryć zasadniczo nowych faktów, jak i formułowania nowatorskich teorii.
[12] Taka właśnie poszerzona koncepcja istoty rewolucji naukowej przedstawiona będzie niżej. Niewątpliwie rozszerzenie to przekształca jej zwyczajowe rozumienie. Mimo to również odkrycia nazywał będę zjawiskami rewolucyjnymi, bo właśnie możliwość porównania ich struktury ze strukturą na przykład rewolucji kopernikańskiej sprawia, że ta rozszerzona koncepcja wydaje mi się tak ważna. Dotychczasowe rozważania wskazują, w jakim kierunku komplementarne pojęcia nauki normalnej i rewolucji naukowych zostaną rozwinięte w następnych dziewięciu rozdziałach. Ostatnie rozdziały dotyczą trzech innych istotnych zagadnień. W rozdziale jedenastym, omawiając tradycje podręcznikowe, zastanawiam się, dlaczego dawniej tak trudno było dostrzec rolę rewolucji naukowych. W rozdziale dwunastym zostało przedstawione rewolucyjne współzawodnictwo pomiędzy zwolennikami starej tradycji nauki normalnej i zwolennikami nowej. Tak więc rozpatruje się w nim proces, który mógłby w teorii badań naukowych zastąpić znane nam z tradycyjnego obrazu nauki procedury konfirmacji lub falsyfikacji. Jedynym historycznym procesem, który rzeczywiście doprowadza do zarzucenia poprzednio akceptowanej teorii i do przyjęcia nowej, jest współzawodnictwo między poszczególnymi odłamami środowiska naukowego. Wreszcie w rozdziale trzynastym stawiam pytanie, w jaki sposób pogodzić rozwój drogą rewolucji z postępem, z którym najwyraźniej mamy do czynienia w nauce. Na to pytanie jednak rozprawa niniejsza przynosi tylko zarys odpowiedzi, odwołującej się do charakterystyki społeczności uczonych, a ta kwestia wymaga wielu dodatkowych badań i studiów.
[13] Z pewnością niejeden czytelnik zadał już sobie pytanie, czy badania historyczne mogą doprowadzić do takiego przeobrażenia poglądów, jakie zostało tu zamierzone. Za pomocą całego arsenału dychotomii można próbować wykazać, iż jest to niemożliwe. Historia, jak to zbyt często podkreślamy, jest dyscypliną czysto opisową. Wysuwane wyżej tezy mają natomiast często charakter interpretacyjny, a niekiedy i normatywny. Co więcej, wiele moich uogólnień dotyczy socjologii lub psychologii społecznej świata uczonych. Wreszcie niektóre moje wnioski zalicza się tradycyjnie do logiki lub epistemologii. Mogłoby się nawet wydawać, że w powyższych wywodach naruszyłem bardzo istotne współcześnie rozróżnienie pomiędzy "kontekstem odkrycia" i "kontekstem uzasadnienia". Czy takie pomieszanie różnych dziedzin i podejść może doprowadzić do czegoś innego niż do głębokiego zamętu?
[14] Dorastałem intelektualnie, karmiąc się tymi i podobnymi odróżnieniami, i choćby dlatego daleki jestem od pomniejszania ich znaczenia i wagi. Przez długie lata uważałem, że dotyczą one natury wiedzy w ogóle, i nadal przypuszczam, że właściwie przeformułowane mogą nam one powiedzieć coś istotnego. Jednakże wysiłki, jakie podejmowałem, chcąc zastosować te odróżnienia, choćby grosso modo, do obecnych warunków zdobywania, akceptowania i asymilowania wiedzy, sprawiły, iż wydają mi się one niesłychanie problematyczne. Nie są to podstawowe logiczne czy metodologiczne rozróżnienia, które jako takie wyprzedzałyby analizę wiedzy naukowej; teraz wydają mi się one raczej integralnymi częściami tradycyjnego zestawu odpowiedzi na te właśnie pytania, do których dystynkcje te stosowano. To błędne koło bynajmniej nie pozbawia ich wszelkiego znaczenia. Sprawia jednak, że okazują się one częścią teorii, a wobec tego zmusza do poddania ich normalnej procedurze badawczej, jaką stosuje się do teorii w innych dziedzinach. Jeśli treść ich nie ma sprowadzać się do czystej abstrakcji, to wykrywać ją trzeba, stosując je do danych, do których wyjaśnienia są powołane. Dlaczego nie mielibyśmy domagać się, aby teoria wiedzy stosowała się do zjawisk ujawnianych przez historię nauki?
[1] Termin "nauka normalna" oznacza w niniejszych rozważaniach badania wyrastające z jednego lub wielu takich osiągnięć naukowych przeszłości, które dana społeczność uczonych aktualnie akceptuje i traktuje jako fundament swej dalszej praktyki. Z tych podstawowych osiągnięć - wprawdzie rzadko w ich formie oryginalnej - zdają dzisiaj sprawę podręczniki, zarówno elementarne, jak akademickie. Przedstawiają one zespół uznawanych teorii, omawiają wiele lub wszystkie ich udane zastosowania, konfrontując je z przykładowymi obserwacjami i eksperymentami. Nim w początkach XIX stulecia (a nawet jeszcze później, jeżeli chodzi o nowo powstałe dziedziny wiedzy) książki takie zostały spopularyzowane, zbliżoną funkcję pełniły prace wielu klasyków nauki. Fizyka Arystotelesa, Almagest Ptolemeusza, Principia i Optyka Newtona, Elektryczność Franklina, Chemia Lavoisiera czy Geologia Lyella - te i liczne inne dzieła wyznaczały w swoim czasie uprawnione problemy i metody badawcze w danej dziedzinie dla kolejnych pokoleń uczonych. Nadawały się do tego celu, gdyż miały dwie istotne wspólne cechy. Reprezentowany w nich dorobek był dostatecznie oryginalny i atrakcyjny, aby odwrócić uwagę stałej grupy zwolenników danej teorii od konkurencyjnych sposobów uprawiania nauki. Jednocześnie dorobek ten był na tyle otwarty, że pozostawiał nowej szkole najrozmaitsze problemy do rozwiązania.
[2] Osiągnięcia odznaczające się wskazanymi cechami będę odtąd nazywał paradygmatami. Termin ten pozostaje w ścisłym związku z pojęciem nauki normalnej. Ma on wskazywać na to, że pewne akceptowane wzory faktycznej praktyki naukowej - wzory obejmujące równocześnie prawa, teorie, zastosowania i wyposażenie techniczne - tworzą model, z którego wyłania się jakaś szczególna, zwarta tradycja badań naukowych. Z takimi tradycjami mamy na przykład do czynienia, kiedy historycy mówią o astronomii ptolemeuszowej (lub kopernikańskiej), dynamice arystotelesowskiej (czy newtonowskiej), optyce korpuskularnej (albo falowej) itd. Właśnie studiowanie paradygmatów, często o wiele bardziej wyspecjalizowanych niż te, które przykładowo wymieniłem, przygotowuje studenta do przyszłego uczestnictwa w pracach danej wspólnoty naukowej. Ponieważ w ten sposób przyłącza się on do grupy, która uczyła się podstaw swej dyscypliny na tych samych konkretnych modelach, jego przyszła działalność rzadko kiedy doprowadzi go do wniosków zasadniczo sprzecznych z tym modelem w kwestiach podstawowych. Uczeni, których badania oparte są na wspólnych paradygmatach, podlegają w swej praktyce naukowej tym samym regułom i standardom. Takie współuczestnictwo i wynikająca z niego jednomyślność są niezbędnymi warunkami nauki normalnej, tzn. ukształtowania się i trwania określonej tradycji badawczej.
[3] Ponieważ pojęcie paradygmatu będzie w tych rozważaniach często zastępowało wiele dobrze znanych pojęć, musimy szerzej wyjaśnić przyczyny jego wprowadzenia. Dlaczego tym pierwotnym czynnikiem kształtującym zawodową wspólnotę ma być konkretne osiągnięcie naukowe, a nie rozmaite pojęcia, prawa, teorie i punkty widzenia, które mogą być z niego wyabstrahowane? W jakim sensie wspólny paradygmat jest podstawową jednostką dla badacza rozwoju nauki, i to jednostką, której nie sposób w pełni zredukować do jej logicznie składowych części, które mogłyby przejąć jej funkcje? W rozdziale piątym zobaczymy, że odpowiedź na te i inne podobne pytania jest niezbędna do zrozumienia nauki normalnej i związanego z nią pojęcia paradygmatów. Ta bardziej abstrakcyjna analiza będzie jednak wymagała uprzedniego przytoczenia przykładów paradygmatów i funkcjonowania nauki normalnej. Obydwa omawiane pojęcia staną się jaśniejsze, kiedy zrozumiemy, że pewien rodzaj badań naukowych może się obyć bez paradygmatów, a przynajmniej bez tak wiążących i jednoznacznych jak wymienione wyżej. Ukształtowanie się paradygmatu i bardziej wyspecjalizowanych badań, na jakie on pozwala, jest oznaką dojrzałości danej dyscypliny naukowej.
[4] Gdyby historyk nauki chciał prześledzić rozwój wiedzy o jakiejś wybranej grupie pokrewnych zjawisk, natknąłby się na pewne szczególne przypadki ogólnego schematu, który zilustrować tu można na przykładzie optyki fizycznej. Dzisiejsze podręczniki fizyki powiadają, że światło to strumień fotonów, tj. obiektów kwantowych przejawiających zarówno właściwości falowe, jak korpuskularne. To przekonanie właśnie, a ściślej - jego rozbudowane, oparte na matematyce ujęcie, z którego wywodzi się te słowne charakterystyki, wytycza dziś kierunek badań naukowych. Ale taka charakterystyka światła liczy sobie niedużo więcej niż pół wieku. Nim na początku tego stulecia wprowadzona została przez Plancka, Einsteina i innych, podręczniki fizyki twierdziły, że światło ma charakter ruchu fal poprzecznych. Koncepcja ta była zakorzeniona w paradygmacie opartym na pracach z optyki Younga i Fresnela (początek XIX wieku). Ale również teoria falowa nie była pierwszą w historii koncepcją uznaną przez wszystkich niemal uczonych zajmujących się optyką. W wieku XVIII paradygmatu dla tej dziedziny dostarczała Optyka Newtona, głosząca, że światło to materialne korpuskuły. W owym czasie fizycy poszukiwali świadectw, o które później nie kłopotali się pierwsi twórcy teorii falowej, na rzecz tezy, iż korpuskuły światła wywierają ciśnienie, uderzając w ciała stałe.
[5] Te przeobrażenia paradygmatów optyki fizycznej są rewolucjami naukowymi, a kolejne rewolucyjne przejścia od jednego do drugiego paradygmatu wyznaczają normalny schemat rozwoju dojrzałej nauki. Nie był to jednak schemat charakterystyczny dla nauki przed Newtonem i ta właśnie różnica jest tu dla nas interesująca. Od zamierzchłej starożytności aż do końca XVII wieku nie było okresu, w którym panowałby jeden ogólnie przyjęty pogląd na istotę światła. Odwrotnie, zawsze istniało wiele współzawodniczących szkół i szkółek, z których każda broniła takiego czy innego wariantu teorii Epikura, Arystotelesa lub Platona. Jedni uważali, że światło to cząstki emanujące z ciał materialnych, inni sądzili, że jest ono jakimś rodzajem ośrodka przewodzącego między ciałem a okiem; jeszcze inni usiłowali znaleźć wyjaśnienie w oddziaływaniu między ośrodkiem przewodzącym a emanacją płynącą z oka. Istniały również rozmaite kombinacje i modyfikacje tych poglądów. Każda ze szkół znajdowała oparcie w jakiejś metafizyce i każda kładła nacisk na ten szczególny zespół zjawisk optycznych - swój zespół obserwacji paradygmatycznych - które jej teoria potrafiła najlepiej wyjaśnić. Inne zjawiska tłumaczono za pomocą jakichś założeń ad hoc lub też pozostawały otwartym problemem dla przyszłych prac badawczych.
[6] Na przestrzeni wieków szkoły te wnosiły poważny wkład do zespołu koncepcji, zjawisk i technik, z którego Newton wyprowadził pierwszy niemal powszechnie przyjęty paradygmat optyki fizycznej. Każda definicja uczonego, która nie obejmuje przynajmniej bardziej twórczych przedstawicieli tych różnych szkół, wyklucza zarazem ze swego zakresu ich nowożytnych następców. Ludzie ci byli niewątpliwie uczonymi. Wszelako zapoznanie się z optyką fizyczną epoki przed Newtonem może nas doprowadzić do wniosku, że chociaż badacze tej dziedziny zjawisk byli uczonymi, to jednak ostatecznego rezultatu ich działalności nie można w pełni nazwać nauką. Nie mogąc uznać żadnego z funkcjonujących zespołów przekonań za dostatecznie uzasadniony, każdy, kto pisał na temat optyki fizycznej, czuł się zmuszony do budowania swej teorii od podstaw. Korzystał przy tym ze względnej swobody doboru najbardziej odpowiadających mu obserwacji i doświadczeń, brak było bowiem jakiegokolwiek modelu wyznaczającego, z jakich metod każdy musi korzystać i jakie zjawiska musi umieć wyjaśnić. W tych okolicznościach wywody przedstawiane w rozprawach zwracały się w równej mierze do przedstawicieli innych szkół, co do samej przyrody. Schemat ten nie jest czymś niezwykłym również i dzisiaj w wielu dziedzinach, nie wyklucza on też dokonywania ważnych odkryć i wynalazków. Nie jest to jednak ten schemat, wedle którego optyka fizyczna rozwijała się po Newtonie i który rozpowszechniony został przez inne gałęzie przyrodoznawstwa.
[7] Jeszcze lepszego i bardziej znanego przykładu rozwoju nauki przed osiągnięciem przez nią ogólnie uznanego paradygmatu dostarcza historia badań nad elektrycznością w pierwszej połowie XVIII wieku. W tej epoce funkcjonowało prawie tyle poglądów na istotę elektryczności, ilu było poważniejszych eksperymentatorów - ludzi takich jak Hauksbee, Gray, Desaguliers, Du Fay, Nollet, Watson, Franklin i inni. Wszystkie ich koncepcje, a było ich wiele, miały wspólną cechę: po części wywodziły się z takiej czy innej wersji mechanistyczno-korpuskularnej filozofii nadającej wówczas kierunek wszystkim badaniom naukowym. W dodatku wszystkie były komponentami rzeczywistych teorii naukowych, teorii opartych w pewnej mierze na eksperymencie i obserwacji i częściowo wyznaczających wybór i interpretację innych problemów podejmowanych w badaniach. Mimo że wszystkie te eksperymenty dotyczyły elektryczności, a eksperymentatorzy w większości wypadków zaznajamiali się wzajemnie ze swymi pracami, teorie ich odznaczały się najwyżej pokrewieństwem rodzinnym.
[8] Niektóre wczesne teorie, zgodnie z siedemnastowieczną praktyką, za podstawowe zjawiska elektryczne uważały przyciąganie i tarcie. Odpychanie usiłowały one ująć jako zjawisko wtórne, rezultat pewnego rodzaju mechanicznego odbicia. Starały się one również, tak długo, jak to było możliwe, pomijać zarówno analizę, jak systematyczne badania nad nowo odkrytym przez Graya zjawiskiem przewodnictwa elektrycznego. Inni "elektrycy" (używam tu ich własnego określenia) uważali przyciąganie i odpychanie za jednakowo elementarne przejawy elektryczności i odpowiednio do tego modyfikowali swoje teorie i doświadczenia. (Grupa ta była faktycznie bardzo nieliczna - nawet teoria Franklina nigdy w pełni nie wytłumaczyła wzajemnego odpychania się dwu ujemnie naładowanych ciał). Mieli jednak tyleż samo kłopotów co pierwsza grupa z jednoczesnym wyjaśnieniem najprostszych choćby zjawisk związanych z przewodnictwem. Te ostatnie stały się z kolei punktem wyjścia dla jeszcze jednej szkoły, która skłonna była ujmować elektryczność raczej jako fluid zdolny do przepływania przez przewodniki niż jako emanację wypływającą z nieprzewodników. Szkoła ta miała z kolei kłopoty z pogodzeniem swej teorii ze zjawiskami przyciągania i odpychania. Dopiero pracy Franklina i jego bezpośrednich następców zawdzięczamy teorię, która z jednakową niemal łatwością tłumaczyła prawie wszystkie te zjawiska i która mogła wobec tego dostarczyć, i faktycznie dostarczyła, następnym pokoleniom badaczy elektryczności wspólnego paradygmatu.
[9] Poza takimi dziedzinami nauki jak matematyka i astronomia, w których pierwsze trwałe paradygmaty pochodzą z czasów prehistorycznych, oraz takimi jak biochemia, które powstały poprzez podział i nowe połączenie wcześniej już dojrzałych dyscyplin, sytuacje opisane wyżej są historycznie typowe. Mimo iż zmusza mnie to do korzystania z niefortunnych uproszczeń polegających na przyporządkowaniu długim historycznym procesom określonych i może nieco dowolnie wybranych nazwisk (np. Franklina czy Newtona), twierdzę, że podobne zasadnicze sprzeczności cechowały na przykład badania ruchu przed Arystotelesem, statyki przed Archimedesem, ciepła przed Blackiem, chemii przed Boyle'em i Boerhaavem oraz geologii historycznej przed Huttonem. W niektórych działach biologii, np. w genetyce, pierwsze powszechnie uznane paradygmaty są nader świeżej daty. Pozostaje też sprawą otwartą, czy którakolwiek z dyscyplin nauk społecznych w ogóle osiągnęła już jakiś paradygmat. Historia pokazuje, że droga do osiągnięcia takiej jednomyślności w badaniach jest niezwykle trudna.
[10] Historia wskazuje jednak również niektóre przyczyny tych trudności. Tam, gdzie brak paradygmatu lub czegoś, co do tej roli mogłoby pretendować, wydaje się, że wszystkie fakty, które mogą przyczyniać się do rozwoju danej dyscypliny, są równie doniosłe. W rezultacie gromadzenie faktów we wczesnym okresie ma charakter o wiele bardziej przypadkowy niż działalność badawcza, którą znamy z późniejszego okresu rozwoju nauki. Co więcej, tam, gdzie brak bodźców do poszukiwania jakichś szczególnych, trudno dostępnych informacji, zbieranie faktów ogranicza się początkowo do wykorzystywania danych znajdujących się w najbliższym zasięgu. Otrzymywany w ten sposób zespół faktów zawiera zarówno te, które uzyskuje się w wyniku przypadkowych informacji i doświadczeń, jak też i bardziej wyspecjalizowane dane, wykrywane na gruncie takich rzemiosł, jak medycyna, układanie kalendarzy czy metalurgia. Ponieważ rzemiosła te są łatwo dostępnym źródłem faktów, których nie sposób wykryć w sposób przypadkowy, technologia często powoływała do życia nowe dyscypliny wiedzy.
[11] Chociaż ten typ zbierania faktów był nader istotnym czynnikiem powstania wielu ważnych nauk, to jednak badając na przykład encyklopedyczne pisma Pliniusza albo siedemnastowieczne "historie naturalne" Bacona, trudno oprzeć się wrażeniu, że prowadzą one na manowce. Nabieramy wątpliwości, czy literatura taka zasługuje na miano naukowej. Baconowskie "historie" ciepła, barwy, wiatru, górnictwa itd. przepełnione są informacjami niekiedy nawet bardzo wyszukanymi. Stawiają jednak na równi fakty, które później okazują się rewelacjami (np. ciepło mieszania), z innymi (np. ciepło kupy nawozu), które długo jeszcze były zbyt skomplikowane, by mogły być teoretycznie ujęte. W dodatku, wobec tego, że każdy opis musi być niepełny, typowa "historia naturalna" w swych najbardziej szczegółowych sprawozdaniach pomija właśnie te szczegóły, które w przyszłości staną się dla uczonych szczególnie inspirujące. Niemal żadna z dawnych "historii" elektryczności nie wspomina o tym, że skrawki przyciągnięte przez potarty szklany pręt opadają z powrotem. Zjawisko to uważano raczej za mechaniczne niż elektryczne. Co więcej, ponieważ przypadkowy zbieracz faktów rzadko kiedy rozporządza czasem i środkami niezbędnymi do zajęcia postawy krytycznej, "historie naturalne" często zestawiają opisy tego rodzaju co wyżej przytoczony z innymi, np. z ogrzewaniem przez chłodzenie, których absolutnie nie jesteśmy w stanie sprawdzić. Tylko zupełnie sporadycznie, jak na przykład w przypadku dawnej statyki, dynamiki i optyki geometrycznej, zdarzało się, że fakty zbierane przy tak słabym oparciu o teorię przemawiały w sposób dostatecznie jasny, by wyłonić się z nich mógł pierwszy paradygmat.
[12] W takich właśnie okolicznościach powstawały szkoły typowe dla pierwszych stadiów rozwoju nauki. Nie można interpretować żadnej "historii naturalnej", nie biorąc pod uwagę uwikłanych w nią przekonań teoretycznych i metodologicznych, stanowiących podstawę selekcji, oceny i krytyki. O ile zespół tych przekonań nie tkwi implicite w przedstawionym zbiorze faktów - w takim wypadku nie mielibyśmy do czynienia z samymi tylko faktami - musi być zaczerpnięty z zewnątrz - czy to z jakiegoś systemu metafizyki, czy z jakiejś innej nauki, czy też z wydarzeń osobistych lub historycznych. Nic dziwnego więc, że we wczesnych stadiach rozwoju nauk różni ludzie, mając do czynienia z tym samym zakresem faktów, lecz zazwyczaj nie ze wszystkimi tymi samymi indywidualnymi zjawiskami, opisywali je i interpretowali w rozmaity sposób. Zastanawiające jest - a w takiej mierze zachodzi to chyba tylko w nauce - że te początkowe rozbieżności później stopniowo znikają.
[13] Bo istotnie, najpierw maleją, a później, jak się zdaje, znikają raz na zawsze. Co więcej, nikną przeważnie dlatego, że triumfuje jedna ze szkół przedparadygmatycznych, która dzięki swym charakterystycznym przekonaniom i uprzedzeniom kładzie nacisk tylko na pewną część zbyt obszernych wyjściowych informacji; Doskonałym przykładem będą tutaj ci badacze elektryczności, którzy traktowali ją jako fluid i z tej racji zwracali szczególną uwagę na zjawisko przewodnictwa. Opierając się na tym przekonaniu, które coraz trudniej było pogodzić z wieloma zjawiskami przyciągania i odpychania, kilku z nich wpadło na pomysł gromadzenia fluidu elektrycznego w naczyniach. Pośrednim owocem ich wysiłków był wynalazek butelki lejdejskiej. Na taki pomysł nie mógł wpaść ten, kto bada przyrodę w sposób przypadkowy. A jednak co najmniej dwóch badaczy, zupełnie niezależnie od siebie, doszło do niego w początku lat czterdziestych XVIII wieku. Niemal od początku swych badań nad elektrycznością Franklin starał się przede wszystkim wytłumaczyć dziwne i rzeczywiście rewelacyjne działanie tego przyrządu. Jego ważkie i trafne argumenty przyczyniły się do tego, że opracowana przezeń teoria stała się paradygmatem, choć sama nie mogła jeszcze zdać sprawy ze wszystkich znanych przypadków elektrycznego odpychania. Aby teoria mogła być uznana za paradygmat, musi wydawać się lepsza od konkurencyjnych, ale nie musi tłumaczyć - i faktycznie nigdy nie tłumaczy - wszystkich faktów, do których można ją odnieść.
[14] Paradygmat Franklina stał się później dla wszystkich badaczy elektryczności tym, czym była koncepcja elektryczności jako fluidu dla grupy jej zwolenników. Wskazywał on, jakie doświadczenia warto podejmować, a jakimi zajmować się nie warto, gdyż ujawnić mogą tylko bądź uboczne, bądź zbyt złożone zjawiska elektryczne. Z tym tylko, że paradygmat ten o wiele skuteczniej spełniał tę funkcję. Po części dlatego, że wygaśnięcie sporów między poszczególnymi szkołami położyło kres stałemu przeformułowywaniu podstaw teoretycznych, częściowo zaś z tej racji, że uczeni, przekonani o słuszności obranej drogi, ośmielili się podejmować bardziej precyzyjne, wyspecjalizowane i szeroko zakrojone prace. Zwolnieni z obowiązku rozpatrywania wszystkich zjawisk elektrycznych łącznie i każdego z osobna, badacze elektryczności mogli się zająć bardziej szczegółowymi badaniami, projektując w tym celu specjalną aparaturę i korzystając z niej w sposób bardziej wytrwały i systematyczny niż kiedykolwiek przedtem. Zarówno zbieranie faktów, jak budowanie teorii stało się działalnością ściśle ukierunkowaną przez przyjęte zasady. Równocześnie badania nad elektrycznością stawały się coraz bardziej owocne i skuteczne, potwierdzając tym samym słuszność metodologicznego aforyzmu Franciszka Bacona: "Prawdę łatwiej wyłowić z błędów niż z zamętu".
[15] Istotą tych ukierunkowanych, czyli opartych na paradygmacie, badań zajmiemy się w następnym rozdziale. Na razie jednak musimy pokrótce rozważyć, w jaki sposób wyłonienie się paradygmatu wpływa, na strukturę grupy zajmującej się badaniem danej dziedziny zjawisk. Kiedy w naukach przyrodniczych po raz pierwszy indywidualnie lub grupowo osiągnięta zostaje synteza zdolna przyciągnąć zainteresowanie następnych pokoleń badaczy, następuje stopniowy upadek dawnych szkół. Po części jest to następstwem przyjęcia przez ich zwolenników nowego paradygmatu. Zawsze pozostaje jednak pewna ilość badaczy wiernych temu czy innemu dawnemu poglądowi. Zostają oni po prostu skreśleni z grona uznanych specjalistów, a prace ich są ignorowane. Nowy paradygmat narzuca nowe, bardziej restryktywne określenie przedmiotu badań danej dziedziny. Wszyscy, którzy nie chcą lub nie mogą się do niego przystosować, działać muszą w izolacji lub związać się z jakąś inną grupą. Historycznie rzecz biorąc, często pozostawali oni po prostu na wydziałach filozofii, z których wyłoniło się tak wiele specjalistycznych gałęzi nauki. Jak wynika z powyższego, akceptacja paradygmatu jest właśnie tym czynnikiem, który przekształci uprawiane przez jakąś grupę badania przyrody w zawód czy - co najmniej - w odrębną dyscyplinę! Przyjęcie w jakiejś dziedzinie nauki (ale nie w takich jak medycyna, technologia i prawo, których główną racją bytu jest płynące z zewnątrz zapotrzebowanie społeczne) pierwszego wspólnego paradygmatu wiązało się zwykle z powstawaniem wyspecjalizowanych towarzystw naukowych, pojawianiem się fachowych czasopism oraz przyznaniem jej odrębnego miejsca w programach nauczania. Przynajmniej tak się dzieje od stu pięćdziesięciu lat, od kiedy ukształtował się wzorzec naukowej specjalizacji, po nasze czasy, w których ugruntował się jej prestiż.
[16] Sztywniejsze określenie grupy naukowej ma jeszcze inne konsekwencje. Poszczególni uczeni, uznając dany paradygmat, nie muszą już w swoich głównych pracach podejmować prób budowania od nowa całej dziedziny wiedzy, zaczynać od podstawowych zasad i usprawiedliwiać każdego z wprowadzanych pojęć. Mogą to pozostawić autorom podręczników. Kiedy istnieje podręcznik, uczony może rozpocząć swą pracę w tym punkcie, w którym kończy się wiedza podręcznikowa. Dzięki temu może skupić całą swoją uwagę na najsubtelniejszych i najbardziej niezwykłych aspektach zjawisk przyrody interesujących jego grupę. Z tą chwilą zaczyna się zmieniać forma, w jakiej zdaje on sprawę z własnych badań; ewolucja tych form nie jest wprawdzie dostatecznie zbadana, ale jej skutki są dziś dla wszystkich widoczne, a dla wielu osób przytłaczające. Wyników swych nie będzie już przedstawiał w książkach tego typu, co Experiments... on Electricity (Doświadczenia... w dziedzinie elektryczności) Franklina czy Pochodzenie gatunków (Origin of Species) Darwina, adresowanych do każdego, kto interesuje się daną tematyką. Będą się one natomiast ukazywać w formie krótkich artykułów przeznaczonych dla kolegów specjalistów, tj. dla ludzi, co do których można założyć, że znany im jest wspólny paradygmat, i którzy rzeczywiście jako jedyni są w stanie czytać tego typu publikacje.
[17] Dzisiaj w naukach przyrodniczych książki są bądź podręcznikami, bądź retrospektywnymi refleksjami związanymi z takim czy innym aspektem życia naukowego. Uczony, który książkę taką pisze, bardziej naraża swą reputację na szwank, niż ją umacnia. Tylko w dawniejszych, przedparadygmatycznych stadiach rozwoju nauk przyrodniczych stosunek między napisaniem książki a wartością naukowych osiągnięć był taki, jaki w innych dziedzinach twórczych pozostał po dzień dzisiejszy. I tylko w tych dziedzinach, w których książka - wraz z artykułami czy bez nich - pozostaje nadal środkiem naukowego komunikowania się, profesjonalizacja jest wciąż jeszcze na tyle luźna, że laik może liczyć, iż nadąży za postępem, zapoznając się z oryginalnymi relacjami badaczy. Zarówno w matematyce, jak w astronomii doniesienia o pracach badawczych przestały być zrozumiałe dla przeciętnie wykształconego odbiorcy już w starożytności. W dynamice stały się one podobnie wyspecjalizowane w późnym średniowieczu; odzyskały swą zrozumiałość dla ogółu tylko na krótki okres w wieku XVII, kiedy nowy paradygmat zastąpił dawny, kierujący badaniami średniowiecznymi. Prace dotyczące elektryczności wymagały objaśniania ich laikom od końca wieku XVIII, a większość innych dziedzin nauk fizycznych przestała być zrozumiała dla każdego w wieku XIX. W ciągu tych samych dwustu lat podobne zjawiska można zaobserwować w różnych dziedzinach badań biologicznych, a współcześnie zachodzą one zapewne w niektórych naukach społecznych. Mimo że przywykliśmy do całkowicie uzasadnionych lamentów nad pogłębianiem się przepaści między uczonymi reprezentującymi różne dziedziny wiedzy, zbyt mało uwagi poświęcamy zasadniczym zależnościom między pojawianiem się tej przepaści a wewnętrznym mechanizmem postępu nauki.
[18] Już od czasów prehistorycznej starożytności jedna dziedzina wiedzy po drugiej przekraczała w swym rozwoju punkt, który dzieli jej dzieje - mówiąc słowami historyka - na prehistorię i historię właściwą. Te przejścia rzadko kiedy zachodziły tak nagle i jednoznacznie, jakby to mogło wynikać z moich, z konieczności schematycznych, rozważań. Ale nigdy też nie miały one charakteru tak stopniowego, by można było uznać, że rozciągają się na cały okres rozwoju dyscypliny, w której miały miejsce. Autorzy traktujący o elektryczności w pierwszym czterdziestoleciu XVIII wieku dysponowali dużo większą ilością informacji o zjawiskach elektrycznych niż ich szesnastowieczni poprzednicy. W ciągu następnych pięćdziesięciu lat po roku 1740 do informacji tych dodano niewiele nowego. Jednak jeśli chodzi o sprawy podstawowe, wydaje się, że to, co w ostatnich trzydziestu latach XVIII wieku pisali o elektryczności Cavendish, Coulomb i Volta, bardziej odbiega od prac Graya, Du Faya i nawet Franklina niż poglądy tych wczesnoosiemnastowiecznych badaczy od przekonań ich szesnastowiecznych poprzedników. Gdzieś między rokiem 1740 a 1780 badacze elektryczności mogli po raz pierwszy nabrać przekonania, że ich dziedzina opiera się na solidnych fundamentach. Przerzucili się wówczas na bardziej szczegółowe i zawiłe zagadnienia. Coraz częściej ogłaszali uzyskiwane wyniki w postaci artykułów przeznaczonych dla specjalistów, a nie w książkach adresowanych do szerokiego kręgu wykształconych czytelników. Osiągnęli to, co astronomia w starożytności, nauka o ruchu w wiekach średnich, optyka fizyczna w końcu wieku XVII, a geologia historyczna w początkach XIX stulecia: zdobyli paradygmat, który był w stanie pokierować badaniami całej grupy. Jeśli pominąć możliwości, jakie daje wiedza ex post, trudno o lepsze kryterium, które w tak jasny sposób rozstrzygałoby o tym, czy dana dziedzina jest nauką.
[1] Na czym polegają zatem te bardziej wyspecjalizowane i bardziej profesjonalne badania, na jakie pozwala wyłonienie się wspólnego dla jakiejś grupy paradygmatu? Jeśli paradygmat wiąże się z definitywnym rozstrzygnięciem badanych problemów, to jakie zagadnienia pozostawia on zjednoczonej na jego gruncie szkole do rozwiązania? Pytania te staną się jeszcze ważniejsze, gdy zdamy sobie sprawę, że pod pewnym względem stosowane dotąd terminy mogą być mylące. Przez "paradygmat" zwykło się rozumieć przyjęty model czy wzorzec. Ten właśnie odcień znaczeniowy pozwolił mi - z braku lepszego określenia - zastosować to słowo w niniejszej pracy. Wkrótce jednak ujrzymy, to znaczenie słów "model", "wzorzec" niezupełnie odpowiada treści, jaką wkłada się zazwyczaj w pojęcie paradygmatu. Na przykład w gramatyce amo, amas, amat jest paradygmatem, gdyż stanowi wzorzec koniugacji wielu innych czasowników łacińskich, według którego tworzy się np. formy laudo, laudas, laudat. W tym standardowym zastosowaniu funkcjonowanie paradygmatu polega na tym, że pozwala on powielać przykłady, z których każdy mógłby w zasadzie zająć jego miejsce. W nauce natomiast paradygmat rzadko kiedy jest przedmiotem takiego odwzorowania. Stanowi on raczej, podobnie jak decyzja prawna w prawie zwyczajowym, przedmiot dalszego uszczegółowienia i uściślenia w nowych lub trudniejszych warunkach.
[2] By to zrozumieć, musimy sobie uzmysłowić, jak bardzo ograniczony zarówno pod względem swego zakresu, jak i ścisłości może być nowo powstały paradygmat. Paradygmaty uzyskują swój status dzięki temu, że okazują się bardziej skuteczne od swych konkurentów w rozwiązywaniu niektórych problemów uznanych przez grono praktyków za palące. Nie znaczy to jednak, że paradygmaty są całkowicie skuteczne, gdy chodzi o rozwiązanie pojedynczego problemu czy, tym bardziej, większej ich ilości. Sukces paradygmatu - czy to będzie Arystotelesowska analiza ruchu, Ptolemeuszowe obliczenia położeń planet, zastosowanie wagi przez Lavoisiera czy też matematyzacja pola elektromagnetycznego przez Maxwella - to początkowo przede wszystkim obietnica sukcesu, na jaki liczy się, mając do dyspozycji tylko wybrane i niepełne przykłady. Nauka normalna urzeczywistnia tę obietnicę, rozszerzając wiedzę o faktach, które dany paradygmat ukazuje jako szczególnie ważne, poszerzając zakres zgodności między tymi faktami a formułowanymi na gruncie paradygmatu przewidywaniami oraz uściślając sam paradygmat.
[3] Spośród ludzi, którzy nie zajmują się uprawianiem którejś z dojrzałych nauk, tylko niewielu zdaje sobie sprawę z tego, jak szerokie pole dla tego rodzaju porządkowych prac pozostawia jeszcze paradygmat i jak fascynująca może być to praca. I to właśnie wymaga zrozumienia. Większość uczonych poświęca się w swojej działalności zawodowej pracom porządkowym. One właśnie składają się na to, co nazywam nauką normalną. Jeśli poddać je dokładniejszej analizie, czy to w aspekcie historycznym, czy w ich współczesnej postaci, odnosi się wrażenie, że polegają one na próbie wtłoczenia przyrody do gotowych już i względnie sztywnych szufladek, których dostarcza paradygmat. Celem nauki normalnej nie jest bynajmniej szukanie nowych rodzajów zjawisk; raczej nie dostrzega ona tych, które nie mieszczą się w jej gotowych szufladkach. Również uczeni nie starają się zazwyczaj wynajdywać nowych teorii i są często nietolerancyjni wobec tych, które sformułowali inni. Badania w ramach nauki normalnej dążą do uszczegółowienia tych zjawisk i teorii, których dostarcza paradygmat.
[4] Są to, być może, wady. Obszary objęte badaniami nauki normalnej są oczywiście bardzo ograniczone; badania te mają niezwykle zawężony horyzont. Ale okazuje się, że restrykcje zrodzone z wiary w paradygmat mają zasadnicze znaczenie dla rozwoju nauki. Paradygmat koncentruje uwagę uczonych na niewielkiej liczbie specjalistycznych zagadnień, pozwala im zbadać pewien wycinek przyrody w tak szczegółowy i dogłębny sposób, jaki bez niego trudno byłoby sobie nawet wyobrazić. Nauka normalna wyposażona jest wszakże w "wewnętrzny mechanizm", który rozluźnia restrykcje wiążące prace badawcze, gdy tylko będący ich źródłem paradygmat przestaje być skuteczny. Wówczas uczeni zmieniają tok postępowania i zmienia się charakter problematyki badawczej. Przedtem jednak, w okresie sukcesów paradygmatu, rozstrzygnięcie znajdują problemy, których poszczególni uczeni nawet nie podejrzewaliby i których nigdy by nie podjęli, gdyby nie polegali na paradygmacie. Okazuje się przy tym, że zawsze przynajmniej jakaś część tych osiągnięć zachowuje trwałą wartość.
[5] Chcąc lepiej wyjaśnić, co rozumiem przez badania normalne, czyli oparte na paradygmacie, postaram się wymienić i zilustrować problemy, jakimi zasadniczo zajmuje się nauka normalna. Dla wygody pominę na razie działalność teoretyczną i zacznę od gromadzenia faktów, tj. od eksperymentów i obserwacji, o których uczeni donoszą w czasopismach specjalistycznych w celu informowania swoich kolegów o wynikach badań. Jakich aspektów przyrody doniesienia te zazwyczaj dotyczą? Co determinuje ich wybór? Skoro zaś większość naukowych obserwacji wymaga wiele czasu, wyposażenia i pieniędzy, to jakie są motywy skłaniające uczonego, by uparcie poszukiwał rozwiązania wybranego problemu?
[6] Wydaje mi się, że normalnie tego typu badania naukowe skupiają się na trzech klasach faktów, przy czym nie zawsze i nie na stałe da się je odróżnić. Po pierwsze, chodzi o tę klasę faktów, które - jak to wykazał paradygmat - szczególnie dobitnie odsłaniają istotę rzeczy. Wykorzystując je do rozwiązywania problemów, paradygmat każe je badać zarówno z większą dokładnością, jak i w bardziej zróżnicowanych okolicznościach. W różnych okresach te ważne badania empiryczne dotyczyły: w astronomii - położeń i wielkości gwiazd, okresów zaćmień; w fizyce - ciężarów właściwych i ściśliwości materiałów, długości fal i natężenia widma, przewodnictwa elektrycznego i potencjałów styku; w chemii - składu i równoważników ciężarowych, punktów wrzenia i kwasowości roztworów, wzorów strukturalnych i aktywności optycznej związków. Próby uściślenia i poszerzenia wiedzy o tego rodzaju faktach zajmują znaczną część miejsca w literaturze nauk empirycznych. W tym celu konstruowano coraz to nowe, skomplikowane, specjalne przyrządy, których projektowanie, budowanie i wykorzystanie wymagało najwyższego talentu, wiele czasu i znacznych środków finansowych. Synchrotrony i radioteleskopy są tylko najnowszymi przykładami środków, do których odwołują się eksperymentatorzy, jeśli paradygmat daje im pewność, że fakty, których poszukują, są doniosłe. Od czasów Tychona Brahe do E. O. Lawrence'a niektórzy uczeni uzyskiwali sławę nie dzięki nowości swych odkryć, lecz dzięki dokładności, wiarygodności i zakresowi zastosowania metod, które opracowali z myślą o ponownym ujęciu znanych już uprzednio rodzajów faktów.
[7] Druga często występująca, choć węższa klasa badań eksperymentalnych dotyczy tych faktów, które - choć same przez się są często mało interesujące - mogą być bezpośrednio porównywane z prognozami formułowanymi na gruncie teorii paradygmatycznych. Wkrótce, kiedy przejdę od omawiania problemów doświadczalnych nauki normalnej do jej zagadnień teoretycznych, będziemy mogli się przekonać, że niewiele jest takich obszarów, na których teoria naukowa, zwłaszcza jeśli jest znacznie zmatematyzowana, może być bezpośrednio konfrontowana z przyrodą. Nawet dziś znane są tylko trzy grupy faktów, za pomocą których sprawdzać można ogólną teorię względności Einsteina. Co więcej, nawet w tych dziedzinach, w których możliwość taka istnieje, często niezbędne jest stosowanie zarówno teoretycznych, jak i doświadczalnych przybliżeń, co znacznie ogranicza zgodność uzyskiwanych wyników z teoretycznym przewidywaniem. Zmniejszanie tych rozbieżności lub znajdowanie nowych obszarów, na których można by taką zgodność wykazać, jest ciągłym wyzwaniem dla umiejętności i wyobraźni eksperymentatorów i obserwatorów. Specjalne teleskopy mające potwierdzić kopernikańską prognozę rocznej paralaksy, maszyna Atwooda po raz pierwszy zaprojektowana sto lat po ukazaniu się Principiów, aby udowodnić drugie prawo Newtona, aparatura Foucaulta pomyślana w celu wykazania, że prędkość światła jest większa w powietrzu niż w wodzie, lub gigantyczne liczniki scyntylacyjne, które miały wykazać istnienie neutrina - te i inne tego rodzaju przyrządy i aparaty pokazują, jak ogromnego wysiłku i pomysłowości było trzeba, aby uzyskiwać coraz większą zgodność teorii z przyrodą. Te właśnie dążenia do wykazania zgodności są drugim rodzajem normalnych badań eksperymentalnych; są one zależne od paradygmatu w sposób jeszcze bardziej oczywisty niż badania pierwszego rodzaju. Istnienie paradygmatu wyznacza problem do rozwiązania; często projekt aparatu przeznaczonego do rozwiązania problemu jest bezpośrednio oparty na teorii paradygmatycznej. Na przykład bez Newtonowskich Principiów pomiary za pomocą maszyny Atwooda pozbawione byłyby jakiegokolwiek znaczenia.
[8] Trzecia i ostatnia, jak sądzę, klasa eksperymentów nauki normalnej, mających na celu zbieranie faktów, obejmuje uszczegółowienie teorii paradygmatycznej, rozwiązywanie niektórych pozostałych jej dwuznaczności i rozwiązywanie problemów, na które poprzednio zwracano tylko uwagę. Ta klasa doświadczeń wydaje się najważniejsza, a dokładniejsze jej omówienie wymaga wyróżnienia w niej kilku podklas. W naukach bardziej matematycznych niektóre z doświadczeń mających na celu uszczegółowienie teorii służą do wyznaczania stałych fizycznych. Dzieło Newtona wskazywało na przykład, że siła przyciągania działająca między dwiema jednostkowymi masami umieszczonymi w jednostkowej odległości jest taka sama dla wszystkich rodzajów materii i wszystkich położeń we wszechświecie. Jednakże problemy, którymi zajmował się sam Newton, mogły zostać rozwiązane nawet bez szacunku wartości tego przyciągania - uniwersalnej stałej grawitacyjnej. I przez sto lat po ukazaniu się Principiów nie opracowano nawet projektu przyrządu umożliwiającego taki pomiar. Słynny pomiar Cavendisha w latach dziewięćdziesiątych XVIII wieku nie był też bynajmniej ostatni. Również po nim, ze względu na zasadnicze znaczenie stałej grawitacyjnej w fizyce, wielu wybitnych eksperymentatorów wciąż na nowo próbowało uściślić jej wartość. Inne przykłady ciągłych wysiłków tego samego rodzaju to ustalanie wartości jednostek astronomicznych, liczby Avogadra, współczynnika Joule'a, ładunku elektronu itd. Gdyby teoria paradygmatyczna nie precyzowała problemu i nie gwarantowała, iż istnieje dlań rozwiązanie, wiele tych pracochłonnych zagadnień nie byłoby w ogóle podjętych, a żadne nie zostałoby opracowane do końca.
[9] Wysiłki zmierzające do uszczegółowienia paradygmatu nie ograniczają się jednak do określania stałych uniwersalnych. Celem ich może być równie dobrze formułowanie praw ilościowych. Prawo Boyle'a ustalające zależność między ciśnieniem i objętością gazu, prawo przyciągania elektrostatycznego Coulomba, formuła Joule'a wiążąca wytwarzane ciepło z oporem elektrycznym i prądem - wszystkie one należą do tej właśnie kategorii. Być może to, że warunkiem koniecznym wykrywania tego rodzaju praw jest paradygmat, nie wydaje się zbyt oczywiste. Często słyszy się, że wykryto je w wyniku przeprowadzania analizy jakichś pomiarów podejmowanych dla nich samych, bez żadnej podbudowy teoretycznej. Historia jednak nie świadczy na rzecz takich skrajnie Baconowskich metod. Doświadczenia Boyle'a były nie do pomyślenia (a gdyby je nawet podjęto, inaczej by je zinterpretowano albo też wcale nie zostałyby zinterpretowane) dopóty, dopóki nie uznano powietrza za sprężysty fluid, do którego można było stosować wszystkie poprzednio wypracowane pojęcia hydrostatyki. Coulomb zawdzięczał sukces skonstruowanej przez siebie specjalnej aparaturze do pomiaru siły między ładunkami punktowymi. (Ci badacze, którzy poprzednio mierzyli siły elektryczne, posługując się zwykłymi wagami szalkowymi itp., w ogóle nie wykryli żadnej - ani regularnej, ani prostej - zależności). Po to jednak, aby zaprojektować tę aparaturę, trzeba było uprzednio wiedzieć, że każda cząstka elektrycznego fluidu oddziałuje na odległość na wszystkie pozostałe. Coulomb poszukiwał właśnie takiej siły między cząstkami - jedynej, jaką można było potraktować jako prostą funkcję odległości. Również doświadczenia Joule'a służyć mogą za ilustrację, jak prawa ilościowe formułowane są w drodze uszczegółowienia paradygmatu. W gruncie rzeczy związek między jakościowym paradygmatem a ilościowym prawem jest tak ogólny i ścisły, że od czasów Galileusza prawa takie trafnie odgadywano na gruncie paradygmatu na lata przed tym, nim możliwe było zaprojektowanie odpowiednich przyrządów do pomiarów.
[10] Wreszcie istnieje trzeci rodzaj doświadczeń zmierzających do uszczegółowienia paradygmatu. Bardziej niż inne przypominają one eksplorację, a były szczególnie rozpowszechnione w tych okresach i w tych naukach, które bardziej interesują się jakościowymi niż ilościowymi aspektami regularności przyrody. Często bywa tak, że paradygmat stworzony dla jakiegoś zespołu zjawisk staje się wieloznaczny przy próbach zastosowania go do innych, ściśle związanych z tamtymi. Aby wybrać jedną z alternatywnych dróg stosowania paradygmatu w nowym obszarze, niezbędne są doświadczenia. Na przykład paradygmat związany z teorią cieplika miał zastosowanie do zjawisk ogrzewania i chłodzenia przez mieszanie i zmianę stanu. Ciepło można jednak wyzwalać i absorbować na wiele innych sposobów - np. poprzez reakcje chemiczne, przez tarcie, sprężanie lub absorpcję gazu - i do każdego z tych zjawisk teorię można było stosować w rozmaity sposób. Gdyby na przykład próżnia miała pojemność cieplną, ogrzewanie w wyniku sprężania można by wyjaśnić jako rezultat mieszania się gazu z próżnią. Mogłoby ono również następować wskutek zmiany ciepła właściwego gazu w wyniku zmiany ciśnienia. Istniały i inne ewentualności. Aby opracować te rozmaite możliwości i wybrać właściwą, przeprowadzono mnóstwo doświadczeń. Wszystkie oparte były na teorii cieplika jako na paradygmacie. Korzystano z niego zarówno do projektowania doświadczeń, jak do interpretacji ich wyników. Od momentu gdy odkryto zjawisko ogrzewania przez sprężanie, wszystkie dalsze doświadczenia w tej dziedzinie były w ten sposób zależne od paradygmatu. Gdy dane jest określone zjawisko, jak inaczej można by dobrać odpowiedni do jego wyjaśnienia eksperyment?
[11] Przejdźmy teraz do teoretycznych zagadnień nauki normalnej, które da się sklasyfikować podobnie jak zagadnienia doświadczalne. Pewna, ale raczej niewielka część normalnych zabiegów teoretycznych polega na wyprowadzaniu prognoz z istniejących już teorii. Przewidywania zjawisk astronomicznych, obliczenia charakterystyk soczewek oraz krzywych rozchodzenia się fal radiowych - oto przykłady problemów tego rodzaju. Uczeni jednak traktują to zazwyczaj jako czarną robotę, którą wykonywać powinni inżynierowie i technicy. W poważnych czasopismach naukowych rzadko kiedy ukazują się doniesienia o tego rodzaju pracach. Czasopisma te zawierają jednak wiele rozważań teoretycznych nad problemami, które człowiekowi nie zajmującemu się nauką wydają się niemal identyczne z tamtymi problemami. Rozważań tych nie podejmuje się ze względu na samodzielną wartość wypływających z nich prognoz, lecz po to, by móc bezpośrednio skonfrontować te prognozy z doświadczeniem. Ich celem jest wykrycie nowych zastosowań paradygmatu bądź uściślenie dawniejszych.
[12] Potrzeba tego rodzaju badań rodzi się z ogromnych trudności, jakie często się spotyka, poszukując punktów styku między teorią a rzeczywistością. Kłopoty te można krótko zilustrować na przykładzie historii dynamiki po Newtonie. Na początku XVIII stulecia uczeni, którzy przyjęli paradygmat zawarty w Principiach, sądzili, że wypływające z niego wnioski mają walor uniwersalny, i jak najbardziej mieli do tego podstawy. Żadna ze znanych z historii nauki prac nie stwarzała takich możliwości rozszerzenia zakresu i zarazem uściślenia badań. Dla ciał niebieskich Newton wyprowadził keplerowskie prawa ruchu planet oraz wytłumaczył niektóre zaobserwowane odchylenia od nich w ruchu Księżyca. Dla Ziemi wyprowadził wnioski z niektórych nie powiązanych obserwacji wahadła i przypływów. Za pomocą dodatkowych założeń ad hoc zdołał również wyprowadzić prawo Boyle'a i ważny wzór na prędkość dźwięku w powietrzu. Biorąc pod uwagę stan nauki w tym czasie, mamy prawo sądzić, że dowody te musiały wywołać ogromne wrażenie. Jednakże mając na uwadze zamierzoną ogólność praw Newtona, trzeba stwierdzić, że liczba tych zastosowań była niewielka (wymieniliśmy prawie wszystkie). Co więcej, w porównaniu z tym, co korzystając z tych praw potrafi osiągnąć dziś każdy student kończący fizykę, zastosowania opracowane przez Newtona nie były zbyt ścisłe. Wreszcie Principia miały się w założeniu stosować przede wszystkim do problemów mechaniki niebieskiej. Nie było bynajmniej jasne, jak zastosować je do warunków ziemskich, zwłaszcza w zagadnieniu ruchu wymuszonego. W każdym razie zagadnienia mechaniki ziemskiej były podejmowanie już wcześniej i z powodzeniem rozwiązywane za pomocą całkiem innego zbioru technik, wypracowanych przez Galileusza i Huyghensa, a rozwiniętych na Kontynencie w XVIII wieku przez Bernoullich, d'Alemberta i wielu innych. Przypuszczalnie dałoby się wykazać, że ich techniki i techniki z Principiów są szczególnymi przypadkami jakiegoś ogólniejszego sformułowania, ale przez pewien czas nikt nie wiedział, jak to zrobić.
[13] Ograniczmy na chwilę nasze rozważania do kwestii ścisłości. Omówiliśmy już wyżej doświadczalny aspekt tego zagadnienia. Do uzyskania danych niezbędnych do konkretnych zastosowań paradygmatu newtonowskiego potrzebna była specjalna aparatura, taka jak przyrząd Cavendisha, maszyna Atwooda czy też ulepszone teleskopy. Podobne kłopoty z uzyskaniem zgodności [między teorią a doświadczeniem] istniały od strony teoretycznej. Na przykład stosując swe prawa do wahadła, Newton zmuszony był założyć, że cała masa ciężarka skupiona jest w jednym punkcie. Było to niezbędne do jednoznacznego określenia długości wahadła. Jego twierdzenia, wyjąwszy te o charakterze hipotetycznym i wstępnym, nie uwzględniały również skutków oporu powietrza. Były to trafne fizyczne przybliżenia. Wszelako jako przybliżenia ograniczały oczekiwaną zgodność między prognozami Newtona a rzeczywistymi wynikami doświadczeń. Podobne trudności występowały - i to jeszcze wyraźniej - przy stosowaniu teorii Newtona do zjawisk niebieskich. Proste ilościowe obserwacje teleskopowe wskazywały, że planety nie stosują się ściśle do praw Keplera, co pozostawało w zgodzie z teorią Newtona. Aby wyprowadzić te prawa, Newton zmuszony był pominąć wszystkie oddziaływania grawitacyjne z wyjątkiem przyciągania między poszczególnymi planetami a Słońcem. Wobec tego zaś, że planety oddziałują grawitacyjnie również między sobą, można było liczyć tylko na przybliżoną zgodność między teorią a obserwacjami teleskopowymi.
[14] Uzyskana zgodność była więcej niż zadowalająca. Pominąwszy niektóre problemy mechaniki ziemskiej, żadna inna teoria nie mogła tego zapewnić nawet w części. Nikt z tych uczonych, którzy kwestionowali teorię Newtona, nie czynił tego ze względu na jej ograniczoną zgodność z wynikami eksperymentów i obserwacji. Jednakże istniejące tu niezgodności stawiały przed następcami Newtona wiele fascynujących problemów teoretycznych. Techniki teoretyczne były na przykład niezbędne do ujęcia ruchu więcej niż dwóch przyciągających się ciał oraz do zbadania stabilności zakłóconych orbit. Zagadnienia tego rodzaju zajmowały najwybitniejszych matematyków europejskich w wieku XVIII i w pierwszej połowie wieku XIX. Niektóre z najświetniejszych prac Eulera, Lagrange'a, Laplace'a i Gaussa dotyczyły zagadnień, które trzeba było rozwiązać, aby uzyskać większą zgodność paradygmatu Newtonowskiego z obserwacją nieba. Wielu z tych uczonych pracowało zarazem nad stworzeniem aparatu matematycznego potrzebnego w zastosowaniach teorii, jakich w ogóle nie rozważał ani Newton, ani ówczesna kontynentalna szkoła zajmująca się mechaniką. W rezultacie powstała ogromna literatura i wypracowano niezwykle skuteczne metody matematyczne znajdujące zastosowanie w hydrodynamice i w zagadnieniach związanych z drganiem strun. Te osiągnięcia w dziedzinie zastosowań są zapewne najwybitniejszymi sukcesami nauki osiemnastowiecznej. Innych przykładów dostarczyć może badanie postparadygmatycznego okresu w rozwoju termodynamiki, falowej teorii światła, teorii elektromagnetycznej i wszystkich innych dziedzin nauki, w których fundamentalne prawa miały charakter ilościowy. Przynajmniej w naukach bardziej zmatematyzowanych większość prac teoretycznych dotyczy analogicznych zagadnień.
[15] Większość, ale nie wszystkie. Nawet w naukach zmatematyzowanych istnieją również problemy teoretyczne związane z uszczegółowianiem paradygmatu; w okresach, w których rozwój naukowy jest przede wszystkim rozwojem jakościowym, problemy te odgrywają dominującą rolę. Niektóre z nich - zarówno w naukach o charakterze bardziej jakościowym, jak i w tych o charakterze bardziej ilościowym - związane są po prostu z wyjaśnianiem teorii poprzez jej przeformułowywanie. Na przykład nie zawsze łatwo było stosować Principia - po części wskutek tego, że będąc pierwszym sformułowaniem teorii, musiały być w pewnym stopniu niedopracowane, a częściowo dlatego, że w wielu przypadkach ich istotny sens wyłaniał się dopiero w trakcie stosowania. W każdym razie dla wielu zastosowań w mechanice ziemskiej pozornie nie związany z koncepcją Newtona zbiór technik kontynentalnych wydawał się znacznie efektywniejszy. Dlatego wielu najwybitniejszych europejskich fizyków-teoretyków - od Eulera i Lagrange'a w wieku XVIII, do Hamiltona, Jacobiego i Hertza w wieku XIX - wciąż usiłowało tak przeformułować teorię Newtona, aby uzyskać system równoważny, lecz bardziej zadowalający pod względem logicznym i estetycznym. To znaczy, chcieli oni nadać i jawnym, i ukrytym wnioskom wypływającym z Principiów oraz mechaniki kontynentalnej spójniejszą postać logiczną, tak by można je było stosować w sposób bardziej jednorodny i zarazem bardziej jednoznaczny do nowo podejmowanych problemów mechaniki.
[16] Podobne przeformułowania paradygmatu występowały stale we wszystkich naukach, w większości wypadków jednak prowadziły one do bardziej zasadniczych zmian w jego treści niż przytoczone wyżej przeformułowania Principiów. Zmiany takie są wynikiem badań empirycznych mających na celu uszczegółowienie paradygmatu, o czym mówiliśmy poprzednio. Potraktowanie ich jako empirycznych było więc w pewnej mierze arbitralne. Problemy związane z uszczegółowieniem paradygmatu, bardziej niż jakikolwiek inny rodzaj badań normalnych, mają charakter teoretyczny i eksperymentalny zarazem. Ilustrują to wyżej przytoczone przykłady. Zanim Coulomb mógł zbudować swe przyrządy pomiarowe, musiał korzystać z teorii elektryczności, aby je zaprojektować. Rezultaty tych pomiarów były zarazem uściśleniem teorii. Podobnie uczeni, którzy projektowali doświadczenia mające na celu rozstrzygnięcie pomiędzy różnymi teoriami ogrzewania przez sprężanie, byli z reguły autorami tych teorii, które porównywali ze sobą. Praca ich miała zarówno charakter doświadczalny, jak teoretyczny, a jej rezultatem było nie tylko uzyskanie nowych informacji, lecz i uściślenie paradygmatu w wyniku eliminacji dwuznaczności, jakie zawierał w swej pierwotnej postaci. W wielu dziedzinach nauki znaczna część normalnych badań ma taki właśnie charakter.
[17] Te trzy klasy zagadnień - badanie istotnych faktów, konfrontacja faktów z teorią i uszczegółowianie teorii - wyczerpują, jak sądzę, problematykę zarówno doświadczalną, jak i teoretyczną, której poświęcona jest literatura nauki normalnej. Nie wyczerpują one jednak oczywiście całości literatury naukowej. Istnieją również zagadnienia nadzwyczajne i być może właśnie ich rozwiązywanie nadaje nauce jako całości tak wielką wartość. Ale problemy nadzwyczajne nie pojawiają się na zawołanie. Wyłaniają się one w szczególnych okolicznościach, przygotowanych przez postęp normalnych badań. Nieuchronnie więc przytłaczająca większość zagadnień podejmowanych nawet przez najwybitniejszych uczonych trafia zazwyczaj do jednej z trzech wymienionych kategorii. Prace badawcze wyznaczone przez paradygmat nie mogą być prowadzone w inny sposób. Porzucenie zaś paradygmatu oznacza zrezygnowanie z uprawiania nauki, którą on określa. Wkrótce przekonamy się, że takie wypadki się zdarzają. Są one źródłem rewolucji naukowych. Nim jednak zajmiemy się rewolucjami, uzyskać musimy bardziej panoramiczny obraz tych badań prowadzonych w ramach nauki normalnej, które przecierają szlaki rewolucji.
IV. NAUKA NORMALNA JAKO ROZWIĄZYWANIE ŁAMIGŁÓWEK
[1] Najbardziej uderzającą, jak się zdaje, cechą problemów nauki normalnej, z którymi zapoznaliśmy się dotąd, jest to, w jak małym stopniu dąży ona do uzyskania czegoś zasadniczo nowego zarówno w płaszczyźnie doświadczalnej, jak teoretycznej. Niekiedy, jak na przykład przy pomiarach długości fal, wszystko z wyjątkiem jakiegoś drobnego szczegółu jest z góry wiadome, a typowy zakres przewidywań jest tylko nieco szerszy. Wyniki pomiarów Coulomba nie musiały, być może, pokrywać się z odwrotnie proporcjonalną zależnością siły od kwadratu odległości; uczeni, którzy badali zjawisko ogrzewania przez sprężanie, byli często przygotowani na uzyskanie jednego z kilku wyników. Jednakże nawet w takich przypadkach jak powyższe zakres antycypowanych, a więc i dających się zaakceptować wyników pozostaje zawsze bardzo wąski w porównaniu z tym, jaki można sobie wyobrazić. Wynik badań nie mieszczący się w tym wąskim zakresie przewidywań traktuje się zazwyczaj jako błąd, za który odpowiedzialność ponosi nie przyroda, lecz uczony.
[2] W wieku XVIII na przykład niewiele poświęcano uwagi eksperymentalnym pomiarom przyciągania elektrycznego za pomocą takich przyrządów jak waga szalkowa. Ponieważ nie dawały one spójnych i jasnych wyników, nie można było wykorzystywać ich do uszczegółowienia paradygmatu, na którym były oparte. Dlatego właśnie pozostawały one "gołymi" faktami, nie powiązanymi i nie dającymi się powiązać ze stale rozwijającymi się badaniami zjawisk elektrycznych. Dopiero retrospektywnie, na gruncie kolejnego paradygmatu, można dostrzec, jakie cechy zjawisk elektrycznych ujawniały te eksperymenty. Oczywiście, Coulomb i jego współcześni dysponowali już tym późniejszym paradygmatem, a w każdym razie takim, który w zastosowaniu do zagadnień przyciągania prowadził do tych samych przewidywań. Dlatego właśnie Coulomb mógł zaprojektować przyrząd, który dawał wyniki dopuszczalne przy uszczegółowieniu paradygmatu. Ale również dlatego wyniki te nikogo nie zaskoczyły, a wielu współczesnych Coulombowi uczonych mogło je z góry przewidzieć. Nawet w eksperymencie, którego celem jest uszczegółowienie paradygmatu, nie chodzi o odkrycie czegoś nieoczekiwanego.
[3] Jeśli jednak w nauce normalnej nie dąży się do czegoś zasadniczo nowego, jeśli niepowodzenie w uzyskaniu wyniku bliskiego przewidywanemu oznacza zazwyczaj niepowodzenie uczonego, to czemu problemy te są w ogóle podejmowane? Częściowo odpowiedzieliśmy już na to pytanie. Przynajmniej dla samego uczonego wyniki uzyskane w toku normalnych badań są ważne, rozszerzają bowiem zakres stosowalności paradygmatu i zwiększają ścisłość tych zastosowań. Odpowiedź ta jednak nie tłumaczy, dlaczego uczeni wkładają w takie badania tyle entuzjazmu i zapału. Nikt przecież nie zdecyduje się poświęcić wielu lat pracy na ulepszanie spektrometru lub na uściślanie rozwiązania problemu drgających strun tylko ze względu na znaczenie informacji, jakie w wyniku tego uzyska. Dane, jakie można uzyskać, obliczając efemerydy albo dokonując dalszych pomiarów za pomocą istniejących już przyrządów, są często równie ważne, a jednak uczeni odnoszą się zazwyczaj do takich badań z lekceważeniem, gdyż polegają one w zasadniczej mierze na powtarzaniu zabiegów, które wielokrotnie już wykonano. To lekceważenie może być właśnie kluczem do zagadki: chociaż wyniki badań normalnych można przewidzieć często z taką nawet dokładnością, że to, co pozostaje do odkrycia, jest już samo przez się mało interesujące - to jednak sposób, w jaki wynik ten można uzyskać, pozostaje nader wątpliwy. Rozwiązanie problemu w ramach badań normalnych polega na osiągnięciu przewidywanego wyniku w nowy sposób i wymaga rozwikłania skomplikowanych łamigłówek matematycznych, teoretycznych i instrumentalnych. Uczony, który osiąga tu sukces, wystawia sobie świadectwo kompetencji; wyzwanie, jakie rzucają mu takie łamigłówki, jest istotnym czynnikiem motywującym jego aktywność.
[4] Terminy łamigłówka i rozwiązywanie łamigłówek pozwolą lepiej ująć niektóre istotne kwestie poruszane w dotychczasowych wywodach. W potocznym znaczeniu słowa, do którego się tu odwołujemy, łamigłówki to taka szczególna kategoria problemów, które służyć mogą za sprawdzian pomysłowości i biegłości w rozwiązywaniu. Za przykład posłużyć mogą układanki czy też krzyżówki. Co łączy je z problemami nauki normalnej? Na jedną z takich wspólnych cech już wskazaliśmy. Kryterium wartości łamigłówki nie jest to, że jej wynik jest sam przez się doniosły czy interesujący. Przeciwnie, rzeczywiście naglące problemy - na przykład znalezienie lekarstwa na raka lub zagwarantowanie trwałego pokoju - często w ogóle nie są łamigłówkami, przede wszystkim dlatego, że mogą nie mieć rozwiązania. Przypuśćmy, że jakieś kawałki dwóch układanek wybrane zostały na chybił trafił z dwóch różnych kompletów. Wobec tego, że ułożenie ich w spójną całość może (choć nie musi) przekraczać możliwości najzdolniejszego człowieka, nie może być ono sprawdzianem umiejętności rozwiązywania. W potocznym sensie słowa nie jest to w ogóle żadna łamigłówka. Doniosłość rozwiązania nie jest kryterium wartości łamigłówki; jest nim natomiast samo istnienie rozwiązania.
[5] Przekonaliśmy się już poprzednio, że dzięki paradygmatowi społeczność uczonych zyskuje kryterium wyboru problemów, które - dopóki przyjmuje się ten paradygmat - można uznać za rozwiązalne. I właściwie tylko te problemy uzna społeczność uczonych za naukowe i przede wszystkim do ich rozwiązywania będzie zachęcać swych członków. Pozostałe zagadnienia, łącznie z tymi, które poprzednio uznawano za standardowe, są teraz odrzucane jako metafizyczne, jako należące do innej dyscypliny lub po prostu jako zbyt zagadkowe, by warto było poświęcać im czas. Paradygmat może nawet odizolować uczonych od społecznie istotnych problemów, jeśli nie da się ich sprowadzić do postaci łamigłówki, a więc jeśli nie można ich sformułować przy użyciu tych narzędzi, pojęciowych i technicznych, jakich on dostarcza. Problemy takie mogą rozpraszać, co świetnie ilustrują niektóre aspekty siedemnastowiecznego baconizmu i niektórych współczesnych nauk społecznych. Jedną z przyczyn, dla których rozwój nauki normalnej wydaje się tak szybki, jest to, że w jej ramach uczeni koncentrują swoją uwagę na problemach, których rozwiązanie mógłby uniemożliwić tylko ich własny brak pomysłowości.
[6] Jeśli jednak problemy nauki normalnej są łamigłówkami we wskazanym wyżej sensie, to nie musimy dłużej pytać, dlaczego uczeni podejmują je z taką pasją i poświęceniem. Nauką zajmować się można z najrozmaitszych powodów. Między innymi po to, aby być użytecznym, z pasji do eksploracji nowych obszarów, w nadziei wykrycia porządku, w dążeniu do sprawdzania ustalonych twierdzeń. Te i wiele innych motywów współdeterminują to, jakimi konkretnie problemami uczony będzie się zajmował. Co więcej, chociaż wynikiem może być niekiedy rozczarowanie, istnieją dobre racje po temu, by tego rodzaju motywy popychały go do podjęcia pracy badawczej i dalej nim kierowały. Przedsięwzięcia naukowe w swej całości okazują się niekiedy rzeczywiście użyteczne, odkrywają nowe obszary, wskazują na porządek, pozwalają sprawdzić przyjmowane od dawna poglądy. Wszelako jednostka zajmująca się normalnym problemem badawczym niemal nigdy nie czyni czegoś takiego. Z chwilą gdy zaangażuje się ona w badania, motywacja jej postępowania jest inna. Jest nią przekonanie, że jeśli tylko zdobędzie dość umiejętności, zdoła rozwiązać łamigłówki, których nikt dotąd nie rozwiązał, a co najmniej nie rozwiązał tak dobrze. Wiele najtęższych umysłów naukowych poświęcało całą swoją zawodową uwagę takim wymagającym łamigłówkom. W większości wypadków poszczególne dziedziny specjalizacji nie stwarzają żadnych innych możliwości prócz tej właśnie, przez co bynajmniej nie stają się mniej fascynujące dla prawdziwych zapaleńców.
[7] Przejdźmy teraz do kolejnego, trudniejszego i bardziej znaczącego aspektu analogii między łamigłówkami a problemami nauki normalnej. Do tego, by uznać problem za łamigłówkę, nie wystarczy to, że ma on zagwarantowane rozwiązanie. Istnieć muszą ponadto reguły, które wyznaczają tak zakres możliwych do przyjęcia rozstrzygnięć, jak i metody, za pomocą których można je uzyskać. Rozwiązanie układanki nie polega po prostu na "ułożeniu jakiegoś obrazka". Zarówno dziecko, jak współczesny artysta potrafi to zrobić, rozrzucając wybrane kawałki, jako abstrakcyjne kształty, na jakimś neutralnym tle. Powstały w ten sposób obrazek może być o wiele lepszy, a z pewnością będzie bardziej oryginalny od całości, z której pochodzą wybrane fragmenty. Jednak obrazek ten nie będzie rozwiązaniem. Aby je uzyskać, trzeba wykorzystać wszystkie fragmenty, obrócić czystą stroną na dół i tak długo cierpliwie je przekładać, aż wszystkie zaczną pasować do siebie. Na tym m.in. polegają reguły rozwiązywania układanki. Podobne ograniczenia zakresu możliwych do przyjęcia rozwiązań łatwo wskazać w wypadku krzyżówek, zagadek, problemów szachowych itd.
[8] Gdybyśmy zgodzili się używać terminu "reguła" w szerszym sensie - równoważnym niekiedy "ustalonemu punktowi widzenia" lub "powziętemu z góry przekonaniu" - to problemy dostępne na gruncie określonej tradycji badawczej wykazywałyby cechy bardzo zbliżone do wyżej wskazanych. Ktoś, kto buduje przyrząd przeznaczony do określenia długości fal świetlnych, nie może się zadowolić tym, że jego aparat przyporządkowuje określone liczby poszczególnym liniom widma. Nie jest on po prostu wynalazcą lub mierniczym. Przeciwnie, musi wykazać, analizując działanie swego przyrządu w kategoriach ustalonej teorii optycznej, że uzyskane przez niego liczby włączone być mogą do teorii jako długości fal. Jeśli jakieś niejasności w teorii lub nie zbadane dostatecznie części jego przyrządu nie pozwalają mu na przeprowadzenie tego dowodu do końca, jego koledzy specjaliści mają pełne prawo uznać, że w ogóle niczego nie zmierzył. Na przykład maksima na obrazie dyfrakcyjnego rozproszenia elektronów, które później uznano za wskaźnik długości fali elektronu, były czymś niezrozumiałym, gdy je po raz pierwszy wykryto i opisano. Aby stać się miarą czegoś, musiały zostać powiązane z teorią, która przewidywała falowe własności poruszających się cząstek. Ale nawet wtedy, gdy związek ten już uchwycono, trzeba było przebudować przyrząd tak, aby doświadczalne wyniki mogły być jednoznacznie przyporządkowane teorii. Póki nie spełniono tych warunków, żaden problem nie mógł zostać rozwiązany.
[9] Podobnym ograniczeniom podlegają również możliwe do przyjęcia rozwiązania problemów teoretycznych. W ciągu całego wieku XVIII uczonym nie udawało się wyprowadzić obserwowanego ruchu Księżyca z praw ruchu i grawitacji Newtona. W rezultacie niektórzy z nich proponowali zastąpić prawo mówiące o odwrotnie proporcjonalnej zależności siły od kwadratu odległości innym prawem, uwzględniającym odchylenie wartości siły przyciągania na małą odległość. Krok taki byłby jednak zmianą paradygmatu i sformułowaniem nowej łamigłówki, a nie rozwiązaniem starej. Uczeni w istocie nie odstąpili od reguł, a w roku 1750 jednemu z nich udało się wykryć, w jaki sposób mogą być one z powodzeniem zastosowane do tego problemu. Alternatywnym rozwiązaniem mogła być tylko zmiana "reguł gry".
[10] Badanie normalnych tradycji naukowych odsłania wiele dodatkowych reguł, a te dostarczają wiele informacji o tym, jakie przekonania czerpią uczeni ze swego paradygmatu. Pod jakie główne kategorie można by podciągnąć te reguły? Przykładem reguł najbardziej oczywistych i zapewne najbardziej wiążących są te rodzaje uogólnień, o których już wspominaliśmy. Są to wyraźnie sformułowane prawa naukowe, pojęcia i teorie. Póki są uznawane, pomagają stawiać problemy i ograniczać zakres dopuszczalnych rozwiązań. Prawa Newtona na przykład pełniły tę funkcję w wieku XVIII i XIX. Póki tak było, podstawową kategorią ontologiczną dla fizyków była ilość materii, a głównym przedmiotem ich badań - siły działające między obiektami materialnymi. W chemii przez długi czas analogiczną rolę odgrywały prawa stosunków stałych i wielokrotnych - stawiały problem ciężarów atomowych, wyznaczały możliwe wyniki analiz chemicznych, informowały chemików, czym są atomy i cząsteczki chemiczne, związki i mieszaniny. To samo znaczenie mają i tę samą funkcję pełnią dziś równania Maxwella i prawa termodynamiki statystycznej.
[11] Nie jest to jednak ani jedyny, ani najbardziej interesujący rodzaj reguł, na jakie wskazują badania historyczne. Na poziomie niższym czy bardziej konkretnym niż poziom praw i teorii doszukać się można na przykład całego mnóstwa przekonań związanych z preferowanymi rodzajami przyrządów i uprawnionymi sposobami posługiwania się nimi. Dla rozwoju siedemnastowiecznej chemii zasadnicze znaczenie miały zmieniające się poglądy na rolę, jaką w analizie chemicznej odgrywa ogień. W wieku XIX Helmholtz napotkał silny opór fizjologów, kiedy twierdził, że doświadczenia fizyczne mogą z powodzeniem być stosowane do badań w ich dziedzinie. W naszym stuleciu interesująca historia chromatografii chemicznej znów wskazuje, jak przekonania dotyczące aparatury badawczej, w równej mierze co prawa i teorie, dostarczają uczonym ich reguł gry. Kiedy badamy odkrycie promieni X, wykryć możemy przyczyny tego rodzaju przekonań.
[12] Inną cechą nauki - mniej lokalną i tymczasową, choć również nie niezmienną - jaką na ogólniejszym poziomie ujawniają stale badania historyczne, jest jej zależność od przekonań quasi-metafizycznych. Gdzieś po roku 1630 na przykład, zwłaszcza po ukazaniu się niezwykle wpływowych prac Kartezjusza, większość fizyków sądziła, że wszechświat składa się z mikroskopijnych korpuskuł i że wszystkie zjawiska przyrody można wytłumaczyć przez odwołanie się do ich kształtu, wielkości, ruchu i wzajemnego oddziaływania. Przekonania te wywierały wpływ zarówno metafizyczny, jak i metodologiczny. W płaszczyźnie metafizycznej mówiły one uczonym, jakiego rodzaju byty istnieją we wszechświecie, a jakich w nim nie ma: istnieje tylko materia w ruchu. W płaszczyźnie metodologicznej mówiły, jaką postać mają mieć ostateczne prawa i podstawowe wyjaśnienia naukowe: prawa ujmować mają ruch cząstek i ich oddziaływania, wyjaśnienia zaś redukować muszą każde zjawisko przyrody do ruchów i oddziaływań wskazanych przez te prawa. Co ważniejsze, korpuskularna koncepcja wszechświata mówiła uczonym, jakie powinny być ich problemy badawcze. Na przykład chemik przyjmujący - jak Boyle - tę nową filozofię zwracał szczególną uwagę na reakcje chemiczne, które potraktować można jako transmutacje. O wiele jaśniej bowiem niż wszelkie inne ujawniały one proces przegrupowania cząstek, który leżeć musi u podłoża wszelkich przemian chemicznych. Podobne skutki filozofii korpuskularnej wykryć można w badaniach nad mechaniką, optyką i ciepłem.
[13] Wreszcie, na jeszcze wyższym piętrze, napotykamy taki zespół przekonań, bez których nie może się obejść żaden uczony. Na przykład musi mu zależeć na zrozumieniu świata, musi dążyć do jego coraz ściślejszego i rozleglejszego uporządkowania. To z kolei każe uczonemu - czy to na własną rękę, czy też korzystając z prac kolegów - dociekać bardzo szczegółowo niektórych aspektów przyrody. A jeśli te dociekania ujawniają pozorny brak porządku, zmusza go to do dalszego udoskonalania techniki doświadczalnej i do dalszego uszczegółowiania teorii. Niewątpliwie istnieją jeszcze inne podobne do tych reguły, które zawsze obowiązywały uczonych.
[14] I przede wszystkim istnienie tego całego zespołu założeń - pojęciowych, teoretycznych, instrumentalnych i metodologicznych - pozwala porównać naukę normalną do rozwiązywania łamigłówek. Ponieważ dostarczają one specjalistom reguł mówiących, jaki jest świat i czym jest nauka, mogą się oni bezpiecznie skoncentrować na wyspecjalizowanych problemach wyznaczonych przez te reguły i nagromadzoną wiedzę. Tym, co ich osobiście frapuje, jest pytanie, jak doprowadzić do rozwiązania pozostałych zagadek. Pod tym względem i pod innymi jeszcze analiza łamigłówek i reguł rzuca światło na istotę normalnej praktyki naukowej. Jednakże pod pewnym względem wyjaśnienie takie może być grubo mylące. Chociaż bez wątpienia istnieją reguły, które wszyscy przedstawiciele danej dyscypliny w określonym czasie uznają, to jednak reguły te same przez się nie wyznaczają wszystkich wspólnych cech ich praktyki badawczej. Nauka normalna to działalność w znacznej mierze zdeterminowana, lecz nie wyłącznie przez reguły. Dlatego właśnie na początku tej rozprawy, chcąc wskazać na źródło spójności normalnych tradycji badawczych, wprowadziłem pojęcie wspólnych paradygmatów, a nie wspólnych reguł, założeń i punktów widzenia. Reguły, jak sądzę, wywodzą się z paradygmatów, ale paradygmaty kierować mogą badaniami nawet wtedy, gdy brak reguł.
[1] Aby wykryć relacje zachodzące między regułami, paradygmatami i nauką normalną, zastanówmy się najpierw, w jaki sposób historyk wyodrębnia konkretne przekonania, opisane wyżej jako przyjęte reguły. Dokładna historyczna analiza danej dziedziny w określonym czasie ujawnia zbiór powtarzających się quasi-standardowych ilustracji rozmaitych teorii w ich pojęciowych, doświadczalnych i instrumentalnych zastosowaniach. Są to właśnie paradygmaty obowiązujące w danej społeczności, przedstawiane w podręcznikach, wykładach i ćwiczeniach laboratoryjnych. Studiując je i opierając się na nich w praktyce, członkowie tej społeczności uczą się swojego zawodu. Oczywiście historyk wykryje ponadto cienisty obszar osiągnięć, których status pozostaje wątpliwy, ale zrąb rozwiązanych problemów i przyswojonych technik badawczych jest zwykle wyraźny. Mimo tych czy innych niejasności paradygmaty dojrzałej społeczności naukowej da się określić stosunkowo łatwo.
[2] Określenie wspólnych paradygmatów to jednak nie to samo co określenie wspólnych reguł. To ostatnie wymaga dalszych zabiegów, i to nieco innego rodzaju. Najpierw historyk musi porównać ze sobą poszczególne paradygmaty danej społeczności oraz zestawić je z bieżącymi doniesieniami z jej prac badawczych. Celem jego jest wyodrębnienie tych elementów, czy to wyraźnych, czy ukrytych, które członkowie tej społeczności naukowej mogli wyabstrahować z bardziej całościowych paradygmatów i stosować jako reguły w swych badaniach. Każdy, kto próbował opisać lub analizować rozwój jakiejś konkretnej tradycji badawczej, z konieczności szukał tego rodzaju reguł i zasad i poszukiwanie to - jak wskazuje poprzedni rozdział - musiało być uwieńczone przynajmniej częściowym powodzeniem. Gdyby jednak jego doświadczenia w tej materii przypominały moje, musiałby uznać, że poszukiwanie reguł jest zarazem i trudniejsze, i mniej zadowalające niż poszukiwanie paradygmatów. Niektóre uogólnienia, z jakich korzystam w opisie wspólnych przekonań badanej społeczności naukowej, nie nasuwają żadnych wątpliwości. Inne jednak - w tym niektóre z uogólnień, jakimi wcześniej ilustrowałem moje wywody - wydają się nieco zbyt daleko idące. Niektórzy członkowie badanej społeczności nie zgodziliby się z nimi niezależnie od tego, jak by zostały sformułowane. Z drugiej strony jednak, jeśli chce się ująć spójność jakiejś tradycji badawczej w kategoriach reguł, niezbędne jest wskazanie wspólnej podstawy, na jakiej oparte są badania w danej dziedzinie. W rezultacie poszukiwanie zespołu reguł konstytuujących daną tradycję badań normalnych jest źródłem ciągłych i głębokich rozczarowań.
[3] Stwierdzenie tego faktu pozwala zapytać, jakie są jego źródła. Uczeni mogą się zgadzać, powiedzmy, co do tego, że Newton, Lavoisier, Maxwell czy Einstein podali trwałe rozwiązania niektórych doniosłych problemów, i jednocześnie - czasem nie będąc tego świadomi - nie zgadzać się co do tego, jakie mianowicie abstrakcyjne cechy tych rozwiązań nadają im trwały charakter. Mówiąc inaczej: mogą oni zgodnie traktować te rozwiązania jako paradygmat, nie zgadzając się w pełni co do jego interpretacji czy też racjonalizacji bądź nawet nie dążąc do uzyskania takiego pełnego wyjaśnienia. Paradygmat pozbawiony standardowej interpretacji lub nie zredukowany do uzgodnionego zbioru reguł nie przestaje przez to kierować badaniami. Nauka normalna polega m.in. na bezpośrednim badaniu paradygmatów; w procesie tym formułowanie reguł i założeń może być pomocne, nie jest ono jednak jego warunkiem koniecznym. W gruncie rzeczy istnienie paradygmatu nie musi nawet implikować istnienia pełnego zespołu takich reguł.
[4] Konstatacje te od razu nasuwają szereg pytań. Jeśli nie istnieje uznany zespół reguł, to co zamyka uczonego w ramach określonej tradycji badawczej nauki normalnej? Co znaczy wyrażenie "bezpośrednie badanie paradygmatów"? Częściową odpowiedź na tego typu pytania, chociaż w zupełnie innym kontekście, podał zmarły niedawno Ludwig Wittgenstein. Wobec tego, że jest to kontekst bardziej elementarny i znany, ułatwimy sobie zadanie, zapoznając się najpierw z jego sposobem argumentacji. Co musimy wiedzieć, pytał Wittgenstein, aby móc posługiwać się takimi terminami jak "krzesło", "liść" czy "gra" w sposób jednoznaczny, nie wywołując sporów?
[5] Na to stare pytanie przeważnie odpowiadano, że musimy, świadomie lub intuicyjnie, wiedzieć, czym jest krzesło, liść, gra. Innymi słowy, uchwycić musimy właściwości, jakie przysługują wszystkim grom i tylko grom. Wittgenstein doszedł jednak do wniosku, że sposób, w jaki korzystamy z języka, i charakter świata, do którego go stosujemy, nie wymaga istnienia takiego zespołu cech. Chociaż rozpatrzenie niektórych cech wspólnych pewnej liczbie gier, krzeseł czy liści pomaga nam często nauczyć się stosowania danego terminu, nie istnieje jednak taki zespół cech, które można by jednocześnie przypisać wszystkim elementom danej klasy i tylko im. Gdy jakąś nie znaną nam dotąd czynność nazywamy grą, postępujemy tak dlatego, że dostrzegamy jej bliskie "podobieństwo rodzinne" z tymi czynnościami, które uprzednio nauczyliśmy się tak nazywać. Krótko mówiąc, według Wittgensteina gry, krzesła czy liście to naturalne rodziny, a każdą z nich konstytuuje sieć zachodzących na siebie i krzyżujących się podobieństw. Istnienie tego rodzaju sieci jest wystarczającym warunkiem powodzenia w identyfikowaniu odpowiednich obiektów i czynności. Tylko w wypadku, gdyby rodziny, które nazywamy, zachodziły na siebie i stopniowo przechodziły jedna w drugą - tzn. gdyby nie istniały rodziny naturalne - powodzenie w identyfikacji i nazywaniu świadczyłoby o istnieniu zespołu wspólnych cech odpowiadających każdej nazwie ogólnej, z jakiej korzystamy.
[6] Ze zbliżoną sytuacją możemy mieć do czynienia w wypadku rozmaitych problemów badawczych i technik, jakie pojawiają się w obrębie jednej tradycji nauki normalnej. Łączy je nie to, że zgodne są z jakimś zespołem explicite sformułowanych lub nawet w pełni wykrywalnych reguł i założeń, które nadają danej tradycji swoisty charakter i decydują o jej wpływie na umysłowość uczonych. Wiązać je może wzajemne podobieństwo i wzorowanie się na tym lub innym fragmencie wiedzy, który uznany już został przez daną społeczność za jedno z jej trwałych osiągnięć. Uczeni opierają się w swoich badaniach na modelach, które poznali, zdobywając wykształcenie, a potem korzystając z literatury, i często nie wiedzą, czy też nie potrzebują wiedzieć, jakie cechy tych modeli zadecydowały o tym, że stały się one paradygmatami dla danej społeczności uczonych. Postępując w ten sposób, obchodzą się bez pełnego zestawu reguł. Spójność tradycji badawczej, w której partycypują, nie musi nawet implikować istnienia takiego zespołu reguł i założeń, jakie ewentualnie w przyszłości ujawnić może badanie historyczne czy też filozoficzne. To, że uczeni nie pytają zazwyczaj, co czyni poszczególny problem czy rozwiązanie uprawnionym, skłania nas do przypuszczenia, że - przynajmniej intuicyjnie - znają oni odpowiedź na to pytanie. Fakt ten jednak może świadczyć również o tym, że ani powyższe pytanie, ani odpowiedź nie ma w ich odczuciu znaczenia dla ich badań. Paradygmaty mogą mieć charakter pierwotniejszy, być bardziej wiążące i pełniejsze niż jakikolwiek zespół reguł badawczych dających się z nich jednoznacznie wyabstrahować.
[7] Na razie jest to ustalenie czysto teoretyczne: paradygmaty mogą określać naukę normalną bez pomocy dających się wykryć reguł. Chciałbym teraz wskazać racje, dla których sądzę, że paradygmaty rzeczywiście w ten sposób funkcjonują. Po pierwsze, o czym już mówiliśmy, trudno jest odkryć reguły, jakie kierowały poszczególnymi tradycjami nauki normalnej. Jest to trudność bardzo zbliżona do tej, którą napotyka filozof próbujący powiedzieć, jakie są wspólne cechy wszystkich gier. Przyczyna druga - a pierwsza jest tylko jej konsekwencją - tkwi w charakterze kształcenia naukowego. Powinno już być jasne, że uczeni nigdy nie przyswajają sobie pojęć, teorii i praw w sposób abstrakcyjny, jako takich. Od początku stykają się oni z tymi narzędziami intelektualnymi poprzez ich zastosowania w ramach szerszej, historycznie ukształtowanej struktury nauczania. Nowa teoria podawana jest zawsze wraz z jej zastosowaniami do pewnego konkretnego obszaru zjawisk przyrody. Bez tego nie mogłaby nawet pretendować do uznania. Z chwilą gdy teoria została przyjęta, te same lub ewentualnie inne zastosowania towarzyszą jej w podręcznikach, z których uczyć się będą jej przyszli zwolennicy. Nie spełniają one tu funkcji ani tylko ozdobników, ani nawet dokumentacji. Przeciwnie, proces przyswajania sobie teorii zależy od badania jej zastosowań, włącznie z praktyką rozwiązywania problemów tak na papierze za pomocą ołówka, jak i za pomocą przyrządów w laboratorium. Jeśli na przykład ktoś studiujący dynamikę Newtona w ogóle poznaje znaczenie takich terminów, jak "siła", "masa", "przestrzeń" czy "czas", to nie dzięki niepełnym - choć niekiedy pomocnym - definicjom podręcznikowym, lecz raczej dzięki temu, że obserwuje, jak stosuje się te pojęcia do rozwiązywania konkretnych problemów, i sam próbuje je stosować.
[8] Ten proces uczenia się poprzez wprawki, czyli przez wykonywanie, trwa przez cały okres kształcenia zawodowego. Problemy wyłaniające się przed studiującym, począwszy od kursu wstępnego aż do jego pracy doktorskiej, stają się coraz bardziej skomplikowane; coraz częściej ma on do czynienia z zagadnieniami, których rozwiązanie nie jest już tak oczywiste. Jednak wciąż są one modelowane na wzór poprzednich osiągnięć, podobnie jak problemy, którymi będzie się on normalnie zajmował w swojej przyszłej, samodzielnej pracy badawczej. Wolno przypuszczać, że w jakimś punkcie tej drogi uczony sam intuicyjnie wyabstrahuje na swój użytek reguły tej gry, nie mamy jednak zbyt mocnych podstaw, by tak sądzić. Chociaż wielu uczonych dobrze i z łatwością rozprawia na temat poszczególnych hipotez, jakie leżą u podstaw konkretnych bieżących prac badawczych w ich dziedzinie, nie górują oni zazwyczaj nad laikiem, gdy chodzi o charakterystykę podstaw tej dziedziny oraz jej uprawnionych problemów i metod. Jeśli w ogóle uzyskali zrozumienie tych abstrakcyjnych zagadnień, okazują to głównie poprzez umiejętność prowadzenia płodnych badań. Umiejętność tę można jednak wytłumaczyć bez odwoływania się do znajomości hipotetycznych reguł gry.
[9] Te konsekwencje naukowego kształcenia mają też odwrotną stronę, co wskazuje zarazem na trzecią rację, dla której wolno nam sądzić, że paradygmaty kierują pracą badawczą zarówno przez bezpośrednie jej modelowanie, jak i poprzez wyabstrahowane reguły. Nauka normalna obywać się może bez reguł tylko dopóty, dopóki odpowiednia społeczność naukowa akceptuje bez zastrzeżeń uzyskane poprzednio rozwiązania poszczególnych zagadnień. Reguły uzyskiwać więc mogą znaczenie, a obojętność wobec nich znikać, gdy rodzi się poczucie, że paradygmaty czy też modele są niepewne. Tak właśnie dzieje się rzeczywiście. Zwłaszcza okres przedparadygmatyczny z reguły odznacza się występowaniem zasadniczych dyskusji na temat uprawnionych metod, problemów i standardów rozwiązań, choć dyskusje te bardziej sprzyjają ukształtowaniu się szkół niż uzyskaniu porozumienia. Wspominaliśmy już poprzednio o tego rodzaju dyskusjach w optyce i w nauce o elektryczności. Jeszcze większą rolę odegrały one w rozwoju siedemnastowiecznej chemii i dziewiętnastowiecznej geologii. Co więcej, dyskusje tego rodzaju nie znikają raz na zawsze z chwilą ukształtowania się paradygmatu. Aczkolwiek cichną w okresie sukcesów nauki normalnej, odżywają na nowo w okresie poprzedzającym rewolucje naukowe i w trakcie tych rewolucji, a więc wtedy, gdy paradygmat zostaje po raz pierwszy zaatakowany i następnie ulega zmianie. Przejście od mechaniki Newtona do mechaniki kwantowej zrodziło wiele dyskusji na temat istoty i standardów wiedzy fizycznej, przy czym niektóre z nich ciągną się nadal. Żyją dziś jeszcze ludzie, którzy pamiętają podobne dyskusje po powstaniu elektromagnetycznej teorii Maxwella lub mechaniki statystycznej. Jeszcze wcześniej zaś przyjęcie mechaniki Newtona i Galileusza stało się źródłem szczególnie znanych dysput z arystotelikami, kartezjańczykami i zwolennikami Leibniza na temat uprawnionych w nauce standardów. Kiedy uczeni nie zgadzają się co do tego, czy podstawowe problemy ich dziedziny zostały rozwiązane, poszukiwanie reguł nabiera znaczenia, jakiego zazwyczaj nie posiada. Póki jednak paradygmat jest niezagrożony, może on funkcjonować bez uzgodnienia jego racjonalnej wykładni, a nawet w ogóle bez prób racjonalizacji.
[10] Zamknijmy ten rozdział omówieniem czwartej przyczyny nadrzędnego statusu paradygmatów w stosunku do reguł i założeń. W przedmowie do niniejszej rozprawy twierdziłem, że mogą się dokonywać zarówno małe, jak wielkie rewolucje naukowe, że niektóre rewolucje dotyczyć mogą jedynie przedstawicieli jakiejś podgrupy w obrębie danej specjalności i że dla takich grup rewolucyjne może być nawet odkrycie jakiegoś nowego, a niespodziewanego zjawiska. W następnym rozdziale omówimy niektóre rewolucje tego rodzaju, ale na razie bynajmniej nie jest jasne, jak do nich dochodzi. Jeśli nauka normalna jest tak sztywna, a społeczności naukowe tak zwarte, jak by to wynikało z dotychczasowych rozważań, to jak to możliwe, by zmiana paradygmatu dotyczyła tylko wąskiej podgrupy? To, co powiedzieliśmy dotąd, mogłoby sugerować, że nauka normalna jest tworem tak monolitycznym i jednorodnym, że powstaje i upada wraz ze wszystkimi swymi paradygmatami łącznie i z każdym z osobna. W istocie jednak rzadko tak to wygląda, może nawet nigdy. Jeśli spojrzeć na wszystkie dziedziny nauki łącznie, wydaje się ona budowlą raczej chwiejną, o niezbyt dobrze dopasowanych do siebie fragmentach. Wszelako nic z tego, o czym dotąd była mowa, nie przeczy tej dobrze znanej obserwacji. Przeciwnie, zastąpienie reguł paradygmatami ułatwia zrozumienie tej różnorodności obszarów badawczych i specjalizacji. Wyraźne reguły, jeśli istnieją, wspólne są zazwyczaj bardzo szerokiemu gronu uczonych. Z paradygmatami tak być nie musi. Badacze odległych od siebie dziedzin - powiedzmy, astronomii i systematyki roślin - mogą być wykształceni na zupełnie innych osiągnięciach opisanych w zgoła różnych książkach. I nawet ludzie zajmujący się tymi samymi lub bliskimi sobie dziedzinami, zaczynając od studiowania tych samych niemal książek i osiągnięć, mogą później w toku dalszej specjalizacji zawodowej dojść do różnych paradygmatów.
[11] Rozpatrzmy jeden tylko przykład - liczne i zróżnicowane środowisko fizyków. Wszyscy oni uczą się dzisiaj, powiedzmy, praw mechaniki kwantowej i większość z nich korzysta z tych praw na pewnym etapie swoich badań czy w nauczaniu. Nie uczą się jednak wszyscy tych samych zastosowań tych praw, a tym samym zmiany zachodzące w uprawianiu mechaniki kwantowej nie dotyczą ich w jednakowym stopniu. Na drodze do naukowej specjalizacji niektórzy z nich mają do czynienia tylko z podstawowymi zasadami mechaniki kwantowej. Inni badają szczegółowo paradygmatyczne zastosowania tych zasad do chemii, jeszcze inni - do fizyki ciała stałego itd. To, jaki sens ma dla każdego z nich mechanika kwantowa, zależy od tego, jakich wykładów słuchał, jakie teksty czytał, jakie studiował czasopisma. Jakkolwiek więc zmiana praw mechaniki kwantowej byłaby czymś rewolucyjnym dla nich wszystkich, to zmiana dotycząca tylko takiego lub innego paradygmatycznego zastosowania mechaniki kwantowej może się ograniczać w swoim rewolucyjnym oddziaływaniu do określonej podgrupy specjalistów. Dla pozostałych przedstawicieli tej specjalności i dla tych, którzy zajmują się innymi działami fizyki, zmiana taka wcale nie musi być rewolucją. Krótko mówiąc, chociaż mechanika kwantowa (lub dynamika Newtona czy też teoria elektromagnetyczna) jest paradygmatem dla wielu grup specjalistów, nie jest ona tym samym paradygmatem dla wszystkich. Dlatego też może ona wyznaczać jednocześnie wiele - krzyżujących się, ale nie pokrywających się - tradycji nauki normalnej. Rewolucja w ramach jednej z tych tradycji nie musi rozciągać się na wszystkie pozostałe.
[12] Jeszcze jeden przykład skutków specjalizacji wzmocnić może siłę przekonywającą tych rozważań. Badacz, który chciał się dowiedzieć, na czym - zdaniem uczonych - polega teoria atomowa, zwrócił się do wybitnego fizyka oraz do słynnego chemika z pytaniem, czy pojedynczy atom helu jest cząsteczką. Obaj odpowiedzieli bez wahania, ale ich odpowiedzi były różne. Dla chemika atom helu był cząsteczką, gdyż zachowywał się tak, jak wymaga tego kinetyczna teoria gazów. Dla fizyka natomiast atom helu nie był cząsteczką, przysługuje mu bowiem widmo molekularne. Obaj mówili zapewne o tej samej cząsteczce, lecz każdy z nich patrzył na nią przez pryzmat własnych doświadczeń badawczych i własnej praktyki. Ich doświadczenie w rozwiązywaniu problemów zadecydowało o tym, co każdy uważał za cząsteczkę. Ich doświadczenia miały niewątpliwie wiele wspólnego, ale - w tym przypadku - nie pozwoliły im dać zgodnej odpowiedzi. W dalszych wywodach będziemy mieli okazję przekonać się, jak brzemienne w skutki mogą być tego rodzaju różnice między paradygmat.
VI. ANOMALIE A POJAWIANIE SIĘ ODKRYĆ NAUKOWYCH
[1] Nauka normalna, a więc omawiana wyżej działalność polegająca na rozwiązywaniu łamigłówek, ma charakter zdecydowanie kumulatywny i jest niezwykle skuteczna w swoim dążeniu do stałego poszerzania zakresu i zwiększania precyzji wiedzy naukowej. Pod wszystkimi tymi względami pojęcie to zgodne jest z potocznymi wyobrażeniami o pracy naukowej. Pod jednym wszakże względem obraz ten jest mylący. Celem nauki normalnej nie jest odkrywanie nowych faktów czy tworzenie nowych teorii, i nie na tym polega jej skuteczność. Tymczasem nauka wciąż odkrywa nowe zjawiska, a uczeni co raz to wymyślają radykalnie nowe teorie. Badania historyczne nasuwają nawet myśl, że działalność naukowa stworzyła jedyną w swoim rodzaju potężną technikę wywoływania tego rodzaju niespodzianek. Jeśli ta cecha nauki zgodna ma być ze wszystkim, co powiedzieliśmy dotąd, to badania paradygmatyczne muszą być szczególnie skutecznym sposobem wyzwalania zmian w paradygmacie. Taki jest bowiem rezultat pojawiania się zasadniczo nowych faktów i teorii. Niebacznie powołane do życia w grze opartej na pewnym zespole reguł, wymagają one - by mogły zostać zasymilowane - opracowania nowego zespołu reguł. Z chwilą gdy stały się częścią nauki, działalność badawcza - przynajmniej w tych dziedzinach, których nowo odkryte fakty i teorie dotyczą - nie pozostaje nigdy tym samym, czym była dotąd.
[2] Obecnie zająć się musimy pytaniem, w jaki sposób zmiany tego rodzaju zachodzą, przy czym najpierw omówimy odkrycia nowych faktów, a następnie powstawanie nowych teorii. Rozróżnienie między wykrywaniem nowych faktów a formułowaniem nowych teorii okaże się jednak z miejsca sztucznym uproszczeniem. Jego sztuczność jest kluczem do szeregu zasadniczych tez niniejszej rozprawy. Rozważając w tym rozdziale wybrane odkrycia, przekonamy się szybko, że nie są one izolowanymi zdarzeniami, lecz rozciągłymi w czasie epizodami o regularnie powtarzalnej strukturze. Początek swój biorą one ze świadomości anomalii, tj. z uznania, że przyroda gwałci w jakiejś mierze wypływające z paradygmatu przewidywania, które rządzą nauką normalną. Dalszym krokiem są mniej lub bardziej rozległe badania obszaru, na którym ujawniają się anomalie. Epizod zamyka się dopiero wtedy, gdy teoria paradygmatyczna zostaje tak dopasowana do faktów, że to, co dotąd było anomalią, staje się czymś przewidywanym. Asymilacja nowego rodzaju faktu wymaga czegoś więcej niż rozszerzenia teorii i dopóki nie dostosuje się jej do faktów - dopóki uczony nie nauczy się patrzeć na przyrodę w nowy sposób - nowy fakt nie jest właściwie w ogóle faktem naukowym.
[3] Aby przekonać się, jak ściśle splecione są ze sobą odkrycia doświadczalne i teoretyczne, przyjrzyjmy się słynnemu przykładowi odkrycia tlenu. Co najmniej trzech uczonych rościć sobie może uzasadnione do niego pretensje, a wielu innych chemików w latach siedemdziesiątych XVIII stulecia musiało uzyskiwać w swych przyrządach laboratoryjnych - nie zdając sobie z tego sprawy - wzbogacone powietrze. Postęp nauki normalnej, w tym wypadku chemii pneumatycznej, utorował drogę przełomowi. Pierwszym z pretendentów jest szwedzki aptekarz C. W. Scheele, który otrzymał czystą próbkę tego gazu. Możemy jednak pominąć wyniki jego prac, nie zostały one bowiem opublikowane do czasu, kiedy o odkryciu tlenu donosić zaczęto powszechnie, a wobec tego nie miały wpływu na interesujący nas tu schemat historyczny. Drugim z kolei pretendentem do tytułu odkrywcy tlenu był angielski uczony i teolog Joseph Priestley. Zebrał on gaz wyzwalający się podczas ogrzewania czerwonego tlenku rtęci. Było to jedno z doświadczeń związanych z badaniami nad "różnymi rodzajami powietrza" wyzwalającymi się z wielu ciał stałych. W roku 1774 uznał on, że otrzymany gaz jest tlenkiem azotu, a w roku 1775, na podstawie dalszych doświadczeń, że jest to zwykłe powietrze z mniejszą niż zazwyczaj zawartością flogistonu. Trzeci z pretendentów, Lavoisier, podjął doświadczenia, które doprowadziły go do odkrycia tlenu - po pracach Priestleya z roku 1774 i niewykluczone, że wskutek jakiejś wzmianki o nich. Na początku 1775 roku Lavoisier donosił, że gaz uzyskiwany w wyniku ogrzewania czerwonego tlenku rtęci jest "czystym powietrzem bez żadnych zanieczyszczeń [z tym że]... czystszym i lepiej nadającym się do oddychania". W roku 1777 Lavoisier uznał, prawdopodobnie korzystając znów z doniesień o pracach Priestleya, że jest to gaz szczególnego rodzaju, jeden z dwu głównych składników atmosfery. Był to wniosek, którego Priestley nie mógł uznać do końca swego życia.
[4] Taki schemat dokonywania odkryć nasuwa pytanie, które można postawić w wypadku wszystkich nowych zjawisk, jakie kiedykolwiek przyciągały uwagę uczonych. Kto - Priestley czy Lavoisier - odkrył tlen? I kiedy ostatecznie tlen został odkryty? W tej ostatniej wersji pytanie to można zadać również wtedy, gdy istnieje tylko jeden pretendent do miana odkrywcy. Jeśli chodzi bezpośrednio o kwestię pierwszeństwa czy daty, odpowiedź na te pytania w ogóle nas tu nie interesuje. Jednakże próba jej udzielenia mówi nam coś o naturze odkryć - odpowiedź na tak postawione pytanie w ogóle bowiem nie istnieje. Odkrycie nie jest tego rodzaju procesem, w wypadku którego pytanie takie byłoby na miejscu. Fakt, że pytania takie są stawiane (od lat osiemdziesiątych XVIII wieku wielokrotnie spierano się o to, komu przysługuje pierwszeństwo odkrycia tlenu), świadczy o pewnym skrzywieniu obrazu nauki przyznającego tak wielką rolę odkryciu. Wróćmy raz jeszcze do naszego przykładu. Pretensja Priestleya do pierwszeństwa oparta jest na tym, że jako pierwszy otrzymał on gaz, który później uznano za odrębną substancję. Ale próbka gazu otrzymana przez Priestleya nie była czysta. Jeśli zaś uznać, że uzyskanie nieczystego tlenu jest równoznaczne z jego odkryciem, to dokonywał tego każdy, kto kiedykolwiek zbierał w zamkniętym naczyniu atmosferyczne powietrze. Ponadto jeśli Priestley jest odkrywcą, to kiedy dokonał swojego odkrycia? W roku 1774 sądził on, że otrzymał tlenek azotu - gaz, który już znał. W roku 1775 uznał, że wyodrębniona substancja jest zdeflogistonowanym powietrzem - a więc ciągle jeszcze nie ma mowy o tlenie ani w ogóle o jakimś nie przewidywanym dla zwolenników teorii flogistonowej rodzaju gazu. Pretensja Lavoisiera jest lepiej uzasadniona, ale rodzi te same problemy. Jeśli odmawiamy pierwszeństwa Priestleyowi, to nie możemy go przyznać również pracy Lavoisiera z roku 1775, w wyniku której traktował on otrzymany gaz jako "czyste całkiem powietrze". Być może czekać mamy do roku 1776 lub 1777, kiedy Lavoisier nie tylko odkrył nowy gaz, ale zrozumiał, czym on jest. Ale nawet taka decyzja byłaby problematyczna, gdyż w roku 1777, i do końca swego życia, Lavoisier twierdził, że tlen jest atomową "zasadą kwasowości" i że gaz ten powstaje wówczas, gdy "zasada" ta łączy się z cieplikiem - fluidem cieplnym. Czy mamy zatem uznać, że tlen nie był jeszcze odkryty w roku 1777? Niektórzy skłaniać się mogą do takiego wniosku. Ale pojęcie zasady kwasowości przetrwało w chemii nawet po roku 1810, a pojęcie cieplika - aż do lat sześćdziesiątych XIX wieku. Tlen zaś uznany został za pierwiastek chemiczny z pewnością wcześniej.
[5] Widać więc wyraźnie, że do analizy takich zdarzeń jak odkrycie tlenu niezbędne jest nowe słownictwo i nowy aparat pojęciowy. Choć zdanie: "tlen został odkryty" jest niewątpliwie słuszne, to jednak jest mylące, sugeruje bowiem, że odkrycie czegoś jest jednostkowym prostym aktem, przypominającym ujrzenie czegoś (przy czym to obiegowe rozumienie aktu widzenia jest również problematyczne). W związku z tym uznajemy, że odkrycie czegoś, podobnie jak ujrzenie czy dotknięcie, można jednoznacznie przypisać jakiejś jednostce i osadzić w ściśle oznaczonym czasie. W istocie rzeczy daty nigdy nie sposób określić dokładnie, a i autorstwo pozostaje często wątpliwe. Pomijając Scheelego, możemy spokojnie uznać, że tlen nie został odkryty przed rokiem 1774 i że w roku 1777 lub nieco później był on już znany. Ale w tych - lub innych podobnych - granicach wszelka próba bliższego określenia daty musi być nieuchronnie arbitralna. Odkrycie nowego rodzaju zjawiska jest bowiem z konieczności procesem złożonym; składa się nań zarówno wykrycie tego, że coś istnieje, jak i tego, czym to coś jest. Zauważmy na przykład, że gdybyśmy uznawali tlen za zdeflogistonowane powietrze, nie mielibyśmy najmniejszej wątpliwości co do pierwszeństwa Priestleya, ale nadal nie potrafilibyśmy dokładnie określić daty. Jeśli jednak w odkryciu obserwacja łączy się nierozerwalnie z konceptualizacją, fakty z dopasowywaną do nich teorią, to jest ono procesem i musi trwać w czasie. Tylko wówczas, gdy wszystkie niezbędne do ujęcia danego faktu kategorie pojęciowe są już z góry gotowe, odkrycie, że coś istnieje, i wykrycie, czym to coś jest, może się dokonać jednocześnie i niemal w jednej chwili. W takim jednak wypadku nie jest to odkrycie faktu nowego rodzaju.
[6] Jeśli odkrycie wiąże się z trwającym w czasie (choć niekoniecznie długo) procesem pojęciowego przyswajania, to czy oznacza ono również zmianę paradygmatu? Na to pytanie nie można jeszcze dać ogólnej odpowiedzi. W interesującym nas jednak przypadku odpowiedź musi być twierdząca. Począwszy od roku 1777, Lavoisier w swoich pracach pisze nie tyle o odkryciu tlenu, ile o tlenowej teorii spalania. Teoria ta staje się podstawą do tak zasadniczego przebudowania całej chemii, że traktuje się ją zazwyczaj jako rewolucję w chemii. Gdyby bowiem odkrycie tlenu nie przyczyniło się w tak wielkim stopniu do powstania nowego paradygmatu w chemii, problem pierwszeństwa, od którego rozpoczęliśmy naszą analizę, nie wydawałby się tak ważny. W tym wypadku, podobnie jak w innych, wartość, jaką wiążemy z odkryciem nowego zjawiska, i wysoka ocena jego autora zależą od tego, w jakiej mierze zjawisko to pogwałciło naszym zdaniem przewidywania formułowane na gruncie danego paradygmatu. Zauważmy jednak już tutaj (gdyż będzie to miało znaczenie w dalszych rozważaniach), że samo odkrycie tlenu nie stanowiło jeszcze przyczyny przeobrażeń teorii chemicznej. Lavoisier był przekonany, że z teorią flogistonową nie wszystko jest w porządku i że ciała spalane przyłączają jakiś składnik atmosfery, na długo przed tym, nim w jakikolwiek sposób przyczynił się do odkrycia nowego gazu. Donosił o tym już w roku 1772 w pracy złożonej sekretarzowi Francuskiej Akademii Nauk. Badania nad tlenem doprowadziły do tego, że dawne podejrzenia Lavoisiera co do istnienia jakiegoś błędu w teorii przybrały zupełnie nową postać. Dojrzał on w tlenie to, co przygotowany był już odkryć: substancję, którą spalane ciało pobiera z atmosfery. Ta wstępna świadomość trudności była istotnym czynnikiem, który pozwolił dojrzeć Lavoisierowi w doświadczeniach takich jak Priestleya gaz, którego on sam ujrzeć nie potrafił. Z kolei fakt, że do dostrzeżenia tego niezbędna była rewizja funkcjonującego dotąd paradygmatu, uniemożliwił Priestleyowi do końca jego drugiego życia zrozumienie własnego odkrycia.
[7] Aby mocniej uzasadnić to, co powiedzieliśmy dotąd, a zarazem przejść od omawiania istoty odkryć naukowych do zrozumienia warunków, w jakich się one wyłaniają, rozpatrzymy jeszcze dwa krótkie przykłady. Chcąc wskazać na główne drogi dokonywania odkryć, wybraliśmy takie przykłady, które różnią się zarówno między sobą, jak i od omówionego odkrycia tlenu. Przykład pierwszy: promienie X - to klasyczny przykład odkryć przypadkowych, zdarzających się o wiele częściej, niż można sądzić na podstawie standardowych doniesień naukowych. Cała historia rozpoczęła się w dniu, kiedy Roentgen przerwał normalne badania nad promieniami katodowymi, ponieważ zauważył, że w trakcie wyładowania żarzy się ekran znajdujący się w pewnej odległości od jego przyrządu. Dalsze badania - trwające przez siedem gorączkowych tygodni, w trakcie których Roentgen nie opuszczał swego laboratorium - wskazały, że przyczyną żarzenia są promienie biegnące po linii prostej z rurki katodowej, że rzucają one cienie, że nie uginają się w polu magnetycznym oraz szereg innych szczegółów. Jeszcze przed ogłoszeniem swojego odkrycia Roentgen doszedł do przekonania, że zaobserwowane zjawisko nie jest spowodowane przez promienie katodowe, lecz przez jakiś czynnik zdradzający przynajmniej pewne podobieństwo do promieni świetlnych.
[8] Zdarzenie to, nawet w tak krótkim ujęciu, bardzo przypomina odkrycie tlenu. Lavoisier, jeszcze nim rozpoczął doświadczenia z czerwonym tlenkiem rtęci, przeprowadzał eksperymenty, które dawały wyniki nie mieszczące się w przewidywaniach formułowanych na gruncie paradygmatu flogistonowego. Badania Roentgena rozpoczęły się od stwierdzenia, że jego ekran wbrew wszelkim przewidywaniom żarzy się. W obu wypadkach wykrycie anomalii, tj. zjawiska, którego nie pozwalał oczekiwać paradygmat, utorowało drogę do dostrzeżenia czegoś zasadniczo nowego. W obu jednak wypadkach stwierdzenie, że coś jest nie tak, jak być powinno, stanowiło dopiero preludium odkrycia. Zarówno tlen, jak i promienie X wyłoniły się dopiero w wyniku dalszych doświadczeń i prac teoretycznych. Ale jak rozstrzygnąć na przykład, w którym momencie badania Roentgena doprowadziły faktycznie do odkrycia promieni X? W każdym razie nie doszło do tego wtedy, gdy stwierdzono samo żarzenie się ekranu. Zjawisko to stwierdził co najmniej jeszcze jeden badacz, który jednak - ku swemu późniejszemu zmartwieniu - niczego nie odkrył. Jest również zupełnie jasne, że daty odkrycia nie można przesunąć na ostatnie dni owych siedmiotygodniowych badań, kiedy to Roentgen dochodził własności nowego promieniowania, którego istnienie poprzednio stwierdził. Możemy tylko powiedzieć, że promienie X odkryte zostały w Wurzburgu między 8 listopada a 28 grudnia 1895 roku.
[9] Pod innym jednak względem analogia między odkryciem promieni X a odkryciem tlenu jest o wiele mniej oczywista. W odróżnieniu od tego ostatniego odkrycie promieni X nie wywołało, przynajmniej przez pierwsze dziesięć lat, żadnego wyraźnego przewrotu w teorii naukowej. W jakim więc sensie można mówić, że przyswojenie tego odkrycia wymagało zmiany paradygmatu? Istnieją podstawy, by twierdzić, że zmiana taka w ogóle nie miała tu miejsca. Paradygmaty, które akceptował Roentgen i jego współcześni, z pewnością nie pozwalały przewidzieć istnienia promieni X. (Elektromagnetyczna teoria Maxwella nie była jeszcze powszechnie przyjęta, a traktowanie promieni katodowych jako strumieni cząstek było tylko jedną z wielu rozpowszechnionych spekulacji). Ale też żaden z tych paradygmatów nie wykluczał istnienia promieni X w tak oczywisty sposób, jak teoria flogistonowa wykluczała podaną przez Lavoisiera interpretację Priestleyowskiego gazu. Przeciwnie, teorie uznawane w roku 1895 dopuszczały szereg rodzajów promieniowania - widzialnego, podczerwonego i nadfioletowego. Dlaczego więc promienie X nie miałyby zostać uznane za jeszcze jeden rodzaj dobrze znanej klasy zjawisk przyrody? Dlaczego nie odniesiono się do ich wykrycia tak, jak, powiedzmy, do odkrycia nowego pierwiastka chemicznego? Przecież w czasach Roentgena poszukiwano nowych pierwiastków, które miałyby zająć puste miejsca w układzie okresowym. Poszukiwania takie były czymś w pełni usankcjonowanym w ramach nauki normalnej i jeśli kończyły się sukcesem, była to raczej okazja do gratulacji niż do zdziwienia.
[10] Odkrycie promieni X wywołało jednak nie tylko zdumienie, ale wstrząs. Lord Kelvin początkowo uznał je za dobrze pomyślaną bajeczkę. Inni, nie mogąc zaprzeczyć oczywistości zjawiska, byli całkiem oszołomieni. Aczkolwiek obowiązująca teoria nie wykluczała istnienia promieni X, odkrycie ich podważyło mocno ugruntowane oczekiwania. Oczekiwania te znajdowały, jak sądzę, wyraz w sposobie projektowania aparatury laboratoryjnej i interpretacji jej funkcjonowania. Około roku 1890 wiele laboratoriów europejskich rozporządzało aparaturą do wytwarzania promieni katodowych. Jeśli Roentgen otrzymał promienie X za pomocą swojej aparatury, należało przypuszczać, że mieli z nimi do czynienia, nie wiedząc o tym, również inni eksperymentatorzy. Być może promienie te - które mogły z powodzeniem mieć również i inne nieznane źródła - wpływały na procesy tłumaczone dotąd bez odwoływania się do istnienia takich promieni. W każdym zaś razie na przyszłość trzeba było zaopatrywać dobrze znane przyrządy laboratoryjne w osłony ołowiane. Przeprowadzone dotąd badania w ramach ustalonych procedur wymagały powtórzenia, skoro uczeni nie uwzględniali w nich i nie kontrolowali jednego z czynników wpływających na przebieg badanych procesów. Promienie X otworzyły z pewnością nowe pole badań i w ten sposób rozszerzyły potencjalny zakres nauki normalnej. Co ważniejsze jednak, przekształciły one również istniejące wcześniej obszary badań. Kazały one inaczej spojrzeć na wyposażenie aparaturowe uznawane dotąd za paradygmatyczne.
[11] Krótko mówiąc, decyzja korzystania w określony sposób z pewnego rodzaju przyrządów oparta jest, świadomie lub nieświadomie, na założeniu, że będzie się miało do czynienia tylko z określonym rodzajem okoliczności. W nauce mamy do czynienia nie tylko z przewidywaniami teoretycznymi, ale i instrumentalnymi - i często odgrywają one w jej rozwoju decydującą rolę. Jedno z takich przewidywań zaważyło na historii spóźnionego odkrycia tlenu. Korzystając ze standardowej metody sprawdzania "czystości powietrza", zarówno Priestley, jak Lavoisier mieszali dwie objętości nowo otrzymanego gazu z jedną objętością tlenku azotu, wstrząsali mieszaninę nad wodą i mierzyli objętość pozostałości. Dotychczasowe doświadczenia, na których oparta była ta metoda, wskazywały, że w wypadku powietrza atmosferycznego otrzymuje się jedną objętość, natomiast w wypadku innych gazów (oraz zanieczyszczonego powietrza) pozostałość gazowa ma objętość większą. W doświadczeniach z tlenem obaj stwierdzili, że otrzymują mniej więcej jedną objętość gazu, i odpowiednio identyfikowali badany gaz. Dopiero o wiele później, częściowo zawdzięczając to przypadkowi, Priestley porzucił tę standardową metodę i próbował mieszać tlenek azotu ze swoim gazem w innych stosunkach. Stwierdził wówczas, że przy poczwórnej objętości tlenku azotu w ogóle nie pozostaje żaden gaz. Jego przywiązanie do starej metody usankcjonowanej przez dotychczasowe doświadczenie decydowało zarazem o przeświadczeniu, że nie mogą istnieć gazy, które zachowywałyby się tak, jak zachowuje się tlen.
[12] Przykładów tego rodzaju przytaczać można wiele. Tak więc jedną z przyczyn późnego rozpoznania rozpadu promieniotwórczego uranu było to, że badacze, którzy wiedzieli, czego należy się spodziewać przy bombardowaniu atomów uranu, korzystali z metod chemicznych odpowiednich dla pierwiastków lekkich. Czyż mając na uwadze to, że błędy wynikające z takiego przywiązania do metod eksperymentalnych zdarzają się w nauce nierzadko, mielibyśmy wnioskować, iż nauka powinna zrezygnować ze standardowych procedur sprawdzających i przyrządów? Bez nich nie sposób sobie wyobrazić jakichkolwiek badań. Paradygmatyczne procedury i zastosowania są równie niezbędne w nauce jak paradygmatyczne prawa i teorie i prowadzą do tych samych skutków. Nieuchronnie ograniczają obszar zjawisk dostępnych badaniom naukowym w każdym okresie. Jeśli to zrozumiemy, pojmiemy zarazem, dlaczego odkrycia takie, jak odkrycie promieni X, istotnie wymagają zmiany paradygmatu - a tym samym również zmiany metod i przewidywań - przez dany krąg specjalistów. Dzięki temu zrozumiemy również, dlaczego odkrycie to zdawało się wielu uczonym otwierać nowy dziwny świat i przez to efektywnie przyczyniło do kryzysu, który doprowadził do powstania fizyki współczesnej.
[13] Ostatni przykład, który rozpatrzymy - wynalazek butelki lejdejskiej - należy do klasy odkryć, które potraktować można jako inspirowane przez teorie. Na pierwszy rzut oka określenie to wydawać się może paradoksalne. Większość naszych dotychczasowych wywodów wskazywała, że odkrycia przewidziane przez istniejącą teorię należą do nauki normalnej i nie prowadzą w rezultacie do nowego rodzaju zjawisk. Wspomniałem na przykład wcześniej o dokonanych w drugiej połowie ubiegłego stulecia odkryciach nowych pierwiastków chemicznych, traktując je jako rezultat badań w ramach nauki normalnej. Nie wszystkie jednak teorie są teoriami paradygmatycznymi. Zarówno w okresach przedparadygmatycznych, jak w czasach kryzysów, które prowadzą do zasadniczych zmian paradygmatów, uczeni formułują zazwyczaj wiele spekulatywnych i nie opracowanych w szczegółach teorii, które mogą torować drogę odkryciom. Wówczas jednak często zdarza się, że dokonywane odkrycia nie są tym, czego spodziewano się na gruncie spekulatywnych, prowizorycznych hipotez. Dopiero wtedy, gdy eksperyment i teoria zostają dopracowane i dopasowane do siebie, pojawiają się nowe odkrycia, a teoria staje się paradygmatem.
[14] Odkrycie butelki lejdejskiej ujawnia dobitnie wszystkie te cechy, jak i wiele z omówionych poprzednio. U jego początków nie istniał jeszcze jeden wspólny paradygmat badań nad elektrycznością. Istniało natomiast kilka współzawodniczących teorii opartych na stosunkowo łatwo dostępnych zjawiskach. Żadnej z nich nie udało się dobrze uporządkować ogółu różnorodnych zjawisk elektrycznych. Te niepowodzenia są źródłem szeregu anomalii, które legły u podłoża odkrycia butelki lejdejskiej. Jedna ze współzawodniczących szkół traktowała elektryczność jako fluid. Koncepcja ta nasunęła badaczom pomysł zbierania tego fluidu w butelce. W tym celu do trzymanego w ręku naczynia wypełnionego wodą wprowadzali przewód wiodący od maszyny elektrostatycznej. Odłączając butelkę od maszyny i dotykając drugą ręką wody lub zanurzonego w niej przewodu, odczuwa się silny wstrząs. Jednak te pierwsze doświadczenia nie doprowadziły jeszcze do wynalazku butelki lejdejskiej. Trwało to znacznie dłużej i znów nie sposób powiedzieć dokładnie, kiedy proces ten dobiegł końca. Pierwsze próby zbierania fluidu elektrycznego udawały się tylko dlatego, że eksperymentator, stojąc sam na ziemi, trzymał butelkę w rękach. Badacze elektryczności mieli się jeszcze przekonać, że naczynie musi być wyposażone w zewnętrzną i wewnętrzną osłonę będącą dobrym przewodnikiem i że w gruncie rzeczy żadnego fluidu w butelce nie zebrano. Dopiero w toku badań, które im to wyjaśniły i które w efekcie doprowadziły właśnie do wyraźnych anomalii, powstał przyrząd, który zwykliśmy nazywać butelką lejdejską. Co więcej, te same doświadczenia, które do wynalazku tego ostatecznie doprowadziły, a które w znacznym stopniu zawdzięczamy Franklinowi, ujawniły zarazem konieczność zasadniczej rewizji koncepcji elektryczności fluidu, dostarczając tym samym pierwszego pełnego paradygmatu badań nad elektrycznością.
[15] Wskazane wyżej cechy trzech omówionych przykładów są - w większym lub mniejszym zakresie (odpowiadającym kontinuum od wyników zaskakujących po oczekiwane) - wspólne wszystkim odkryciom, które prowadzą do poznania nowego typu zjawisk. Charakteryzuje je m.in.: wstępne uświadomienie sobie anomalii, stopniowe i jednoczesne wyłanianie się nowych obserwacji i pojęć, a w konsekwencji zmiana paradygmatycznych kategorii i procedur badawczych, czemu towarzyszy zazwyczaj opór tradycji. Co więcej, istnieją świadectwa przemawiające za tym, że są to zarazem cechy charakterystyczne samego procesu postrzegania. Na szczególną uwagę zasługuje pewien mało znany poza kręgiem specjalistów eksperyment psychologiczny przeprowadzony przez Brunera i Postmana. Prosili oni badane osoby o identyfikację, po krótkich seriach ekspozycji, kart do gry. Wiele kart było zupełnie zwykłych, niekiedy jednak zdarzały się anomalie w postaci na przykład czerwonej szóstki pik albo czarnej czwórki kier. Każda faza doświadczenia polegała na pokazywaniu pojedynczej osobie jednej karty w serii stopniowo przedłużanych ekspozycji, przy czym każdorazowo pytano badanego, co widział. Doświadczenie kończyło się po dwóch kolejnych prawidłowych odpowiedziach.
[16] Wiele badanych osób nazywało większość kart nawet przy najkrótszej ekspozycji, a przy nieznacznym jej przedłużeniu wszyscy nazywali wszystkie karty. W wypadku normalnych kart rozpoznania były na ogół prawidłowe, ale karty niezwykłe uznawano niemal zawsze, bez wyraźnego wahania czy zakłopotania, za zwykłe. Na przykład czarną czwórkę kier utożsamiano albo z czwórką kier, albo z czwórką pik. Nie zdając sobie sprawy z istnienia jakiegokolwiek problemu, włączano ją natychmiast do jednej z przyswojonych uprzednio kategorii pojęciowych. Trudno byłoby nawet powiedzieć, że badani widzieli coś innego, niż identyfikowali. Kiedy ekspozycję nieprawidłowych kart przedłużano, zaczynały się wahania i zaczynano uświadamiać sobie występowanie anomalii. Na przykład na widok czerwonej szóstki pik mówiono niekiedy: "To szóstka pik, ale coś jest w niej dziwnego, wokół czarnego pola są czerwone brzegi". Przy dalszym przedłużaniu ekspozycji zmieszanie i zdziwienie wzrastało, a wreszcie, niekiedy zupełnie nagle, większość osób zaczynała identyfikować karty zupełnie poprawnie. Co więcej, po rozpoznaniu dwu lub trzech kart nieprawidłowych dalsze nasuwały znacznie mniej trudności. Jednak paru osobom nigdy nie udało się dopasować karty do odpowiedniej kategorii. Nawet podczas czterdziestej ekspozycji o przeciętnym trwaniu potrzebnym do właściwego rozeznania normalnych kart ponad 10 procent kart nieprawidłowych identyfikowano mylnie. Osoby, którym się nie powiodło, popadały niekiedy w stan silnego przygnębienia. Ktoś zawołał: "Nie potrafię powiedzieć, co to jest, wszystko mi jedno. Teraz to już nawet nie wygląda jak karta. Zupełnie nie wiem, jaki to kolor i czy jest to pik, czy kier. Nie jestem nawet pewny, jak wygląda pik. O mój Boże!". W następnym rozdziale będziemy mieli okazję spotkać uczonych zachowujących się niemal zupełnie w taki sam sposób.
[17] Czy to jako metafora, czy też jako odzwierciedlenie natury naszego umysłu - ten eksperyment psychologiczny ujawnia niezwykle prosty i przekonywający schemat procesu dokonywania odkryć naukowych. W nauce, jak w doświadczeniu z kartami, to, co nowe, wyłania się z trudem, napotyka opór wyrastający z utartych przewidywań. Początkowo nawet w okolicznościach, w których później ujawnią się anomalie, dostrzega się tylko to, co oczekiwane i zwykłe. Bliższe zaznajomienie się z nimi rodzi jednak świadomość, że coś jest nie w porządku lub że uzyskany wynik wiąże się z jakimś poprzednio popełnionym błędem. Uświadomienie sobie anomalii otwiera okres wypracowywania nowych kategorii pojęciowych, który trwa dopóty, dopóki to, co zdawało się anomalią, nie stanie się czymś oczekiwanym. Wraz z tym odkrycie doprowadzone zostaje do końca. Wszystkie podstawowe nowości naukowe pojawiły się, jak to już podkreślałem, na zasadzie takich właśnie lub bardzo do nich zbliżonych procesów. Obecnie, kiedy poznaliśmy już ten proces, możemy wreszcie zrozumieć, dlaczego nauka normalna, która nie jest nastawiona na poszukiwanie nowości i która początkowo nawet je tłumi, może mimo to tak skutecznie je wywoływać.
[18] W rozwoju każdej nauki pierwszy uzyskany paradygmat wydaje się zazwyczaj w pełni zadowalający i skuteczny w wyjaśnianiu większości obserwacji i eksperymentów łatwo dostępnych badaczom. Dalszy rozwój wymaga przeto z reguły konstruowania wymyślnych przyrządów, rozwinięcia wyspecjalizowanego słownictwa i umiejętności, uściślenia pojęć, które wskutek tego coraz bardziej oddalają się od swych potocznych prototypów. Ta specjalizacja prowadzi z jednej strony do ogromnego ograniczenia pola widzenia uczonego i znacznego oporu wobec zmiany paradygmatu. Nauka staje się coraz bardziej sztywna. Z drugiej zaś strony, w tych obszarach, na które paradygmat skierowuje uwagę badaczy, nauka normalna pozwala zdobyć tak szczegółowe wiadomości i dopasować teorię do obserwacji w tak ścisły sposób, jaki bez tego byłby niemożliwy. Co więcej, ta szczegółowość i precyzja w zgraniu teorii i doświadczenia ma wartość przekraczającą ich nie zawsze wielkie samoistne znaczenie. Bez specjalnych przyrządów, które buduje się głównie do przewidzianych zadań, nie można uzyskać wyników prowadzących ostatecznie do czegoś nowego. A nawet wówczas, kiedy przyrządy te istnieją, to, co nowe, ujawnia się tylko temu, kto dokładnie wie, czego powinien się spodziewać, i zdolny jest stwierdzić, że coś jest inaczej, niż być powinno. Anomalie ujawniają się tylko na gruncie paradygmatów. Im ściślejszy jest paradygmat i im dalej sięga, tym czulszym staje się wskaźnikiem anomalii dających asumpt do zmiany paradygmatu. W normalnym toku odkryć nawet opór przeciwko zmianom może być korzystny, o czym przekonamy się w następnym rozdziale. Opór ten oznacza, że paradygmat nie jest pochopnie odrzucany, a dzięki temu badacze nie dają się zbyt łatwo rozproszyć i anomalie, które domagają się zmiany paradygmatu, mogą przeniknąć do sedna istniejącej wiedzy. Już sam fakt, że istotne odkrycia naukowe pojawiają się jednocześnie w różnych laboratoriach, jest tu znaczący: wskazuje on zarówno na tradycyjny charakter nauki normalnej, jak na konsekwentny sposób, w jaki ona sama toruje drogę swym przeobrażeniom.
VII. KRYZYS A POWSTAWANIE TEORII NAUKOWYCH
[1] Wszystkie odkrycia omówione w rozdziale szóstym były przyczyną zmian paradygmatów lub przynajmniej je współwarunkowały. Co więcej, zmiany, w które odkrycia te były uwikłane, miały charakter tak konstruktywny, jak i destrukcyjny. Przyswojenie poszczególnych odkryć umożliwiało uczonym wyjaśnienie szerszego zakresu zjawisk przyrody bądź też ściślejsze ujęcie niektórych zjawisk wcześniej znanych. Sukces ten osiągano jednakże kosztem odrzucenia pewnych standardowych dawniej przekonań i procedur badawczych i zastąpienia tych składników dotychczasowego paradygmatu innymi. Wskazywałem już na to, że tego rodzaju zmiany związane są ze wszystkimi odkryciami nauki normalnej z wyjątkiem tych, które poza drobnymi szczegółami dawały się przewidzieć, nie były zatem czymś zaskakującym. Źródłem tego rodzaju konstruktywno-destrukcyjnych zmian paradygmatów są nie tylko odkrycia. W niniejszym rozdziale zajmiemy się analogicznymi, choć zazwyczaj o wiele gruntowniejszymi zmianami paradygmatów wynikającymi z pojawiania się nowych teorii.
[2] Pamiętając o tym, że w nauce nie da się w sposób kategoryczny odgraniczyć faktów i teorii, odkrywania i wymyślania, nie powinniśmy się dziwić, że treść niniejszego rozdziału pokrywać się będzie częściowo z treścią poprzedniego. (Niewiarygodne przypuszczenie, że Priestley najpierw odkrył tlen, a Lavoisier następnie go wymyślił, ma w sobie coś frapującego. Dotychczas mówiliśmy o odkryciu tlenu; niebawem zajmiemy się tlenem jako pomysłem teoretycznym.) Analiza wyłaniania się nowych teorii pogłębi zarazem nasze rozumienie sposobu dokonywania odkryć. Jednakże pokrywanie się to nie to samo co identyczność. Tego rodzaju odkrycia, jakie omówiliśmy w poprzednim rozdziale, nie były, przynajmniej brane z osobna, przyczyną takich zmian paradygmatów, jak rewolucja kopernikańska, newtonowska, einsteinowska czy też rewolucja chemiczna. Nie były one również wyłączną przyczyną nieco mniejszych - bo bardziej specjalistycznych - zmian paradygmatów związanych z falową teorią światła, mechaniczną teorią ciepła czy też elektromagnetyczną teorią Maxwella. W jaki więc sposób tego rodzaju teorie pojawiać się mogą w wyniku rozwoju nauki normalnej, która dąży do nich w jeszcze mniejszym stopniu niż do odkrywania zasadniczo nowych faktów?
[3] Jeśli uświadomienie sobie anomalii jest istotnym czynnikiem warunkującym odkrywanie nowego rodzaju zjawisk, nie powinniśmy się dziwić temu, że analogiczna, tylko pogłębiona świadomość jest wstępnym warunkiem wszelkich dopuszczalnych zmian teorii. Pod tym względem świadectwa historyczne są, jak sądzę, zupełnie jednoznaczne. Stan astronomii Ptolemeuszowej był skandalem już przed ogłoszeniem prac Kopernika. Wkład Galileusza do badań nad ruchem był ściśle związany z ograniczeniami teorii Arystotelesa, na które wskazali jej scholastyczni krytycy. Nowa teoria światła i barw Newtona zrodziła się z odkrycia, że żadna z istniejących przedparadygmatycznych teorii nie była w stanie wyjaśnić długości widma, a teoria falowa, która zastąpiła Newtonowską, wyłoniła się z rosnącego zainteresowania anomaliami, do jakich na gruncie tej ostatniej prowadziły zjawiska dyfrakcji i polaryzacji. U podłoża termodynamiki leżał konflikt między dwiema istniejącymi w wieku XIX teoriami fizycznymi, natomiast u podłoża mechaniki kwantowej - różne trudności związane z promieniowaniem ciała czarnego, ciepłem właściwym i efektem fotoelektrycznym. Co więcej, we wszystkich tych przypadkach, z wyjątkiem przypadku Newtona, świadomość anomalii trwała tak długo i przeniknęła tak głęboko, że można zasadnie twierdzić, iż dotknięty nimi obszar znajdował się w stanie narastającego kryzysu. Ponieważ pojawienie się nowej teorii wymaga daleko idącej destrukcji paradygmatu i zasadniczych zmian w problematyce i technikach nauki normalnej, poprzedza je zazwyczaj okres znacznej niepewności zawodowej. Niepewność ta rodzi się z notorycznych niepowodzeń nauki normalnej w rozwiązywaniu łamigłówek. Świadomość zawodności istniejących reguł stanowi preludium do poszukiwania nowych.
[4] Rozpatrzmy naprzód szczególnie głośną zmianę paradygmatu - pojawienie się astronomii kopernikańskiej. Poprzedzający ją system Ptolemeusza opracowany został szczegółowo w ciągu ostatnich dwustu lat przed naszą erą oraz dwóch pierwszych wieków naszej ery; pozwalał on wówczas na podziwu godną dokładność w przewidywaniu zarówno ruchów gwiazd, jak biegu planet. Żaden inny system starożytny nie dawał takich możliwości. Jeśli chodzi o ruchy gwiazd, astronomia ptolemeuszowa znajduje jeszcze dziś szerokie zastosowanie jako przybliżenie techniczne. Jeśli zaś chodzi o planety, przewidywania oparte na systemie Ptolemeusza były równie ścisłe jak przewidywania teorii kopernikańskiej. Ale zadziwiający sukces to, w wypadku teorii naukowej, nie to samo co pełny sukces. Jeśli chodzi o położenia planet i precesję punktu równonocy, przewidywania oparte na systemie Ptolemeusza nigdy nie pokrywały się całkowicie z najdokładniejszymi ówczesnymi obserwacjami. Sukcesywna eliminacja tych niewielkich niedokładności była jednym z głównych celów normalnych badań astronomicznych prowadzonych przez następców Ptolemeusza, podobnie jak próby pogodzenia obserwacji ciał niebieskich z teorią Newtona dostarczały normalnych problemów badawczych osiemnastowiecznym spadkobiercom Newtona. Przez pewien czas astronomowie mogli zasadnie przypuszczać, że próby te zwieńczone zostaną takim sukcesem jak te, które doprowadziły do systemu ptolemeuszowego. Mając do czynienia z taką czy inną nieścisłością, astronomowie potrafili ją zawsze wyeliminować, wprowadzając odpowiednią poprawkę do ptolemeuszowego systemu epicykli i deferentów. Jednak patrząc z pewnego dystansu na sumaryczne wyniki normalnych wysiłków badawczych wielu astronomów, można było zauważyć, że astronomia staje się coraz bardziej skomplikowana, że stopień jej komplikacji rośnie szybciej niż jej dokładność, a odchylenia wyeliminowane w jednym miejscu pojawiają się na nowo w innym.
[5] Ze względu na to, że czynniki zewnętrzne stale naruszały ciągłość tradycji astronomicznej, a brak druku utrudniał porozumiewanie się astronomów między sobą, nieprędko dostrzeżono te trudności. Z czasem jednak to nastąpiło. W wieku XIII Alfons X mógł sobie pozwolić na twierdzenie, że gdyby Bóg, stwarzając świat, poszukał rady u niego, otrzymałby szereg cennych wskazówek. W wieku XVI współpracownik Kopernika Domenico da Novara utrzymywał, że żaden system, który stał się tak toporny i nieścisły jak ptolemeuszowy, nie może być zgodny z przyrodą. Sam zaś Kopernik w Przedmowie do De revolutionibus pisał, że astronomiczna tradycja, jaką odziedziczył, stworzyła tylko jakiś dziwoląg. Na początku wieku XVI coraz częściej najlepsi astronomowie europejscy dochodzili do wniosku, że aktualny astronomiczny paradygmat zawodzi przy rozwiązywaniu problemów, które sam zrodził. Świadomość tego faktu kazała Kopernikowi odrzucić paradygmat ptolemeuszowy i poszukiwać nowego. Jego słynna Przedmowa stanowi po dziś dzień przykład klasycznego opisu kryzysu teoretycznego.
[6] Załamanie w normalnych technicznych czynnościach rozwiązywania łamigłówek nie jest oczywiście jedynym elementem kryzysu astronomii, w obliczu którego stanął Kopernik. Szersze rozpatrzenie tej sprawy wymagałoby omówienia również wpływu potrzeb społecznych domagających się reformy kalendarza, co sprawiało, że rozwiązanie zagadki precesji stawało się szczególnie pilne. Ponadto uwzględnić należałoby średniowieczne krytyki Arystotelesa, ukształtowanie się renesansowego neoplatonizmu oraz inne jeszcze czynniki historyczne. Jednakże sedno kryzysu leżało w problemach technicznych. W nauce dojrzałej - a astronomia stała się nią już w starożytności - takie czynniki zewnętrzne jak wymienione wyżej wywierają szczególnie istotny wpływ na chwilę, w której następuje kryzys, na jego uświadomienie sobie oraz na obszar, w jakim - ze względu na szczególne nim zainteresowanie - kryzys ten najpierw się ujawnia. Tego rodzaju kwestie, aczkolwiek niezwykle doniosłe, wykraczają jednak poza ramy niniejszej pracy.
[7] Rozważmy teraz inny przykład, a mianowicie kryzys, który poprzedził pojawienie się tlenowej teorii spalania Lavoisiera. W latach siedemdziesiątych XVIII wieku na kryzys w chemii złożyło się wiele czynników, a historycy nie są zgodni ani co do ich istoty, ani co do znaczenia. Dwóm z nich jednak przyznaje się powszechnie główne znaczenie. Chodzi mianowicie o powstanie chemii pneumatycznej i o problem stosunków wagowych. Historia chemii pneumatycznej zaczyna się w wieku XVII wraz z powstaniem pompy powietrznej i jej zastosowaniem w badaniach chemicznych. W ciągu następnego stulecia, korzystając z tej pompy i szeregu innych urządzeń, chemicy coraz lepiej zdawali sobie sprawę z tego, że powietrze musi być aktywnym czynnikiem przemian chemicznych. Z niewielkimi jednak wyjątkami - i to na tyle spornymi, że być może wcale nie są wyjątkami - chemicy nadal sądzili, że powietrze jest jedynym rodzajem gazu. Aż do roku 1756, kiedy Joseph Black wykazał, że tzw. związane powietrze (CO2) różni się zasadniczo od powietrza normalnego, uważano, że dwie próbki gazu różnić się mogą tylko ze względu na zanieczyszczenia.
[8] Po pracach Blacka badania nad gazami postępowały szybko naprzód, głównie dzięki Cavendishowi, Priestleyowi i Scheelemu, którzy opracowali wiele nowych metod umożliwiających odróżnianie jednej próbki gazu od drugiej. Wszyscy ci badacze, począwszy od Blacka aż do Scheelego, uznawali teorię flogistonową i korzystali z niej szeroko do planowania i interpretacji swych doświadczeń. Scheele istotnie pierwszy otrzymał tlen w wyniku szeregu eksperymentów, których celem było deflogistonowanie ciepła. Jednakże faktycznym wynikiem ich doświadczeń było otrzymanie rozmaitych gazów o różnych właściwościach, na tyle szczegółowo zbadanych, że teoria flogistonowa okazywała się coraz mniej zgodna z wynikami doświadczeń. I chociaż żaden z tych chemików nie proponował zmiany teorii, to jednak nikt nie potrafił już stosować jej konsekwentnie. W latach siedemdziesiątych, kiedy Lavoisier rozpoczął swoje doświadczenia z powietrzem, istniało niemal tyle wersji teorii flogistonowej, ilu żyło chemików zajmujących się gazami. Takie zróżnicowanie jest nader powszechnym symptomem kryzysu. Kopernik w swojej Przedmowie również skarżył się na to.
[9] Wzrastająca wieloznaczność i coraz mniejsza użyteczność teorii flogistonowej dla chemii pneumatycznej nie była jednak jedynym źródłem kryzysu, z którym miał do czynienia Lavoisier. Zajmował się on również wyjaśnieniem wzrostu wagi wielu ciał przy spalaniu lub wypalaniu, a problem ten ma też swą długą historię. Co najmniej kilku arabskich chemików wiedziało, że w wyniku wypalania niektóre metale zwiększają swój ciężar. W wieku XVII wielu badaczy na podstawie tych samych faktów twierdziło, że rozżarzone metale przyłączają jakiś składnik atmosfery. W tym czasie jednak wniosek ten był bezużyteczny dla większości chemików. Skoro reakcja chemiczna zmieniać może objętość, barwę, strukturę składników, to dlaczego nie miałaby również zmieniać ciężaru? Ciężar nie zawsze traktowano jako miarę ilości materii. Ponadto przyrost ciężaru przy wypalaniu pozostawał nadal zjawiskiem odosobnionym. Większość substancji naturalnych (np. drewno) traci na wadze przy spalaniu, co pozostawało w zgodzie z przewidywaniami teorii flogistonowej.
[10] W wieku XVIII jednakże coraz trudniej było obstawać przy tych początkowo zadowalających ujęciach zjawiska przyrostu ciężaru. Działo się tak częściowo dlatego, że waga stawała się coraz częściej używanym w chemii przyrządem, częściowo zaś z tej racji, że rozwój chemii pneumatycznej umożliwiał i domagał się zbierania gazowych produktów reakcji, które teraz badano, stwierdzając coraz częściej przyrost ciężaru przy spalaniu. Jednocześnie za sprawą stopniowej asymilacji teorii grawitacji Newtona chemicy doszli do przekonania, że przyrost ciężaru musi być równoznaczny z przyrostem ilości materii. Wnioski te nie zmuszały do odrzucenia teorii flogistonowej, którą można było w rozmaity sposób z nimi pogodzić. Można było na przykład założyć, że flogiston ma ciężar ujemny albo że do ciała spalonego przyłączają się cząstki ognia czy też coś innego, podczas kiedy wyzwala się z niego flogiston. Możliwe były i inne wyjaśnienia. Jeśli jednak problem przyrostu ciężaru nie zmuszał do odrzucenia teorii, doprowadził do szczegółowych badań, w których odgrywał zasadniczą rolę. Jedna z takich prac, O flogistonie traktowanym jako substancja ważka i (analizowanym) ze względu na zmiany ciężaru, jakie powoduje w ciałach, z którymi się łączy, przedstawiona została Francuskiej Akademii na początku roku 1772, pod koniec tego samego roku Lavoisier przesłał sekretarzowi Akademii swą słynną rozprawę. Do tego czasu problem przyrostu ciężaru, z którym mierzyli się chemicy, pozostawał główną nie rozwiązaną łamigłówką. Aby dać sobie z nim radę, formułowano wiele rozmaitych wersji teorii flogistonowej. Podobnie jak problemy chemii pneumatycznej, tak i to zagadnienie coraz bardziej podważało sens teorii flogistonowej. Chociaż wciąż jeszcze paradygmat chemii osiemnastowiecznej traktowany był jako użyteczne narzędzie, tracił stopniowo swój jednolity status. Podporządkowane mu badania upodabniały się coraz bardziej do charakterystycznej dla okresu przedparadygmatycznego walki konkurencyjnych szkół, co stanowi inny typowy przejaw kryzysu.
[11] Przejdźmy teraz do trzeciego i ostatniego przykładu - kryzysu w fizyce pod koniec XIX wieku, który torował drogę powstaniu teorii względności. Jedno z jego źródeł sięgało końca XVII wieku, kiedy wielu filozofów przyrody, a przede wszystkim Leibniz, krytykowało obstawanie Newtona przy klasycznej koncepcji przestrzeni absolutnej. Bliscy oni byli, choć nigdy nie udało im się to w pełni, wykazania, że pojęcia absolutnego położenia i absolutnego ruchu nie odgrywają żadnej roli w systemie Newtona. Udało się im natomiast odsłonić coś z estetycznego uroku, jaki później roztoczyć miała już w pełni relatywistyczna koncepcja przestrzeni i ruchu. Krytyka ich miała jednak charakter czysto logiczny. Podobnie jak pierwsi kopernikańczycy, którzy krytykowali Arystotelesowe dowody bezruchu Ziemi, nie przypuszczali oni nawet, by przyjęcie koncepcji relatywistycznej prowadzić miało do jakichś dających się sprawdzić obserwacyjnie wniosków. Ich krytyczne wywody nie wiązały się z żadnymi problemami, które pojawiają się przy stosowaniu teorii Newtona. W rezultacie poglądy ich zginęły śmiercią naturalną w pierwszych dziesięcioleciach XVIII wieku i odżyć miały dopiero pod koniec XIX stulecia. Wtedy jednak ich stosunek do aktualnych problemów praktyki badań fizycznych był już zupełnie inny.
[12] Problemy techniczne, z jakimi można było wreszcie powiązać relatywistyczną koncepcję przestrzeni, stały się przedmiotem zainteresowania nauki normalnej wraz z przyjęciem falowej teorii światła, a więc gdzieś około roku 1815. Kryzys w fizyce zrodziły one jednak dopiero w latach dziewięćdziesiątych. Jeśli światło jest ruchem falowym, którego nośnikiem jest eter o własnościach mechanicznych, i ruchem tym rządzą prawa Newtona, to zarówno obserwacje astronomiczne, jak doświadczenia w warunkach ziemskich powinny ujawniać ruch względem eteru. Jeśli chodzi o obserwacje astronomiczne, to tylko te, które dotyczyły ugięcia światła, zapewnić mogły dostateczną ścisłość informacji niezbędnych do wykrycia ruchu względem eteru. Dlatego też pomiary tego rodzaju stały się uznanym problemem badań normalnych. Budowano wiele specjalnych przyrządów, aby go rozwiązać, jednakże nie wykazały one spodziewanych zjawisk. W konsekwencji zagadnieniem tym przestali się zajmować eksperymentatorzy, a przejęli je teoretycy. W połowie stulecia Fresnel, Stokes i inni sformułowali wiele szczegółowych wersji teorii eteru, które miały wytłumaczyć, dlaczego ruch względem eteru nie daje się zaobserwować. Każda z nich zakładała, że poruszające się ciało pociąga za sobą cząstki eteru. I każda z nich skutecznie tłumaczyła nie tylko negatywne wyniki obserwacji astronomicznych, lecz również doświadczeń ziemskich włącznie ze słynnym eksperymentem Michelsona-Morleya. Wciąż więc jeszcze, jeśli pominąć sprzeczności między poszczególnymi wersjami teorii, nie zarysował się konflikt między teorią a doświadczeniem. Wobec braku odpowiednich metod doświadczalnych sprzeczności te nie nabrały ostrego charakteru.
[13] Sytuacja zaczęła się zmieniać dopiero wraz ze stopniowym rozpowszechnieniem się elektromagnetycznej teorii Maxwella, tzn. w ostatnim dwudziestoleciu XIX wieku. Sam Maxwell był zwolennikiem teorii Newtona, tzn. sądził, że światło i zjawiska elektromagnetyczne są w zasadzie wynikiem mechanicznego ruchu cząstek eteru. Pierwsza zaproponowana przez niego wersja teorii elektryczności i magnetyzmu odwoływała się bezpośrednio do hipotetycznych właściwości, które miał mieć eter. Usunięte one zostały wprawdzie z ostatecznego sformułowania teorii, ale Maxwell nadal wierzył, że teoria elektromagnetyczna da się pogodzić z jakimś uszczegółowieniem teorii Newtona. Znalezienie tego wariantu stało się głównym zadaniem dla niego samego i dla jego następców. W praktyce jednak, jak to się zazwyczaj zdarza w rozwoju nauki, takie uszczegółowienie teorii okazało się niezwykłe trudne. Podobnie jak propozycje Kopernika, wbrew optymizmowi autora, pogłębiły kryzys aktualnych teorii ruchu, tak też i teoria Maxwella, mimo swych Newtonowskich źródeł, doprowadziła do kryzysu paradygmatu, z którego sama wyrosła. Co więcej, obszarem, na którym kryzys ten uwidocznił się ze szczególną ostrością, były problemy, o których przed chwilą mówiliśmy, tzn. kwestie związane z ruchem względem eteru.
[14] Analizując zjawiska elektromagnetyczne związane z ruchem ciał, Maxwell nie odwoływał się do ruchów cząstek eteru; wprowadzenie tej hipotezy do jego teorii okazało się bardzo trudne. W rezultacie więc wszystkie poprzednie obserwacje mające na celu wykrycie przesunięć względem eteru musiały zostać uznane za anomalie. Dlatego też po roku 1890 podejmowano wiele prób, zarówno doświadczalnych, jak teoretycznych, wykrycia ruchu względem eteru i wprowadzenia go do teorii Maxwella. Wszystkie usiłowania doświadczalne okazały się bezskuteczne, chociaż niektórzy eksperymentatorzy uważali, że uzyskane wyniki nie są rozstrzygające. Usiłowania teoretyczne doprowadziły natomiast do kilku obiecujących rezultatów - zwłaszcza Lorentza i Fitzgeralda - lecz i one ujawniły ostatecznie szereg trudności i w konsekwencji doprowadziły do powstania wielu różnych konkurencyjnych hipotez, co, jak już widzieliśmy, towarzyszy kryzysowi. W tym właśnie historycznym układzie wyłoniła się szczególna teoria względności Einsteina sformułowana w roku 1905.
[15] Omówione trzy przykłady są typowe. We wszystkich wypadkach nowa teoria pojawiała się dopiero po jakimś wyraźnym niepowodzeniu w normalnym rozwiązywaniu łamigłówek. Co więcej, z wyjątkiem przypadku Kopernika, w którym czynniki pozanaukowe odegrały szczególnie wielką rolę, załamanie się i będące jego oznaką rozszczepienie teorii na konkurujące wersje następowało nie więcej niż dziesięć-dwadzieścia lat przed ogłoszeniem nowej teorii. Nowa teoria wydaje się bezpośrednią odpowiedzią na kryzys. Zauważmy również, choć nie musi to być typowe, że problemy, które powodowały kryzys, dostrzegano od dawna. Dotychczasowa praktyka nauki normalnej dostarczała wszelkich racji, by sądzić, że są one rozwiązane lub prawie że rozwiązane. Pozwala to zrozumieć, dlaczego świadomość kryzysu, z chwilą gdy już nadszedł, była tak ostra. Niepowodzenie związane z rozwiązywaniem nowego rodzaju problemu jest często przygnębiające, ale nie jest niespodzianką. Ani problemy, ani łamigłówki nie dają się rozwiązać za jednym zamachem. Wreszcie przykłady te odznaczają się inną cechą, która pozwala lepiej zrozumieć rolę kryzysów: rozwiązanie każdego z nich miało przynajmniej częściowe antycypacje w okresie przedkryzysowym; wówczas jednak rozwiązania te były lekceważone.
[16] Jedynym dobrze znanym przykładem pełnej antycypacji późniejszej teorii jest astronomiczna teoria Arystarcha z III wieku p.n.e. Powiada się często, że gdyby nauka grecka była mniej dedukcyjna i mniej dogmatyczna, astronomia heliocentryczna mogłaby się zrodzić o osiemnaście wieków wcześniej, niż faktycznie powstała. Ale takie postawienie sprawy pomija cały kontekst historyczny. W czasach kiedy Arystarch sformułował swoją teorię, znacznie rozsądniejszy system geocentryczny nie potrzebował uzupełnień, jakich mogłaby mu teoretycznie dostarczyć koncepcja heliocentryczna. Cały rozwój astronomii ptolemeuszowej, zarówno jej triumfy, jak i upadek, przypada na okres po Arystarchu. Ponadto nie istniały żadne racje, aby hipotezę Arystarcha potraktować poważnie. Nawet bardziej wypracowana koncepcja zaproponowana przez Kopernika nie była ani prostsza, ani dokładniejsza niż system Ptolemeusza. Dostępne dane obserwacyjne, o czym się jeszcze przekonamy, nie stwarzały podstawy do dokonania między nimi wyboru. W tych okolicznościach jednym z czynników, który skłaniał astronomów do teorii Kopernika (a który nie mógł ich skłaniać do koncepcji Arystarcha), było rozpoznanie kryzysu, będącego też główną przyczyną innowacji. Astronomii ptolemeuszowej nie udało się rozwiązać problemów, które zrodziły kryzys; nadszedł czas, by dać szansę konkurencyjnej teorii. Jeśli chodzi o dwa pozostałe przykłady, teorie nie miały takich pełnych historycznych antycypacji. Nie ulega jednak wątpliwości, że jedną z przyczyn, dla których teorie spalania przez przyłączanie jakiegoś składnika atmosfery (teorie sformułowane w XVII wieku przez Reya, Hooke'a i Mayowa) nie znalazły posłuchu, było to, że nie nawiązywały one do problemów uznawanych wówczas za najbardziej dokuczliwe w normalnej praktyce naukowej. Z podobnych przyczyn wynikało długotrwałe bagatelizowanie przez osiemnastowiecznych i dziewiętnastowiecznych uczonych relatywistycznych krytyk teorii Newtona.
[17] Filozofowie nauki niejednokrotnie pokazywali, że te same dane doświadczalne służyć mogą za podstawę różnych konstrukcji teoretycznych. Historia nauki wskazuje, że zwłaszcza we wczesnych okresach rozwoju nowego paradygmatu nie jest zbyt trudno wymyślać tego rodzaju alternatywne teorie. Jednak uczeni czynią to rzadko, z wyjątkiem okresów przedparadygmatycznych rozwoju danej nauki i szczególnych okoliczności w toku jej późniejszej ewolucji. Póki paradygmat dostarcza skutecznych narzędzi do rozwiązywania formułowanych na jego gruncie problemów, nauka rozwija się szybciej i dociera głębiej, opierając się na wypróbowanych zastosowaniach tych narzędzi. Przyczyny tego są jasne. Podobnie jak w przemyśle, tak i w nauce - nowe oprzyrządowanie jest przedsięwzięciem nadzwyczajnym, zarezerwowanym na szczególne okoliczności, które tego niezbędnie wymagają. Znaczenie kryzysów polega na tym, że wskazują one, iż nadszedł czas takiego przedsięwzięcia.
[1] Przyjmijmy więc, że kryzysy są koniecznym warunkiem wstępnym pojawiania się nowych teorii, i zapytajmy, w jaki sposób uczeni reagują na nie. Część odpowiedzi - równie ważną jak oczywistą - można odnaleźć, wskazując ogólnie na to, czego uczeni nigdy nie robią, gdy mają do czynienia nawet z ostrymi i długotrwałymi anomaliami. Chociaż mogą tracić zaufanie do paradygmatu i poszukiwać alternatywnych wobec niego rozwiązań, nie odrzucają paradygmatu, który doprowadził do kryzysu. To znaczy nie traktują anomalii jako świadectw obalających teorię, jak by się tego domagała filozofia nauki. Uogólnienie to jest częściowo po prostu konstatacją historycznych faktów, opartą na przykładach, jak te, które omówiliśmy poprzednio, i innych, o których jeszcze będzie mowa. Pokazują one - co wyraźniej pokaże dalsza analiza sposobu odrzucania paradygmatów - że teoria naukowa, która uzyskała już status paradygmatu, uznawana jest dopóty, dopóki nie pojawi się inna, zdolna pełnić tę funkcję. Historyczne badania rozwoju nauki w żadnym razie nie potwierdzają owego metodologicznego stereotypu falsyfikacji, zgodnie z którym polegać by ona miała na bezpośrednim konfrontowaniu teorii z przyrodą. Uwaga ta nie znaczy, że uczeni nie odrzucają teorii naukowych albo że obserwacja i eksperyment nie odgrywają w tym istotnej roli. Znaczy to natomiast - co okaże się sprawą zasadniczą - że akt oceny, który prowadzi uczonych do odrzucenia poprzednio akceptowanych teorii, oparty jest zawsze na czymś więcej niż tylko na konfrontacji teorii z doświadczeniem. Decyzja porzucenia jednego paradygmatu jest zawsze zarazem decyzją przyjęcia innego, a ocena prowadząca do tej decyzji wymaga porównania obu paradygmatów tak z przyrodą, jak i między sobą.
[2] Istnieje ponadto druga przyczyna, która każe wątpić w to, że uczeni odrzucają paradygmaty w rezultacie wykrycia anomalii czy też świadectw podważających teorię. Omówienie jej odsłoni zarazem kolejną ważną tezę niniejszej pracy. Zarysowane wyżej racje powątpiewania w słuszność takiego ujęcia miały charakter czysto faktyczny; to znaczy one same były świadectwami przemawiającymi przeciwko rozpowszechnionemu poglądowi epistemologicznemu. Jako takie, o ile przyjąć mój punkt widzenia, mogą one w najlepszym razie sprzyjać zrodzeniu się kryzysu albo ściślej - pogłębić kryzys, który już się wyraźnie zarysował. Nie mogą natomiast sfalsyfikować i nie sfalsyfikują tej teorii filozoficznej, albowiem jej obrońcy zachowają się właśnie tak, jak zachowują się uczeni, kiedy natkną się na anomalię. Będą oni wprowadzać rozmaite uszczegółowienia i modyfikacje ad hoc do swej teorii, aby wyeliminować pojawiające się sprzeczności. Wiele takich modyfikacji i poprawek można rzeczywiście odnaleźć w odpowiedniej literaturze. A zatem te fakty przeczące teorii epistemologicznej staną się istotne o tyle, o ile przyczynią się do sformułowania nowej, odmiennej koncepcji nauki, koncepcji, w ramach której nie będą już one anomaliami. Co więcej, jeśli również do tej sytuacji da się odnieść typowy schemat rewolucji naukowych, do którego wykrycia dojdziemy niżej, to anomalie te nie będą już dalej traktowane po prostu jako fakty. W ramach nowej filozoficznej teorii nauki wydawać się one mogą czymś w rodzaju tautologii, opisami zdającymi sprawę z czegoś, co w żadnym razie nie może istnieć inaczej.
[3] Często zaznaczano na przykład, że drugie prawo ruchu Newtona, mimo iż trzeba było stuleci trudnych badań doświadczalnych i teoretycznych, aby je sformułować, wydaje się ludziom przekonanym do teorii Newtona twierdzeniem czysto logicznym, które nie może zostać obalone przez żadne obserwacje. W rozdziale dziesiątym przekonamy się, że chemiczne prawo stosunków stałych, które przed Daltonem było twierdzeniem eksperymentalnym o bardzo wątpliwej ogólności, stało się po jego pracach składnikiem definicji związku chemicznego, definicji, której żadne doświadczenie samo przez się nie może obalić. Podobnie ma się rzecz z uogólnieniem mówiącym, że uczeni nie odrzucają paradygmatów, kiedy napotykają anomalie lub świadectwa sprzeczne z paradygmatami. Nie mogą tego czynić, nie przestając zarazem być uczonymi.
[4] Chociaż historia nie notuje ich imion, niektórzy badacze niewątpliwie porzucili naukę z tej racji, że nie umieli tolerować kryzysu. Podobnie jak artyści, twórczy uczeni muszą umieć niekiedy żyć w świecie pozbawionym ładu; konieczność tę nazwałem kiedyś "zasadniczym napięciem" towarzyszącym badaniom naukowym. Takie porzucenie nauki na rzecz innego zajęcia jest, jak sądzę, jedynym możliwym rodzajem odrzucenia paradygmatu, do jakiego może doprowadzić samo tylko stwierdzenie anomalii. Odkąd znaleziono pierwszy paradygmat pozwalający ujmować przyrodę, nie istnieje coś takiego jak badanie naukowe bez paradygmatu. Odrzucenie paradygmatu bez jednoczesnego zastąpienia go innym paradygmatem jest równoznaczne z porzuceniem samej nauki. Akt taki nie świadczy o paradygmacie, lecz o człowieku. Koledzy potraktują go niewątpliwie jak "ptaka, który własne gniazdo kala".
[5] Z równą słusznością powiedzieć można odwrotnie: nie istnieje coś takiego jak badanie naukowe, które nie trafia na anomalie! Na czym polega zatem różnica między nauką normalną a nauką w stanie kryzysu? Z pewnością nie na tym, że pierwsza nie ma do czynienia z faktami przeczącymi teorii. Przeciwnie, to, co uprzednio nazwaliśmy łamigłówkami składającymi się na naukę normalną, istnieje tylko dlatego, że żaden paradygmat będący podstawą badań naukowych nie rozwiązuje bez reszty wszystkich ich problemów. Te zaś nieliczne paradygmaty, które - jak optyka geometryczna - zdają się rozwiązywać wszystkie problemy, wkrótce przestają być płodne, nie nasuwają nowych zagadnień badawczych i przekształcają się po prostu w narzędzia technologii. Z wyjątkiem zagadnień czysto instrumentalnych wszystkie problemy, które dla nauki normalnej są łamigłówkami, można - z innego punktu widzenia - potraktować jako świadectwa sprzeczne z teorią, a więc jako źródło kryzysów. To, co dla większości następców Ptolemeusza było łamigłówką polegającą na dopasowywaniu teorii do doświadczenia, Kopernik potraktował jako fakty przeczące teorii. Dla Lavoisiera przykładem podważającym teorię było to, co Priestley traktował jako zadowalające rozwiązanie łamigłówki polegające na uszczegółowieniu teorii flogistonowej. Podobnie dla Einsteina kontrprzykładem było to, co Lorentz, Fitzgerald i inni traktowali jako łamigłówki związane z uszczegółowianiem teorii Newtona i Maxwella. Co więcej, nawet pojawienie się kryzysu samo przez się nie przekształca jeszcze łamigłówki w kontrprzykład. Nie istnieje tu ostra granica. Mnożąc wersje paradygmatu, kryzys rozluźnia reguły normalnego rozwiązywania łamigłówek, a tym samym toruje drogę nowemu paradygmatowi. Istnieją, jak sądzę, tylko dwie możliwości: albo żadna teoria naukowa nie napotyka nigdy sprzecznych z nią świadectw, albo wszystkie teorie mają zawsze z nimi do czynienia.
[6] Dlaczego sprawę tę ujmowano inaczej? Pytanie to nieuchronnie prowadzi do historycznej i krytycznej analizy poglądów filozoficznych, a ta wykracza poza ramy niniejszych rozważań. Możemy jednak przynajmniej wskazać na dwie przyczyny, dla których wydawało się, że nauka jest świetną ilustracją uogólnienia głoszącego, iż prawdziwość i fałszywość określa się wyłącznie i jednoznacznie poprzez konfrontację twierdzenia z faktami. Nauka normalna dąży stale i musi dążyć do uzyskania jak największej zgodności teorii z faktami; zabiegi z tym związane można z powodzeniem ująć jako sprawdzanie, tj. szukanie potwierdzenia bądź falsyfikacji. Jednakże jej celem jest rozwiązanie łamigłówki, której istnienie zasadza się na przekonaniu o słuszności paradygmatu. Niepowodzenie w uzyskaniu rozwiązania obciąża uczonego, a nie teorię. Tu, bardziej jeszcze niż poprzednio, znajduje zastosowanie przysłowie: "zły to ptak, co własne gniazdo kala". Po drugie, sposób, w jaki w procesie nauczania plącze się dyskusje teoretyczne z uwagami dotyczącymi przykładowych zastosowań teorii, sprzyjał umacnianiu się koncepcji potwierdzania wywodzącej się przeważnie z innych źródeł. Najsłabsze racje skłonić mogą kogoś czytającego podręcznik do uznania przykładów zastosowań za potwierdzenie teorii, za podstawę, by w nią wierzyć. A przecież studenci nauk przyrodniczych akceptują teorię na zasadzie autorytetu nauczyciela czy też tekstu, a nie na podstawie przemawiających za nią świadectw. Czyż mają inną możliwość? Czy mają odpowiednie kompetencje, by czynić inaczej? Zastosowań nie podaje się w podręczniku jako uzasadnienia teorii; podaje się je dlatego, że zapoznanie się z nimi jest potrzebne do przyswojenia sobie paradygmatu na gruncie aktualnej praktyki. Gdyby zastosowania podawane były w podręcznikach jako świadectwa przemawiające na rzecz teorii, to już samo przemilczenie możliwych alternatywnych interpretacji albo brak analizy problemów, dla których uczonym nie udało się dotąd znaleźć paradygmatycznych rozwiązań, dowodziłyby skrajnej stronniczości ich autorów. Brak jednak jakichkolwiek podstaw do takiego oskarżenia.
[7] W jaki więc sposób - by wrócić do wyjściowego pytania - reagują uczeni, gdy uświadamiają sobie zaistnienie anomalii na styku teorii i doświadczenia? To, co powiedzieliśmy wyżej, wskazuje, że nawet odchylenie o wiele większe od tych niedokładności, z jakimi ma się do czynienia przy innych zastosowaniach teorii, nie musi wywołać żadnej głębszej reakcji. Jakieś rozbieżności istnieją zawsze. Nawet te najbardziej nieustępliwe zwykle w końcu poddają się normalnej praktyce. Bardzo często uczeni wolą poczekać, zwłaszcza jeśli dostrzegają wiele innych problemów w badanym obszarze. Wspominaliśmy już na przykład, że przez sześćdziesiąt lat po pierwszych obliczeniach Newtona przewidywane perigeum Księżyca wynosiło tylko połowę wartości obserwowanej. Podczas gdy najlepsi fizycy-teoretycy Europy wciąż podejmowali bezowocne próby usunięcia tego odchylenia, sporadycznie pojawiały się propozycje, by zmodyfikować Newtonowskie prawo odwrotnie proporcjonalnej zależności siły od kwadratu odległości. Nikt jednak nie traktował tych propozycji zbyt poważnie i w praktyce to cierpliwe tolerowanie tak znacznej anomalii okazało się uzasadnione. W roku 1750 Clairaut zdołał wykazać, że błąd polega tylko na zastosowaniu niewłaściwego aparatu matematycznego i że teoria Newtona ostać się może w postaci nie zmienionej. Nawet w wypadkach, gdy takie błędy wydają się zupełnie niemożliwe (czy to dlatego, że zastosowany aparat matematyczny jest prostszy, czy też z tej racji, że uczeni są z nim obyci i jego stosowanie okazało się skuteczne w innych przypadkach), trwałe i uświadomione anomalie nie zawsze powodują kryzys. Nikt poważnie nie kwestionował teorii Newtona z powodu od dawna dostrzeganych niezgodności między nią a takimi faktami, jak prędkość dźwięku czy ruch Merkurego. Pierwsza z nich usunięta została ostatecznie w sposób zupełnie nieprzewidziany dzięki doświadczeniom nad ciepłem, które podejmowano w zupełnie innym celu. Druga znikła dzięki ogólnej teorii względności, a więc po przezwyciężeniu kryzysu, który nie ona zresztą wywołała. Jak widać, żadna z nich nie była dostatecznie fundamentalna, by wywołać marazm, jaki towarzyszy kryzysowi. Można je było traktować jako świadectwa przeczące teorii, a zarazem odłożyć na bok do późniejszego rozpatrzenia.
[8] Wynika z tego, że jeśli anomalia ma wywołać kryzys, to zazwyczaj musi być czymś więcej niż tylko anomalią. Kłopoty z dopasowaniem paradygmatu do przyrody występują zawsze. Większość z nich wcześniej lub później zostaje przezwyciężona, często w sposób, którego nie można było przewidzieć. Uczony, który przerywa swoje badania, aby rozpatrywać każdą napotkaną anomalię, rzadko kiedy zdoła wykonać poważną pracę. Musimy zatem zapytać, co sprawia, że jakaś anomalia wydaje się warta szczegółowego badania. Na pytanie to nie da się zapewne odpowiedzieć w sposób ogólny. Przypadki, jakimi zajmowaliśmy się wyżej, są niewątpliwie charakterystyczne, lecz nie rozstrzygające. Czasami anomalia stawiać może pod znakiem zapytania zasadnicze uogólnienia paradygmatu - jak problem ruchu eteru w wypadku tych uczonych, którzy akceptowali teorię Maxwella. Kiedy indziej kryzys może wywołać anomalia pozornie pozbawiona wielkiego znaczenia, jeśli zastosowania, z którymi jest związana, mają szczególnie doniosły sens praktyczny, jak w wypadku rewolucji kopernikańskiej - dla układania kalendarza i dla astrologii. Albo też, jak w osiemnastowiecznej chemii, rozwój nauki normalnej może przekształcić anomalię, która wcześniej tylko drażniła, w źródło kryzysu: problem stosunków wagowych nabrał całkiem innego znaczenia po wypracowaniu metod chemii pneumatycznej. Istnieją zapewne również i inne okoliczności, które sprawić mogą, że jakaś anomalia stanie się szczególnie dokuczliwa, przy czym zazwyczaj wiele takich okoliczności występuje naraz. Wspominaliśmy na przykład, że jednym ze źródeł kryzysu, w obliczu którego stanął Kopernik, był fakt, iż astronomowie przez długi czas nie mogli sobie poradzić z usunięciem pozostałych niezborności systemu Ptolemeusza.
[9] Kiedy z tych lub innych podobnych przyczyn anomalia zaczyna być postrzegana jako coś więcej niż po prostu kolejna łamigłówka nauki normalnej, znak to, że nauka wchodzi w fazę kryzysu i badań nadzwyczajnych. Wśród uczonych danej specjalności rozpowszechnia się świadomość, że rzeczywiście jest to anomalia. Coraz większa liczba najwybitniejszych specjalistów poświęca jej coraz więcej uwagi. Jeśli opiera się ona nadal wszelkim próbom jej usunięcia, co zazwyczaj nie ma miejsca, wielu uczonych zaczyna ją traktować jako główny przedmiot badań ich dyscypliny. Zaczynają inaczej postrzegać swoją dziedzinę. Częściowo wynika to po prostu z obrania nowej perspektywy badawczej. Jednak istotniejszym źródłem tej zmiany są rozbieżności między licznymi częściowymi rozwiązaniami pojawiającymi się dzięki skoncentrowaniu uwagi na danym problemie. Pierwsze próby rozwiązania stawiającego opór problemu podejmowane są w ścisłej zgodności z regułami wynikającymi z paradygmatu. Kiedy nie daje to jednak wyniku, coraz częściej wprowadza się mniejsze lub większe uszczegółowienia paradygmatu, z których każde jest inne, każde częściowo skuteczne, lecz żadne skuteczne na tyle, by uznane zostało przez grupę za paradygmat. Wskutek mnożenia się tych rozbieżnych wersji (coraz częściej traktowane są one jako wprowadzane ad hoc poprawki) reguły nauki normalnej stają się coraz bardziej zawiłe. Choć paradygmat wciąż jeszcze istnieje, większość uczonych nie zgadza się między sobą co do jego treści. Nawet standardowe rozwiązania rozstrzygniętych uprzednio problemów podawane są teraz w wątpliwość.
[10] Gdy sytuacja ta zaostrza się, uczeni w nią uwikłani zdają sobie niekiedy z niej sprawę. Kopernik skarżył się, że w jego czasach w dociekaniach prowadzonych przez astronomów "są takie sprzeczności... że nie potrafią oni nawet oznaczyć i obliczyć stałej wielkości roku zwrotnikowego". "Przytrafiło im się - pisał - to samo, co komuś, kto by to stąd, to zowąd wziął ręce, nogi, głowę i inne części ciała i namalował je, co prawda bardzo dobrze, ale tak, że w proporcji do jednego i tego samego ciała nie odpowiadałyby sobie nawzajem i powstałby z nich raczej jakiś dziwoląg niż obraz człowieka". Einstein, zgodnie z duchem czasu używając mniej kwiecistego języka, pisał po prostu: "Wydawało się, jakby grunt usuwał się każdemu spod nóg, i nie widać było nigdzie twardego oparcia, na którym można byłoby budować". Natomiast Wolfgang Pauli na miesiąc przed opublikowaniem pracy Heisenberga o mechanice macierzowej, wytyczającej drogę nowej teorii kwantów, pisał do przyjaciela: "W fizyce panuje obecnie straszne zamieszanie. W każdym razie jest to dla mnie zbyt trudne i wolałbym być aktorem filmowym lub kimś w tym rodzaju i nigdy nie mieć do czynienia z fizyką". Oświadczenie to jest szczególnie interesujące, jeśli porównać je z wypowiedzią Pauliego w niecałe pięć miesięcy później: "Mechanika Heisenberga zwróciła mi nadzieję i radość życia. Z pewnością nie daje ona jeszcze rozwiązania zagadki, ale znów wierzę, że można posuwać się naprzód".
[11] Takie wyraźne rozpoznania kryzysu są niezwykle rzadkie, ale skutki kryzysu nie zależą wyłącznie od ich świadomego rozpoznania. Na czym one polegają? Wydaje się, że tylko dwa z nich mają charakter uniwersalny. Wszystkie kryzysy zaczynają się od rozmycia paradygmatu, co prowadzi do rozluźnienia reguł badań normalnych. Pod tym względem badania w okresie kryzysu przypominają bardzo dociekania z okresu przedparadygmatycznego, z tą tylko różnicą, że w tym pierwszym wypadku różnice między stanowiskami są mniejsze i dokładniej sprecyzowane. Dalej, wszystkie kryzysy kończą się na jeden z trzech sposobów. Czasami okazuje się w końcu, że nauka normalna potrafi sobie poradzić z problemem, który spowodował kryzys, wbrew rozpaczy tych, którzy sądzili, że to już koniec dotychczasowego paradygmatu. Kiedy indziej problem taki opiera się nawet radykalnie nowym podejściom. Wówczas uczeni mogą dojść do wniosku, że na obecnym etapie rozwoju ich dziedziny nie jest możliwe jego rozwiązanie. Problem zostaje wówczas nazwany i odłożony na później, dla przyszłych pokoleń, które będą dysponowały doskonalszymi narzędziami. Albo też - i ten wypadek będzie nas tu najbardziej interesował - kryzys może się skończyć wyłonieniem nowego kandydata do roli paradygmatu i późniejszą walką o jego uznanie. Tym ostatnim rodzajem zakończenia kryzysu zajmiemy się szerzej w następnych rozdziałach, lecz musimy tu wybiec nieco naprzód, aby uzupełnić nasze uwagi o ewolucji i anatomii stanu kryzysowego.
[12] Przejście od paradygmatu znajdującego się w stanie kryzysu do innego, z którego wyłonić się może nowa tradycja nauki normalnej, nie jest bynajmniej procesem kumulatywnym; nie następuje ono w wyniku uszczegółowienia czy też rozszerzenia starego paradygmatu. Jest to raczej przebudowa danej dziedziny od podstaw, zmieniająca niektóre najbardziej elementarne uogólnienia teoretyczne oraz wiele metod i zastosowań paradygmatycznych. W okresie przejściowym problemy, jakie mogą być rozwiązane przez stary i nowy paradygmat, w znacznym stopniu się pokrywają, ale nigdy całkowicie. Zachodzi jednak również zasadnicza różnica w sposobie ich rozwiązywania. Z chwilą gdy przejście już się dokonało, okazuje się, że zmieniło się spojrzenie uczonych na daną dziedzinę, jej metody i cele. Pewien bystry historyk, rozważając klasyczny przypadek reorientacji nauki wskutek zmiany paradygmatu, ujął ostatnio ten proces jako "odwracanie kota ogonem"; polega on "...na operowaniu tym samym co wcześniej zespołem danych, które jednak umieszcza się w nowym systemie wzajemnych relacji poprzez nadanie im odmiennej struktury". Inni, którzy dostrzegli ten aspekt postępu naukowego, podkreślali jego podobieństwo do zmiany w postrzeganiu kształtu, na którą wskazała psychologia postaci: te same znaki na papierze, które początkowo dawały obraz ptaka, odbiera się teraz jako obraz antylopy, lub odwrotnie. Taka paralela może być jednak myląca. Uczeni, patrząc na coś, nie widzą tego jako czegoś innego; oni to po prostu widzą. Omówiliśmy już poprzednio niektóre problemy związane z ujęciem, w myśl którego Priestley postrzegał tlen jako zdeflogistonowane powietrze. Ponadto uczony nie dysponuje taką swobodą przechodzenia od jednego do drugiego sposobu widzenia, jaką ma podmiot w doświadczeniach z psychologii postaci. Mimo to zmiana sposobu widzenia postaci - zwłaszcza że dziś jest to sprawa dobrze znana - może być użyteczna jako elementarny prototyp tego, co zachodzi w wypadku pełnej zmiany paradygmatu.
[13] Nasze poprzednie rozważania dotyczące tego samego procesu w mniejszej skali, w wypadku pojawiania się nowych odkryć, pomogą nam zrozumieć kryzys jako właściwe preludium wyłaniania się nowych teorii. Właśnie dlatego, że pojawienie się nowej teorii oznacza zerwanie z jedną tradycją praktyki naukowej i wprowadzenie nowej, kierującej się innymi regułami i poruszającej się w świecie innych pojęć, nastąpić to może tylko wówczas, gdy zrodzi się uczucie, że stara tradycja donikąd już nie prowadzi. Stwierdzenie to jest jednak zaledwie preludium badań nad sytuacjami kryzysowymi, a - niestety - pytania, do których ono prowadzi, leżą bardziej w kompetencji psychologa niż historyka. Czym są badania nadzwyczajne? W jaki sposób anomalia staje się czymś prawidłowym? W jaki sposób postępują uczeni, gdy zdają sobie sprawę z tego tylko, że coś jest zasadniczo nie w porządku, i gdy nie dysponują narzędziami, które pozwoliłyby im sobie z tym poradzić? Pytania te wymagają dalszych badań, i to nie tylko historycznych. Z tego powodu poniższe uwagi będą z konieczności bardziej prowizoryczne i mniej kompletne niż to, co mówiliśmy dotychczas.
[14] Nowy paradygmat wyłania się niekiedy - przynajmniej w stanie zaczątkowym - nim jeszcze kryzys zdąży się rozwinąć lub zanim zostanie wyraźnie rozpoznany. Przykładem może być praca Lavoisiera. Jego notatka przedstawiona została Francuskiej Akademii Nauk w niecały rok po pierwszych badaniach stosunków wagowych, a przed publikacjami Priestleya, które w pełni ujawniły kryzys w chemii pneumatycznej. Podobnie, pierwsze ujęcie teorii falowej przez Younga opublikowane zostało we wczesnym stadium kryzysu w optyce, kryzysu, który pozostałby niemal niezauważony, gdyby - zresztą bez udziału samego Younga - nie doprowadził w ciągu dziesięciolecia do międzynarodowego skandalu naukowego. W tego rodzaju wypadkach można jedynie powiedzieć, że nieznaczne załamanie się paradygmatu i pierwsze zachwianie się jego reguł dla nauki normalnej wystarczyło, by ktoś spojrzał na całą dziedzinę w nowy sposób. Między dostrzeżeniem pierwszych oznak kłopotów a uznaniem alternatywnego paradygmatu zachodzą procesy w znacznej mierze nie uświadamiane.
[15] W innych przypadkach natomiast - powiedzmy, Kopernika, Einsteina czy współczesnej fizyki jądrowej - między uświadomieniem sobie załamania się starego paradygmatu a pojawieniem się nowego upłynąć musiało wiele czasu. Takie sytuacje pozwalają historykowi uchwycić przynajmniej niektóre cechy badań nadzwyczajnych. Mając do czynienia z zasadniczą anomalią teoretyczną, uczeni starają się przede wszystkim dokładniej ją wyodrębnić i ująć w pewną strukturę. Mając świadomość, że reguły nauki normalnej nie są tu w pełni przydatne, będą jednak starali się korzystać z nich w sposób jeszcze bardziej rygorystyczny niż dotąd, aby przekonać się, w jakim zakresie dadzą się one stosować w dziedzinie nastręczającej trudności. Jednocześnie poszukiwać będą sposobów pogłębienia kryzysu, uczynienia go bardziej uderzającym, a być może i bardziej sugestywnym niż wówczas, gdy ujawniony został przez pierwsze doświadczenia, których wyniki - wbrew temu, co się okazało - miały być z góry znane. I w tej właśnie swej działalności, bardziej niż na jakimkolwiek innym etapie postparadygmatycznego rozwoju nauki, uczony zachowywać się będzie mniej więcej zgodnie z potocznymi wyobrażeniami o działalności naukowej. Po pierwsze, będzie on przypominał człowieka szukającego po omacku, robiącego eksperymenty tylko po to, by zobaczyć, co się zdarzy, poszukującego zjawisk, których natury nie potrafi odgadnąć. Jednocześnie, ponieważ żadnego eksperymentu nie da się podjąć bez jakiegoś rodzaju teorii, uczony w epoce kryzysu stale próbuje tworzyć spekulatywne teorie; jeśli zdobędą one uznanie, mogą utorować drogę nowemu paradygmatowi, jeśli nie - stosunkowo łatwo ich poniechać.
[16] Klasycznymi przykładami takich bardziej przypadkowo prowadzonych badań, do jakich prowadzi świadomość anomalii, mogą być próby ujęcia ruchu Marsa przez Keplera czy też usiłowania Priestleya poradzenia sobie z coraz to odkrywanymi nowymi gazami. Ale najlepszą zapewne ilustracją są współczesne dociekania nad teorią pola i teorią cząstek elementarnych. Czy ten ogromny wysiłek, jakiego wymagało wykrycie neutrina, wydawałby się usprawiedliwiony, gdyby nie kryzys, który zmuszał do sprawdzenia zasięgu stosowalności reguł nauki normalnej? Albo czy gdyby w pewnym momencie nie załamały się w sposób oczywisty stosowane reguły, wysunięto by i sprawdzono radykalną hipotezę o niezachowywaniu parzystości? Podobnie jak wiele innych badań w fizyce ostatnich dziesięcioleci doświadczenia te miały częściowo na celu zlokalizowanie i określenie źródła wciąż jeszcze poszerzającego się zespołu anomalii.
[17] Tego rodzaju badaniom nadzwyczajnym towarzyszą często, choć bynajmniej nie zawsze, inne. Sądzę, że zwłaszcza w okresach rozpoznanego kryzysu uczeni sięgają do analiz filozoficznych, licząc na rozwiązanie zagadek ze swojej dziedziny. Uczeni z reguły ani nie musieli, ani nie chcieli być filozofami. Nauka normalna trzyma się zazwyczaj z dala od filozofii, i zapewne nie bez racji. W tej mierze, w jakiej normalna praca badawcza opierać się może na paradygmacie jako na wzorcu, reguły i założenia nie muszą być wyłożone explicite. W rozdziale piątym zauważyliśmy, że pełny zespół reguł, jaki stara się wykryć analiza filozoficzna, nie musi nawet istnieć. Nie znaczy to jednak, że poszukiwanie założeń (nawet tych istniejących) nie może być skutecznym sposobem osłabiania nacisku tradycji na myśl badawczą i podstawą kształtowania się nowej tradycji. Nie jest bynajmniej rzeczą przypadku, że powstaniu fizyki Newtonowskiej w wieku XVII oraz fizyki relatywistycznej i mechaniki kwantowej w wieku XX towarzyszyła zasadnicza filozoficzna analiza ówczesnych tradycji badawczych. Nie jest również rzeczą przypadku, że w obu tych okresach tzw. eksperyment myślowy odegrać mógł tak istotną rolę w rozwoju badań naukowych. Jak wskazałem gdzie indziej, analityczne eksperymenty myślowe, które spotykamy tak często w pracach Galileusza, Einsteina, Bohra i innych, pozwalały świetnie konfrontować stary paradygmat z aktualną wiedzą i wyodrębnić źródła kryzysu z jasnością, która nieosiągalna jest w laboratorium.
[18] Wraz z zastosowaniem tych czy innych nadzwyczajnych procedur zajść może jeszcze coś innego. Skupiając uwagę badawczą na wąskim obszarze trudności i przygotowując uczonych na rozpoznawanie anomalii, kryzys rodzi często nowe odkrycia. Wspominaliśmy już o tym, jak świadomość kryzysu różniła badania Lavoisiera nad tlenem od Priestleyowskich. Tlen nie był też bynajmniej jedynym gazem, który chemicy, świadomi anomalii, mogli odkryć w pracach prowadzonych przez Priestleya. Innym przykładem może być szybkie gromadzenie się nowych odkryć w dziedzinie optyki tuż przed wyłonieniem się falowej teorii światła i w czasie, gdy ta teoria się wyłaniała. Niektóre z nich, jak polaryzacja przez odbicie, były rezultatem przypadków, które zdarzają się nieraz, gdy prace skupiają się na obszarze anomalii. (Malus, który dokonał tego odkrycia, przygotowywał wówczas pracę dla Akademii poświęconą podwójnemu załamaniu. Zjawisko to, powszechnie wówczas znane, nie miało zadowalającego wyjaśnienia i Akademia wyznaczyła nagrodę za jego podanie.) Inne odkrycia, jak stwierdzenie występowania prążków świetlnych w środku cienia okrągłej tarczy, prognozowano na gruncie nowych hipotez, których sukces przyczynił się do przekształcenia ich w paradygmat dalszych prac badawczych. Jeszcze inne, takie jak barwy cienkich błon, były związane ze zjawiskami często obserwowanymi już wcześniej i niekiedy odnotowywanymi, lecz - podobnie jak Priestleyowski tlen - łączono je z innymi, dobrze znanymi zjawiskami, co uniemożliwiało właściwe rozpoznanie ich natury. Analogicznie można by przedstawić rozmaite odkrycia, które gdzieś od roku 1895 towarzyszyły powstawaniu mechaniki kwantowej.
[19] Badania nadzwyczajne odznaczać się muszą jeszcze innymi cechami i prowadzić do innych jeszcze skutków, ale obecnie dopiero zaczynamy się orientować, jakie w tej materii należałoby podjąć problemy. Być może na razie wystarczą nam te wskazane; dotychczasowe uwagi pozwalają zrozumieć, w jaki sposób kryzys jednocześnie i rozluźnia stereotypy, i dostarcza danych niezbędnych do zasadniczej zmiany paradygmatu. Niekiedy kształt nowego paradygmatu zapowiada już struktura, jaką nadzwyczajne badania nadają anomalii. Einstein pisał, że zanim wypracował jakąkolwiek teorię, która mogłaby zastąpić mechanikę klasyczną, dostrzegał już związek między znanymi anomaliami - promieniowaniem ciała czarnego, efektem fotoelektrycznym, ciepłem właściwym. Zazwyczaj jednak struktura taka nie jest z góry świadomie postrzegana. Przeciwnie, nowy paradygmat lub wystarczające do jego późniejszego sprecyzowania wskazówki pojawiają się nagle, czasami przychodzą uczonemu do głowy w środku nocy, gdy jest on głęboko pogrążony w kryzysie. Na czym polega istota tego ostatniego stadium - w jaki sposób jednostka odkrywa (lub stwierdza, że odkryła) nowy sposób uporządkowania zebranych danych - to pytanie, na które obecnie nie umiemy odpowiedzieć, i nie wiadomo, czy odpowiedź taką znajdziemy kiedykolwiek. Zauważmy tu na ten temat tylko jedno. Prawie zawsze człowiek dokonujący takiego zasadniczego odkrycia nowego paradygmatu jest bądź bardzo młody, bądź od niedawna pracuje w dziedzinie, której paradygmat zmienia. I chyba nie wymaga to nawet objaśnienia. To zrozumiałe, że ludzie, którzy nie są zbytnio przywiązani poprzez wcześniejszą praktykę do tradycyjnych reguł nauki normalnej, o wiele łatwiej niż pozostali zdają sobie sprawę z tego, że na gruncie tych reguł nie da się już rozgrywać gry, i wymyślają inny zbiór reguł.
[20] Dokonujące się w rezultacie przejście do nowego paradygmatu to właśnie rewolucja naukowa - tym właśnie tematem możemy się teraz zająć, po długim przygotowaniu, bezpośrednio. Zwróćmy i jednak naprzód uwagę na jeszcze jeden, pozornie trudno uchwytny aspekt zagadnienia, który podsunęły nam ostatnie trzy rozdziały. Aż do rozdziału szóstego, gdzie wprowadziliśmy pojęcie anomalii, pojęcia rewolucja i nauka nadzwyczajna wydawać się mogły równoznaczne. Ponadto oba terminy nie znaczyły, jak się zdaje, nic więcej, jak tylko "nauka nienormalna" - czytelnika mogło zatem zaniepokoić to, że popadamy w błędne koło. W praktyce jednak tak być nie musi. Stwierdzimy niebawem, że z podobną kolistością mamy do czynienia w teoriach naukowych. Kłopotliwa czy nie, kolistość ta musi zostać rozpoznana. Rozdział niniejszy i dwa poprzednie wskazały na szereg kryteriów załamywania się normalnej działalności naukowej, kryteriów, które same są niezależne od tego, czy załamanie to prowadzi w konsekwencji do rewolucji, czy nie. Mając do czynienia z anomalią bądź kryzysem, uczony przyjmuje inną postawę wobec istniejących paradygmatów i odpowiednio do tego zmienia się charakter jego prac badawczych. Mnożenie się konkurencyjnych interpretacji, chęć znalezienia czegoś nowego, wyrażanie zdecydowanego niezadowolenia z istniejącego stanu rzeczy, odwoływanie się do filozofii i podejmowanie kwestii fundamentalnych - wszystko to są symptomy przejścia od badań normalnych do nadzwyczajnych. I właśnie w pierwszym rzędzie one, a nie rewolucje, leżą u podstaw pojęcia nauki normalnej.
IX. NATURA I NIEUCHRONNOŚĆ REWOLUCJI NAUKOWYCH
[1] Powyższe uwagi pozwalają nam wreszcie przystąpić do omówienia zagadnień, którym rozprawa niniejsza zawdzięcza swój tytuł. Czym są rewolucje naukowe i jaką pełnią funkcję w rozwoju nauki? Fragmenty odpowiedzi na te pytania zawarte już były w poprzednich rozdziałach. Między innymi wskazaliśmy, że rewolucje traktowane są tu jako takie niekumulatywne epizody w rozwoju nauki, w których stary paradygmat zostaje zastąpiony częściowo bądź w całości przez nowy, nie dający się pogodzić z poprzednim. Jest to jednak tylko część odpowiedzi. Aby ją uzupełnić, zadać musimy kolejne pytanie: dlaczego zmianę paradygmatu nazywać mamy rewolucją? Jakie analogie między rozwojem naukowym i politycznym - tak zasadniczo różnymi zjawiskami - pozwalają mówić w obu wypadkach o rewolucjach?
[2] Jeden z aspektów tej analogii jest już chyba oczywisty. Źródłem rewolucji politycznych jest rosnące - przynajmniej u części społeczeństwa - poczucie, że istniejące instytucje nie są już w stanie rozwiązać problemów powstających w otoczeniu, które one same po części ukształtowały. Analogicznie, źródłem rewolucji naukowych jest rosnące - znów zazwyczaj wśród wąskiej grupy społeczności uczonych - poczucie, że istniejący paradygmat przestał spełniać adekwatnie swe funkcje w poznawaniu tego aspektu przyrody, którego badania sam poprzednio umożliwił. Zarówno w rozwoju politycznym, jak i naukowym poczucie to prowadzi do kryzysu, który jest warunkiem wstępnym rewolucji. Co więcej, analogia ta, choć w sposób bardziej ograniczony, dotyczy nie tylko tak wielkich przekształceń paradygmatów, jak te przypisywane Kopernikowi czy Lavoisierowi, ale również i znacznie mniejszych, związanych z przyjęciem nowego typu zjawisk, tak jak w wypadku tlenu czy promieni X. Rewolucji naukowych, jak zauważyliśmy pod koniec rozdziału piątego, doświadczają często tylko ci uczeni, którzy uznawali obalone przez nie paradygmaty. Ludziom z zewnątrz mogą się one wydawać - podobnie jak rewolucje na Bałkanach w początku XX wieku - normalnym ogniwem procesu rozwojowego. Na przykład astronomowie mogli potraktować odkrycie promieni X jako zwykłe tylko wzbogacenie wiedzy, albowiem istnienie nowego rodzaju promieniowania w niczym nie zmieniało ich paradygmatów. Jednak dla takich uczonych, jak Kelvin, Crookes czy Roentgen, którzy prowadzili badania dotyczące teorii promieniowania i promieni katodowych, odkrycie promieni X musiało oznaczać pogwałcenie jednego i powstanie innego paradygmatu. Dlatego właśnie promienie te mogły zostać odkryte dopiero wtedy, gdy okazało się, że coś jest nie tak z badaniami normalnymi.
[3] Ten genetyczny aspekt analogii między rozwojem politycznym i naukowym nie powinien już budzić wątpliwości. Analogia ta ma jednak i drugi, głębszy wymiar, od którego zależy znaczenie pierwszego. Rewolucje społeczne dążą do takich przekształceń instytucji politycznych, jakich same te instytucje zabraniają. Powodzenie ich wymaga zatem likwidacji niektórych instytucji na rzecz innych, a w okresie przejściowym społeczeństwo rządzi się po części bez instytucji. Tak jak kryzys osłabia rolę paradygmatów, tak też początkowo osłabia on rolę instytucji politycznych. Coraz większa liczba ludzi wyłącza się z życia politycznego i zachowuje się w sposób inny, niż nakazują jego kanony. Gdy kryzys się pogłębia, wielu z nich opowiada się za jakąś konkretną propozycją przebudowy społeczeństwa w ramach nowej struktury instytucjonalnej. Społeczeństwo dzieli się na dwa obozy, dwie partie, z których jedna stara się bronić starego porządku, a druga - wprowadzić nowy. Z chwilą gdy następuje taka polaryzacja, zaczyna brakować wspólnej płaszczyzny politycznej. Ponieważ partie te różnie zapatrują się na to, w obrębie jakiej matrycy instytucjonalnej należy przeprowadzić zmiany i oceniać je, ponieważ nie uznają żadnej wyższej instancji, która mogłaby rozstrzygnąć konflikty rewolucyjne - odwoływać się muszą ostatecznie do metod perswazji, a często do użycia siły. Chociaż rewolucje odgrywały żywotną rolę w ewolucji instytucji politycznych, rola ta uwarunkowana jest przez to, że były one po części zdarzeniami pozapolitycznymi i pozainstytucjonalnymi.
[4] W pozostałych rozdziałach niniejszej rozprawy chcemy pokazać, że historyczne badanie zmian paradygmatu ujawnia bardzo podobne cechy w rozwoju nauki. Wybór pomiędzy paradygmatami jest, tak jak wybór między konkurencyjnymi instytucjami politycznymi, wyborem między dwoma nie dającymi się ze sobą pogodzić sposobami życia społecznego. Tak więc nie jest on i nie może być zdeterminowany wyłącznie przez metody oceniania właściwe nauce normalnej, te bowiem zależą częściowo od określonego paradygmatu, który właśnie jest kwestionowany. Z chwilą gdy w sporze o wybór paradygmatu odwołujemy się do paradygmatu - a jest to nieuniknione - popadamy nieuchronnie w błędne koło. Każda grupa, występując w obronie własnego paradygmatu, odwołuje się w argumentacji właśnie do niego.
[5] To błędne koło nie decyduje jeszcze o tym, że argumentacja taka jest fałszywa czy też nieskuteczna. Człowiek zakładający paradygmat, którego broni w swojej argumentacji, może mimo to jasno ukazać, czym byłaby praktyka naukowa dla tych, którzy przyjmują nowy pogląd na przyrodę; może to pokazać niezwykle, a nawet nieodparcie przekonująco. Jednakże bez względu na siłę oddziaływania argumentacja oparta na błędnym kole może pełnić wyłącznie funkcję perswazyjną. Nie sposób sprawić, by była ona przekonująca logicznie czy choćby w pewnym stopniu do przyjęcia dla kogoś, kto odmawia wejścia w owo błędne koło. Przesłanki i wartości akceptowane przez spierające się strony nie wystarczają do rozstrzygnięcia sporu o paradygmat. Podobnie jak w rewolucjach społecznych, tak i w sporach o paradygmaty nie istnieje żadna instancja nadrzędna ponad tymi, które uznaje każda ze stron. Aby dowiedzieć się, w jaki sposób wywoływane są rewolucje naukowe, zbadać musimy zatem nie tylko wpływ samej przyrody i logiki; trzeba też zbadać techniki perswazyjnej argumentacji skuteczne w obrębie poszczególnych grup, z których składa się społeczność uczonych.
[6] Aby przekonać się, dlaczego decyzja w sprawie wyboru paradygmatu nigdy nie może być jednoznacznie wyznaczona tylko przez logikę i eksperyment, musimy pokrótce rozważyć, na czym polegają różnice dzielące obrońców tradycyjnego paradygmatu i ich rewolucyjnych następców. To właśnie jest głównym celem rozdziału niniejszego i następnych. Wiele przykładów takich różnic wskazaliśmy już poprzednio, a nie ulega wątpliwości, że historia dostarczyć może wielu innych. Rzeczą o wiele bardziej wątpliwą i dlatego wymagającą zbadania w pierwszej kolejności jest kwestia, czy tego rodzaju przykłady dostarczają istotnej informacji na temat istoty nauki. Uznając nawet odrzucanie paradygmatów za niewątpliwy fakt historyczny, spytać należy, czy świadczy on o czymś więcej niż o ludzkiej łatwowierności i omylności. Czy istnieją jakieś wewnętrzne przyczyny, dla których asymilacja jakiegoś nowo odkrytego zjawiska lub nowej teorii naukowej wymagać musi odrzucenia starego paradygmatu?
[7] Zauważmy przede wszystkim, że jeśli nawet przyczyny takie istnieją, to nie wynikają one z logicznej struktury wiedzy naukowej. Pojawienie się nowego zjawiska nie musi odbić się destrukcyjnie na jakimkolwiek fragmencie dawniejszej praktyki naukowej. Chociaż odkrycie życia na Księżycu byłoby dziś destrukcyjne względem istniejących paradygmatów (wedle których to, co wiemy o Księżycu, jest nie do pogodzenia z występowaniem tam życia), to jednak inaczej przedstawiałaby się ta sprawa w wypadku odkrycia życia w jakiejś mniej znanej części Galaktyki. Na tej samej zasadzie nowa teoria nie musi popadać w konflikt z którąkolwiek ze swoich poprzedniczek. Może ona dotyczyć wyłącznie zjawisk uprzednio nie znanych, jak np. teoria kwantów dotycząca zjawisk subatomowych nie znanych przed wiekiem XX. W innym jeszcze wypadku nowa teoria może być po prostu uogólnieniem wielu teorii niższego poziomu, przez co łączy je w jeden system, ale nie zmienia żadnej z nich. Dziś na przykład prawo zachowania energii wiąże ze sobą dynamikę, chemię, naukę o elektryczności, optykę, teorię ciepła itd. Możliwe są również inne pokojowe relacje między nowymi i starymi teoriami i dla każdej z nich znaleźć można odpowiedni przykład w historii rozwoju nauki. Gdyby jednak tak było zawsze, proces rozwoju naukowego miałby charakter kumulatywny. Nowo odkryte zjawiska ujawniałyby po prostu porządek w obszarze rzeczywistości, w którym dotąd porządku nie dostrzegano. Nowa wiedza w takim przypadku zastępowałaby ignorancję, a nie wiedzę innego rodzaju, nie dającą się z tą nową pogodzić.
[8] Oczywiście, nauka (czy jakieś inne przedsięwzięcie, być może mniej skuteczne) mogłaby się rozwijać w taki całkowicie kumulatywny sposób. Wiele osób wierzyło, że tak właśnie się dzieje, a większość przypuszcza nadal, że kumulacja jest co najmniej ideałem, który można by osiągnąć w rozwoju historycznym, gdyby nie ludzkie ułomności. Przekonanie to ma swoje ważne źródła. W rozdziale dziesiątym przekonamy się, jak ściśle taki pogląd na naukę związany jest z koncepcjami epistemologicznymi, które traktują wiedzę jako konstrukcję wznoszoną przez umysł bezpośrednio na surowych danych zmysłowych. W rozdziale jedenastym natomiast zobaczymy, że ten historiograficzny schemat znajduje silne oparcie w przyjętych metodach nauczania. Jednakże, mimo znacznej wiarygodności tego idealnego schematu, coraz więcej racji każe powątpiewać w to, czy rzeczywiście jest to obraz nauki. Po okresie przedparadygmatycznym asymilacja wszystkich nowych teorii i niemal wszystkich odkryć nowego rodzaju zjawisk wymagała w gruncie rzeczy obalenia poprzedniego paradygmatu i prowadziła do konfliktu między zwalczającymi się szkołami. Kumulatywne włączanie nieprzewidzianych nowości do dorobku wiedzy okazuje się raczej nierealnym wyjątkiem od reguły rozwoju naukowego. Ten, kto traktuje poważnie fakty historyczne, musi podejrzewać, że nauka nie dąży do tego ideału, jaki ukazuje wizja jej kumulatywnego rozwoju. Być może jest to przedsięwzięcie innego rodzaju.
[9] Skoro zaś opór faktów wzbudzi już w nas te podejrzenia, to biorąc pod uwagę sprawy, o których wcześniej mówiliśmy, można dojść do wniosku, że kumulatywne zdobywanie nowej wiedzy jest nie tylko faktycznie zjawiskiem rzadkim, ale w zasadzie nieprawdopodobnym. Badania normalne, które rzeczywiście mają charakter kumulatywny, zawdzięczają swe powodzenie zdolności uczonych do wybierania tych problemów, które mogą zostać rozwiązane za pomocą przyrządów i aparatury pojęciowej już znanych lub bardzo do nich podobnych. (Dlatego właśnie uparte zajmowanie się problemami zastosowań, niezależnie od ich stosunku do istniejącej wiedzy i techniki, może tak łatwo zahamować postęp naukowy.) Uczony, który dąży do rozwiązania problemu wyznaczonego przez istniejącą wiedzę i technikę, nie rozgląda się po prostu dookoła. Wiedząc, co chce osiągnąć, odpowiednio projektuje swoje przyrządy i zajmuje odpowiednią postawę myślową. Coś nieoczekiwanego, nowe odkrycie, może wyłonić się tylko wtedy, gdy jego przewidywania dotyczące przyrody lub przyrządów okażą się błędne. Często znaczenie dokonanego w ten sposób odkrycia będzie proporcjonalne do zakresu i oporności anomalii, która je zapowiadała. Jest zatem oczywiste, że pomiędzy paradygmatem, względem którego odkrycie to jest anomalią, a paradygmatem, który czyni je czymś prawidłowym, zachodzić musi konflikt. Przykłady odkryć dokonywanych poprzez odrzucenie paradygmatu, o których mówiliśmy w rozdziale szóstym, były czymś więcej niż historycznymi przypadkami. Nie istnieje żaden inny skuteczny sposób dokonywania odkryć.
[10] Ta sama argumentacja, nawet w sposób jeszcze jaśniejszy, odnosi się do tworzenia nowych teorii. Zasadniczo istnieją tylko trzy rodzaje zjawisk, na gruncie których tworzyć można nową teorię. Po pierwsze, mogą to być zjawiska uprzednio już dobrze wytłumaczone przez istniejące paradygmaty; rzadko kiedy jednak są one motywem czy też punktem wyjścia do konstruowania nowej teorii. Gdy jednak tak się dzieje - jak w wypadku trzech słynnych antycypacji, które omówiliśmy pod koniec rozdziału siódmego - uzyskane w rezultacie teorie nie znajdują zazwyczaj uznania, brak bowiem dostatecznych racji, by rozstrzygnąć o ich słuszności. Po drugie, mogą to być zjawiska, których naturę określa istniejący paradygmat, lecz których szczegóły zrozumiane być mogą tylko w wyniku dalszego uszczegółowienia teorii. Są to zjawiska, których badaniu uczony poświęca większość swego czasu. Jego celem jednakże jest tu raczej uściślenie istniejących paradygmatów niż zastąpienie ich innymi. Dopiero wtedy, gdy tego rodzaju próby uściślenia zawodzą, uczony ma do czynienia z trzecim rodzajem zjawisk - z rozpoznanymi anomaliami, które charakteryzuje to, iż uporczywie opierają się ujęciu za pomocą istniejących paradygmatów. Ten rodzaj zjawisk sam daje początek nowym teoriom. Paradygmaty wyznaczają miejsce w polu widzenia uczonego wszystkim zjawiskom z wyjątkiem anomalii.
[11] Jeśli jednak nowe teorie mają tłumaczyć anomalie ujawniające się na gruncie odniesienia istniejącej teorii do przyrody, to nowa teoria musi umożliwiać przewidywania różne od tych, jakie wyprowadzano z poprzedniej. Różnica taka nie mogłaby mieć miejsca, gdyby teorie te były logicznie zgodne. W procesie przyswajania nowej teorii stara musi zostać wyparta. Nawet odkrycie prawa zachowania energii, które dziś wydaje się po prostu logiczną nadbudową, odnoszącą się do przyrody tylko za pośrednictwem niezależnie ustalonych teorii, nie mogło się obejść bez obalenia paradygmatu. Zrodziło się ono mianowicie z kryzysu, którego zasadniczym elementem była niezgodność dynamiki Newtona z niektórymi wnioskami wyciąganymi z teorii cieplika. Prawo zachowania energii wejść mogło do nauki dopiero wówczas, gdy odrzucono teorię cieplika. Następnie zaś minąć musiał pewien czas od jego akceptacji, by zaczęto je traktować jako teorię wyższego poziomu, która nie jest sprzeczna ze swymi poprzedniczkami. Trudno sobie wyobrazić, w jaki sposób nowe teorie mogłyby pojawiać się bez takich destrukcyjnych przemian w poglądach na przyrodę. Tak więc, mimo że pogląd o logicznym zawieraniu się starych teorii w nowych jest dopuszczalny, jest on niezgodny z rzeczywistym przebiegiem rozwoju nauki.
[12] Sto lat temu można by było, jak sądzę, zamknąć nasze rozważania nad nieuchronnością rewolucji naukowych już w tym punkcie. Dziś jednak, niestety, postąpić tak nie sposób, albowiem przedstawiony wyżej pogląd nie da się utrzymać, jeśli zarazem akceptuje się rozpowszechnioną współcześnie interpretację natury i funkcji teorii naukowych. Interpretacja ta - ściśle związana z wczesnym pozytywizmem logicznym i nie odrzucona ostatecznie przez kontynuatorów tego kierunku filozoficznego - ogranicza zakres i znaczenie akceptowanej teorii w taki sposób, by wykluczyć możliwość jej konfliktu z jakąkolwiek teorią późniejszą, formułującą prognozy dotyczące po części tego samego zakresu zjawisk. Najlepiej znany i najmocniejszy argument za tym zawężającym ujęciem teorii naukowej pojawia się w dyskusjach dotyczących stosunku między współczesną Einsteinowską dynamiką a starymi równaniami dynamiki wywodzącymi się z Principiów Newtona. Z punktu widzenia, którego bronimy w niniejszej rozprawie, te dwie teorie są nie do pogodzenia w takim sensie jak astronomia Kopernika i Ptolemeusza: teorię Einsteina można przyjąć, tylko uznając zarazem, że Newton nie miał racji. Jest to dzisiaj pogląd uznawany przez mniejszość. Dlatego musimy rozpatrzyć najczęściej wysuwane przeciw niemu zarzuty.
[13] Istotę tych zarzutów można przedstawić w następujący sposób. Dynamika relatywistyczna nie może dowodzić niesłuszności dynamiki Newtona, albowiem z tej ostatniej nadal korzysta z powodzeniem większość inżynierów oraz - w niektórych zastosowaniach - wielu fizyków. Co więcej, poprawność tych zastosowań starej teorii może zostać dowiedziona na gruncie tej właśnie teorii, która ją - gdy chodzi o inne zastosowania - zastąpiła. Na gruncie teorii Einsteina wykazać można, że prognozy wyprowadzone z równań Newtona będą na tyle dokładne, na ile pozwalają na to przyrządy pomiarowe, z których korzystamy we wszystkich zastosowaniach spełniających niewielką liczbę ograniczających warunków. Jeśli chcemy, aby teoria Newtona dała dostatecznie dokładne wyniki, to na przykład względne prędkości rozważanych ciał muszą być małe w porównaniu z prędkością światła. Nakładając na teorię Newtona ten i kilka innych warunków, można wykazać, że teorię tę da się wyprowadzić z teorii Einsteina, że zatem jest ona jej szczególnym przypadkiem.
[14] Żadna teoria - kontynuują zwolennicy omawianego poglądu - nie może być sprzeczna z którymś z jej przypadków szczególnych. Jeśli na gruncie teorii Einsteina dynamika Newtonowska wydaje się fałszywa, to tylko dlatego, że niektórzy zwolennicy tej ostatniej byli na tyle nieostrożni, że twierdzili, iż daje ona całkowicie dokładne wyniki bądź że stosuje się również do ciał poruszających się z bardzo dużymi prędkościami względnymi. A ponieważ żadne świadectwa nie uprawniały ich do tego rodzaju twierdzeń, ci, którzy je wysuwali, sprzeniewierzali się standardom naukowości. W tej mierze, w jakiej teoria Newtona była kiedykolwiek teorią naprawdę naukową, rzeczywiście potwierdzoną, w tej mierze jest słuszna i dziś. Tylko zbyt dalekie ekstrapolacje tej teorii - ekstrapolacje, które w gruncie rzeczy nigdy nie były naukowo uzasadnione - okazały się niesłuszne w świetle teorii Einsteina. Oczyszczona z tych dodatków, teoria Newtona nigdy nie została zakwestionowana i nie może być zakwestionowana.
[15] Pewien wariant tej argumentacji może doprowadzić do konkluzji, że każda teoria, z której kiedykolwiek korzystała istotna grupa kompetentnych badaczy, jest nie do obalenia. Na przykład ciesząca się złą sławą teoria flogistonowa porządkowała wielką ilość zjawisk fizycznych i chemicznych. Tłumaczyła ona, dlaczego ciała ulegają spalaniu (dlatego, że zawierają dużo flogistonu), dlaczego metale mają znacznie więcej cech wspólnych niż ich rudy. Metale składać się miały z rozmaitych elementarnych ziem połączonych z flogistonem, któremu właśnie metale zawdzięczają swe wspólne cechy. Ponadto teoria flogistonowa wyjaśniała wiele reakcji, w których w wyniku spalania substancji takich jak węgiel i siarka powstawały kwasy. Tłumaczyła ona również zmniejszanie się objętości podczas spalania w skończonej objętości powietrza: flogiston wyzwolony ze spalonego ciała "niweczył" sprężystość powietrza, które go absorbowało, jak ogień "niweczy" sprężystość stalowej sprężyny. Gdyby były to jedyne zjawiska, które teoretycy flogistonu usiłowali wytłumaczyć, teorii ich nigdy nie można by zakwestionować. Tego rodzaju argumentację zastosować można do każdej teorii, która kiedykolwiek znalazła zastosowanie do jakiegokolwiek zakresu zjawisk.
[16] Jeśli jednak chce się w ten sposób ratować teorie, to musi się ograniczyć zakres ich stosowalności do tych zjawisk i do tego rzędu ścisłości, jaki wyznaczają przyrządy doświadczalne, którymi aktualnie dysponujemy. Robiąc krok dalej (a uniknąć go trudno, jeśli pierwszy krok w tym kierunku zrobiono), uznać należałoby, że uczony nie może sobie rościć prawa, by mówić w sposób "naukowy" o jakimkolwiek zjawisku, którego dotąd nie obserwował. Nawet w swej obecnej postaci ograniczenie to zakazuje uczonemu opierać się we własnych badaniach na teorii, jeśli tylko badania te wkraczają w obszar dotąd nie znany lub jeśli próbuje on w nich uzyskać stopień ścisłości, jakiego dotąd na gruncie tej teorii nie osiągnięto. Z logicznego punktu widzenia zakazy te są bezwzględne, ale uznanie ich byłoby równoznaczne z uniemożliwieniem badań, które decydują o rozwoju nauki.
[17] I oto znów, jak się zdaje, dochodzimy do tautologii. Bez opowiedzenia się za paradygmatem nie mogłaby istnieć nauka normalna. Co więcej, zaufanie do paradygmatu musi się rozciągać również na obszar nowych zjawisk i obejmować badania, w których uzyskuje się większy niż wcześniej stopień ścisłości. Gdyby tak nie było, paradygmat nie dostarczałby łamigłówek, które dotąd nie znalazły rozwiązania. Zresztą nie tylko nauka normalna opiera się na zaufaniu do paradygmatu. Gdyby istniejąca teoria wiązała uczonego jedynie ze względu na znane zastosowania, nie byłoby niespodzianek, anomalii czy kryzysów. Te zaś są właśnie drogowskazami wyznaczającymi drogę nauce nadzwyczajnej. Gdyby brać dosłownie pozytywistyczne ograniczenia zakresu prawomocnej stosowalności teorii, przestałby funkcjonować mechanizm mówiący społeczności uczonych, jakie problemy mogą doprowadzić do zasadniczych zmian w nauce. Wówczas zaś życie naukowe powróciłoby nieuchronnie do stanu, w jakim znajdowało się w okresie przedparadygmatycznym, do stanu, w którym wszyscy członkowie społeczności uczonych uprawialiby naukę, ale globalny produkt ich wysiłków mało by przypominał to, co zwykliśmy nazywać nauką. Czyż rzeczywiście można się dziwić, że ceną, jaką się płaci za postęp naukowy, jest ryzyko błędu związane z zaangażowaniem w określony paradygmat?
[18] Co ważniejsze jednak, w pozytywistycznej argumentacji jest luka logiczna, której ujawnienie z miejsca wskazuje na istotę przemian rewolucyjnych. Czy rzeczywiście dynamikę Newtonowską można wyprowadzić z dynamiki relatywistycznej? Czym miałoby być takie wyprowadzenie? Wyobraźmy sobie szereg twierdzeń E1, E2,..., En, które łącznie wyrażają prawa teorii względności. Twierdzenia te zawierają zmienne i parametry dotyczące położeń przestrzennych, czasu, masy spoczynkowej itd. Z nich, za pomocą aparatu matematycznego i logicznego, da się wyprowadzić cały zespół twierdzeń pochodnych, m.in. takie, które można sprawdzić doświadczalnie. Aby dowieść słuszności dynamiki Newtona jako przypadku szczególnego, musimy do naszego szeregu Ei dołączyć dodatkowe twierdzenia, takie jak (v/c)2 « l, ograniczające zakres parametrów i zmiennych. Z tego rozszerzonego zespołu twierdzeń uzyskać wówczas możemy twierdzenia pochodne N1, N2,..., Nm, identyczne w swej formie z prawami ruchu Newtona, prawem grawitacji itd. Pozornie dynamika Newtona wyprowadzona zostaje, przy założeniu pewnych warunków ograniczających, z Einsteinowskiej.
[19] Jednakże wyprowadzenie to jest złudne, przynajmniej do tego punktu. Chociaż twierdzenia N1, N2,..., Nm są szczególnymi przypadkami praw mechaniki relatywistycznej, nie są to prawa Newtona - w każdym razie dopóty, dopóki tamte pierwsze prawa nie zostaną zinterpretowane w sposób, jaki umożliwiła dopiero teoria Einsteina. Zmienne i parametry, które w Einsteinowskim szeregu Ei oznaczały położenia przestrzenne, czas, masę itd., występują nadal w ciągu Ni i oznaczają w nich Einsteinowską przestrzeń, czas i masę. Jednak fizyczne odpowiedniki tych Einsteinowskich pojęć nie są w żadnym razie identyczne z odpowiednikami pojęć Newtonowskich wyrażanych tymi samymi nazwami. (Masa Newtonowska ulega zachowaniu; masa Einsteinowska jest równoważna energii. Tylko przy małych prędkościach względnych można mierzyć obie w ten sam sposób, ale nawet wówczas nie można traktować ich jako tego samego.) Póki nie zmienimy definicji zmiennych występujących w ciągu twierdzeń Ni zdania, które wyprowadziliśmy, nie będą prawami Newtona. Jeśli zaś je zmienimy, nie mamy właściwie prawa mówić, że wyprowadziliśmy prawa Newtona, w każdym razie nie w tym sensie, w jakim zazwyczaj rozumiane jest słowo "wyprowadzić". Rozumowanie nasze wyjaśniło oczywiście, dlaczego w ogóle wydaje się, że prawa Newtona obowiązują. W ten sposób uzasadniliśmy na przykład to, że kierowca samochodu zachowuje się tak, jakby żył w świecie newtonowskim. Argument tego samego rodzaju wykorzystuje się jako uzasadnienie w nauczaniu mierniczych astronomii geocentrycznej. Ale argument ten nie uzasadnia tego, co miał uzasadnić. Nie wykazuje on, że prawa Newtona są granicznym przypadkiem praw Einsteina. Albowiem w trakcie przechodzenia do granicy zmieniła się nie tylko forma praw. Jednocześnie zmienić musieliśmy zasadnicze elementy strukturalne, z jakich złożony jest świat, do którego te prawa się stosują.
[20] Ta konieczność zmiany sensu ustalonych i dobrze znanych pojęć ma zasadnicze znaczenie, jeśli chodzi o rewolucyjne oddziaływanie teorii Einsteina. Ta przebudowa pojęciowa - choć subtelniejsza niż przejście od geocentryzmu do heliocentryzmu, od flogistonu do tlenu czy też od cząstek do fal - jest równie destrukcyjna w stosunku do obowiązującego wcześniej paradygmatu. Możemy nawet potraktować ją jako prototyp rewolucyjnej zmiany punktu widzenia w nauce. Właśnie dlatego, że przejście od mechaniki Newtonowskiej do Einsteinowskiej nie wymagało wprowadzenia nowych obiektów czy pojęć, jest ono szczególnie wyrazistą ilustracją rewolucji naukowej jako przesunięcia w siatce pojęciowej, przez którą uczeni patrzą na świat.
[21] Uwagi te powinny wystarczyć do wykazania tego, co w innym klimacie filozoficznym mogłoby uchodzić za pewnik. Przynajmniej dla uczonych większość wyraźnych różnic między odrzuconą teorią a tą zajmującą jej miejsce to różnice rzeczywiste. Chociaż przestarzałą teorię można zawsze potraktować jako szczególny przypadek teorii aktualnej, musi ona w tym celu zostać przeobrażona. Przeobrażenia tego zaś można dokonać tylko z perspektywy, jaką daje ta nowsza teoria, a więc nią właśnie się kierując. Co więcej, nawet gdyby takie przeobrażenie było uprawnionym narzędziem interpretacji dawniejszej teorii, uzyskalibyśmy w rezultacie teorię tak ograniczoną, że konstatowałaby ona tylko to, co już uprzednio wiedziano. Takie jej przeformułowanie mogłoby nawet być pożyteczne ze względu na swą ekonomię, nie mogłoby jednak pokierować dalszymi badaniami.
[22] Uznajmy zatem, że różnice między kolejnymi paradygmatami są zarówno nieuchronne, jak nieusuwalne. Czy można powiedzieć coś bliższego na temat charakteru tych różnic? O najbardziej widocznym rodzaju różnic mówiliśmy już wielokrotnie. Kolejne paradygmaty mówią nam co innego o elementach strukturalnych świata i ich zachowaniu. Różnią się więc w takich kwestiach, jak istnienie cząstek subatomowych, natura światła, zachowanie ciepła czy energii. Są to substancjalne różnice między kolejnymi paradygmatami; nie wymagają one dalszych przykładów. Paradygmaty różnią się jednak od siebie i pod innymi względami, gdyż odnoszą się nie tylko do przyrody, ale zwrotnie również do nauki, która je powołała do życia. Z nich wywodzą się metody, zakres problematyki i wzorce rozwiązań, jakie w danym okresie akceptuje każda dojrzała społeczność uczonych. Dlatego przyjęcie nowego paradygmatu wymaga często przedefiniowania odpowiedniej nauki. Niektóre stare problemy mogą zostać przesunięte do innej nauki bądź w ogóle uznane za "nienaukowe". Inne, których poprzednio nie dostrzegano lub które uznawano za trywialne, stać się mogą dzięki nowemu paradygmatowi wzorcem istotnych osiągnięć naukowych. A wraz z tym, jak zmienia się problematyka, często zmieniają się również standardy odróżniające rzeczywiste rozwiązania naukowe od metafizycznych spekulacji, gier słownych czy wprawek matematycznych. Tradycja nauki normalnej, która wyłania się z rewolucji naukowej, nie tylko nie daje się pogodzić z tradycją poprzednią, lecz zazwyczaj jest w stosunku do niej niewspółmierna.
[23] Wpływ dzieła Newtona na normalną tradycję siedemnastowiecznej praktyki naukowej jest dobitnym przykładem tych subtelnych skutków zmiany paradygmatu. Jeszcze przed urodzeniem Newtona "nowa nauka" stulecia zdołała odrzucić arystotelesowskie oraz scholastyczne wyjaśnienia odwołujące się do istoty ciał materialnych. Powiedzenie, że kamień spada, bo ze swojej "natury" dąży on do środka wszechświata, zaczęto traktować jako tautologiczny wybieg werbalny, choć poprzednio brano je poważnie. Odtąd cała rozmaitość jakości zmysłowych - w tym barwy, smaki, a nawet ciężary - tłumaczona być miała w kategoriach kształtu, wielkości, położenia i ruchu elementarnych cząstek materii. Przypisywanie atomom jakichś innych własności uznawano za nawrót do okultyzmu, a więc coś nie mieszczącego się w ramach nauki. Molier dobrze uchwycił ducha tego nowego podejścia, kiedy drwił z lekarza, który tłumaczy usypiające działanie opium, przypisując mu "siłę usypiania". W drugiej połowie XVII wieku wielu uczonych mówiło natomiast, że okrągły kształt cząstek opium pozwala im koić nerwy, po których się poruszają.
[24] W okresie wcześniejszym wyjaśnianie w kategoriach ukrytych jakości stanowiło integralną część twórczej pracy naukowej. Jednak w XVII stuleciu zaufanie do wyjaśnień mechanistyczno-korpuskularnych okazało się dla szeregu dyscyplin niezwykle owocne, wyzwoliło je od problemów, które nie znajdowały powszechnie akceptowanych rozwiązań, i podsunęło w ich miejsce inne. Na przykład w dynamice trzy prawa ruchu Newtona są wynikiem nie tyle nowych doświadczeń, ile raczej próby reinterpretacji dobrze znanych obserwacji w kategoriach ruchu i oddziaływań pierwotnie neutralnych cząstek. Rozpatrzmy jeden konkretny przykład. Ponieważ cząstki neutralne mogły oddziaływać na siebie tylko bezpośrednio, mechanistyczno-korpuskularny pogląd na przyrodę skierował uwagę uczonych na nowe zagadnienie badawcze - zmianę ruchu cząstek wskutek zderzenia. Kartezjusz dostrzegł ten problem i podał pierwsze przypuszczalne rozwiązanie. Huyghens, Wren i Wallis opracowywali go dalej, częściowo w drodze eksperymentalnej (doświadczenia ze zderzającymi się ciężarkami wahadeł), lecz głównie stosując do tego nowego problemu dobrze znane uprzednio charakterystyki ruchu. Wyniki ich badań zawarł Newton w trzecim prawie ruchu: równe sobie "działanie" i "przeciwdziałanie" to zmiany ilości ruchu dwu zderzających się ciał. Ta sama zmiana ruchu jest podstawą definicji siły dynamicznej, zawartej implicite w drugim prawie Newtona. W tym wypadku, podobnie jak w wielu innych w wieku XVII, paradygmat korpuskularny zarówno wysunął nowy problem, jak i dostarczył znacznej części jego rozwiązania.
[25] Chociaż prace Newtona dotyczyły w większości zagadnień postawionych przez mechanistyczno-korpuskularny pogląd na przyrodę i ucieleśniały jego standardy, to jednak paradygmat, jaki ukształtował się w wyniku jego badań, prowadził do dalszych, częściowo destrukcyjnych zmian uprawnionej w nauce problematyki i standardów. Grawitacja, zinterpretowana jako "wrodzone przyciąganie" między każdymi dwiema cząstkami materii, była równie tajemniczą jakością jak "naturalna tendencja do spadania" scholastyków. Dlatego też, dopóki były żywe standardy koncepcji korpuskularnej, poszukiwanie mechanicznego wyjaśnienia grawitacji było jednym z największych wyzwań dla tych, którzy uznali Principia za paradygmat. Wiele uwagi temu zagadnieniu poświęcił sam Newton, a później jego osiemnastowieczni następcy. Pozornie jedynym możliwym wyjściem było odrzucenie teorii Newtona, skoro nie mogła ona wyjaśnić grawitacji, co też czyniło wielu uczonych. Jednakże żaden z tych poglądów nie zwyciężył ostatecznie. Nie mogąc uprawiać nauki, nie opierając się na Principiach, i nie potrafiąc też uzgodnić swej praktyki ze standardami siedemnastowiecznej koncepcji korpuskularnej, uczeni stopniowo przyjęli pogląd, że grawitacja jest w istocie czymś wrodzonym. W połowie XVIII wieku interpretacja ta była niemal powszechnie uznawana, co w gruncie rzeczy stanowiło nawrót (co nie znaczy: cofnięcie się) do koncepcji scholastycznych. "Wrodzona skłonność do przyciągania i odpychania" stała się, obok wielkości, kształtu, położenia i ruchu, fizycznie nieredukowalną pierwotną własnością materii.
[26] Wynikająca stąd zmiana standardów i problematyki nauk fizycznych miała znów swoje konsekwencje. Na przykład w latach czterdziestych XVIII wieku badacze elektryczności, nie narażając się na drwiny, jakie sto lat wcześniej stały się udziałem molierowskiego lekarza, mogli mówić o "zdolności" przyciągania różnoimiennych ładunków elektrycznych. Dzięki takiemu podejściu zjawiska elektryczne wykazywały porządek zgoła inny niż ten, jaki dostrzegano, traktując je jako skutki mechanicznego fluidu, który oddziaływać może jedynie bezpośrednio. Między innymi, kiedy elektryczne oddziaływanie na odległość stało się uprawnionym przedmiotem badania, za jeden z jego skutków uznano to, co dziś nazywamy indukowaniem ładunku elektrycznego. Poprzednio, jeśli zjawisko to w ogóle dostrzegano, przypisywano je bezpośredniemu oddziaływaniu elektrycznych "atmosfer" lub nieuchronnemu w każdym laboratorium elektrycznym rozpraszaniu się ładunków. Nowy pogląd na zjawiska indukcyjne stał się z kolei punktem wyjścia Franklinowskiej analizy butelki lejdejskiej, przyczyniając się w ten sposób do ukształtowania się nowego, newtonowskiego paradygmatu w badaniach nad elektrycznością. Nie tylko zresztą dynamika i nauka o elektryczności stały się uprawnionym obszarem poszukiwań ukrytych sił materii. Ogromna większość osiemnastowiecznej literatury o powinowactwie chemicznym i ciągach reakcji podstawiania wywodzi się również z owego panmechanicyzmu. Chemicy, którzy wierzyli w owe zróżnicowane powinowactwa między rozmaitymi substancjami chemicznymi, podejmowali eksperymenty, jakich poprzednio nawet sobie nie wyobrażano, i poszukiwali nowych rodzajów reakcji. Bez danych i pojęć chemicznych, jakie uzyskano w toku tych badań, późniejsze osiągnięcia Lavoisiera, a zwłaszcza Daltona, byłyby nie do pojęcia. Zmiany standardów wyznaczających uprawnione problemy, koncepcje i wyjaśnienia mogą przeobrazić naukę. W następnym rozdziale powiemy, że w pewnym sensie przeobrażają one nawet świat.
[27] Inne przykłady tego rodzaju niesubstancjalnych różnic między kolejnymi paradygmatami odnaleźć można w historii każdej nauki w dowolnym niemal okresie jej rozwoju. Zatrzymajmy się na dwóch jeszcze przykładach. Przed rewolucją chemiczną jednym z uznanych zadań chemii było tłumaczenie jakości substancji chemicznych i zmian, jakim jakości te ulegają w toku reakcji. Za pomocą niewielkiej ilości elementarnych "zasad" - jedną z nich był flogiston - chemik wyjaśnić miał, dlaczego jedne substancje są kwasami, inne metalami, dlaczego są palne itd. Uzyskano na tym polu wiele sukcesów. Zauważyliśmy już poprzednio, że flogiston tłumaczyć miał podobieństwo między metalami, a podobną argumentację przytoczyć można i dla kwasów. Lavoisierowska reforma chemii usunęła z niej wszelkie tego rodzaju "zasady", a tym samym pozbawiła chemię w poważnym stopniu jej siły wyjaśniającej. Aby zrekompensować te straty, niezbędna była zmiana standardów. W ciągu całego niemal wieku XIX nikt nie oskarżał chemii o to, iż nie potrafi wyjaśnić własności ciał złożonych.
[28] Przykład dalszy: Clerk Maxwell podzielał wraz z innymi dziewiętnastowiecznymi zwolennikami falowej teorii światła przekonanie, że ośrodkiem, w którym rozchodzą się fale świetlne, musi być materialny eter. Zbudowanie mechanicznego modelu owego ośrodka przenoszącego fale było standardowym problemem dla wielu najzdolniejszych ówczesnych fizyków. Jednakże teoria samego Maxwella, elektromagnetyczna teoria światła, w ogóle nie mówiła o ośrodku, który mógłby być nośnikiem fal świetlnych, a co więcej, na gruncie tej teorii sformułowanie takiego wyjaśnienia stało się jeszcze trudniejsze niż poprzednio. Początkowo z tych właśnie względów odrzucano teorię Maxwella. Podobnie jednak jak w przypadku Newtona okazało się, że bez tej teorii trudno się obejść. Z chwilą zaś gdy uzyskała status paradygmatu, stosunek uczonych do niej zmienił się. Na początku XX wieku nacisk, jaki kładł w swoim czasie Maxwell na istnienie mechanicznego eteru, potraktowano jako daninę spłaconą przez niego obyczajom, czym zdecydowanie nie była, i zaniechano prób zaprojektowania takiego ośrodka. Uczeni przestali uważać, że nienaukowe jest mówienie o jakimś "przemieszczeniu" elektrycznym bez wskazania, co ulega przemieszczeniu. W wyniku tego ukształtował się z kolei nowy zespół problemów i standardów, który, jak się okazało, miał wiele wspólnego z powstaniem teorii względności.
[29] Te charakterystyczne zmiany poglądów uczonych na temat uprawnionych problemów i standardów nie miałyby większego znaczenia dla tezy niniejszej rozprawy, gdyby można było przyjąć, że związane są one zawsze z przejściem od niższego do wyższego poziomu metodologicznego. W takim wypadku również ich skutki miałyby charakter kumulatywny. Nic dziwnego, że niektórzy historycy twierdzili, iż dzieje nauki świadczą o stałym wzroście dojrzałości i doskonaleniu poglądów ludzi na istotę nauki. Jednakże tezę o kumulatywnym rozwoju problemów i standardów nauki jest jeszcze trudniej obronić niż tezę o kumulatywnym rozwoju samych teorii naukowych. Choć zaniechanie prób wyjaśnienia grawitacji wyszło na korzyść osiemnastowiecznym uczonym, to próby te nie miały na celu rozstrzygnięcia problemu ze swej natury nieuprawnionego; obiekcje wobec sił wrodzonych nie były czymś z zasady nienaukowym czy metafizycznym w sensie pejoratywnym. Nie istnieją bowiem żadne zewnętrzne standardy, które mogłyby stanowić podstawę do takich ocen. To, co się działo, nie było ani upadkiem, ani postępem metod, lecz po prostu zmianą, jakiej wymagało przyjęcie nowego paradygmatu. Co więcej, zmiana ta nie była ostateczna. W wieku XX Einsteinowi udało się wyjaśnić przyciąganie grawitacyjne i wyjaśnienie to przywróciło nauce szereg kanonów i problemów, które pod pewnymi względami bliższe są poprzednikom Newtona niż jego następcom. Podobnie rozwój mechaniki kwantowej obalił metodologiczne zakazy wywodzące się z rewolucji chemicznej. Chemicy próbują odtąd, i to ze znacznymi sukcesami, wyjaśniać barwę, stan skupienia i inne własności substancji wykorzystywanych i wytwarzanych w ich laboratoriach. Podobne odwrócenie dokonywać się może aktualnie w teorii elektromagnetycznej. Przestrzeń w fizyce współczesnej nie jest bezwładnym i jednorodnym substratem, do którego odwoływały się teorie Newtona i Maxwella. Niektóre jej własności przypominają te, jakie niegdyś przypisywano eterowi; pewnego dnia dowiemy się, być może, czym jest przemieszczenie elektryczne.
[30] W powyższych przykładach na pierwszy plan wysuwa się już nie poznawcza, lecz normatywna funkcja paradygmatów, co pozwala lepiej zrozumieć, w jaki sposób kształtują one życie naukowe. Poprzednio badaliśmy głównie rolę paradygmatów jako nośnika teorii naukowych. Ich rola polega wówczas na tym, że mówią uczonemu, z jakich bytów składa się przyroda, a jakich w niej nie ma, oraz w jaki sposób byty te się zachowują. Informacje te tworzą jakby mapę, której dalsze szczegóły ujawniane są przez dojrzałe badania naukowe. A że przyroda jest zbyt skomplikowana i zbyt różnorodna, by można ją było badać w sposób przypadkowy, mapa ta odgrywa równie ważną rolę w rozwoju nauki jak obserwacja i eksperyment. Paradygmaty, poprzez ucieleśnione w nich teorie, są konstytutywnym elementem aktywności badawczej. Są one jednak konstytutywne dla nauki również pod innymi względami, i to jest właśnie ten nowy moment. W szczególności nasze ostatnie przykłady pokazują, że paradygmaty dostarczają uczonym nie tylko owej mapy, lecz także pewnych zasadniczych wskazówek kartograficznych. Przyswajając sobie paradygmat, uczony poznaje zarazem teorię, metody i standardy, splecione zazwyczaj w jeden węzeł. Dlatego też wraz ze zmianą paradygmatu następują zazwyczaj istotne przemiany kryteriów wyznaczających uprawnione problemy i rozwiązania.
[31] Stwierdzenie to cofa nas do punktu wyjścia niniejszego rozdziału. Tłumaczy bowiem po części, czemu wybór między konkurencyjnymi paradygmatami z reguły rodzi problemy, których nie można rozwiązać, odwołując się do kryteriów nauki normalnej. W tej mierze, w jakiej dwie szkoły nie zgadzają się co do tego, na czym polega problem i co uznać za rozwiązanie, zwolennicy każdej z nich będą usiłowali przelicytować się we wskazaniu zalet swoich paradygmatów. W wynikających stąd, opartych częściowo na błędnym kole argumentacjach okazuje się, że każdy paradygmat w mniejszej lub większej mierze spełnia kryteria, jakie sam sobie stawia, i nie może sprostać tym, które narzuca mu stanowisko konkurencyjne. Istnieją również inne przyczyny owego ograniczonego kontaktu logicznego, cechującego spory o paradygmat. Skoro na przykład żaden paradygmat nigdy nie rozwiązuje wszystkich problemów, jakie stawia, i skoro żadne dwa paradygmaty nie pozostawiają bez rozwiązania tych samych dokładnie problemów, to w sporze między nimi rodzi się zawsze pytanie: rozwiązanie których problemów jest ważniejsze? Podobnie jak kwestię konkurencyjnych standardów, tak i to pytanie dotyczące wartości można rozstrzygnąć jedynie za pomocą kryteriów spoza nauki normalnej i właśnie odwołanie się do tych zewnętrznych kryteriów nadaje sporom o paradygmat rewolucyjny charakter. W grę wchodzi tu jednak coś jeszcze bardziej zasadniczego niż standardy i wartości. Dowodziłem dotychczas, że paradygmaty są konstytutywnym elementem nauki. Chciałbym teraz pokazać, że w pewnym sensie konstytuują one również samą przyrodę.
X. REWOLUCJE JAKO ZMIANY POGLĄDU NA ŚWIAT
[1] Historyk nauki, który bada dawne prace naukowe z punktu widzenia współczesnej historiografii, może nabrać przekonania, że kiedy paradygmat ulega zmianie, wraz z nim zmienia się i świat. Kierując się nowym paradygmatem, uczeni stosują nowe przyrządy i widzą nowe obszary rzeczywistości. Co ważniejsze, w okresie rewolucji naukowej, posługując się dobrze znanymi przyrządami i badając obszary, które badali dawniej, dostrzegają oni coś zupełnie innego. Wygląda to tak, jak gdyby zawodowa społeczność uczonych przeniosła się nagle na inną planetę, gdzie przedmioty dobrze znane ukazują się w innym świetle, wraz z innymi, wcześniej nie znanymi. Oczywiście, nic takiego się nie dzieje - nie następuje przeniesienie w przestrzeni, poza laboratorium wydarzenia codzienne biegną zazwyczaj dawnym trybem. A jednak zmiany paradygmatu rzeczywiście sprawiają, że uczeni inaczej widzą świat, który jest przedmiotem ich badania. W tej mierze, w jakiej mają oni do czynienia ze światem jako uczeni, chciałoby się powiedzieć, że po rewolucji żyją oni w innym świecie.
[2] Dobrze znane z psychologii postaci doświadczenia, w których dostrzega się raptem zupełnie inny kształt, mogą być dobrym prototypem tego rodzaju przeobrażeń świata uczonych. To, co w świecie uczonego było przed rewolucją kaczką, po rewolucji staje się królikiem. Ktoś, kto najpierw widział pudełko z zewnątrz i od góry, później ogląda jego wnętrze widziane od dołu. Tego rodzaju przeobrażenia, tyle że zachodzące stopniowo i prawie zawsze nieodwracalne, znane są dobrze jako zjawiska towarzyszące procesowi kształcenia naukowego. Patrząc na mapę konturową, uczeń widzi nakreślone na papierze linie, kartograf zaś - obraz terenu. Oglądając fotografię wykonaną w komorze pęcherzykowej, student widzi pogmatwane linie łamane, a fizyk zapis dobrze znanych zjawisk zachodzących w mikroświecie. Dopiero gdy zajdzie szereg takich przeobrażeń sposobu widzenia, student staje się mieszkańcem świata uczonych: zaczyna widzieć to, co widzą uczeni, i reagować tak jak oni. Jednakże świat, do którego student wtedy wkracza, nie jest raz na zawsze określony, ani, z jednej strony, przez samą naturę otoczenia, ani, z drugiej, przez naturę nauki. Określa go łącznie otoczenie i konkretna tradycja nauki normalnej, zgodnie z którą uczono studenta postępować. Kiedy więc w okresie rewolucji tradycja ta się zmienia, musi ulec przekształceniu percepcja otoczenia przez uczonego - w sytuacji dobrze sobie znanej musi się on nauczyć dostrzegać nowe kształty. W następstwie tego świat jego badań naukowych tu i ówdzie sprawiać będzie wrażenie zupełnie niewspółmiernego z tym, w którym uprzednio się obracał. Jest to druga przyczyna, dla której szkoły kierujące się różnymi paradygmatami zawsze trochę się rozmijają.
[3] Doświadczenia psychologii postaci ilustrują zazwyczaj jedynie istotę przeobrażeń percepcji. Nie mówią one o tym, jaką rolę w procesie postrzegania odgrywa paradygmat lub poprzednio nabyte doświadczenie. Kwestii tej poświęcona jest jednak bogata literatura psychologiczna, którą zawdzięczamy w znacznej mierze pionierskim pracom wykonanym w Instytucie Hanowerskim. Ktoś, komu w celach doświadczalnych nałożono specjalne okulary o soczewkach odwracających, widzi początkowo cały świat do góry nogami. W pierwszej chwili jego aparat percepcyjny funkcjonuje tak, jak się tego nauczył bez okularów, czego wynikiem jest całkowita dezorientacja i silne zdenerwowanie. Kiedy jednak osobnik nauczy się obcować ze swoim nowym światem, całe jego pole widzenia - po okresie przejściowych zakłóceń - znów się odwraca. Widzi teraz wszystko tak, jak widział przed włożeniem okularów. Nastąpiła asymilacja pola widzenia, zmieniająca samo to pole, które początkowo wydawało się czymś nienormalnym. Człowiek, który przyzwyczaił się do soczewek odwracających, przeszedł - dosłownie i w przenośni - rewolucyjne przeobrażenie sposobu widzenia.
[4] Bardzo podobne przeobrażenie przeszli uczestnicy eksperymentu z grą w karty opisaną w rozdziale szóstym. Zanim dzięki przedłużonym ekspozycjom przekonali się, że istnieją karty inne niż te, z jakimi dotąd mieli do czynienia, rozpoznawali tylko takie, które na gruncie dotychczasowego doświadczenia spodziewali się ujrzeć. Ale kiedy ich doświadczenie wzbogaciło się o niezbędne dodatkowe kategorie, byli w stanie odróżnić wszystkie nienormalne karty już przy pierwszej próbie, jeśli tylko trwała ona dostatecznie długo, by w ogóle móc dokonać jakiejkolwiek identyfikacji. Jeszcze inne eksperymenty wskazują, że dostrzegany rozmiar przedmiotów, ich kolor itd. zmienia się w zależności od poprzedniego treningu i doświadczenia danego osobnika. Z bogatej literatury eksperymentalnej, z której zaczerpnięto te przykłady, wynikałoby, że samą percepcję poprzedza już przyjęcie czegoś w rodzaju paradygmatu. To, co człowiek widzi, zależy zarówno od tego, na co patrzy, jak od tego, co nauczył się dostrzegać w swym dotychczasowym doświadczeniu wizualnym i pojęciowym. W braku tego doświadczenia dostrzegalibyśmy jedynie, mówiąc słowami Williama Jamesa, "kakofonię dźwięków i barw".
[5] W ostatnich latach kilku badaczy zajmujących się historią nauki uznało powyższego rodzaju eksperymenty za niezwykle wymowne. Należy tu przede wszystkim wymienić N. R. Hansona, który odwołał się do tych eksperymentów, aby zbadać niektóre z interesujących nas tu konsekwencji przekonań naukowych. Inni koledzy wielokrotnie podkreślali, że historia nauki byłaby bardziej sensowna i spójna, gdyby przyjąć, że uczeni przechodzili od czasu do czasu taką zmianę sposobu widzenia jak wyżej opisana. Jednakże eksperymenty psychologiczne, zgodnie ze swą naturą, mogą nam tu dostarczyć jedynie pewnych sugestii. Uwydatniają one takie cechy postrzegania, które mogłyby mieć zasadnicze znaczenie dla rozwoju nauki, nie mogą jednak wykazać, że cechy te przysługują starannym i poddanym kontroli obserwacjom przeprowadzanym przez uczonych. Poza tym sam charakter tych doświadczeń uniemożliwia tu jakikolwiek bezpośredni dowód. Jeśli chcemy uznać te psychologiczne eksperymenty za istotne, kierując się historycznymi przykładami, musimy najpierw zorientować się, jakiego rodzaju świadectw możemy w ogóle oczekiwać od historii, a jakich nie.
[6] Osobnik będący obiektem tego rodzaju badań psychologicznych wie, że sposób jego postrzegania uległ zmianie, bo może wielokrotnie przechodzić od jednego do drugiego sposobu widzenia, trzymając w ręku tę samą książkę czy kawałek papieru. Wiedząc, że nic się w jego otoczeniu nie zmieniło, zwraca coraz baczniejszą uwagę nie na postacie (kaczkę czy królika), lecz na linie na papierze, na który patrzy. W końcu może się nawet nauczyć dostrzegać tylko linie, nie widząc żadnej z figur, i wówczas może stwierdzić (czego nie mógł w sposób uprawniony powiedzieć wcześniej), że naprawdę widzi jedynie te linie, ale widzi je na przemian jako kaczkę i jako królika. Podobnie osoba poddana doświadczeniom z niezwykłymi kartami wie (a ściślej mówiąc, można ją przekonać), że jej sposób postrzegania musiał ulec przeobrażeniu, gdyż zewnętrzny autorytet w osobie eksperymentatora zapewnia ją, że niezależnie od tego, co widziała, patrzyła cały czas na czarną piątkę kier. W obu tych wypadkach, tak samo zresztą jak we wszystkich podobnych doświadczeniach psychologicznych, skuteczność demonstracji zależy od tego, czy da się ona zanalizować w ten sposób. Gdyby nie zewnętrzny wzorzec, do którego można się odwołać, aby zademonstrować przeobrażenie sposobu widzenia, nie można by wnioskować o możliwości zmiennego postrzegania.
[7] Gdy chodzi jednak o obserwacje naukowe, sytuacja jest dokładnie odwrotna. Uczony nie może odwołać się do niczego ponad to lub poza tym, co widzi na własne oczy i za pomocą przyrządów. Gdyby istniał dlań wyższy autorytet i gdyby odwołanie się do niego mogło wykazać zmianę jego sposobu widzenia, to sam ten autorytet stałby się dlań źródłem danych, a jego sposób widzenia - źródłem problemów (tak jak dla psychologa sposób widzenia podmiotu poddanego eksperymentom). Problemy tego samego rodzaju powstałyby, gdyby uczony mógł przestawiać się z jednego sposobu widzenia na inny, tak jak podmiot eksperymentów z psychologii postaci. Okres, w którym światło było "niekiedy falą, a niekiedy cząstką", był okresem kryzysu - okresem, w którym coś działo się nie tak - i zakończył się on dopiero wraz z powstaniem mechaniki kwantowej i zrozumieniem, że światło jest bytem swoistego rodzaju, różnym zarówno od fali, jak od cząstki. Jeżeli więc w nauce zmianom paradygmatu towarzyszą zmiany sposobu postrzegania, nie możemy oczekiwać, że uczeni będą temu dawali bezpośrednie świadectwo. Ktoś, kogo dopiero co przekonano do kopernikanizmu, nie powie, patrząc na Księżyc: "Zwykle widziałem planetę, a teraz widzę satelitę". Oświadczenie takie sugerowałoby, że system Ptolemeusza był kiedyś słuszny. Świeży wyznawca nowej astronomii powie raczej: "Kiedyś uważałem Księżyc za planetę (albo: traktowałem Księżyc jako planetę), ale myliłem się". Tego typu stwierdzenia rzeczywiście padają po rewolucjach naukowych. Skoro zazwyczaj maskują one przemianę naukowego widzenia świata czy też inne przeobrażenie myślowe dające ten sam skutek, nie możemy się spodziewać odnalezienia bezpośrednich jej świadectw. Powinniśmy raczej poszukiwać pośrednich świadectw - związanych z zachowaniem się uczonych - tego, że opierając się na nowym paradygmacie, widzą oni świat inaczej niż dotąd.
[8] Wróćmy jednak do faktów i zastanówmy się, jakiego rodzaju przeobrażenia w świecie uczonego wykryć może historyk, który wierzy, że przemiany takie się dokonują. Najlepszym przykładem, analogicznym do doświadczenia z niezwykłymi kartami, będzie odkrycie Urana przez Williama Herschela. W latach 1690-1781 wielu astronomów, w tym kilka największych sław europejskich, spostrzegło w siedemnastu różnych przypadkach jakąś gwiazdę w takich położeniach, w jakich - jak obecnie przypuszczamy - musiał się znajdować wówczas Uran. Jeden z najlepszych z tej grupy obserwatorów w roku 1769 obserwował ową gwiazdę w ciągu czterech kolejnych nocy i nie stwierdził jej przesunięcia, które mogłoby sugerować inną identyfikację. Kiedy dwanaście lat później Herschel po raz pierwszy obserwował to samo ciało niebieskie, posługiwał się dużo lepszym teleskopem własnej konstrukcji. Dzięki temu mógł zaobserwować pozorną wielkość tarczy, która była co najmniej niezwykła jak na gwiazdę. Coś tu było nie w porządku i dlatego powstrzymał się on od wyciągania wniosków co do natury tego ciała aż do uzyskania dokładniejszych wyników. Dalsze badania wykazały ruch tego obiektu względem gwiazd, wobec czego Herschel oznajmił, że obserwował nową kometę. Dopiero siedem miesięcy później, po bezskutecznych próbach pogodzenia zaobserwowanego ruchu z torem komety, Lexell wpadł na pomysł, że chodzi prawdopodobnie o orbitę planety. Kiedy pomysł ten został zaakceptowany, w świecie zawodowego astronoma ubyło kilku gwiazd, a przybyła jedna planeta. Ciało niebieskie, które obserwowano z przerwami przez całe niemal stulecie, zaczęto po roku 1781 widzieć inaczej, gdyż, podobnie jak niezwykła karta, nie dawało się ono dłużej ujmować w kategoriach percepcyjnych (gwiazda-kometa), jakich dostarczał poprzednio panujący paradygmat.
[9] Nie wydaje się, aby ta zmiana sposobu widzenia, która umożliwiła astronomom ujrzenie planety Urana, dotyczyła tylko percepcji tego jednego ciała. Miała ona dalej idące konsekwencje. Prawdopodobnie, choć brak na to jednoznacznych dowodów, wprowadzona przez Herschela drobna zmiana paradygmatu pomogła przygotować astronomów do szybkiego odkrycia po roku 1801 wielu drobnych planet i asteroidów. Ze względu na niewielkie rozmiary nie wyróżniała ich ta niezwykła wielkość, która wzbudziła czujność Herschela. Mimo to astronomowie, nastawieni na odkrywanie nowych planet, zdołali za pomocą standardowych przyrządów zidentyfikować aż dwadzieścia obiektów w pierwszej połowie XIX wieku. Historia astronomii przynosi wiele innych, znacznie mniej dwuznacznych przykładów zmian sposobu postrzegania świata przez uczonych pod wpływem przeobrażeń paradygmatu. Czy na przykład można uznać za przypadek, że astronomowie Zachodu dostrzegli po raz pierwszy zmiany w uznawanych poprzednio za niezmienne niebiosach w przeciągu pół wieku po pierwszym sformułowaniu nowego paradygmatu przez Kopernika? Chińczycy, których poglądy w dziedzinie kosmologii nie wykluczały zmian na niebie, o wiele wcześniej odnotowali pojawienie się na niebie wielu nowych gwiazd. Również Chińczycy, i to bez pomocy teleskopu, systematycznie notowali pojawienie się plam na Słońcu całe wieki przed tym, nim dostrzegł je Galileusz i jemu współcześni. Ale ani plamy na Słońcu, ani nowa gwiazda nie są jedynymi przykładami zmian, które zaszły na niebie zachodniej astronomii bezpośrednio po Koperniku. Posługując się tradycyjnymi przyrządami, niekiedy tak prostymi jak kawałek nitki, astronomowie końca XVI wieku stwierdzali wielokrotnie, że komety swobodnie wędrują w obszarach przestrzeni poprzednio zastrzeżonych dla nieruchomych gwiazd i planet. Ze względu na łatwość i szybkość, z jaką astronomowie dostrzegali coś nowego, patrząc na dawno znane obiekty za pomocą starych przyrządów, ma się ochotę powiedzieć, że po Koperniku zaczęli oni żyć w zupełnie innym świecie. W każdym razie o tym wydają się świadczyć ich badania.
[10] Wyżej przytoczone przykłady zaczerpnięte zostały z astronomii, gdyż w sprawozdaniach z obserwacji ciał niebieskich używa się zazwyczaj języka złożonego z względnie czystych terminów obserwacyjnych, a jedynie takie sprawozdania ujawnić mogą ewentualnie pełną analogię między obserwacjami uczonych a obserwacjami osobników poddawanych eksperymentom psychologicznym. Nie mamy jednak powodu upierać się przy pełnej analogii; wiele można osiągnąć, korzystając z luźniejszego modelu. Jeśli zadowolimy się czasownikiem "widzieć" w jego najbardziej codziennym sensie, szybko stwierdzimy, że mieliśmy już sposobność zetknąć się z wieloma innymi przykładami zmian sposobu postrzegania towarzyszących przeobrażeniom paradygmatów. To rozszerzone użycie terminów "postrzeżenie" i "widzenie" spróbujemy wkrótce uzasadnić, na razie jednak wskażemy, na czym polega ono w praktyce.
[11] Spójrzmy ponownie na dwa spośród naszych poprzednich przykładów z historii elektryczności. W wieku XVII uczeni prowadzący badania w myśl wskazań rozmaitych wersji teorii fluidu wielokrotnie widzieli maleńkie cząstki przyciągane lub odbijane przez ciała naładowane elektrycznie. W każdym razie tak twierdzili i nie mamy powodów, aby bardziej wątpić w doniesienia ich zmysłów niż naszych własnych. Współczesny obserwator, korzystając z tych samych co oni przyrządów, dostrzegłby raczej odpychanie elektrostatyczne (a nie odbijanie mechaniczne czy też odpychanie grawitacyjne), ale historycznie rzecz biorąc - z wyjątkiem jednego, powszechnie ignorowanego przypadku - odpychanie elektrostatyczne nie było wyróżniane jako takie, dopóki jego efekty nie zostały znacznie wzmocnione przez aparat Hauksbee'ego. Odpychanie po naelektryzowaniu przez zetknięcie było jednak tylko jednym z wielu dostrzeżonych przez Hauksbee'ego nowych efektów odpychania. Za sprawą jego prac, niczym w zmianie widzenia postaci, odpychanie stało się nagle podstawowym przejawem naelektryzowania, a wyjaśnienia wymagało raczej zjawisko przyciągania. Zjawiska elektryczne dostrzegane na początku wieku XVIII były i subtelniejsze, i bardziej różnorodne od tych, które uczeni wyróżniali w wieku XVII. Również z chwilą kiedy przyjął się paradygmat Franklina, uczeni badający zjawiska elektryczne, gdy mieli do czynienia z butelką lejdejską, widzieli w niej zupełnie coś innego niż wcześniej. Przyrząd ten stał się kondensatorem, który nie musiał mieć kształtu butelki ani też nie musiał być zrobiony ze szkła. Znaczenia nabrały natomiast dwie przewodzące okładki, z których jedna nie była częścią oryginalnej butelki lejdejskiej. Zarówno rosnąca dokumentacja pisana, jak i ilustracje graficzne pozwalają stwierdzić, że dwie płyty metalowe ze znajdującym się między nimi dielektrykiem stały się prototypem całej klasy przyrządów. Jednocześnie inne efekty indukcji uzyskały nowe wyjaśnienie, a jeszcze inne dostrzeżono po raz pierwszy.
[12] Tego rodzaju przeobrażenia zdarzają się nie tylko w astronomii i w nauce o elektryczności. Można je, jak już stwierdziliśmy, spotkać w historii chemii. Mówiliśmy, że Lavoisier dostrzegł tlen tam, gdzie Priestley widział zdeflogistonowane powietrze, a inni nie widzieli w ogóle nic. Ucząc się dostrzegać tlen, Lavoisier musiał zmienić swe zapatrywania na wiele innych bardziej znanych substancji. Dostrzec musiał na przykład złożoną rudę (związek) tam, gdzie Priestley i jego współcześni widzieli "elementarną ziemię" (pierwiastek); zaszły i inne tego rodzaju zmiany. W każdym razie odkrywszy tlen, Lavoisier inaczej patrzył na przyrodę. A że nie można odwołać się do owej hipotetycznie niezmiennej przyrody, którą Lavoisier teraz "widział inaczej", zasada ekonomii skłania nas do twierdzenia, że po odkryciu tlenu pracował on w innym świecie.
[13] Należałoby rozważyć, czy da się uniknąć tego dziwnego zwrotu; ale najpierw omówimy jeszcze jeden przykład jego zastosowania. Będzie to przykład zaczerpnięty z jednej z najlepiej znanych części dzieła Galileusza. Już od zamierzchłej starożytności większość ludzi stykała się z takim czy innym ciężarem swobodnie kołyszącym się na linie czy łańcuchu, póki nie osiągnie stanu spoczynku. Arystotelicy, którzy uważali, że ciężar dzięki swej naturze porusza się z góry w dół, aby osiągnąć stan naturalnego spoczynku, twierdzili, że takie huśtające się ciało ma po prostu trudności ze spadaniem. Uwięzione na łańcuchu, osiągnąć może stan spoczynku w dolnym punkcie dopiero po dłuższym czasie ruchu wymuszonego. Natomiast Galileusz, patrząc na kołyszący się ciężar, widział wahadło - ciało, któremu niemal udaje się powtarzać ten sam ruch w nieskończoność. Kiedy zaś dostrzegł już tyle, dojrzał również i inne właściwości wahadła, na których oparł wiele najważniejszych i najbardziej oryginalnych części swej dynamiki. Z własności wahadła wyprowadził na przykład swój jedyny kompletny i pewny dowód niezależności prędkości spadania od ciężaru oraz od stosunku między wysokością a prędkością końcową w ruchu po równi pochyłej. Wszystkie te zjawiska postrzegał on inaczej, niż widziano je poprzednio.
[14] Co doprowadziło do tego przeobrażenia? Oczywiście, osobisty geniusz Galileusza. Należy jednak zaznaczyć, że ów geniusz nie przejawił się w dokładniejszej czy też bardziej obiektywnej obserwacji wahającego się ciała. Obserwacje Arystotelesa są pod względem opisowym równie ścisłe. Kiedy Galileusz zauważył, że okres drgań wahadła nie zależy od amplitudy, nawet przy amplitudach sięgających 90°, jego poglądy na wahadło pozwoliły mu dostrzec o wiele większą regularność niż ta, jaką potrafimy dziś wykryć. Wydaje się, że rola geniuszu polegała tu raczej na wykorzystaniu możliwości percepcyjnych, jakie stworzyła średniowieczna zmiana paradygmatu. Galileusz nie wyrósł całkowicie na gruncie arystotelizmu. Przeciwnie, uczono go analizy ruchu w kategoriach teorii impetu, późnośredniowiecznego paradygmatu, który głosił, że ciało ważkie porusza się nieprzerwanym ruchem dzięki sile wszczepionej mu przez ciało, które wprawiło je w ruch. Jean Buridan i Mikołaj z Oresme, czternastowieczni scholastycy, którzy nadali teorii impetu najdoskonalszą postać, znani są z tego, że pierwsi dostrzegli w ruchu wahadłowym przynajmniej część tego, co później zobaczył Galileusz. Buridan, opisując ruch drgającej struny, podaje, że impet został jej po raz pierwszy przekazany przy uderzeniu; następnie zostaje on zużyty na przemieszczenie struny wbrew oporowi jej napięcia; napięcie to odciąga z kolei strunę z powrotem, przy czym odzyskuje ona swój impet aż do chwili, kiedy osiąga położenie wyjściowe; teraz znów impet przemieszcza strunę w kierunku przeciwnym, wbrew jej napięciu, i tak dalej, przy czym ten symetryczny ruch może trwać w nieskończoność. Jeszcze w tym samym stuleciu, ale nieco później, Mikołaj z Oresme naszkicował podobną analizę wahań kamienia, którą z dzisiejszego punktu widzenia uznaje się za pierwsze omówienie wahadła. Poglądy jego są wyraźnie zbliżone do poglądów Galileusza z okresu, w którym zaczął się on zajmować wahadłem. Przynajmniej jeśli chodzi o Mikołaja z Oresme, a prawie na pewno również w wypadku Galileusza, przyjęcie takich poglądów stało się możliwe dzięki przejściu od oryginalnego Arystotelesowskiego paradygmatu ruchu do scholastycznej koncepcji impetu. Zanim powstał paradygmat scholastyczny, uczeni nie byli w stanie dostrzec wahadła, a widzieli tylko kołyszący się kamień. Wahadło zostało powołane do życia wskutek czegoś, co bardzo przypomina wywołaną przez paradygmat zmianę widzenia postaci.
[15] Czy jednak rzeczywiście musimy ujmować to, co dzieliło Galileusza od Arystotelesa lub Lavoisiera od Priestleya, jako zmianę sposobu widzenia? Czy ludzie ci naprawdę widzieli różne rzeczy, kiedy patrzyli na ten sam rodzaj przedmiotów? Czy można w jakimś uprawnionym sensie mówić, że prowadzili oni swe badania w różnych światach? Pytań tych nie możemy już dłużej pomijać, gdyż istnieje oczywiście inny, o wiele bardziej rozpowszechniony sposób opisu wszystkich wyżej wymienionych przykładów historycznych. Z pewnością wielu czytelników powiedziałoby, że przy zmianie paradygmatu zmienia się jedynie interpretacja nadawana przez uczonych obserwacjom, które same przez się są raz na zawsze wyznaczone przez naturę otoczenia i aparatu percepcyjnego. Z tego punktu widzenia Priestley i Lavoisier obaj widzieli tlen, ale różnie interpretowali swoje obserwacje; Arystoteles i Galileusz obaj widzieli wahadło, ale różnili się w interpretacji tego, co widzieli.
[16] Od razu muszę powiedzieć, że ten bardzo rozpowszechniony pogląd na to, co się dzieje, kiedy uczeni zmieniają zdanie w podstawowych kwestiach, nie może być ani z gruntu fałszywy, ani całkiem chybiony. Jest to raczej zasadniczy element pewnego filozoficznego paradygmatu, któremu początek dał Kartezjusz, a który ukształtował się w tym samym czasie co dynamika Newtona. Paradygmat ten dobrze służył zarówno nauce, jak filozofii. Jego wykorzystanie, podobnie jak wykorzystanie dynamiki, doprowadziło do zrozumienia spraw podstawowych, czego przypuszczalnie nie można było osiągnąć w inny sposób. Ale zarazem - jak wskazuje dynamika Newtona - nawet najbardziej zawrotne sukcesy w przeszłości nie gwarantują możliwości odkładania kryzysu w nieskończoność. Współczesne badania w niektórych działach filozofii, psychologii, lingwistyki, a nawet historii sztuki zgodnie wskazują na to, że ten tradycyjny paradygmat wykrzywia obraz rzeczywistości. Uwidoczniają to coraz mocniej również historyczne badania nad nauką, które interesują nas tu przede wszystkim.
[17] Jak dotąd żadna z tych zwiastujących kryzys dziedzin nie wyłoniła dość silnej koncepcji alternatywnej wobec tradycyjnego paradygmatu teoriopoznawczego. Zaczynają one jednak wskazywać, jakie powinny być niektóre charakterystyczne cechy tego odmiennego paradygmatu. Osobiście zdaję sobie doskonale sprawę z trudności, na jakie się narażam, powiadając, że kiedy Arystoteles i Galileusz patrzyli na kołyszący się kamień, pierwszy z nich dostrzegał utrudnione spadanie, a drugi - wahadło. Do tych samych trudności, może nawet w postaci jeszcze bardziej zasadniczej, prowadzą wstępne zdania niniejszego rozdziału - mimo iż świat nie ulega zmianie wraz ze zmianą paradygmatu, kiedy ona nastąpi, uczony pracuje w innym świecie. Jednakże jestem przekonany, że musimy nauczyć się nadawać sens tego rodzaju wypowiedziom. Tego, co się dzieje w trakcie rewolucji naukowej, nie da się sprowadzić do reinterpretacji poszczególnych, niezmiennych danych. Po pierwsze, dane te nie są jednoznacznie ustalone. Ani wahadło nie jest spadającym kamieniem, ani tlen - zdeflogistonowanym powietrzem. W konsekwencji, jak wkrótce zobaczymy, różne są też dane, które zbierają uczeni, obserwując te rozmaite przedmioty. Co ważniejsze, proces, za pośrednictwem którego jednostka czy też zbiorowość przechodzi od koncepcji utrudnionego spadania do koncepcji wahadła albo od zdeflogistonowanego powietrza do tlenu, nie przypomina interpretacji. Jest to oczywiste, skoro uczony nie rozporządza jednoznacznie ustalonymi danymi, które miałby interpretować. Badacz, który przyjmuje nowy paradygmat, przypomina bardziej człowieka korzystającego z soczewek odwracających niż interpretatora. Stykając się z tą samą co przedtem konstelacją przedmiotów i zdając sobie z tego sprawę, stwierdza jednak, że uległy one zasadniczej przemianie w wielu szczegółach.
[18] Żadna z powyższych uwag nie ma na celu wykazania, że uczeni nie interpretują faktów i danych. Przeciwnie, Galileusz interpretował ruchy wahadła, Arystoteles - spadającego kamienia, Musschenbroek - obserwacje naładowanej elektrycznością butelki, a Franklin - obserwacje kondensatora. Ale każda z owych interpretacji zakładała pewien paradygmat. Stanowiły one część nauki normalnej, tj. działalności, która - jak to stwierdziliśmy - zmierza do uściślenia, rozszerzenia i uszczegółowienia już istniejącego paradygmatu. Rozdział trzeci dostarczył nam wielu przykładów, w których interpretacja odgrywała zasadniczą rolę. Są to przykłady typowe dla zdecydowanej większości prac badawczych. W każdym z nich uczony, dzięki akceptowanemu paradygmatowi, wiedział, co jest dane, jakich przyrządów można użyć, aby te dane uzyskać, i jakie pojęcia zastosować w procesie interpretacji. Gdy dany jest paradygmat, interpretacja danych stanowi zasadniczy element opartych na nim badań.
[19] Interpretacja jednak - jak pokazaliśmy w przedostatnim ustępie - może tylko doprowadzić do uszczegółowienia paradygmatu, a nie do jego korekty. Nauka normalna w żadnym razie nie koryguje paradygmatów. Natomiast, jak już widzieliśmy, doprowadza ona w ostatecznej fazie do rozpoznania anomalii i do kryzysów. A rozwiązanie kryzysów nie następuje wskutek rozważań i interpretacji; zamykają je wydarzenia raczej nieoczekiwane, przypominające zmianę widzenia postaci. Uczeni często wspominają wówczas o "łuskach spadających z oczu" lub o "błyskawicach w ciemności", które "rozświetlają" niejasną dotąd łamigłówkę, pozwalają w nowy sposób ujrzeć jej kawałki i tym samym umożliwiają po raz pierwszy jej rozwiązanie. Kiedy indziej olśnienie następuje podczas snu. Do tych błysków intuicji, w których rodzi się nowy paradygmat, w żadnym zwykłym sensie nie pasuje termin "interpretacja". Mimo że intuicje te oparte są na doświadczeniu, zarówno związanym z badaniem anomalii, jak i nabytym na gruncie starego paradygmatu, nie są one logicznie związane z poszczególnymi elementami tego doświadczenia, jak to ma miejsce w wypadku interpretacji. Przeciwnie, proces ten polega na przeobrażeniu całych fragmentów tego doświadczenia w nową całość doświadczalną, której elementy wiązane są potem stopniowo z nowym, a nie ze starym paradygmatem.
[20] Aby się lepiej zorientować, na czym mogą polegać te różnice w doświadczeniu, wróćmy na chwilę do Arystotelesa, Galileusza i wahadła. Jakie dane każdy z nich mógł uzyskać, mając za punkt wyjścia z jednej strony tę samą przyrodę, z drugiej zaś - inny paradygmat? Zwolennicy Arystotelesa, mając do czynienia z utrudnionym spadaniem, zmierzyliby (czy raczej: rozpatrzyliby - arystotelicy bowiem rzadko kiedy mierzyli) ciężar kamienia, wysokość, na którą go podniesiono, czas potrzebny do osiągnięcia stanu spoczynku. Za pomocą tych właśnie kategorii pojęciowych oraz jeszcze oporu ośrodka fizyka Arystotelesowska ujmowała spadek ciał. Oparte na tych zasadach normalne badania nie mogły dać w rezultacie praw, jakie sformułował Galileusz. Mogły one tylko - co rzeczywiście się stało - doprowadzić do szeregu kryzysów, z których wyłoniło się Galileusze we ujęcie problemu kamienia kołyszącego się na uwięzi. W wyniku tych kryzysów oraz innych przemian intelektualnych Galileusz patrzył już całkiem inaczej na kołyszący się kamień. Prace Archimedesa dotyczące ciał pływających pokazały, że nieistotny jest ośrodek; teoria impetu wykazała, że ruch jest symetryczny i trwały; neoplatonizm zaś zwrócił uwagę Galileusza na ruch po torze kołowym. Wskutek tego mierzył on tylko ciężar, promień, przesunięcie kątowe i okres wahania, czyli dokładnie te wielkości, których interpretacja mogła zrodzić jego prawa dotyczące wahadła. W tym przypadku interpretacja okazała się niemal niepotrzebna. Opierając się na galileuszowym paradygmacie, takie prawidłowości jak w wypadku wahadła można było nieomal dostrzec. W jaki bowiem inny sposób moglibyśmy wytłumaczyć odkrycie Galileusza, że okres drgań jest zupełnie niezależny od amplitudy, odkrycie, którego ślady nauka normalna wywodząca się od Galileusza musiała zatrzeć i którego nie możemy dziś w żaden sposób udokumentować? Prawidłowości, które nie mogły istnieć dla arystotelika (i których istotnie przyroda nigdzie jasno nie ujawnia), były konsekwencjami bezpośredniego doświadczenia dla kogoś, kto patrzył na kołyszący się kamień tak jak Galileusz.
[21] Być może jest to przykład zbyt oderwany, arystotelicy bowiem nie rozpatrywali problemu wahającego się na uwięzi kamienia. Na gruncie ich paradygmatu było to zjawisko niezwykle złożone. Rozważali jednak przypadek prostszy - swobodnego spadku kamienia - odnaleźć możemy tu te same różnice w sposobie widzenia. Patrząc na spadający kamień, Arystoteles widział raczej zmianę stanu niż proces. Właściwymi miarami ruchu były dlań przeto cała przebyta odległość i cały czas trwania tego ruchu, parametry, które pozwalały uzyskać to, co obecnie nazwalibyśmy nie prędkością, lecz prędkością średnią. Jednocześnie, ponieważ kamień ze swej natury zmuszony był dążyć do końcowego stanu spoczynku, Arystoteles traktował odległość raczej jako miarę drogi, która w każdej chwili ruchu pozostawała do przebycia, niż jako miarę drogi przebytej. Te pojęcia leżą u podstaw i nadają sens większości z jego dobrze znanych "praw ruchu". Częściowo opierając się na teorii impetu, częściowo zaś na doktrynie zwanej rozpiętością form, scholastyczna krytyka przekształciła ten sposób widzenia ruchu. Kamień wprawiony w ruch przez impet uzyskiwać go miał coraz więcej w miarę oddalania się od punktu wyjścia. W związku z tym istotnym parametrem stała się raczej odległość "od" niż droga "do". Ponadto Arystotelesowskie pojęcie prędkości zostało rozszczepione przez scholastyków na dwa - które wkrótce po Galileuszu przybrały znaną nam postać prędkości średniej i prędkości chwilowej. Ale spadający kamień widziany poprzez paradygmat, którego częścią były te koncepcje, niemal na pierwszy rzut oka odsłania - podobnie jak wahadło - wszystkie rządzące nim prawa. Galileusz nie był bynajmniej pierwszym, który twierdził, że kamień spada ruchem jednostajnie przyśpieszonym. Poza tym sformułował on swój pogląd na ten temat i przewidział wiele jego konsekwencji, zanim jeszcze przystąpił do doświadczeń z równią pochyłą. Twierdzenie to ujmowało jeszcze jedną z całego zespołu prawidłowości, jakie odsłaniał przed geniuszem świat określony łącznie przez przyrodę i przez te paradygmaty, na których wychował się on i jego współcześni. Żyjąc w tym świecie, Galileusz mógł jeszcze, gdyby chciał, wytłumaczyć, dlaczego Arystoteles widział to, co widział. Jednak bezpośrednia treść doświadczeń Galileusza ze spadającymi kamieniami była już inna niż w przypadku Arystotelesa.
[22] Nie jest naturalnie sprawą oczywistą, że w ogóle powinniśmy poświęcać tyle uwagi owemu "bezpośredniemu doświadczeniu", tzn. właściwościom zmysłowym, które paradygmat tak udobitnia, że ich prawidłowości stają się widoczne niemal gołym okiem. Właściwości te muszą, rzecz jasna, zmieniać się w zależności od tego, jakim paradygmatem kieruje się uczony, ale nie są one bynajmniej tym, co zazwyczaj mamy na myśli, kiedy mówimy o surowych danych lub gołych faktach, z których wywodzić się ma badanie naukowe. Być może powinniśmy owo bezpośrednie doświadczenie zostawić na boku jako zbyt płynne, a zająć się konkretnymi operacjami i pomiarami, jakich dokonują uczeni w swych laboratoriach. Albo powinniśmy może poprowadzić naszą analizę dalej, wychodząc od tego, co bezpośrednio dane. Można by ją na przykład prowadzić w kategoriach jakiegoś neutralnego języka obserwacyjnego, dostosowanego, dajmy na to, do opisu obrazów powstających na siatkówce oka i warunkujących to, co uczony widzi. Obierając którąś z tych dróg, moglibyśmy liczyć na uratowanie obszaru, w którym doświadczenie jest czymś definitywnie określonym, w którym wahadło i utrudnione spadanie nie są różnymi percepcjami, lecz raczej różnymi interpretacjami jednoznacznych danych, jakich dostarcza obserwacja kołyszącego się kamienia.
[23] Ale czy doświadczenie zmysłowe jest czymś niezmiennym i neutralnym? Czy teorie są po prostu zinterpretowanymi przez człowieka danymi zmysłowymi? Stanowisko teoriopoznawcze, któremu przez trzysta lat niemal powszechnie hołdowała filozofia zachodnia, każe z miejsca i jednoznacznie odpowiedzieć na to pytanie twierdząco. Sądzę, że wobec braku dobrze opracowanej koncepcji alternatywnej nie sposób odrzucić tego punktu widzenia całkowicie. Jednakże pogląd ten przestał już skutecznie funkcjonować, a próby uczynienia go efektywnym przez wprowadzenie jakiegoś neutralnego języka obserwacyjnego wydają mi się dziś beznadziejne.
[24] Wyniki operacji i pomiarów dokonywanych w laboratorium przez uczonego nie są "dane" przez doświadczenie, lecz raczej "z trudem zebrane". Nie są one tym, co uczony widzi, przynajmniej dopóty, dopóki badania jego nie są zaawansowane, a uwaga skoncentrowana na wybranym przedmiocie. Są one raczej konkretnymi wskaźnikami treści percepcji o charakterze bardziej elementarnym, a przedmiotem dokładnego badania nauki normalnej stały się tylko dlatego, że stwarzają możliwość owocnego opracowania przyjętego paradygmatu. W sposób o wiele wyraźniejszy niż bezpośrednie doświadczenie, z którego się one po części wywodzą, operacje i pomiary są determinowane przez paradygmat. W nauce nie dokonuje się wszystkich możliwych doświadczeń laboratoryjnych. Wybiera się natomiast te, które służyć mogą do konfrontacji paradygmatu z bezpośrednim doświadczeniem, przez tenże paradygmat częściowo wyznaczonym. W rezultacie uczeni uznający różne paradygmaty podejmują różne badania laboratoryjne. Pomiary, które trzeba wykonać, gdy chodzi o wahadło, nie są przydatne, gdy bada się utrudnione spadanie. Analogicznie, nie bada się własności tlenu za pośrednictwem tych samych operacji, jakie trzeba wykonać, badając własności zdeflogistonowanego powietrza.
[25] Jeśli chodzi o język czysto obserwacyjny, być może zostanie on kiedyś jednak stworzony. Ale w trzy stulecia po Kartezjuszu związane z tym nadzieje wciąż opierają się wyłącznie na teorii postrzegania i umysłu. Natomiast współczesne doświadczenia psychologiczne gwałtownie rozszerzają krąg zjawisk, z którymi tamta teoria nie może sobie poradzić. Przypadek "kaczka-królik" dowodzi, że ludzie odbierający na siatkówce oka te same wrażenia mogą widzieć różne rzeczy, natomiast doświadczenie z soczewkami odwracającymi pokazuje, że dwie osoby odbierające na siatkówce różne wrażenia mogą widzieć to samo. Psychologia dostarcza wielu innych podobnych świadectw, a wszelkie wynikające stąd wątpliwości potęguje dodatkowo historia wysiłków podejmowanych w celu stworzenia języka obserwacyjnego. Żadne ze znanych prób osiągnięcia tego celu nie doprowadziły jak dotąd do zbudowania powszechnie stosowalnego języka czystej percepcji. Te zaś poczynania, które najbardziej się do tego zbliżyły, mają pewną właściwość, która dobitnie wspiera zasadnicze tezy niniejszej rozprawy. Od samego początku zakładają mianowicie pewien paradygmat, czy to zaczerpnięty z którejś ze współczesnych teorii naukowych, czy z jakiegoś fragmentu języka potocznego, i próbują potem wyeliminować zeń wszystkie terminy pozalogiczne i niepostrzeżeniowe. W niektórych dziedzinach próby te doprowadzono bardzo daleko, osiągając fascynujące rezultaty. Nie ulega najmniejszej wątpliwości, że warto je podejmować nadal. Wynikiem ich jednak jest język, który - podobnie jak języki stosowane w nauce - kryje w sobie mnóstwo przewidywań dotyczących przyrody i przestaje funkcjonować z chwilą, gdy te się nie sprawdzają. Takie właśnie stanowisko zajął na przykład Nelson Goodman, pisząc o celu, jaki przyświecał jego pracy Structure of Appearance: "Całe szczęście, że nie chodzi o nic więcej niż o zjawiska, o których wiadomo, że naprawdę istnieją]; albowiem pojęcie przypadków «możliwych», które nie istnieją, lecz mogłyby istnieć, jest bardzo niejasne". Żaden język ograniczony w ten sposób do opisu jakiegoś z góry znanego świata nie może całkiem neutralnie i obiektywnie zdawać sprawy z tego, co "dane". Badania filozoficzne nie dostarczyły jak dotąd nawet wskazówek, jak miałby wyglądać język dający takie możliwości.
[26] W tych warunkach możemy przynajmniej domniemywać, że uczeni mają słuszność, tak w zasadzie, jak w praktyce, uznając tlen i wahadło (możliwe, że również atomy i elektrony) za podstawowe składniki swojego bezpośredniego doświadczenia. W wyniku ucieleśnionego w paradygmacie doświadczenia gatunku, kultury, wreszcie naukowców doszło do tego, że świat uczonego zapełnił się planetami, wahadłami, kondensatorami, rudami metali i wieloma innymi jeszcze tego rodzaju ciałami. W porównaniu z tymi przedmiotami percepcji zarówno odczyty na podziałce metrycznej, jak odbicia na siatkówce oka są już starannie opracowanymi konstrukcjami, do których doświadczenie ma bezpośredni dostęp tylko wtedy, gdy uczony dla dobra swych badań na to pozwoli. Nie zamierzam przez to nikogo przekonywać, że na przykład wahadło jest jedyną rzeczą, jaką może widzieć uczony, patrząc na kołyszący się kamień. (Mówiliśmy o tym, że uczony należący do innej społeczności naukowej może tu widzieć utrudnione spadanie.) Chodzi jednak o to, że uczony patrzący na kołyszący się kamień może nie mieć bardziej elementarnego doświadczenia niż właśnie widzenie wahadła. Alternatywną możliwością nie jest jakaś hipotetyczna "ustalona" wizja, ale sposób widzenia, jaki osiąga się za pośrednictwem innego paradygmatu - takiego, który przeobraża kołyszący się kamień w coś innego.
[27] Wszystko to wyda się bardziej zrozumiałe, jeśli uzmysłowimy sobie, że ani uczeni, ani laicy nie uczą się widzenia świata po kawałeczku, punkt po punkcie. Oprócz sytuacji, w których wszystkie kategorie pojęciowe i operacyjne są z góry przygotowane - na przykład do wykrycia nowego pierwiastka transuranowego lub do spostrzeżenia nowego domu - zarówno uczeni, jak laicy od razu wyodrębniają ze strumienia dostępnego im doświadczenia ogromne obszary. Dziecko, przenoszące słowo "mama" ze wszystkich istot ludzkich najpierw na wszystkie kobiety, a następnie na swoją matkę, uczy się w ten sposób nie tylko tego, co znaczy "mama" lub kto jest jego matką. Zaczyna zarazem poznawać niektóre różnice między mężczyznami a kobietami oraz orientować się, w jaki sposób odnosić się do niego będzie ta właśnie jedna kobieta. Zgodnie z tym odpowiedniej zmianie ulegają jego reakcje, oczekiwania, wierzenia, czyli duża część postrzeganego przez nie świata. Podobnie zwolennicy Kopernika, odmawiając Słońcu nazwy "planeta", nie tylko dowiadywali się, co znaczy "planeta" lub czym jest Słońce. Zmieniali zarazem znaczenie słowa "planeta", tak by nadal mogło ono być przydatne w świecie, w którym wszystkie ciała niebieskie, nie tylko Słońce, były widziane inaczej niż poprzednio. To samo dotyczy każdego z wymienionych wcześniej przykładów. To, że jakiś uczony dostrzega tlen zamiast zdeflogistonowanego powietrza, kondensator zamiast butelki lejdejskiej lub wahadło zamiast utrudnionego spadania - stanowi tylko część zmiany jego całościowego sposobu widzenia ogromnej różnorodności powiązanych ze sobą zjawisk chemicznych, elektrycznych czy też dynamicznych. Paradygmat determinuje rozległe obszary doświadczenia naraz.
[28] Jednak dopiero wtedy, gdy doświadczenie zostanie tak zdeterminowane, rozpocząć można poszukiwania definicji operacyjnych lub czystego języka obserwacyjnego. Uczony lub filozof, który pyta, dzięki jakim pomiarom lub dzięki jakim reakcjom siatkówki wahadło staje się tym, czyni jest, musi najpierw sam umieć rozpoznać wahadło, kiedy je zobaczy. Gdyby zamiast wahadła widział utrudnione spadanie, nie potrafiłby postawić takiego pytania. Gdyby zaś widział wahadło, ale patrzył na nie w ten sam sposób co na kamerton lub oscylującą wagę, jego pytanie musiałoby pozostać bez odpowiedzi. Co najmniej zaś nie można by na nie odpowiedzieć w ten sam sposób, nie byłoby to bowiem to samo pytanie. Tak więc pytania dotyczące reakcji siatkówki lub skutków poszczególnych zabiegów laboratoryjnych, mimo że są zawsze uprawnione, a niekiedy bardzo owocne, z góry zakładają świat o jakiejś już określonej strukturze percepcyjnej i pojęciowej. W pewnym sensie pytania takie są częścią nauki normalnej, uzależnione są bowiem od istnienia paradygmatu, a wskutek zmiany paradygmatu uzyskują inne odpowiedzi.
[29] Aby podsumować ten rozdział, pomińmy już kwestię reakcji siatkówki i skoncentrujmy uwagę na czynnościach laboratoryjnych dostarczających uczonemu konkretnych, choć fragmentarycznych wskazówek dotyczących tego, co zaobserwował. Wielokrotnie wskazywaliśmy już jeden ze sposobów, w jaki zmiany paradygmatów wpływają na metody laboratoryjne. W wyniku rewolucji naukowej wiele dawnych pomiarów i operacji przestaje znajdować zastosowanie i zastąpione zostaje innymi. Nie można stosować tych samych dokładnie metod badań doświadczalnych do tlenu i do zdeflogistonowanego powietrza. Jednakże tego rodzaju zmiany nigdy nie są totalne. Po rewolucji uczony - cokolwiek by teraz dostrzegał - patrzy wciąż j jednak na ten sam świat. Ponadto część terminologii i większość przyrządów laboratoryjnych pozostaje bez zmiany, choć dawniej mogły być stosowane w inny sposób. W rezultacie nauka okresu porewolucyjnego zawsze zachowuje wiele spośród dawnych operacji, posługując się tymi samymi przyrządami i tą samą terminologią co jej przedrewolucyjna poprzedniczka. Jeśli operacje te w ogóle ulegają zmianie, to zmienia się bądź ich stosunek do paradygmatu, bądź ich konkretne wyniki. Wydaje mi się - i spróbuję to pokazać na jeszcze jednym, ostatnim już przykładzie - że istotnie mamy do czynienia ze zmianami obu tych rodzajów. Badając prace Daltona i jego współczesnych, ujrzymy, że jeżeli tę samą operację odnosi się do przyrody za pośrednictwem różnych paradygmatów, stać się ona może wskaźnikiem zupełnie odmiennych aspektów prawidłowości przyrody. Przekonamy się ponadto, że niekiedy dawne operacje w swej nowej roli przynoszą całkiem inne konkretne wyniki.
[30] W ciągu całego niemal wieku XVIII i w początku XIX wśród chemików europejskich panowało niemal powszechne przekonanie, że niepodzielne atomy, z których składają się wszystkie substancje chemiczne, tworzą związki dzięki wzajemnym siłom powinowactwa. W ten sposób spoistość bryły srebra tłumaczono, odwołując się do powinowactwa cząstek srebra (po Lavoisierze uważano, że cząstki te same składają się z bardziej elementarnych składników). Według tej samej teorii srebro rozpuszcza się w kwasie (lub sól w wodzie) dlatego, że powinowactwo cząstek kwasu do srebra (lub wody do soli) jest silniejsze od powinowactwa między cząstkami rozpuszczalnika. Podobnie miedź może wyprzeć srebro z jego roztworu i zająć jego miejsce, gdyż powinowactwo miedź-kwas jest silniejsze od powinowactwa między kwasem i srebrem. W analogiczny sposób tłumaczono wiele innych zjawisk. W wieku XVII teoria wybiórczego powinowactwa była w chemii cudownym paradygmatem stosowanym szeroko i z powodzeniem przy projektowaniu i analizie doświadczeń chemicznych.
[31] Teoria powinowactwa przeprowadzała jednak rozróżnienie między mieszaninami fizycznymi a związkami chemicznymi w sposób trudny do utrzymania z chwilą przyjęcia wyników prac Daltona. Osiemnastowieczni chemicy odróżniali dwa rodzaje procesów. Jeżeli w wyniku zmieszania wydzielała się energia świetlna lub cieplna, zachodziła fermentacja itp., to uważano, że nastąpiło połączenie chemiczne. Jeśli natomiast można było składniki mieszaniny dojrzeć gołym okiem lub rozdzielić je mechanicznie, była to tylko mieszanina fizyczna. Jednakże w bardzo wielu przypadkach pośrednich - sól w wodzie, stopy, szkło, tlen w atmosferze itd. - te ostre kryteria nie znajdowały już zastosowania. Większość chemików, kierując się swoim paradygmatem, traktowała wszystkie te substancje jako związki chemiczne, gdyż powstają one w wyniku działania tego samego rodzaju sił. Przykładem związku chemicznego był zarówno roztwór soli w wodzie czy tlenu w azocie, jak i substancja powstająca w wyniku utleniania miedzi. Argumenty przemawiające za traktowaniem roztworów jako związków chemicznych były bardzo silne. Sama teoria powinowactwa była mocno uzasadniona. Poza tym powstawanie związku chemicznego tłumaczyć miało obserwowaną jednorodność substancji roztworu. Gdyby na przykład tlen i azot były tylko zmieszane w atmosferze, a nie połączone, wówczas gaz cięższy, tlen, powinien by osiadać na dole. Daltonowi, który traktował atmosferę jako mieszaninę gazów, nigdy nie udało się w pełni wytłumaczyć, dlaczego tak się nie dzieje. Przyjęcie jego teorii atomistycznej wytworzyło anomalię tam, gdzie przedtem żadnej anomalii nie było.
[32] Można by powiedzieć, że różnica między poglądem tych chemików, którzy uważali, że roztwór jest związkiem, a poglądami ich następców sprowadzała się tylko do definicji. W pewnym sensie mogło tak być rzeczywiście - o ile mianowicie przez definicję nie rozumiemy po prostu dogodnej konwencji. W wieku XVIII nie można było w sposób doświadczalny ściśle wyznaczyć granicy między związkami i mieszaninami. Nawet gdyby chemicy poszukiwali takich metod, szukaliby kryteriów, według których roztwór jest związkiem. Odróżnienie mieszaniny od związku stanowiło część ich paradygmatu, współtworzyło ich sposób widzenia całej dziedziny ich badań i jako takie miało wyższość nad każdą poszczególną metodą laboratoryjną, mimo że nie miało jej w stosunku do całości nagromadzonego w chemii doświadczenia.
[33] Ale w czasie kiedy wyznawano tego rodzaju poglądy na chemię, zjawiska chemiczne stanowiły przejaw zupełnie innych praw niż te, które pojawiły się wraz z przyjęciem nowego paradygmatu Daltona. W szczególności, póki roztwory traktowano jako związki chemiczne, żadne doświadczenia, niezależnie od ich ilości, nie mogły same przez się doprowadzić do sformułowania prawa stosunków stałych i wielokrotnych. Pod koniec XVIII wieku wiedziano powszechnie, że niektóre związki chemiczne odznaczają się stałym stosunkiem wagowym swoich składników. Chemik niemiecki Richter dla pewnych kategorii reakcji zauważył dalsze prawidłowości, które ujęte zostały w prawie równoważników chemicznych. Jednak żaden z chemików nie korzystał z nich, chyba że w receptach technologicznych - i aż do końca stulecia nikomu nie przyszło do głowy, aby je uogólnić. W obliczu jawnych kontrprzykładów, takich jak szkło lub roztwór soli w wodzie, nie mogło być mowy o żadnej generalizacji bez zaniechania teorii powinowactwa i nowego ujęcia granic dziedziny chemii. Konsekwencje te wystąpiły wyraźnie w trakcie znanej dyskusji, która toczyła się pod koniec stulecia między chemikami francuskimi Proustem i Bertholletem. Pierwszy z nich głosił, że wszystkie reakcje chemiczne zachodzą w stałych stosunkach, drugi zaprzeczał temu. Każdy z nich popierał swój pogląd wieloma przekonywającymi dowodami doświadczalnymi. Mimo to jednak argumenty ich mijały się, a dyskusja nie doprowadziła do żadnych konkluzji. Tam, gdzie Berthollet dostrzegał związek o zmiennych stosunkach wagowych składników, Proust widział tylko mieszaninę chemiczną. Ani eksperyment, ani żadna zmiana konwencji definicyjnej nie mogły tu mieć zastosowania. Stanowiska ich rozmijały się tak zasadniczo, jak niegdyś poglądy Galileusza i Arystotelesa.
[34] Tak więc przedstawiała się sytuacja w owych latach, kiedy John Dalton rozpoczął badania, które w rezultacie doprowadziły do sformułowania jego słynnej teorii atomistycznej. Ale aż do ostatniego etapu tych badań Dalton nie był chemikiem i nie interesował się chemią. Był meteorologiem zajmującym się problematyką, którą uważał za fizyczną, a mianowicie zagadnieniem absorpcji gazów przez wodę i wody przez atmosferę. Po części dlatego, że specjalizował się w innej dziedzinie, a częściowo ze względu na swoją własną pracę w tej specjalności, podchodził do tych zagadnień, kierując się innym paradygmatem niż współcześni mu chemicy. Przede wszystkim w mieszaninie gazów lub w absorpcji gazu w wodzie widział proces fizyczny, i to taki, w którym siły powinowactwa nie odgrywają żadnej roli. Uważał więc, że zaobserwowana jednorodność roztworu stwarza wprawdzie pewien problem, ale sądził, że można by go rozwiązać, gdyby tylko udało się określić rozmiary i ciężary rozmaitych cząstek atomowych owej doświadczalnej mieszaniny. Właśnie w tym celu, aby wyznaczyć owe rozmiary i ciężary, Dalton zajął się ostatecznie chemią, przypuszczając od samego początku, iż w tym ograniczonym zakresie reakcji, które uważał za chemiczne, atomy mogą się łączyć ze sobą tylko w stosunku jeden do jednego lub jakimś innym prostym stosunku liczbowym. To naturalne przypuszczenie istotnie umożliwiło mu określenie rozmiarów i ciężarów cząstek elementarnych, ale jednocześnie sprawiło, że prawo stosunków stałych i wielokrotnych stało się tautologią. Według Daltona każda reakcja, w której poszczególne składniki nie miały ściśle ustalonych proporcji ilościowych, ipso facto przestawała być procesem czysto chemicznym. Prawo, którego nie można było ustalić eksperymentalnie do czasu prac Daltona, stało się - z chwilą gdy znalazły one uznanie - konstytutywną zasadą, której nie mógł obalić żaden zespół pomiarów chemicznych. W wyniku przemian będących bodaj najpełniejszym przykładem rewolucji naukowej te same operacje chemiczne nabrały całkiem innego niż przedtem stosunku do chemicznych uogólnień.
[35] Nie ma potrzeby wspominać, że kiedy Dalton po raz pierwszy ogłosił swoje wnioski, został zaatakowany na całej linii. Zwłaszcza Berthollet nie dał się nigdy przekonać. Ale dla większości chemików, nie przekonanych do paradygmatu Prousta, nowy paradygmat Daltona okazał się przekonywający, miał bowiem o wiele szersze i ważniejsze zastosowania niż tylko jako kryterium odróżniające mieszaninę od związku. Na przykład jeśli atom może się chemicznie łączyć z innymi atomami tylko w prostych stosunkach liczb całkowitych, to ponowne zbadanie znanych danych chemicznych powinno ujawnić zarówno przykłady stosunków stałych, jak wielokrotnych. Chemicy przestali teraz zapisywać, że dwa tlenki, węgla na przykład, zawierają wagowo 56% i 72% tlenu. Pisali teraz, że jedna jednostka wagowa węgla łączyć się może z 1,3 lub 2,6 jednostkami wagowymi tlenu. Kiedy w ten sposób uporządkowano wyniki dawnych prac, stosunek 2:1 po prostu rzucał się w oczy. To samo miało miejsce w trakcie przeprowadzania analizy wielu, zarówno znanych, jak i nowych reakcji chemicznych. Paradygmat Daltona umożliwił ponadto przyjęcie wyników prac Richtera i wykazał ich ogólność. Podsunął również nowe doświadczenia - mam tu na myśli przede wszystkim doświadczenia Gay-Lussaca nad stosunkami objętościowymi - które unaoczniły inne jeszcze prawidłowości, o jakich chemikom poprzednio nawet się nie śniło. Chemicy zawdzięczają Daltonowi nie nowe prawa eksperymentalne, lecz nowy sposób uprawiania chemii (on sam nazwał go "nowym systemem filozofii chemicznej"). Przyniósł on tak szybkie i oczywiste wyniki, że zaledwie paru starszych chemików we Francji i Anglii ośmieliło się mu oponować. W rezultacie chemicy przenieśli się do nowego świata, w którym reakcje przebiegały zupełnie inaczej niż poprzednio.
[36] Podczas kiedy wszystko to się działo, nastąpiła równocześnie inna typowa i bardzo ważna zmiana. Tu i ówdzie zmieniać się zaczęły dane liczbowe z dziedziny chemii. Kiedy Dalton zaczął szukać w literaturze chemicznej danych, które mogłyby potwierdzić jego teorię fizyczną, natknął się na kilka opisów odpowiednich reakcji, ale znalazł też inne świadectwa, niezgodne z tą teoria. Na przykład przeprowadzone przez samego Prousta pomiary dotyczące dwóch tlenków miedzi dały na stosunek wagowy tlenu wartość 1,47:1, a nie 2:1, jak tego wymagała teoria atomistyczna. Tymczasem właśnie od Prousta należało się spodziewać potwierdzenia przewidywań Daltona. Proust był bowiem świetnym eksperymentatorem i jego poglądy na stosunek mieszaniny i związku chemicznego były bardzo zbliżone do poglądów Daltona. Trudno jednak dopasować przyrodę do paradygmatu. To właśnie dlatego łamigłówki nauki normalnej są takim wyzwaniem i dlatego też pomiary dokonywane bez paradygmatu rzadko prowadzą do jakichkolwiek wniosków. Chemicy nie mogli więc po prostu akceptować teorii Daltona na zasadzie dowodów, w większości nadal negatywnych. Nawet już po zaakceptowaniu teorii musieli stale dopasowywać przyrodę do swego wzorca. W tym przypadku proces ten trwał przez całe następne pokolenie. Kiedy dobiegł końca, procentowy skład nawet najlepiej znanych związków był inny. Również w tym sensie można powiedzieć, że uczeni po rewolucji pracują w innym świecie.
XI. NIEDOSTRZEGALNOŚĆ REWOLUCJI
[1] Dotychczas nie odpowiedzieliśmy jeszcze na pytanie, jak wygląda koniec rewolucji naukowej. Nim jednak przejdziemy do tego zagadnienia, podejmiemy jeszcze jedną kwestię, której wyjaśnienie pomoże nam lepiej zrozumieć rewolucje naukowe. Do tej pory próbowałem ukazać istotę rewolucji na przykładach i przykłady te mógłbym mnożyć ad nauseam. Jednak większość opisywanych tu przemian - a celowo wybrałem te dobrze znane - traktowano zazwyczaj nie jako rewolucje, lecz jako wzbogacenie wiedzy naukowej. Tak samo można by potraktować wszelkie inne przykłady, tak więc ich przytaczanie mijałoby się zapewne z celem. Wydaje mi się, że są istotne powody, dla których rewolucje naukowe pozostawały niemal niedostrzegalne. Znaczna część poglądów na twórczą działalność naukową, jakie wyrobili sobie uczeni i laicy, zaczerpnięta jest z autorytatywnego źródła, które systematycznie ukrywa - częściowo wskutek istotnych przyczyn natury funkcjonalnej - dokonywanie się rewolucji naukowych i ich znaczenie. Można oczekiwać, że przykłady historyczne wówczas tylko będą przekonywające, jeśli wskażemy i przeanalizujemy, na czym ten autorytet polega. Ponadto - aczkolwiek tę kwestię będę mógł omówić szerzej dopiero w ostatnim rozdziale - poniższa analiza pozwoli wskazać jeden z aspektów pracy naukowej, który różni ją wyraźnie od wszelkich innych dziedzin twórczości, z wyjątkiem może teologii.
[2] Mówiąc o autorytatywnym źródle, mam przede wszystkim na myśli podręczniki naukowe oraz wzorujące się na nich popularyzacje i prace filozoficzne. Wszystkie te trzy kategorie prac - a obecnie nie mamy żadnych innych poważnych źródeł informacji o nauce, wyjąwszy samą praktykę badawczą - mają jedną wspólną cechę. Odwołują się one do wypracowanego już zespołu problemów, danych, teorii, najczęściej do konkretnego zespołu paradygmatów, które akceptowane są przez społeczność uczonych w czasie, kiedy prace te są pisane. Podręczniki mają na celu rozpowszechnienie słownictwa i składni współczesnego języka nauki. Prace popularyzacyjne usiłują opisywać to samo językiem bardziej zbliżonym do codziennego. Filozofia nauki zaś, zwłaszcza w krajach anglojęzycznych, poddaje analizie logiczną strukturę gotowego systemu wiedzy naukowej. Choć istnieją niewątpliwie istotne różnice między tymi trzema gatunkami piśmiennictwa, nas interesują tu najbardziej zachodzące między nimi podobieństwa. Wszystkie one rejestrują trwałe rezultaty minionych rewolucji i w ten sposób ukazują podstawy aktualnej tradycji nauki normalnej. Aby spełnić swoją funkcję, nie muszą dostarczać autentycznych informacji na temat tego, w jaki sposób podstawy te zostały najpierw odkryte, a następnie przyjęte przez specjalistów danej dziedziny. Gdy chodzi o podręczniki, można nawet powiedzieć, że muszą one z reguły wprowadzać w tej sprawie w błąd.
[3] W rozdziale drugim była mowa o tym, że w każdej dziedzinie nauki powstawaniu pierwszego paradygmatu nieodmiennie towarzyszył wzrost zaufania do podręczników czy jakiegoś ich odpowiednika. W ostatniej części niniejszej rozprawy będziemy dowodzić, że wskutek dominacji takich tekstów model rozwoju dojrzałej nauki znacznie odbiega od tego, co obserwujemy w innych dziedzinach twórczości. Na razie przyjmijmy po prostu, że - w stopniu niespotykanym w innych dziedzinach - zarówno laicy, jak uczeni opierają swoją znajomość nauki na podręcznikach i kilku innych, pochodnych rodzajach piśmiennictwa. Jednakże podręcznik - ten pedagogiczny czynnik napędowy nauki normalnej - wymaga zawsze ponownego, w całości lub częściowo, opracowania, gdy zmienia się język, struktura problematyki czy standardy nauki normalnej. Mówiąc krótko: podręczniki należy pisać ponownie po każdej rewolucji naukowej, z chwilą zaś gdy zostaną przerobione, maskują nie tylko rolę, ale i samo istnienie rewolucji naukowych, które powołały je do życia. Historyczny zmysł czytelnika literatury podręcznikowej, czy będzie nim aktywny zawodowo uczony, czy laik, o ile osobiście w ciągu własnego życia nie przeżył rewolucji, nie sięga poza wyniki ostatniej rewolucji w danej dziedzinie.
[4] Tym samym podręczniki rozpoczynają od stępienia u uczonego poczucia historycznej zmienności jego dyscypliny, a następnie usiłują zastąpić czymś to, co wyeliminowały. Na ogół zawierają niewiele informacji historycznych, bądź w rozdziale wstępnym, bądź - częściej - w rozrzuconych w tekście odnośnikach mówiących o wielkich bohaterach dawniejszych czasów. Dzięki temu studenci i uczeni mają poczucie partycypacji w długotrwałej tradycji historycznej. Jednakże taka wywodząca się z podręczników tradycja, do współuczestnictwa w której poczuwają się uczeni, w gruncie rzeczy nigdy nie istniała. Ze względów oczywistych i funkcjonalnie uzasadnionych podręczniki (a również wiele starych historii nauki) zdają sprawę jedynie z tych fragmentów dorobku naukowego, które łatwo ująć jako przyczynki do tych paradygmatycznych twierdzeń i rozwiązań, na których one same są oparte. Częściowo dokonując selekcji, częściowo wypaczeń, przedstawia się uczonych epok minionych tak, jakby mierzyli się z tym samym zespołem ustalonych problemów i opierali się na tym samym zbiorze niezmiennych kanonów, które zostały uznane za naukowe w wyniku ostatniej rewolucji w sferze teorii i metod. Nic dziwnego, że po każdej rewolucji naukowej podręczniki wymagają przeróbki, a tradycja naukowa - nowego przedstawienia. I nic dziwnego, że w ten sposób kształtuje się pogląd na naukę jako na proces kumulatywny.
[5] Oczywiście, przedstawianie rozwoju własnej dyscypliny jako procesu liniowego, dążącego do osiągnięcia jej stanu aktualnego, nie jest monopolem uczonych. Pokusa tworzenia historii wstecz jest wszechobecna i trwała. Uczeni jednak podlegają jej bardziej niż inni, częściowo dlatego, że wyniki badań naukowych nie wykazują jawnej zależności od historycznego kontekstu, w jakim zostały uzyskane, a po części dlatego, że - z wyjątkiem okresów rewolucji i kryzysów - obecna pozycja uczonego wydaje się tak bezpieczna. Większa ilość historycznych szczegółów, czy to dotyczących aktualnego stanu nauki, czy też jej przeszłości, albo większa odpowiedzialność wobec przedstawianych szczegółów historycznych sprzyja tylko podkreśleniu ludzkiej omylności, błędów i nieporozumień. Czemu czcić to, co dzięki najwytrwalszym wysiłkom nauki udało się wyeliminować? Deprecjonowanie faktów historycznych jest głęboko i prawdopodobnie funkcjonalnie zakorzenione w ideologii zawodowej uczonych, która skądinąd wiąże właśnie najwyższe wartości ze szczegółowym badaniem innego rodzaju faktów. Whitehead trafnie ujął to ahistoryczne nastawienie społeczności uczonych, kiedy pisał: "Nauka, która nie może się zdobyć na to, aby zapomnieć o swych założycielach, jest zgubiona". Nie miał on jednak całkiem racji, gdyż nauka, podobnie jak inne sfery zawodowej aktywności, potrzebuje swoich bohaterów i zachowuje w pamięci ich imiona. Na szczęście uczeni, zamiast zapominać o tych bohaterach, potrafili zapomnieć o ich pracach lub je rewidować.
[6] Stąd właśnie przemożna tendencja do nadawania historii nauki pozorów procesu liniowego i kumulatywnego, tendencja, która dochodzi do głosu nawet w poglądach uczonych na ich własne wcześniejsze badania. Na przykład wszystkie trzy, niezgodne zresztą, sprawozdania Daltona z rozwoju jego koncepcji atomizmu chemicznego sugerują, że od początku swych badań interesował się on właśnie tymi problemami chemicznymi dotyczącymi stosunków wagowych pierwiastków w związkach, których późniejsze rozwiązanie przyniosło mu sławę. W istocie zaś wydaje się, że dostrzegł on te problemy dopiero wtedy, kiedy je rozwiązał, i to nie wcześniej, niż jego badania znalazły się w stadium końcowym. Wszystkie sprawozdania Daltona pomijają natomiast rewolucyjne skutki zastosowania w chemii pytań i pojęć poprzednio zastrzeżonych dla fizyki i meteorologii. A to właśnie jest jego osiągnięciem. Doprowadziło ono do reorientacji problemowej, dzięki której chemicy nauczyli się zadawać nowe pytania i wyciągać nowe wnioski z dotychczasowych danych.
[7] Inny przykład: Newton pisał, że Galileusz odkrył, iż stała siła grawitacyjna wywołuje "ruch proporcjonalny do kwadratu czasu". W rzeczywistości zaś twierdzenie kinematyczne Galileusza przybiera taką postać dopiero wtedy, gdy włączy się je w ramy pojęciowe dynamiki Newtona. Galileusz zaś nic podobnego nie mówił. Jego analiza rzadko kiedy wspomina w ogóle o siłach, a jeszcze rzadziej o stałej sile grawitacyjnej powodującej spadanie ciał. Imputując Galileuszowi odpowiedź na pytanie, którego jego paradygmat nigdy nie pozwoliłby mu zadać, sprawozdanie Newtona ukrywa fakt drobnej, ale rewolucyjnej różnicy w sposobie zadawania pytań dotyczących ruchu oraz w typach odpowiedzi, jakie uczeni mogli zaakceptować. A właśnie tego rodzaju zmiany w sposobie formułowania pytań i odpowiedzi, w o wiele większym stopniu niż nowe odkrycia empiryczne, tłumaczą przejście od dynamiki Arystotelesa do dynamiki Galileusza, a od niej z kolei do dynamiki Newtona. Podręcznikowa tendencja do linearnego ujmowania postępu nauki przesłania takie zmiany, a tym samym ukrywa proces leżący w samym centrum epizodów najbardziej istotnych dla jej rozwoju.
[8] Przytoczone wyżej przykłady ukazują, każdy w kontekście konkretnej rewolucji, początki procesu poprawiania historii, procesu, który doprowadzają do końca porewolucyjne podręczniki. Chodzi tu wszakże o coś więcej niż mnożenie - ilustrowanych wyżej - opacznych tłumaczeń historycznych. W wyniku takich interpretacji rewolucje naukowe stają się niedostrzegalne; układ uwzględnianego w podręcznikach materiału stwarza obraz takiego procesu, w którym, gdyby rzeczywiście przebiegał, nie byłoby miejsca na rewolucje. Podręczniki, których celem jest szybkie zaznajomienie studenta z całością wiedzy, jaką aktualnie dysponuje społeczność uczonych, traktują różne doświadczenia, koncepcje, pojęcia, prawa i teorie współczesnej nauki normalnej tak, jakby były one od siebie niezależne i układały się jedne po drugich. Z pedagogicznego punktu widzenia taka metoda wykładu jest bez zarzutu. Jednak w połączeniu z ahistorycznym z reguły duchem piśmiennictwa naukowego, a niekiedy i systematycznymi wypaczeniami historii, które omawialiśmy wyżej, prowadzi ona nieodparcie do następującego wniosku: nauka osiągnęła swój stan obecny dzięki szeregowi indywidualnych odkryć i wynalazków, które - zebrane razem - składają się na współczesną wiedzę techniczną. Podręczniki narzucają przekonanie, że uczeni od początku swej działalności naukowej dążyli do osiągnięcia tych konkretnych celów, które ucieleśnione są we współczesnych paradygmatach. Uczeni dodają jedne po drugich nowe fakty, pojęcia, prawa czy teorie do zespołu informacji zawartych we współczesnych podręcznikach, co porównuje się często do dokładania kolejnych cegieł do budowli.
[9] Nauka jednak nie rozwija się w ten sposób. Wiele z zagadek współczesnej nauki normalnej nie istniało przed ostatnią rewolucją naukową. Tylko bardzo nieliczne z nich da się prześledzić wstecz aż do historycznych początków tej dyscypliny, w której występują obecnie. Poprzednie pokolenia zmagały się ze swoimi własnymi problemami, korzystając ze swoich własnych przyrządów i własnych kanonów rozstrzygania. I nie tylko same problemy ulegają zmianie. Zmienia się cała siatka faktów i teorii, jaką podręcznikowy paradygmat nakłada na przyrodę. Czy na przykład stały skład związków chemicznych jest po prostu faktem doświadczalnym, który chemicy mogli wykryć za pomocą eksperymentu w każdym ze światów, w których wypadło im pracować? Czy też raczej będzie to jeden z niewątpliwych elementów nowej budowli, na którą składają się fakty i teorie, budowli, w którą Dalton włączył całe poprzednie doświadczenie wiedzy chemicznej, zmieniając przy tym samo to doświadczenie? Czy - analogicznie stawiając sprawę - stałe przyspieszenie wywoływane przez stałą siłę jest po prostu faktem, którego zawsze poszukiwali badacze mechaniki, czy też jest to raczej odpowiedź na pytanie, które pojawiło się dopiero wraz z teorią Newtona i na które ta potrafiła odpowiedzieć, wykorzystując informacje dostępne, nim jeszcze pytanie to postawiono?
[10] Powyższe pytania dotyczą tego, co przedstawia się zazwyczaj w podręcznikach jako zbiór krok po kroku odkrywanych faktów. Dotyczą one jednak w równej mierze sposobu przedstawiania przez podręczniki teorii naukowych. Teorie te są oczywiście "zgodne z faktami", ale osiąga się to w ten sposób, że dawniej dostępne informacje przekształcają w fakty, które na gruncie poprzedniego paradygmatu w ogóle nie istniały. Znaczy to, że i teorie nie ewoluują w ten sposób, że krok po kroku coraz lepiej ujmują fakty, które w postaci niezmiennej były zawsze obecne. Wyłaniają się one raczej, wraz z faktami, do których pasują, z rewolucyjnego przeformułowania tradycji naukowej, tradycji, w obrębie której inaczej wyglądała zapośredniczona przez wiedzę relacja między uczonym a przyrodą.
[11] Jeszcze jeden, ostatni już przykład pomoże naświetlić wpływ, jaki wywiera podręcznikowy sposób wykładu na nasze poglądy dotyczące rozwoju nauki. Każdy podstawowy podręcznik chemii musi omawiać pojęcie pierwiastka chemicznego. Tam, gdzie się je wprowadza, początki jego niemal zawsze wiąże się z nazwiskiem siedemnastowiecznego chemika Roberta Boyle'a. W jego dziele Chemik-sceptyk (Sceptical Chemist) uważny czytelnik odnaleźć może definicję "pierwiastka" bardzo zbliżoną do dzisiejszej. Nawiązanie do Boyle'a pomaga uświadomić początkującemu, że chemia nie rozpoczęła się od leków sulfamidowych. Poza tym dowiaduje się on w ten sposób, że wynajdywanie takich pojęć jest jednym z tradycyjnych zadań uczonego. Nawiązanie to, jako jeden z pedagogicznego arsenału środków przekształcających człowieka w uczonego, jest niesłychanie pożyteczne. Jednakże znów ilustruje ono wzór historycznego nieporozumienia, które zarówno studentów, jak laików w dziedzinie nauki wprowadza w błąd co do istoty działalności naukowej.
[12] Według Boyle'a, który miał tu całkowitą słuszność, jego "definicja" pierwiastka nie była niczym innym jak parafrazą tradycyjnego pojęcia chemicznego. Boyle użył jej tylko po to, aby udowodnić, że coś takiego jak pierwiastek chemiczny w ogóle nie istnieje; pod względem historycznym podręcznikowa wersja wkładu Boyle'a jest więc całkowicie mylna. Jest to błąd oczywiście trywialny, choć nie bardziej niż jakiekolwiek inne przeinaczenie danych. Nie jest już jednak bynajmniej trywialne to, jakie wyobrażenie o nauce powstaje, kiedy błąd tego rodzaju zostaje wbudowany w techniczną konstrukcję podręcznika. Pojęcie pierwiastka, podobnie jak pojęcia czasu, energii, siły lub cząstki, należy do tych elementów podręcznika, o których w ogóle trudno powiedzieć, że kiedyś zostały wymyślone czy odkryte. W szczególności jeśli chodzi o definicję Boyle'a, jej ślady można odnaleźć, poczynając co najmniej od Arystotelesa, a później poprzez Lavoisiera aż po teksty współczesne. Nie znaczy to jednak, że nauka od czasów starożytnych rozporządzała współczesnym pojęciem pierwiastka. Definicje w rodzaju tej, jaką podał Boyle, rozpatrywane jako takie, nie zawierają wiele treści naukowej. Nie podają pełnego logicznego znaczenia terminu (jeśli coś takiego w ogóle jest możliwe); są raczej pomocą dydaktyczną. Pojęcia, których one dotyczą, nabierają pełnego znaczenia dopiero w powiązaniu z innymi pojęciami naukowymi omawianymi w podręczniku czy innej systematycznej prezentacji oraz w powiązaniu z postępowaniem laboratoryjnym i zastosowaniami paradygmatu. W związku z tym rzadko się zdarza, aby takie pojęcia jak pojęcie pierwiastka wynajdywane były niezależnie od kontekstu. Co więcej, kiedy kontekst ten jest już obecny, rzadko kiedy wymagają wynajdywania - zazwyczaj są gotowe, pod ręką. Zarówno Boyle, jak Lavoisier zmienili poważnie chemiczne znaczenie pojęcia pierwiastka. Nie wynaleźli jednak samego pojęcia ani nawet nie zmienili słownego sformułowania służącego za jego definicję. Podobnie, jak już widzieliśmy, Einstein nie potrzebował wynajdywać ani nawet wyraźnie zmieniać definicji przestrzeni i czasu, aby nadać im nowe znaczenie w kontekście swej pracy.
[13] Na czym więc polegała historyczna rola owej sławetnej definicji pierwiastka, jaką znajdujemy w pracy Boyle'a? Boyle był liderem rewolucji naukowej, która, zmieniając stosunek pojęcia pierwiastka do operacji chemicznych i do teorii, przekształciła to pojęcie w narzędzie zupełnie odmienne od dawnego i z czasem przeobraziła zarówno chemię, jak i świat chemika. Inne rewolucje, łącznie z tą, która wiąże się z nazwiskiem Lavoisiera, były potrzebne do tego, aby nadać temu pojęciu nowoczesną postać i funkcję. Przykład Boyle'a jest jednak typowy zarówno dla poszczególnych stadiów tego procesu, jak i dla zmian następujących później, kiedy istniejąca wiedza znajduje podręcznikowe ujęcie. To podręcznikowe ujęcie bardziej niż jakikolwiek inny z osobna wzięty aspekt nauki, decyduje o naszych poglądach na jej istotę oraz na rolę odkryć i wynalazków w jej rozwoju.
[1] Podręczniki, o których mowa była w poprzednim rozdziale, powstają dopiero w wyniku rewolucji naukowej. Stanowią one podstawę nowej tradycji nauki normalnej. Zajmując się ich budową, wybiegliśmy jednak nieco naprzód. Na czym polega bowiem proces, w wyniku którego nowy paradygmat zastępuje stary? Każda nowa interpretacja przyrody, czy będzie to odkrycie, czy teoria, powstaje najpierw w umyśle jednego lub kilku badaczy. To oni właśnie pierwsi potrafią inaczej spojrzeć na naukę i na świat. Sprzyjają temu zazwyczaj dwie okoliczności, które wyróżniają ich w obrębie danej grupy zawodowej. Po pierwsze, uwaga ich skupiona jest na problemach, które brzemienne są w kryzys. Po drugie, są to zazwyczaj ludzie młodzi albo od niedawna zajmujący się dziedziną dotkniętą kryzysem, a przez to mniej przywiązani niż większość ich kolegów po fachu do wizji świata i reguł, jakie narzucał stary paradygmat. W jaki sposób mogą oni przekonać całą grupę zawodową czy też istotną podgrupę do swojego sposobu widzenia nauki i świata i co muszą w tym celu zrobić? Co sprawia, że grupa uczonych porzuca jedną tradycję badań normalnych na rzecz innej?
[2] Aby zdać sobie sprawę ze znaczenia tych pytań, przypomnijmy, że odpowiedź na nie jest jedynym ujęciem, jakiego historyk może dostarczyć filozofom rozważającym kwestie sprawdzania, weryfikacji i falsyfikacji ustalonych teorii naukowych. W tej mierze, w jakiej uczony uwikłany jest w badania normalne, jego zadaniem jest rozwiązywanie łamigłówek, a nie sprawdzanie paradygmatów. Chociaż poszukując rozwiązania takiej czy innej zagadki może on wypróbowywać wiele rozmaitych podejść i odrzucić te, które nie dają zadowalającego wyniku, to jednak ta jego działalność nie polega na sprawdzaniu paradygmatów. Badacz przypomina raczej szachistę, który mając do czynienia z określonym problemem, próbuje - w myśli lub na szachownicy - znaleźć jego rozwiązanie, analizując alternatywne posunięcia. Te próby, czy to szachisty, czy uczonego, nie mają na celu sprawdzenia reguł gry; wypróbowuje się tylko same posunięcia. Próby te mogą być podejmowane tylko o tyle, o ile sam paradygmat nie podlega wątpliwości. Dlatego też ze sprawdzaniem paradygmatów mamy do czynienia tylko wtedy, gdy trwała niezdolność do rozwiązania istotnej łamigłówki rodzi kryzys. Ale nawet w tej sytuacji jest to możliwe tylko pod warunkiem, że kryzys wyłonił już koncepcję pretendującą do miana nowego paradygmatu. W naukach przyrodniczych sprawdzanie nigdy nie polega, jak to jest w wypadku rozwiązywania łamigłówek, po prostu na porównywaniu pojedynczego paradygmatu z przyrodą. Przeciwnie, sprawdzanie jest elementem konkurencji pomiędzy dwoma paradygmatami rywalizującymi o wpływy w obrębie społeczności uczonych.
[3] Powyższe sformułowanie przy bliższym rozpatrzeniu ujawnia nieoczekiwane i zapewne istotne podobieństwo do dwóch najbardziej dziś rozpowszechnionych filozoficznych teorii weryfikacji. Filozofowie nauki rzadko kiedy współcześnie poszukują absolutnych kryteriów weryfikacji teorii naukowych. Zdając sobie sprawę z tego, że żadna teoria nigdy nie może być poddana wszystkim możliwym zabiegom sprawdzającym, pytają nie o to, czy jakaś teoria została zweryfikowana, lecz raczej o stopień jej prawdopodobieństwa w świetle aktualnie dostępnych świadectw. Jedna z tych szkół uważa, że aby odpowiedzieć na to pytanie, należy porównywać różne teorie pod względem ich zdolności wyjaśnienia owych świadectw. To przywiązywanie wagi do porównywania teorii jest również charakterystyczne dla tych sytuacji historycznych, w których przyjmuje się nową teorię. Jest to, być może, jeden z kierunków, w jakich powinny pójść przyszłe analizy problemu weryfikacji.
[4] Zazwyczaj jednak probabilistyczne teorie weryfikacji odwołują się do któregoś z czystych czy neutralnych języków obserwacji omawianych w rozdziale dziesiątym. Jedna z tych koncepcji postuluje porównywanie danej teorii ze wszystkimi innymi możliwymi do pomyślenia teoriami, które zgadzałyby się z tym samym zbiorem danych obserwacyjnych. Inna domaga się pomyślenia wszystkich ewentualnych zabiegów sprawdzających, jakim dana teoria mogłaby zostać poddana. Wydaje się, że rozpatrzenie niektórych z tych ewentualności jest niezbędne do obliczenia prawdopodobieństw - względnych lub bezwzględnych - trudno jednak pojąć, jak coś takiego można by osiągnąć. Jeśli, jak twierdziłem uprzednio, nie sposób zbudować żadnego naukowo czy empirycznie neutralnego systemu językowego lub pojęciowego, to taka konstrukcja w wyobraźni alternatywnych zabiegów i teorii sprawdzających wychodzić musi od takiej czy innej tradycji paradygmatycznej. Ale w ten sposób ograniczona konstrukcja nie może obejmować wszystkich możliwych doświadczeń ani wszelkich możliwych teorii. W rezultacie probabilistyczne teorie weryfikacji w tej samej mierze wyjaśniają zabieg sprawdzania, co go zaciemniają. Choć sprawdzanie rzeczywiście, jak podkreślają te teorie, wymaga porównywania teorii i ogromnej ilości świadectw, zarówno teoria, jak obserwacje, które mogą być wzięte pod uwagę, są zawsze blisko związane z tymi, które faktycznie istnieją. Weryfikacja przypomina dobór naturalny: polega ona na wyborze najbardziej żywotnych spośród możliwości rzeczywiście obecnych w danej sytuacji historycznej. Nie ma większego sensu pytanie, czy wybór ten jest najlepszy ze wszystkich, jakich można by było dokonać, gdyby znane były inne ewentualności i gdybyśmy dysponowali innymi jeszcze danymi. Po prostu brak narzędzi, które pozwalałyby szukać odpowiedzi na to pytanie.
[5] Zupełnie inne podejście do tego zespołu zagadnień przedstawił Karl R. Popper, który w ogóle zaprzecza istnieniu jakichkolwiek procedur weryfikacji. W zamian kładzie on nacisk na znaczenie falsyfikacji, tzn. takich zabiegów sprawdzających, których negatywny wynik zmusza do odrzucenia akceptowanej teorii. Widać wyraźnie, że rola, jaką przypisuje on falsyfikacji, przypomina bardzo tę, jaką niniejsza rozprawa wiąże z anomaliami, tj. z doświadczeniami, które, rodząc kryzys, torują drogę nowej teorii. Jednakże nie można identyfikować anomalii z doświadczeniami falsyfikującymi. Osobiście wątpię, czy te ostatnie w ogóle istnieją. Jak już wielokrotnie podkreślałem, żadna teoria nie rozwiązuje nigdy wszystkich łamigłówek, z którymi jest konfrontowana w określonym czasie; często też nie wszystkie uprzednio uzyskane rozwiązania są doskonałe. Co więcej, to właśnie niekompletność i niedoskonałość dopasowania istniejących danych do teorii wyznacza wiele spośród łamigłówek charakterystycznych dla nauki normalnej. Gdyby każdy zakończony niepowodzeniem wysiłek pogodzenia teorii z faktami stanowił podstawę do odrzucenia teorii, wszystkie teorie musiałyby być stale odrzucane. Z drugiej strony, gdyby tylko poważne niepowodzenie usprawiedliwiało odrzucenie teorii, to zwolennicy Poppera musieliby odwołać się do jakiegoś kryterium "nieprawdopodobieństwa" lub "stopnia falsyfikacji". Formułując je, napotkaliby najpewniej te same trudności, co obrońcy różnych probabilistycznych teorii weryfikacji.
[6] Wielu z powyższych trudności możemy uniknąć, jeśli uznamy, że oba te rozpowszechnione a przeciwstawne poglądy na logikę badania naukowego próbują połączyć dwa zupełnie odrębne procesy w jedną całość. Doświadczenie falsyfikujące, o którym mowa jest u Poppera, jest dla nauki ważne, gdyż sprzyja pojawieniu się konkurencyjnych wobec istniejącego paradygmatów. Ale falsyfikacja, mimo że na pewno się zdarza, nie następuje wraz z pojawieniem się anomalii czy też przykładu falsyfikującego teorię lub po prostu wskutek tego. Jest natomiast procesem wtórnym i odrębnym, który równie dobrze można by nazwać weryfikacją, skoro prowadzi do triumfu nowego paradygmatu nad starym. Co więcej, właśnie w tym łącznym procesie weryfikacji-falsyfikacji porównywanie teorii ze względu na ich prawdopodobieństwo odgrywa główną rolę. Takie dwuczłonowe ujęcie cechuje, jak sądzę, wielka wiarygodność, i może być ono również pomocne w wyjaśnieniu roli, jaką w procesie weryfikacji odgrywa zgodność (lub jej brak) między teorią a faktem. W każdym razie historyk nie widzi wiele sensu w twierdzeniu, że weryfikacja polega na ustalaniu zgodności teorii z faktami. Wszystkie historycznie doniosłe teorie były zgodne z faktami, ale przecież tylko w przybliżeniu. Nie istnieje dokładniejsza odpowiedź na pytanie, czy lub w jakiej mierze dana teoria zgadza się z faktami. Ale pytania tego rodzaju można zadawać wtedy, gdy rozpatruje się teorie grupowo lub przynajmniej parami. Sensowne jest jak najbardziej pytanie, która z dwóch aktualnych, konkurencyjnych teorii lepiej się zgadza z faktami. Na przykład chociaż ani teoria Lavoisiera, ani Priestleya nie zgadzały się ściśle ze wszystkimi dostępnymi wówczas obserwacjami, to jednak w ciągu dziesięciolecia ogromna większość ówczesnych uczonych uznała, że ta pierwsza lepiej sobie z nimi radzi.
[7] Jednak przy takim ujęciu dokonywanie wyboru między paradygmatami wydaje się sprawą prostszą i łatwiejszą, niż jest rzeczywiście. Gdyby istniał tylko jeden zespół problemów naukowych, jeden świat, w którym by się nad nimi zastanawiano, i jeden zbiór standardów ich rozwiązywania, to spór między paradygmatami można by rozstrzygać mniej lub bardziej rutynowo na mocy takiego choćby zabiegu jak, powiedzmy, obliczanie ilości problemów, które każdy z nich rozwiązuje. Jednakże faktycznie warunki te nigdy nie są całkowicie spełnione. Zwolennicy konkurencyjnych paradygmatów zawsze, przynajmniej częściowo, mijają się w swych dążeniach. Żadna ze stron nie może zaakceptować wszystkich nieempirycznych założeń, które niezbędne są drugiej do uzasadnienia swego stanowiska. Podobnie jak Proust i Berthollet w polemice dotyczącej stałości składu związków chemicznych muszą one wysuwać mijające się argumenty. Chociaż każda ze stron żywić może nadzieję, że uda się jej przekonać drugą do swojego sposobu widzenia nauki i jej problemów, żadna nie może dowieść swej słuszności. Współzawodnictwo między paradygmatami nie jest sporem, który może zostać rozstrzygnięty na mocy dowodów.
[8] Ukazaliśmy już wiele przyczyn, dla których porozumienie między zwolennikami konkurencyjnych paradygmatów jest z konieczności ograniczone. Wszystkie te przyczyny łącznie przedstawione zostały jako niewspółmierność przed- i porewolucyjnej tradycji nauki normalnej. Obecnie musimy dokonać tylko krótkiego podsumowania. Po pierwsze, zwolennicy współzawodniczących paradygmatów często zajmować będą sprzeczne stanowisko, jeśli chodzi o zbiór problemów, które powinien rozwiązać każdy potencjalny paradygmat. Uznają oni różne standardy czy też definicje nauki. Czy teoria ruchu musi koniecznie tłumaczyć przyczynę działania sił przyciągania między cząstkami materii, czy też wystarczy, że będzie uwzględniała istnienie tych sił? Dynamikę Newtona odrzucano głównie dlatego, że - w przeciwieństwie do teorii Arystotelesa i Kartezjusza - pociągała za sobą tę drugą odpowiedź. Kiedy zaś przyjęto teorię Newtona, pytanie o przyczynę grawitacji znalazło się poza granicami nauki. Pytanie to jednak podniosła znów ogólna teoria względności i słusznie może się szczycić jego rozwiązaniem. Inny przykład: rozpowszechniona w XIX wieku chemiczna teoria Lavoisiera nie dopuszczała pytania, dlaczego wszystkie metale są podobne, natomiast teoria flogistonowa pytanie to stawiała i udzielała na nie odpowiedzi. Przejście do paradygmatu Lavoisiera, podobnie jak do Newtonowskiego, oznaczało nie tylko poniechanie uprawnionego pytania, lecz również osiągniętej odpowiedzi. Nie była to jednak strata nieodwracalna. W wieku XX pytania o jakości substancji chemicznych wróciły ponownie do nauki i po części znalazły rozwiązanie.
[9] Chodzi jednak o coś więcej niż o niewspółmierność standardów. Skoro nowe paradygmaty wywodzą się z dawniejszych, to przeważnie przejmują znaczną część słownictwa i aparatury, zarówno pojęciowej, jak i laboratoryjnej, którą posługiwał się tradycyjny paradygmat. Rzadko kiedy jednak te przejęte elementy wykorzystywane są w sposób zupełnie tradycyjny. W ramach nowego paradygmatu dawne terminy, pojęcia i eksperymenty wchodzą w nowe wzajemne związki. Nieuniknionym tego rezultatem są - choć nie jest to całkiem adekwatne określenie - nieporozumienia między współzawodniczącymi szkołami. Nie należy sądzić, że ci, którzy wyszydzali ogólną teorię względności, mówiąc, że przestrzeń nie może być "zakrzywiona", po prostu mylili się czy też nie mieli racji. To samo dotyczy matematyków, fizyków i filozofów, którzy próbowali zbudować euklidesową wersję teorii Einsteina. To, co poprzednio rozumiano pod słowem przestrzeń, musiało być płaskie, jednorodne, izotropowe i niewrażliwe na obecność materii. Gdyby było inaczej, fizyka Newtonowska straciłaby sens. Aby przejść do wszechświata Einsteina, trzeba było przekształcić całą siatkę pojęciową uplecioną z przestrzeni, czasu, materii, sił itd., a potem ponownie nałożyć ją na całość przyrody. Tylko ci, którzy wspólnie przeszli tę metamorfozę, bądź też ci, którzy nie zdołali jej przejść, potrafiliby dokładnie stwierdzić, w czym się ze sobą zgadzali bądź nie zgadzali. Porozumienie między ludźmi, których dzieli rewolucja, może być tylko częściowe. Innym tego przykładem mogą być wszyscy ci, którzy uważali Kopernika za szaleńca, gdy głosił, że Ziemia się porusza. Nie można powiedzieć, że po prostu lub całkiem nie mieli racji. W treści pojęcia Ziemia zawarta była dla nich jej nieruchomość. Przynajmniej ich Ziemia nie mogła się poruszać. Odpowiednio, reforma kopernikańska nie polegała po prostu na poruszeniu Ziemi. Był to raczej nowy sposób widzenia problemów fizyki i astronomii, który musiał zmienić zarówno sens pojęcia Ziemi, jak i ruchu. Bez tych zmian pojęcie poruszającej się Ziemi byłoby szaleństwem. Kiedy natomiast zostały one wprowadzone i zrozumiane, Kartezjusz i Huyghens mogli już uznać, że ruch Ziemi jest dla nauki kwestią poza dyskusją.
[10] Powyższe przykłady wskazują na trzeci i najbardziej zasadniczy aspekt niewspółmierności rywalizujących ze sobą paradygmatów. W pewnym sensie, którego nie jestem w stanie już jaśniej wytłumaczyć, ich zwolennicy uprawiają swój zawód w różnych światach. W jednym z nich mamy do czynienia z utrudnionym spadaniem, w drugim - z wahadłami permanentnie odtwarzającymi swój ruch. W jednym roztwory są związkami chemicznymi, w drugim - mieszaninami fizycznymi. Jeden jest zanurzony w płaskiej przestrzeni, drugi - w zakrzywionej. Uczeni pracujący w różnych światach, spoglądając z tego samego punktu w tym samym kierunku, dostrzegają coś innego. I znów nie znaczy to, że mogą widzieć wszystko, czego dusza zapragnie. Jedni i drudzy patrzą na ten sam świat, który nie uległ przecież zmianie. Ale w pewnych obszarach widzą różne rzeczy pozostające ze sobą w odmiennych stosunkach. Właśnie to tłumaczy, dlaczego jakieś prawo, którego jednej grupie uczonych nie da się nawet przedstawić, drugiej wydawać się może niekiedy intuicyjnie oczywiste. I dlatego również te dwie grupy nie mogą liczyć na osiągnięcie pełni komunikacji, dopóki jedna z nich nie przejdzie konwersji, którą nazywaliśmy zmianą paradygmatu. Przejście od jednego do drugiego paradygmatu, właśnie z powodu ich niewspółmierności, nie może odbywać się krok po kroku, pod wpływem logiki i neutralnego doświadczenia. Jak w wypadku zmiany widzenia postaci, dokonuje się ono od razu (choć niekoniecznie w jednej chwili) - lub wcale.
[11] Jak więc dochodzi do tego, że uczeni przestawiają się na nowy paradygmat? Częściowo odpowiedź zasadza się na tym, że bardzo często wcale tego nie robią. W sto lat po śmierci Kopernika niewielu było jeszcze zwolenników kopernikanizmu. Teoria Newtona nie była jeszcze powszechnie uznawana w pięćdziesiąt lat po ukazaniu się Principiów, zwłaszcza na Kontynencie. Priestley nigdy nie przyjął teorii tlenowej, a Kelvin - teorii elektromagnetycznej. Często sami uczeni podkreślali trudność dokonania takiej konwersji. W jednym ze znamiennych ustępów pod koniec Pochodzenia gatunków Darwin pisał: "Jakkolwiek zupełnie jestem przekonany o słuszności poglądów w dziele tym w zwięzłej formie zawartych, nie spodziewam się jednak bynajmniej przekonać wytrawnych przyrodników, których umysły przepełnione są licznymi faktami rozpatrywanymi w ciągu wielu lat z punktów widzenia wprost przeciwnych moim... Z ufnością jednak spoglądam w przyszłość na młodych naprzód podążających przyrodników, którzy zdolni będą do bezstronnego osądzenia tej kwestii". Max Planck natomiast, analizując własną karierę naukową, smętnie zauważył w swojej Naukowej autobiografii: "Nowa prawda naukowa nie odnosi triumfu dzięki temu, że udaje się jej przekonać przeciwników i sprawić, aby dojrzeli światło, lecz raczej wskutek tego, że oponenci wymierają i wzrasta nowe pokolenie dobrze z nią obeznanych badaczy".
[12] Te i tym podobne fakty są zbyt dobrze znane, aby wymagały specjalnego podkreślania. Wymagają natomiast przewartościowania. Ongiś miały najczęściej świadczyć o tym, że uczeni, będąc tylko ludźmi, nie zawsze mogą uznać swe własne błędy, nawet wówczas, gdy staną wobec wyraźnych dowodów. Osobiście byłbym raczej zdania, że w tych kwestiach nie chodzi ani o dowód, ani o błąd. Przejście spod władzy jednego paradygmatu pod władzę drugiego jest doświadczeniem nawrócenia, do którego nie można zmusić. Wytrwały opór, szczególnie ze strony tych, których działalność twórcza była przywiązana do dawnej tradycji nauki normalnej, nie jest pogwałceniem naukowych standardów, lecz wyrazem istoty pracy naukowej. Źródłem oporu jest niewątpliwie przekonanie, że dawniejszy paradygmat sam ostatecznie rozwiąże wszystkie swoje problemy, że przyroda da się wepchnąć do szufladek, jakie on dla niej przewidział. W okresach rewolucji stanowisko takie może wyglądać po prostu na zawziętość i upór, i niekiedy rzeczywiście mamy z czymś takim do czynienia. Ale do tego się rzecz nie sprowadza. Samo to przekonanie umożliwia istnienie nauki normalnej, tzn. rozwiązującej łamigłówki. A właśnie tylko dzięki nauce normalnej grupa specjalistów może z powodzeniem najpierw wykorzystać potencjalny zakres i precyzję dawnego paradygmatu, a następnie wyodrębnić trudność, która w trakcie dalszych badań doprowadzić może do wyłonienia się nowego paradygmatu.
[13] Wszelako stwierdzenie, że taki sprzeciw jest nieunikniony i uprawniony, że zmiany paradygmatu nie można uzasadnić, uciekając się do dowodu, nie znaczy, że żadne argumenty nie wchodzą tu w grę albo że uczonych nie można w żaden sposób namówić do zmiany poglądów. Mimo iż zmiana taka wymaga niekiedy całego pokolenia, społeczności uczonych raz po raz przyjmowały nowe paradygmaty. Co więcej, działo się tak nie wbrew temu, że uczeni są ludźmi, a właśnie wskutek tego. Wprawdzie niektórzy uczeni, zwłaszcza starsi i bardziej doświadczeni, mogą się opierać do końca, z większością można jednak dojść do porozumienia w ten czy inny sposób. Będą się nawracać po kilku, kiedy zaś wymrą ostatni oponenci, wszyscy specjaliści będą znów pracować, uznając jeden, tyle że nowy, paradygmat. Musimy więc zapytać, jak dokonuje się taki zwrot i jak wygląda opór przeciwko niemu.
[14] Jakiej odpowiedzi możemy się spodziewać na to pytanie? Ponieważ chodzi tu o techniki perswazji czy też argumenty i kontrargumenty pojawiające się wtedy, kiedy nie można mówić o dowodach, nasze pytanie jest czymś zupełnie nowym i wymaga badań, jakich dotąd nie przeprowadzano. Będziemy musieli więc polegać na wynikach bardzo niekompletnych i nieścisłych. To, co zostało już powiedziane, wraz z wynikami tych badań nasuwa przypuszczenie, że tam, gdzie chodzi bardziej o perswazję niż o dowód, pytanie o istotę argumentacji naukowej nie znajduje jednoznacznej odpowiedzi. Poszczególni uczeni skłaniają się ku nowemu paradygmatowi z różnych względów i przeważnie z kilku naraz. Niektóre z nich - jak na przykład cześć dla Słońca, która przyczyniła się do tego, że Kepler stał się kopernikańczykiem - wyraźnie wykraczają poza sferę nauki. Inne natomiast zależą od rozmaitych uwarunkowań biograficznych i osobowościowych. Niekiedy nawet takie szczegóły jak narodowość czy opinia o reformatorze lub jego nauczycielach odgrywają poważną rolę. Ostatecznie musimy więc postawić to pytanie w inny sposób. Nie będziemy się interesować argumentami, które faktycznie powodują zmianę poglądów tej czy innej jednostki, lecz całą społecznością, która - wcześniej czy później - zawsze jako grupa zmieni w końcu swoje poglądy. Problem ten zostawiam jednak na później, a na razie zajmę się rozpatrzeniem tych typów argumentacji, które w walce o zmianę paradygmatu okazują się szczególnie skuteczne.
[15] Najbardziej chyba rozpowszechniony argument wysuwany przez zwolenników nowego paradygmatu mówi, że potrafią oni rozwiązać te zagadnienia, które doprowadziły do kryzysu dawniejszy paradygmat. Jeśli twierdzenie to ma słuszne podstawy, jest to zapewne argument najmocniejszy. Wiadomo przecież było, że paradygmat napotyka trudności w dziedzinie, do badania której był przeznaczony. Trudności te wielokrotnie badano, ale wszelkie wysiłki zmierzające do całkowitego ich usunięcia stale okazywały się bezskuteczne. "Doświadczenia krzyżowe", tj. eksperymenty pozwalające szczególnie ostro konfrontować dwa paradygmaty, były znane i uznane, nim jeszcze sformułowany został nowy paradygmat. Tak właśnie Kopernik twierdził, że rozwiązał niepokojący od dawna problem długości roku kalendarzowego, Newton - że pogodził mechanikę ziemską i niebieską, Lavoisier - że rozwiązał zagadnienie identyczności gazów oraz problem stosunków wagowych, a Einstein - że dzięki niemu elektrodynamika stała się zgodna z przebudowaną teorią ruchu.
[16] Argumenty tego rodzaju mogą okazać się skuteczne zwłaszcza wtedy, gdy nowy paradygmat oferuje wyniki ilościowe o znacznie większej precyzji. Większa ścisłość tablic Rudolfińskich opartych na teorii Keplera od wszystkich tablic opartych na teorii Ptolemeusza była głównym czynnikiem w konwersji astronomów na kopernikanizm. Powodzenie, jakie osiągnął Newton w przewidywaniu ilościowych wyników obserwacji astronomicznych, było prawdopodobnie najistotniejszą przyczyną triumfu jego teorii nad bardziej uzasadnionymi, ale operującymi tylko jakością poglądami przeciwników. W naszym zaś stuleciu uderzający sukces ilościowego prawa promieniowania Plancka oraz teorii atomu Bohra szybko przekonał wielu fizyków do ich przyjęcia, mimo że z punktu widzenia fizyki jako całości o wiele więcej problemów przysporzyły, niż rozwiązały.
[17] Rzadko kiedy jednak rozwiązanie problemu wywołującego kryzys jest argumentem wystarczającym. Nie mówię już o tym, że takie przekonanie bywa niekiedy błędne. W rzeczywistości teoria Kopernika nie była dokładniejsza od teorii Ptolemeusza i nie doprowadziła bezpośrednio do jakichkolwiek udoskonaleń kalendarza. Falowa teoria światła zaś, jeszcze w kilka lat po ogłoszeniu, nie miała nawet takich osiągnięć jak jej rywalka - teoria korpuskularna - w dziedzinie zjawisk polaryzacji, będących główną przyczyną uprzedniego kryzysu w optyce. Niekiedy bardziej luźna praktyka charakterystyczna dla badań nadzwyczajnych rodzi projekt takiego paradygmatu, który z początku zupełnie nie pomaga w rozwiązaniu problemów będących podłożem kryzysu. W takim wypadku argumenty na jego rzecz czerpie się z innych obszarów tej samej dziedziny, co skądinąd często się czyni. Szczególnie przekonujące argumenty można sformułować wtedy, gdy nowy paradygmat stwarza w tych innych obszarach możliwości przewidywania zjawisk, jakich w okresie panowania poprzedniego paradygmatu nikt nie przewidywał.
[18] Teoria Kopernika sugerowała na przykład, że planety powinny być podobne do Ziemi, że powinno się dać zaobserwować fazy Wenus, że wszechświat musi być o wiele rozleglejszy, niż pierwotnie przypuszczano. W rezultacie, kiedy sześćdziesiąt lat po śmierci Kopernika teleskop ukazał nagle góry na Księżycu, fazy Wenus i ogromną ilość zupełnie nieoczekiwanych gwiazd, obserwacje te przysporzyły nowej teorii bardzo wielu wyznawców, zwłaszcza wśród nieastronomów. Jeśli chodzi o teorię falową, jedno z głównych źródeł nawróceń wśród uczonych było bardziej dramatyczne. Opór stawiany przez Francuzów załamał się nagle i niemal zupełnie, kiedy Fresnel zdołał zademonstrować białą plamę w centrum cienia okrągłej tarczy. Był to efekt, którego on sam nawet nie przewidział, ale który - jak wskazał Poisson, początkowo jeden z jego oponentów - był niezbędną, choć pozornie absurdalną konsekwencją teorii Fresnela. Argumenty tego rodzaju są, jak się okazuje, szczególnie przekonywające ze względu na swój szokujący charakter, a także dzięki temu, że wyraźnie widać, iż nie zostały one wcześniej "wmontowane" do teorii. Niekiedy zaś można wykorzystać ich szczególną siłę przekonywającą, mimo że zjawisko, o które chodzi, zostało zaobserwowane na długo przed sformułowaniem odpowiedniej teorii. Na przykład Einstein nie przewidywał, jak się zdaje, że ogólna teoria względności będzie precyzyjnie tłumaczyć dobrze znaną anomalię, precesję perihelium Merkurego, a było wielkim jego sukcesem, kiedy okazało się, że tak jest rzeczywiście.
[19] Wszystkie dotychczas omówione argumenty na rzecz nowego paradygmatu opierały się na tym, że potrafi on lepiej rozwiązywać problemy niż jego konkurent. Dla uczonych takie właśnie argumenty są zazwyczaj najbardziej istotne i przekonywające. Wyżej przytoczone przykłady nie pozostawiają wątpliwości co do źródła siły ich oddziaływania. Jednak z pewnych względów, do których jeszcze wrócimy, nie mogą one ostatecznie zmusić do zmiany stanowiska ani poszczególnego uczonego, ani grupy. Na szczęście istnieją jeszcze innego rodzaju względy mogące skłonić uczonych do porzucenia starego paradygmatu na rzecz nowego. Są to argumenty rzadko formułowane explicite, odwołujące się do indywidualnego poczucia stosowności czy estetyki; mówi się, że nowa teoria jest "zgrabniejsza", "trafniejsza", "prostsza" od dawnej. Prawdopodobnie tego rodzaju argumenty są mniej skuteczne w naukach przyrodniczych niż w matematyce. Wczesne wersje nowych paradygmatów cechuje zazwyczaj pewna surowość. Zanim nabierze on estetycznej wymowności, większość uczonych zdąży się już do niego przekonać z innych względów. Jednak względy estetyczne mogą niekiedy odgrywać rolę decydującą. Wprawdzie przeważnie pozyskują one dla nowej teorii tylko nielicznych, ale oni właśnie mogą zadecydować o jej ostatecznym sukcesie. Gdyby jej szybko nie poparli ze względów czysto osobistych, nowy paradygmat mógłby się w ogóle nie rozwinąć na tyle, by uzyskać uznanie całej społeczności uczonych.
[20] Chcąc zrozumieć, na czym polega znaczenie tych bardziej subiektywnych i estetycznych motywów, przypomnijmy sobie, czego dotyczy dyskusja nad paradygmatem. Rzadko kiedy się zdarza, aby nowy paradygmat zdążył, zanim stał się paradygmatem, rozwiązać jakąś znaczniejszą ilość problemów spośród tych, z którymi się zetknął, a i te rozwiązania, które dał, są przeważnie dalekie od doskonałości. Do czasów Keplera teoria kopernikańska niewiele uściśliła przewidywania Ptolemeusza dotyczące położenia planet. Kiedy Lavoisier po raz pierwszy uznał tlen za "zupełnie czyste powietrze", jego teoria nie mogła w żaden sposób objąć wszystkich problemów związanych z odkrywaniem coraz to nowych gazów, co Priestley bardzo skutecznie wykazał w swym kontrataku. Takie przypadki jak biała plama Fresnela są niezwykle rzadkie. Przeważnie dopiero o wiele później - kiedy nowy paradygmat rozwinie się, zostanie przyjęty i znajdzie zastosowania - pojawiają się argumenty decydujące, takie jak wahadło Foucaulta, które wykazało obroty Ziemi, czy też eksperyment Fizeau, dowodzący, że światło biegnie w powietrzu szybciej niż w wodzie. Poszukiwanie takich argumentów stanowi część nauki normalnej i odgrywają one rolę nie w dyskusji nad paradygmatem, lecz w porewolucyjnych podręcznikach.
[21] Zupełnie inaczej wygląda sytuacja w toku dyskusji, nim jeszcze podręczniki zostaną napisane. Oponenci nowego paradygmatu mogą, przeważnie z dużą słusznością, twierdzić, że nawet na terenie objętym kryzysem jest on niewiele lepszy od swego tradycyjnego konkurenta. Oczywiście, ma lepsze podejście do niektórych problemów, wykrywa pewne nowe prawidłowości. Przypuszczalnie jednak i dawniejszy paradygmat można by tak sformułować, aby sprostał temu zadaniu, jak poprzednio sprostał innym. Zarówno geocentryczny system astronomiczny Tychona Brahe, jak późne wersje teorii flogistonowej stanowiły odpowiedź na wyzwanie rzucone przez odpowiednie nowe teorie i obie odniosły całkowity sukces. W dodatku obrońcy tradycyjnej teorii prawie zawsze mogą wskazać takie problemy, których jej nowy rywal nie rozwiązał, a które z ich punktu widzenia nie sprawiały w ogóle żadnych kłopotów. Do czasu odkrycia składu wody spalanie wodoru było argumentem silnie przemawiającym na korzyść teorii flogistonowej, a przeciwko Lavoisierowi. Teoria tlenowa zaś, nawet wtedy, gdy odniosła już sukces, długo nie umiała wytłumaczyć sposobu otrzymywania z węgla gazu palnego, a więc zjawiska, które zwolennicy teorii flogistonowej uważali za filar swoich poglądów. Argumenty za i przeciw nowej teorii mogą się równoważyć niekiedy nawet w obszarze dotkniętym kryzysem, poza nim zaś tradycyjna teoria utrzymuje zazwyczaj przewagę. Kopernik zburzył uświęcone przez tradycję wyjaśnienie ruchów ciał niebieskich, nie zastępując go nowym; tak samo postąpił Newton w stosunku do dawnego wyjaśnienia grawitacji, Lavoisier - w stosunku do wspólnych własności metali itd. Krótko mówiąc, jeśli teorie miałyby być od samego początku opiniowane przez "praktycznych" uczonych interesujących się tylko ich przydatnością do rozwiązywania problemów, to nauka przeszłaby w swej historii w najlepszym razie kilka większych rewolucji. A jeśli wziąć ponadto pod uwagę to, co powiedzieliśmy o niewspółmierności paradygmatów, trudno byłoby w ogóle zrozumieć, jak mogła dokonać się w nauce jakakolwiek rewolucja.
[22] W rzeczywistości jednak spory o paradygmat nie dotyczą relatywnej zdolności paradygmatów do rozwiązywania problemów, choć z pewnych względów w dyskusjach tych uczeni odwołują się zazwyczaj do takich kategorii. Chodzi natomiast o to, który z paradygmatów będzie w przyszłości kierował badaniem tych problemów, których często żaden ze współzawodników dotychczas nie umiał w pełni rozwiązać. Trzeba zdecydować się na wybór jednego z dwóch sposobów uprawiania nauki i w tych okolicznościach decyzja opierać się musi nie tyle na dotychczasowych osiągnięciach, ile na zapowiedziach na przyszłość. Osoba przyjmująca nowy paradygmat we wczesnej fazie jego rozwoju musi często decydować się na to wbrew świadectwom co do jego aktualnej przydatności w rozwiązywaniu zagadnień. To znaczy, musi ona wierzyć, iż nowy paradygmat wyjdzie w przyszłości zwycięsko z konfrontacji z wieloma złożonymi problemami, wiedząc na razie tylko tyle, że stary parokrotnie zawiódł. Taka decyzja oparta być może tylko na wierze.
[23] Na tym m.in. polega znaczenie poprzedzającego tę decyzję kryzysu. Ci uczeni, którzy kryzysu nie przeszli, rzadko kiedy zrezygnują z wyraźnego kryterium rozstrzygania problemów na rzecz czegoś, co okazać się może tylko błędnym ognikiem. Sam kryzys jednak nie wystarcza. Oprócz niego istnieć musi jakaś inna podstawa - choć niekoniecznie racjonalna i często może się ona ostatecznie okazać wątpliwa - na której opiera się wiarę w wybranego kandydata. Musi istnieć coś takiego, co przynajmniej u paru uczonych wzbudzi poczucie, że nowa propozycja wytycza słuszną drogę. Niekiedy dokonać tego może tylko jakieś osobiste i nie sprecyzowane wrażenie estetyczne. Ludzie kierowali się nim nieraz, gdy większość dających się jasno przedstawić argumentów technicznych wyraźnie wskazywała inne drogi. Kiedy po raz pierwszy ogłoszona została astronomiczna teoria Kopernika czy też teoria materii De Brogliego, żadna z nich nie dysponowała zbyt wielkimi możliwościami odwołania się do innych racji. Nawet dziś ogólna teoria względności Einsteina pociąga ludzi głównie ze względów estetycznych, które wszakże, wyjąwszy matematyków, przemawiają do niewielu.
[24] Nie mam zamiaru przekonywać, że nowy paradygmat triumfuje ostatecznie dzięki jakiejś tajemniczej estetyce. Przeciwnie, bardzo nieliczne jednostki porzucają tradycję wyłącznie z tego powodu. Często zresztą okazuje się, że popełniły one błąd. O ile jednak paradygmat ma z czasem zatriumfować, musi pozyskać pierwszych zwolenników, judzi, którzy będą go rozwijać aż do chwili, gdy pojawią się trzeźwe argumenty. Ale nawet wówczas one same nie są decydujące. Uczeni są ludźmi rozsądnymi, a więc większość z nich da się ostatecznie przekonać za pomocą takiego czy innego argumentu. Nie istnieje jednak taki jeden argument, który mógłby lub powinien przekonać ich wszystkich. To, co się dzieje, jest raczej postępującą zmianą układu preferencji w obrębie społeczności naukowej niż nawróceniem całej grupy.
[25] Początkowo nowa koncepcja pretendująca do roli paradygmatu może mieć niewielu zwolenników, a motywy ich wydawać się mogą niekiedy wątpliwej wartości. Jednakże jeśli są oni kompetentni, to udoskonalą go, zbadają jego możliwości i ukażą, jak przedstawiałaby się praca w społeczności, którą by on rządził. Jeśli sądzone jest paradygmatowi wygrać tę walkę, to stopniowo wzrasta ilość i siła przemawiających za nim argumentów. Nawraca się wówczas większa liczba uczonych i zgłębia możliwości nowego paradygmatu. Stopniowo wzrasta ilość doświadczeń, przyrządów, artykułów, książek opartych na nowym paradygmacie. Przekonawszy się o płodności nowego poglądu, coraz więcej osób przyjmuje nowy styl uprawiania nauki normalnej. Wreszcie opierają się już tylko nieliczni starsi uczeni. Jednak nawet o nich nie można powiedzieć, że się mylą. Historyk nauki, mimo że może zawsze znaleźć kogoś, kto sprzeciwiał się nowej teorii tak nierozsądnie długo jak, powiedzmy, Priestley, nie może jednak określić chwili, od której począwszy taka opozycja staje się nielogiczna i nienaukowa. Co najwyżej może być skłonny powiedzieć, że ktoś, kto nadal oponuje, kiedy wszyscy jego koledzy-specjaliści dali się przekonać, ipso facto przestaje być uczonym.
XIII. POSTĘP POPRZEZ REWOLUCJE
[1] Przedstawiłem wyżej, tak jak pozwalały na to ramy niniejszej rozprawy, schematyczny opis rozwoju nauki. Nie może on jednak doprowadzić do ostatecznych wniosków. Jeśli w opisie tym udało się w ogóle uchwycić zasadniczą strukturę ciągłej ewolucji nauki, to jednocześnie pojawia się problem: dlaczego w nauce miałby następować rozwój, z jakim nie mamy do czynienia, powiedzmy, w sztuce, teorii polityki czy filozofii? Dlaczego postęp zastrzeżony ma być jedynie dla tego typu działalności, który nazywamy nauką? W niniejszej pracy odrzuciliśmy najczęstsze odpowiedzi na powyższe pytanie. Na zakończenie zapytać musimy, czy da się znaleźć inną odpowiedź.
[2] Zauważmy od razu, że po części pytanie nasze ma charakter czysto semantyczny. Termin "nauka" zastrzeżony jest mianowicie w poważnej mierze dla tych dziedzin, w których mamy w sposób oczywisty do czynienia z postępem. Najdobitniejszym tego przykładem mogą być współczesne dyskusje na temat, czy ta lub inna dziedzina nauk społecznych jest rzeczywiście nauką. Dyskusje te mają swe odpowiedniki w przedparadygmatycznym okresie rozwoju tych dziedzin, które dziś są powszechnie do nauki zaliczane. W dyskusjach tych wiele uwagi poświęca się definicji tego niepokojącego terminu. Niektórzy dowodzą na przykład, że psychologia jest nauką, ponieważ odznacza się takimi to a takimi cechami. Inni sądzą, że cechy te nie są konieczne lub że nie są wystarczające do tego, aby daną dziedzinę traktować jako naukę. Często w dyskusje takie wkłada się wiele energii i namiętności, przy czym ktoś obserwujący je z zewnątrz nie bardzo rozumie, dlaczego. Czy tak wiele zależy od tego, jak zdefiniuje się naukę? Czy definicja może komuś odpowiedzieć, czy jest on uczonym? A jeśli tak, to dlaczego przyrodnicy i humaniści nie troszczą się o tę definicję? Trudno oprzeć się przypuszczeniu, że chodzi tu o coś bardziej zasadniczego. Zapewne rzeczywiście zadaje się pytania w rodzaju: "Dlaczego moja dziedzina nie wykazuje takiego postępu jak, powiedzmy, fizyka?" lub "Jak należałoby zmienić metody, techniki badawcze czy też ideologię, aby to się stało możliwe?". Nie są to jednak pytania, na które można odpowiedzieć, uzgadniając definicję. Co więcej, o ile odwołać się do precedensów, jakich dostarcza historia nauk przyrodniczych, pytania te przestaną niepokoić nie wskutek wypracowania definicji, lecz wówczas, gdy społeczności żywiące obecnie wątpliwości co do swego statusu osiągną konsensus w kwestii swoich minionych i aktualnych osiągnięć. Znamienne być może na przykład, że ekonomiści mniej spierają się o to, czy ich dziedzina jest nauką, niż przedstawiciele niektórych innych nauk społecznych. Czy jest tak dlatego, że ekonomiści wiedzą, co to jest nauka? Czy raczej dlatego, że zgadzają się co do tego, czym jest ekonomia?
[3] Zagadnienie to ma również i drugą stronę, której analiza - choć nie chodzi tu już o kwestie tylko semantyczne - może naświetlić nierozerwalne związki zachodzące między pojęciem nauki i pojęciem postępu. Przez wiele stuleci, zarówno w starożytności, jak i we wczesnym okresie historii Europy nowożytnej, traktowano malarstwo właśnie jako dyscyplinę kumulatywną. Uważano wówczas, że celem artysty jest odtwarzanie rzeczywistości. Krytycy i historycy, na przykład Pliniusz czy Vasari, odnotowywali wówczas z pietyzmem najrozmaitsze wynalazki techniczne - od skrótu perspektywicznego do światłocienia - które umożliwiały stopniowo coraz dokładniejsze kopiowanie natury. Był to jednak zarazem czas, kiedy - zwłaszcza w okresie Odrodzenia - uważano, że nie ma wielkiej przepaści między nauką a sztuką. Leonardo był tylko jednym z wielu, którzy działali z powodzeniem to w jednej dziedzinie, to w drugiej - dopiero później wyraźnie się one od siebie oddzieliły. Co więcej, nawet później, kiedy ustała ciągła wymiana między nimi, termin "sztuka" wciąż stosował się zarówno do rzemiosła i technologii, w których również widziano postęp, jak i do malarstwa czy rzeźby. Dopiero kiedy malarze i rzeźbiarze przestali uważać, że celem ich jest odtwarzanie natury, i ponownie zaczęli się uczyć na prymitywnych wzorcach, zarysował się rozdział, który uważamy dziś za niewątpliwy. I nawet dzisiaj - by zestawić znów inne dziedziny - trudności, jakie mamy ze wskazaniem głębokich różnic między nauką a technologią, są częściowo związane z tym, że w obu mamy do czynienia z postępem.
[4] Zdanie sobie sprawy z tego, że skłonni jesteśmy uznawać za naukę każdą dziedzinę, w której zaznacza się postęp, może jedynie wyjaśnić tę trudność, ale nie może jej rozwiązać. Nadal pozostaje otwarte zagadnienie, dlaczego postęp miałby i w szczególności cechować działalność, która kieruje się metodami i celami przedstawionymi w niniejszej pracy. W pytaniu tym zawartych jest kilka problemów, które musimy rozpatrzyć oddzielnie. Jednakże rozwiązanie ich wszystkich, z wyjątkiem ostatniego, wymagać będzie odwrócenia naszych potocznych wyobrażeń na temat stosunku między działalnością naukową a społecznością, która działalność tę uprawia. Musimy się nauczyć traktować jako przyczyny to, co dotychczas uchodziło za skutki. Jeśli się nam to uda, to określenia "postęp naukowy", a nawet "naukowy obiektywizm" mogą się nam wydać częściowo redundantne. W gruncie rzeczy jeden z aspektów tej redundancji już zilustrowaliśmy. Czy jakaś dziedzina osiąga postęp dlatego, że jest nauką, czy też, przeciwnie, jest nauką dlatego, że osiąga się w niej postęp?
[5] Spytajmy teraz, dlaczego taka działalność jak nauka normalna miałaby wykazywać postęp. Zacznijmy od przypomnienia sobie jej najistotniejszych cech. Zazwyczaj przedstawiciele dojrzałej społeczności naukowej pracują, opierając się na jednym wspólnym paradygmacie albo na zespole blisko związanych ze sobą paradygmatów. Rzadko się zdarza, by różne społeczności uczonych zajmowały się tą samą problematyką. W tych wyjątkowych przypadkach grupy te opierają się na pewnych wspólnych głównych paradygmatach. Jednak z punktu widzenia każdej społeczności, czy to naukowców, czy nienaukowców, rezultatem płodnej pracy twórczej jest postęp. Cóż innego mogłoby nim być? Wspominaliśmy na przykład, że kiedy artyści uważali, iż ich celem jest przedstawianie natury, zarówno krytycy, jak historycy odnotowywali postęp tej wyraźnie zjednoczonej grupy. W innych dziedzinach twórczych można dostrzec postęp tego samego rodzaju. Teolog, który wyjaśnia dogmaty, albo filozof, który cyzeluje Kantowskie imperatywy, przyczynia się do postępu, przynajmniej tej grupy, z którą łączą go wspólne przesłanki. Żadna z twórczych szkół nie uznaje takiej kategorii prac, które byłyby sukcesem twórczym, a nie pomnażały zarazem zbiorowych osiągnięć grupy. Jeśli wątpimy, jak to się często zdarza, czy w pozanaukowych dziedzinach dokonuje się postęp, to nie dlatego, że nie osiągają go poszczególne grupy. Dzieje się tak raczej dlatego, że istnieją tu zawsze współzawodniczące ze sobą szkoły, z których każda stale kwestionuje najbardziej podstawowe założenia innych. Ktoś, kto twierdzi, że na przykład w filozofii nie dokonuje się postęp, ma na myśli raczej to, że wciąż jeszcze istnieją arystotelicy, a nie to, że w arystotelizmie nie dokonał się żaden postęp.
[6] Tego rodzaju wątpliwości występują jednak również w naukach przyrodniczych. W całym okresie przedparadygmatycznym, kiedy istnieje wiele zwalczających się szkół, bardzo trudno znaleźć świadectwa postępu, chyba że chodzi o postęp dokonywany w obrębie poszczególnych szkół. Opisywaliśmy to w rozdziale drugim, wskazując, że wówczas jednostki uprawiają wprawdzie naukę, ale rezultaty ich działalności nie składają się na to, co zwykliśmy nazywać nauką. Kiedy zaś w okresie rewolucji podaje się ponownie w wątpliwość fundamentalne założenia jakiejś dziedziny, stale pojawiają się wątpliwości co do samej możliwości ciągłego postępu w wypadku przyjęcia tego czy innego konkurencyjnego paradygmatu. Ci, którzy odrzucali teorię Newtona, twierdzili, że jej odwoływanie się do sił wrodzonych cofnie naukę do mrocznych wieków średniowiecza. Ci, którzy sprzeciwiali się chemii Lavoisiera, głosili, że odrzucenie "zasad" chemicznych i zastąpienie ich laboratoryjnymi pierwiastkami prowadzi do rezygnacji z uzyskanych wyjaśnień i zadowolenia się nową nazwą. Podobne, choć wyrażone oględniej odczucia leżały, jak się zdaje, u podstaw sprzeciwu Einsteina, Bohma i innych wobec dominującej probabilistycznej interpretacji mechaniki kwantowej. Krótko mówiąc, tylko w okresie panowania nauki normalnej postęp wydaje się czymś oczywistym i zapewnionym. Ale w tym okresie społeczność uczonych nie może inaczej traktować owoców swojej pracy.
[7] Tak więc gdy chodzi o naukę normalną, część odpowiedzi na pytanie o postęp zależy po prostu od tego, co widzą ci, którzy je stawiają. Postęp w nauce nie różni się gatunkowo od postępu w innych dziedzinach, ale ponieważ przez większość czasu brak tu ścierających się szkół, kwestionujących wzajemnie swoje cele i standardy, przeto w społeczności uprawiającej naukę normalną o wiele łatwiej dostrzec postęp. Jest to jednak tylko część odpowiedzi, i to nie najważniejsza. Zauważyliśmy już na przykład, że z chwilą gdy społeczność uczonych zaakceptuje wspólny paradygmat, co uwalniają od konieczności stałego sprawdzania od nowa swych podstawowych zasad, członkowie tej społeczności mogą skoncentrować swoją uwagę wyłącznie na najsubtelniejszych i najbardziej ezoterycznych spośród zajmujących ją zjawisk. Z konieczności prowadzi to do wzrostu skuteczności i wydajności w rozwiązywaniu przez daną grupę nowych problemów. Inne aspekty działalności zawodowej w naukach przyrodniczych zwiększają jeszcze tę wydajność.
[8] Niektóre z nich są konsekwencją nie mającej sobie równej izolacji dojrzałej społeczności naukowej od żądań laików i życia codziennego. Nie była to nigdy izolacja zupełna - interesuje nas tu kwestia stopnia. Nie istnieją jednak inne społeczności zawodowe, w których indywidualna praca twórcza byłaby w tak wyłączny sposób adresowana do innych członków grupy i tylko przez nich doceniana. Nawet najbardziej ezoterycznym poetom i najbardziej abstrakcyjnym teologom o wiele bardziej niż uczonym zależy na uznaniu ich pracy twórczej przez laików, choć może im mniej zależeć na uznaniu w ogóle. Różnica ta, jak się okazuje, ma istotne konsekwencje. Właśnie dlatego, że uczony pracuje jedynie dla audytorium złożonego z kolegów, z którymi łączą go wspólne wartości i przekonania, może on uznać konkretny zbiór standardów za niepodważalny. Nie musi się troszczyć o to, co inna grupa czy szkoła będzie o tym sądzić, a wobec tego może uporać się z jednym zagadnieniem i przejść do następnego szybciej niż ci, którzy pracują dla grupy mniej jednolitej. Co ważniejsze, wyizolowanie społeczności naukowej ze społeczeństwa pozwala poszczególnym uczonym skoncentrować uwagę na zagadnieniach, co do których mają słuszne powody przypuszczać, że potrafią je rozwiązać. W odróżnieniu od inżynierów, wielu lekarzy i większości teologów, uczony nie musi kierować się w doborze problemów palącą potrzebą ich rozwiązania bez względu na istniejące po temu środki. Również i pod tym względem pouczająca jest różnica między przedstawicielami nauk przyrodniczych i społecznych. Ci ostatni, w przeciwieństwie do pierwszych, często uzasadniają wybór problemów badawczych - np. dyskryminacji rasowej lub cyklów koniunktury - odwołując się głównie do społecznej doniosłości ich rozwiązania. Po której z tych grup można się zatem spodziewać szybszego tempa rozwiązywania problemów?
[9] Skutki izolowania się od szerszego społeczeństwa pogłębia jeszcze kolejna swoista cecha społeczności uczonych, jaką jest charakter kształcenia zawodowego. Uprawiając muzykę, sztuki plastyczne czy literaturę, można się kształcić na pracach innych artystów, zwłaszcza dawniejszych. Podręczniki, pomijając kompendia lub podręcznikowe wydania prac oryginalnych, odgrywają tu rolę drugorzędną. W historii, filozofii i w naukach społecznych literatura podręcznikowa ma już większe znaczenie. Ale nawet w tych dyscyplinach elementarne wykłady uniwersyteckie wykorzystują równolegle źródła oryginalne, w tym prace "klasyków" danej dziedziny oraz współczesne sprawozdania badawcze pisane dla specjalistów. W rezultacie student każdej z tych dyscyplin stale uświadamia sobie niezmierną różnorodność problemów, jakie na przestrzeni lat usiłowali rozwiązywać przedstawiciele jego przyszłej grupy zawodowej. Co zaś jeszcze ważniejsze, ma on stale do czynienia z szeregiem konkurujących ze sobą i niewspółmiernych rozwiązań tych problemów, rozwiązań, które ostatecznie musi sam ocenić.
[10] Porównajmy to z sytuacją panującą w naukach przyrodniczych, przynajmniej współczesnych. W tej dziedzinie aż do trzeciego czy czwartego roku studiów doktoranckich, kiedy student zaczyna badania naukowe na własną rękę, polegać on musi głównie na podręcznikach. Wiele programów nauczania nie żąda nawet od doktorantów, aby czytali inne prace prócz tych pisanych specjalnie dla studentów. Te nieliczne programy, które zalecają jako lekturę uzupełniającą czasopisma naukowe i monografie, ograniczają się do wskazówek dla najstarszych, najbardziej zaawansowanych kursów i do takich materiałów, które podejmują dany temat mniej więcej w tym miejscu, do jakiego został on doprowadzony w podręczniku. Aż do ostatniego stadium kształcenia naukowego podręczniki systematycznie zastępują tę twórczą literaturę naukową, która jest ich podstawą. Ze względu na zaufanie, jakie uczeni żywią do swoich paradygmatów i które umożliwia taką metodę nauczania, niewielu z nich chciałoby ją zmienić. Po co zresztą miałby na przykład student fizyki czytać prace Newtona, Faradaya, Einsteina lub Schrödingera, jeśli wszystko, co powinien o tych pracach wiedzieć, zostało wyłożone w formie o wiele krótszej, o wiele dokładniej i bardziej systematycznie w wielu nowoczesnych podręcznikach?
[11] Nie zamierzam bynajmniej bronić skrajności, w jaką popada się czasem przy tym modelu nauczania, ale trudno nie zauważyć, że system ten na ogół daje świetne rezultaty. Jest to oczywiście wykształcenie o węższym i sztywniejszym charakterze niż wszystkie inne, z wyjątkiem może ortodoksyjnej teologii. Ale tak wykształcony uczony jest niemal idealnie przystosowany do pracy w ramach nauki normalnej, tj. do rozwiązywania łamigłówek w obrębie tradycji definiowanej przez podręczniki. Co więcej, jest równie dobrze przysposobiony do innego zadania - do doprowadzenia nauki normalnej do poważnych kryzysów. Oczywiście, nie jest równie dobrze przygotowany do poradzenia sobie z nimi, kiedy się już wyłonią. Mimo że przewlekłe kryzysy znajdują prawdopodobnie odbicie w mniej rygorystycznej praktyce nauczania, szkolenie naukowe nie sprzyja wytwarzaniu w uczonych gotowości przyjmowania nowych koncepcji. Ale dopóty, dopóki nie zjawi się ktoś -przeważnie człowiek młody lub nowicjusz w danej dziedzinie - kto wystąpi z propozycją wprowadzenia nowego paradygmatu, ujemne strony tego rygorystycznego systemu odbijają się tylko na jednostkach. Gdy mamy do czynienia z pokoleniem, w którym dokonać się ma zmiana, sztywność jednostek może iść w parze ze zdolnością całej społeczności do przechodzenia od jednego paradygmatu do drugiego, gdy okoliczności tego wymagają. Niekiedy ta właśnie sztywność jest dla społeczności czułym wskaźnikiem alarmującym, że coś jest nie tak.
[12] Tak więc w swoim stanie normalnym społeczność uczonych jest niezwykle skutecznym narzędziem rozwiązywania problemów czy łamigłówek wyznaczanych przez jej paradygmaty. Co więcej, wynikiem rozwiązania tych problemów musi być bezwarunkowo postęp. Co do tego nie może być żadnych wątpliwości. To, co powiedzieliśmy, rzuca jednak zaledwie nieco światła na drugą stronę zagadnienia postępu w nauce. Powróćmy więc do naszego tematu i zajmijmy się kwestią postępu, do którego prowadzi nauka nadzwyczajna. Dlaczego rewolucjom naukowym miałby zawsze towarzyszyć postęp? I znów wiele wyjaśnia tu odpowiedź na pytanie: a jaki inny mógłby być wynik rewolucji? Rewolucje kończą się całkowitym zwycięstwem jednej z dwu konkurencyjnych grup. Czyż możliwe, aby grupa zwycięska sądziła, że jej sukces nie oznacza postępu? Byłoby to równoznaczne z uznaniem, że nie ona, lecz jej przeciwnik miał rację. Przynajmniej dla zwolenników nowego paradygmatu wynik rewolucji oznaczać musi postęp; znajdują się oni przy tym w wyśmienitej sytuacji, która gwarantuje, że przyszli członkowie ich społeczności patrzeć będą na minione dzieje w ten sam sposób co oni. W rozdziale jedenastym przedstawiliśmy szczegółowo techniki, za pomocą których osiąga się ten rezultat, a przed chwilą omówiliśmy związane z tym aspekty życia naukowego. Kiedy społeczność uczonych odrzuca stary paradygmat, wraz z nim odrzuca jako przedmiot dalszych szczegółowych studiów większość książek i artykułów, w których paradygmat ten był ucieleśniony. Kształcenie zawodowe nie korzysta z czegoś w rodzaju muzeum sztuki czy biblioteki klasyków. Rezultatem tego są niekiedy drastyczne deformacje w postrzeganiu przez uczonych przeszłości ich dyscypliny. Bardziej niż przedstawiciele innych twórczych dziedzin uczony ujmuje te dzieje tak, jakby w prostej linii prowadziły do aktualnego stanu wiedzy w danej dyscyplinie. Krótko mówiąc, traktuje je właśnie jako postęp. I nie ma on innej możliwości, dopóki pozostaje w obrębie danej dziedziny.
[13] Powyższe uwagi sugerują, że członek dojrzałej społeczności naukowej jest - podobnie jak bohater Orwellowskiego Roku 1984 - ofiarą historii poprawionej przez tych, którzy są u władzy. Analogia ta nie jest tak powierzchowna, jak mogłoby się zdawać. Rewolucja naukowa prowadzi zarówno do zysków, jak do strat; uczeni natomiast zdają się nie dostrzegać tych drugich. Jednakże wyjaśnienie sprawy postępu poprzez rewolucje na tym się bynajmniej nie kończy. Gdyby poprzestać na powyższych konstatacjach, trzeba by uznać, że w nauce siła jest prawem. Sformułowanie takie nie byłoby całkiem błędne, gdyby nie pomijało natury samego procesu i autorytetu, od których zależy wybór między paradygmatami. Gdyby arbitrem w sporze między paradygmatami był tylko autorytet, a zwłaszcza autorytet niezawodowy, to wynikiem tego sporu mogłaby być wprawdzie rewolucja, ale nie byłaby to rewolucja naukowa. Sarno istnienie nauki zależy od tego, że prawo rozstrzygania sporów o paradygmaty przysługuje członkom szczególnego rodzaju społeczności. Na to, jak bardzo szczególna musi to być społeczność, aby nauka mogła przetrwać i rozwijać się, może wskazywać choćby to, że społeczeństwa długo nie przywiązywały wielkiej wagi do działalności naukowej. Każda z cywilizacji, o których mamy dane historyczne, posiadała technologię, sztukę, religię, system polityczny, prawa itd. W niektórych wypadkach te rozmaite przejawy cywilizacji były równie rozwinięte jak obecnie. Jednakże tylko te cywilizacje, które wywodzą się z hellenistycznej Grecji, mają rozwiniętą naukę. Większa część wiedzy naukowej jest produktem europejskim, pochodzącym z ostatnich czterech stuleci. Nigdy i nigdzie indziej te bardzo szczególne społeczności umożliwiające naukową produktywność nie cieszyły się takim poparciem.
[14] Jakie są zasadnicze cechy tych społeczności? Wymaga to oczywiście dalszych dokładnych studiów. Pokusić się tu można co najwyżej o przybliżone uogólnienia, lecz mimo to wiele warunków uczestnictwa w zawodowej wspólnocie naukowej rysuje się już w całkiem jasny sposób. Uczony musi na przykład zajmować się rozwiązywaniem problemów dotyczących zachowania się przyrody. Ponadto, chociaż interesować się on może przyrodą w ogóle, problemy, nad którymi pracuje, muszą być szczegółowe. Co ważniejsze, akceptowane przezeń rozwiązanie nie może być tylko jego osobistym poglądem; musi ono znaleźć uznanie u innych. Grupa podzielająca to przekonanie nie może być wszakże wybrana ze społeczeństwa na chybił trafił, lecz stanowić musi ściśle określoną wspólnotę zawodową. Jedną z zasadniczych, choć niepisanych reguł życia naukowego jest zakaz odwoływania się w kwestiach naukowych do władzy państwowej czy też do opinii szerokiego ogółu. Uznanie istnienia jedynej kompetentnej grupy zawodowej jako wyłącznego arbitra w kwestiach osiągnięć zawodowych pociąga za sobą dalsze konsekwencje. Członkowie tej grupy, każdy z osobna, na mocy uzyskanego wspólnego wykształcenia i doświadczenia muszą być postrzegani jako jedyni dysponenci reguł gry czy jakiejś innej równoważnej podstawy wydawania jednoznacznych sądów. Powątpiewanie, że dysponują oni taką wspólną podstawą do wydawania ocen, byłoby równoznaczne z dopuszczeniem istnienia nie dających się ze sobą pogodzić standardów osiągnięć naukowych. Prowadzić by to musiało do podania w wątpliwość tego, że w nauce istnieje tylko jedna prawda.
[15] Ta krótka lista wspólnych cech społeczności naukowych oparta została całkowicie na praktyce nauki normalnej, i tak być powinno. Jest to bowiem ta działalność, do której przygotowywany jest uczony. Zauważmy jednak, że chociaż lista ta jest krótka, to jednak w zupełności wystarczy do odróżnienia takich społeczności od wszystkich innych grup zawodowych. Zauważmy ponadto, że chociaż oparta jest na normalnej działalności badawczej, to jednak zdaje sprawę z wielu szczególnych cech zachowania się poszczególnych grup w trakcie rewolucji naukowych, a zwłaszcza w czasie sporów o paradygmat. Powiedzieliśmy poprzednio, że tego rodzaju grupy muszą postrzegać zmianę paradygmatu jako postęp. Teraz widzimy, że pod wieloma względami ten sposób postrzegania jest samospełniającą się przepowiednią. Społeczność naukowa jest niesłychanie skutecznym narzędziem maksymalizacji ilości i ścisłości problemów znajdujących rozwiązanie w wyniku zmiany paradygmatu.
[16] Ponieważ miarą osiągnięć naukowych są rozwiązane problemy, a grupa dobrze wie, jakie problemy zostały już rozwiązane, niewielu uczonych dałoby się nakłonić do przyjęcia takiego punktu widzenia, który ponownie stawiałby pod znakiem zapytania problemy uprzednio rozstrzygnięte. Sama przyroda musi najpierw podkopać zawodowe poczucie bezpieczeństwa, tak iż dawniejsze osiągnięcia wydadzą się problematyczne. Co więcej, nawet gdy tak się stanie i zrodzi się propozycja nowego paradygmatu, uczeni nie pogodzą się z nim dopóty, dopóki nie zyskają pewności, że spełnia on dwa zasadnicze warunki. Po pierwsze, nowy paradygmat musi sprawiać wrażenie, że zdoła rozwiązać jakiś ważny i powszechnie uznany problem, z którym nie można sobie poradzić w żaden inny sposób. Po drugie, nowy paradygmat musi obiecywać, że zachowa stosunkowo dużą część tych umiejętności rozwiązywania problemów, które zdobyto w dotychczasowym rozwoju wiedzy. Poszukiwanie nowinek dla nowinek nie jest w nauce czymś tak pożądanym jak w niektórych innych dziedzinach twórczości. W rezultacie, chociaż nowe paradygmaty rzadko kiedy posiadają wszystkie umiejętności swych poprzedników, a może nawet nigdy ich nie posiadają, to pozwalają mimo to zachować znaczną część konkretnych dotychczasowych osiągnięć, a ponadto umożliwiają zawsze rozwiązanie nowych zagadnień.
[17] Powyższe uwagi nie mają bynajmniej sugerować, że zdolność rozwiązywania problemów jest jedynym czy też jednoznacznym kryterium wyboru paradygmatu. Wskazaliśmy już poprzednio na wiele przyczyn, dla których nie może istnieć tego rodzaju kryterium. Z uwag tych wynika natomiast, że zawodowa wspólnota uczonych czynić będzie wszystko, aby zapewnić ciągły przyrost gromadzonych danych, które jest w stanie ująć precyzyjnie i szczegółowo. W trakcie tego procesu musi ona ponosić straty. Często zdarza się, że jakieś stare problemy muszą zostać odrzucone. Często również rewolucja zwęża zakres zainteresowań danej grupy specjalistów, pogłębia specjalizację i utrudnia kontakt z innymi grupami uczonych czy też laików. Chociaż nauka z pewnością rośnie w głąb, nie musi ona jednocześnie rosnąć wszerz. Jeśli zaś tak się dzieje, to znajduje to wyraz nie tyle w poszerzeniu zakresu badań danej specjalności, ile w zwiększaniu liczby specjalizacji. Mimo tych czy innych strat ponoszonych przez poszczególne społeczności sama natura tych społeczności daje gwarancję, że lista problemów rozwiązanych przez naukę oraz ścisłość poszczególnych rozstrzygnięć będzie stale rosła - przynajmniej o tyle, o ile w ogóle jest tu możliwa jakakolwiek gwarancja. Czy może tu istnieć lepsze kryterium niż decyzja grupy uczonych?
[18] W ostatnich ustępach tej pracy chciałbym wskazać na kierunek, w którym, jak sądzę, prowadzić się powinno dalsze badania nad problemem rozwoju nauki. Wskażą one być może, że postęp naukowy jest czymś innym, niż sądziliśmy. Ale zarazem pokażą, że jakiegoś rodzaju postęp towarzyszyć będzie nauce, dopóki będzie ona istniała. Nauka nie wymaga innego rodzaju postępu. Mówiąc wyraźniej, będziemy może zmuszeni zarzucić pogląd, że zmiany paradygmatów coraz bardziej zbliżają uczonych i tych, którzy od nich czerpią wiedzę - do prawdy.
[19] Pora już zwrócić uwagę na fakt, że aż do ostatnich stron, z wyjątkiem jednego cytatu z Bacona, nie używałem w tej rozprawie w ogóle terminu "prawda". I nawet na tych ostatnich stronach pojawił się on tylko po to, by wskazać na źródło przekonania uczonych, że wzajemnie niezgodne reguły uprawiania nauki mogą współistnieć tylko w okresie rewolucji, kiedy zadaniem wspólnoty zawodowej jest właśnie wyeliminowanie wszystkich zbiorów reguł, z wyjątkiem jednego. Proces rozwojowy opisany został w tej pracy jako ewolucja od prymitywnych początków, jako proces, którego kolejne stadia odznaczają się coraz to subtelniejszym i bardziej szczegółowym rozumieniem przyrody. Nic z tego jednak, co zostało i zostanie tu powiedziane, nie wskazuje na to, by miał to być proces zdążający ku czemuś. Musiało to niewątpliwie zaniepokoić wielu czytelników. Zwykliśmy bowiem postrzegać naukę jako taką właśnie działalność, która zbliża się wciąż do pewnego wyznaczonego z góry celu.
[20] Czy cel taki rzeczywiście musi istnieć? Czy nie można zdać sprawy zarówno z istnienia nauki, jak z jej sukcesów w kategoriach ewolucji od pewnego stanu wiedzy społeczności w dowolnym okresie? Czy rzeczywiście będziemy mieli łatwiejsze zadanie, jeśli założymy, że istnieje jakiś pełny, obiektywny, prawdziwy obraz przyrody i że właściwą miarą osiągnięć naukowych jest to, na ile dane osiągnięcie przybliża nas do tego ostatecznego celu? Gdybyśmy potrafili zastąpić ewolucję-do-tego-co-chcielibyśmy-wiedzieć ewolucją-od-tego-co-wiemy, pozbylibyśmy się wielu kłopotliwych problemów. Gdzieś w tej gmatwaninie leżeć musi na przykład problem indukcji.
[21] Nie potrafię jeszcze wskazać wszystkich konsekwencji tego alternatywnego punktu widzenia. Warto jednak zdać sobie sprawę z tego, że sugerowana tu reorientacja pojęciowa bardzo przypomina to, co zdarzyło się na Zachodzie dokładnie 100 lat temu. W obu wypadkach główne przeszkody tej reorientacji były identyczne. Kiedy Darwin po raz pierwszy, w roku 1859, opublikował swoją teorię ewolucji w drodze doboru naturalnego, tym, co głównie zaniepokoiło specjalistów, nie było ani pojęcie zmian gatunkowych, ani pochodzenie człowieka od małpy. Świadectwa na rzecz ewolucji, włącznie z ewolucją człowieka, gromadzono od dziesięcioleci, a idea ewolucji była szeroko rozpowszechniona już wcześniej. Chociaż koncepcja ewolucji rzeczywiście napotykała opór, zwłaszcza środowisk religijnych, nie była to z pewnością największa trudność, z jaką musieli się zmierzyć zwolennicy darwinizmu. Trudność ta wynikała z bardziej oryginalnej idei Darwina. Wszystkie dobrze znane przeddarwinowskie teorie ewolucji - Lamarcka, Chambersa, Spencera i niemieckich Naturphilosophen - traktowały ewolucję jako proces celowy. Uważano, że "idea" człowieka oraz współczesnej flory i fauny była obecna od samych narodzin życia - być może w umyśle Stwórcy. Ta idea - czy plan - wytyczała kierunek całemu procesowi ewolucji i wskazywała na siłę sterującą tym procesem. Każde nowe stadium rozwoju ewolucyjnego miało być doskonalszą realizacją planu istniejącego od początku.
[22] Porzucenie tego teleologicznego spojrzenia na ewolucję było dla wielu ludzi najistotniejszą i najtrudniejszą do przełknięcia konsekwencją teorii Darwina. W Pochodzeniu gatunków nie mówi się nic o celu wyznaczonym czy to przez Boga, czy to przez przyrodę. Za stopniowe, lecz stałe pojawianie się coraz bardziej skomplikowanych, zróżnicowanych i wyspecjalizowanych organizmów odpowiedzialny miał być natomiast dobór naturalny działający w danym środowisku wśród aktualnie istniejących istot żywych. Nawet tak doskonale przystosowane organy jak oko i ręka ludzka - których celowa budowa dostarczała wcześniej najmocniejszych argumentów na rzecz istnienia Stwórcy i uprzedniego planu - miały być wytworem procesu biegnącego stale od prymitywnych początków, ale nie zmierzającego do żadnego celu. Przekonanie, iż dobór naturalny, wynikający z samego współzawodnictwa między organizmami w walce o przetrwanie, doprowadzić mógł do powstania człowieka, wyższych zwierząt i roślin, było najtrudniejszym i najbardziej kłopotliwym aspektem teorii Darwina. Cóż może znaczyć "ewolucja", "rozwój", "postęp", skoro nie istnieje określony cel? Wielu ludziom terminy te wydały się teraz wewnętrznie sprzeczne.
[23] Analogię między rozwojem organizmów żywych a rozwojem idei naukowych można z łatwością posunąć zbyt daleko. Ale świetnie ilustruje ona kwestie, o które nam chodzi w tym podsumowującym rozdziale. Proces, który przedstawiliśmy w rozdziale dwunastym jako rozwiązanie rewolucji, polega na doborze, w drodze konfliktu w obrębie społeczności uczonych, najlepiej przystosowanej metody uprawiania nauki. Końcowym wynikiem szeregu takich rewolucyjnych selekcji poprzedzielanych okresami nauki normalnej jest wspaniale przystosowany zestaw narzędzi, które nazywamy nowoczesną wiedzą naukową. Kolejne stadia tego procesu odznaczają się wzrostem specjalizacji i zróżnicowania. I cały ten proces mógł przebiegać - jak wedle obecnych poglądów przebiegała przypuszczalnie ewolucja biologiczna - bez z góry przewidzianego celu, bez jakiejś niezmiennej prawdy naukowej, której coraz lepszym wyrazem miałoby być każde następne stadium rozwoju wiedzy naukowej.
[24] Każdego, kto śledził naszą argumentację, niepokoić może jednak pytanie, dlaczego ten ewolucyjny proces miałby w ogóle zachodzić. Jaka musi być przyroda, łącznie z człowiekiem, aby nauka była w ogóle możliwa? Dlaczego społeczności uczonych mają być zdolne do osiągania trwałego konsensusu nieosiągalnego w innych dziedzinach? Dlaczego zgodność ta przetrwać może kolejne zmiany paradygmatów? I dlaczego zmiana paradygmatu miałaby zawsze prowadzić do powstania narzędzi doskonalszych niż znane uprzednio? Na wszystkie te pytania, z wyjątkiem pierwszego, w pewnym sensie odpowiedzieliśmy. W innym jednak sensie pozostają one otwarte. Szczególnymi cechami odznaczać się musi nie tylko społeczność naukowa, ale również świat, którego częścią jest ta społeczność; nasze rozważania nie zbliżyły nas wcale do odpowiedzi na pytanie, jakie to mają być własności. Tego problemu - jaki musi być świat, aby człowiek mógł go poznawać? - nie stworzyła jednak niniejsza rozprawa. Przeciwnie, jest to pytanie równie stare jak nauka - i wciąż pozostaje bez odpowiedzi. Nie musi ono jednak być tu rozstrzygane. Każda koncepcja przyrody zgodna z wizją rozwoju nauki przez sprawdzanie da się pogodzić również z tym poglądem na ewolucję nauki, jaki powyżej przedstawiliśmy. A że pogląd ten pozostaje również w zgodzie z dokładnymi obserwacjami życia naukowego, istnieją uzasadnione powody, by korzystać z niego, podejmując próby rozwiązania mnóstwa problemów dotąd nie rozstrzygniętych.