Aby uniknąć zbyt częstego powtarzania słów „jest równe”, wprowadzę, jak to mam w zwyczaju czynić w swoich pracach, oznaczenie zbudowane z dwóch linii równoległych jednej
długości:
, trudno byłoby bowiem znaleźć cokolwiek bardziej sobie równego niźli owe linie.
Robert Recorde, The Whetstone of Witte, 1557
Dlaczego właśnie równania?
Równania to siła życiowa matematyki, nauk ścisłych i technologii. Bez nich świat, jaki dziś znamy, nie mógłby zaistnieć. Mimo swojej przydatności równania „cieszą się” opinią
nieprzystępnych i trudnych – wydawcy Krótkiej historii czasu ostrzegli jej autora, Stephena Hawkinga, że każde wprowadzone w tekście zmniejszy przypuszczalnie sprzedaż książki
o połowę. Ostatecznie jednak zignorowali własne słowa, bo w książce pojawił się wzór E = mc2. Gdyby wierzyć zapewnieniom wydawców, usunięcie tego równania zapewniłoby
sprzedaż dodatkowych 10 milionów egzemplarzy książki. W tej dyspucie zdecydowanie staję po stronie Hawkinga. Równania są zbyt istotne, by ukrywać je przed ludźmi, choć
oczywiście wydawcom też nie sposób odmówić racji – wzory matematyczne sprawiają oficjalne, wręcz odpychające wrażenie, a że trudno się je czyta w tekście, ich nadmiar potrafi
odstraszyć od lektury nawet tych, którzy darzą je cieplejszymi uczuciami.
Mnie się poszczęściło i mam doskonałą wymówkę, by wprowadzać do książki kolejne wzory. Ostatecznie jest ona poświęcona równaniom, więc nie sposób ich unikać. Przecież nie
da się napisać dzieła o alpinizmie, unikając słowa „góra”. Postaram się przekonać czytelników, że równania odgrywają istotną rolę w kształtowaniu świata, jaki znamy – bez nich nie
istniałyby mapy ani nawigacja satelitarna, bez nich nie odkrylibyśmy ani Ameryki, ani Jowisza na nocnym niebie. Na szczęście nie trzeba być specjalistą, by docenić piękno i poezję
zaklęte w poprawnym i znaczącym coś równaniu.
W matematyce pojawiają się dwa rodzaje równań, pozornie bardzo do siebie podobne. Do pierwszej grupy zaliczamy zależności łączące różnego rodzaju wielkości matematyczne –
takie równania wymagają dowiedzenia ich poprawności. Drugą grupę tworzą równania zawierające informacje o nieznanej wielkości – tego rodzaju równania rozwiązuje się, by
wyznaczyć z nich tę wielkość. Podział nie jest do końca wyraźny, ponieważ wiele równań zalicza się do obydwu grup naraz, ale daje on pewien pogląd na naturę wzorów. W dalszych
rozważaniach spotkamy się z równaniami zaliczającymi się do obydwu tych kategorii.
Równania czysto matematyczne należą zazwyczaj do pierwszej ze wspomnianych grup – opisują skryte głęboko piękne struktury i ukazują regularność matematyki. Zależności te
obowiązują, gdy przyjmiemy prawdziwość pewnych założeń dotyczących struktury logicznej matematyki. Twierdzenie Pitagorasa, będące geometrycznym wyrażeniem pewnego
równania, jest przykładem tego, o czym mówię. Przy założeniu poprawności podstaw geometrii euklidesowej twierdzenie Pitagorasa jest zawsze prawdziwe.
Równania matematyki stosowanej oraz wzory fizyczne zaliczają się zazwyczaj do drugiej ze wspomnianych kategorii. Za ich pomocą opisujemy rzeczywistość, wyrażamy uniwersalne
prawa Wszechświata, które jednak mogłyby równie dobrze przyjmować zupełnie inną postać. Dobrym przykładem równania tego rodzaju jest sformułowane przez Newtona prawo
powszechnego ciążenia opisujące siłę przyciągania pojawiającą się między dwoma ciałami o pewnych masach. Rozwiązanie go pozwala wyznaczyć orbitę planety poruszającej się
wokół gwiazdy czy też trajektorię lotu sondy kosmicznej. Prawo powszechnego ciążenia nie jest natomiast teorią w rozumieniu matematyki – jego prawdziwość potwierdza się
wynikami obserwacji, a to oznacza, że równanie opisujące prawo grawitacji mogłoby mieć zupełnie inną postać. Okazuje się zresztą, że ma inną postać – wzory ogólnej teorii
względności Einsteina lepiej pokrywają się z niektórymi obserwacjami, nie przecząc jednak wynikom płynącym z prawa grawitacji Newtona w zakresie jego obowiązywania.
Wzory nieraz wpływały na losy całej ludzkości, kryje się w nich bowiem prawdziwa moc pozwalająca ujawniać najgłębiej skrywane tajemnice natury. Historie dynastii, wojen i klęsk
naturalnych pojawiają się na kartach licznych książek historycznych, lecz rzadko kiedy porusza się w nich tematy związane z nauką, która miała przecież niebagatelny wpływ na kształt
dziejów. To zdecydowanie niesprawiedliwe. Za czasów rządów królowej Wiktorii w Instytucie Królewskim w Londynie odbył się przeprowadzony przez Michaela Faradaya pokaz
dowodzący istnienia zależności między oddziaływaniem elektrycznym i magnetycznym. Rzekomo obecny w czasie prezentacji premier William Gladstone zapytał uczonego, czy z tego
odkrycia wynikają jakiekolwiek zastosowania praktyczne. Faraday miał na to jakoby (brak tu jakichkolwiek dowodów, ale to nie powód, by niszczyć piękną anegdotę) odpowiedzieć:
„Oczywiście, ekscelencjo. Pewnego dnia nałoży pan na nie podatki”. Jeśli Faraday rzeczywiście stwierdził coś takiego, istotnie wygłosił proroczą przepowiednię, James Clerk Maxwell
bowiem przekuł wyniki pierwszych obserwacji oraz empiryczne prawa opisujące elektryczność i magnetyzm w układ równań tworzących podstawę teorii oddziaływań
elektromagnetycznych. To dzięki niej udało się skonstruować radio, radar i telewizor.
Moc równania, choć ogromna, jest jednocześnie bardzo prosta. Równanie pozwala stwierdzić, że obliczenia znajdujące się po jego dwóch stronach dają taki sam wynik. Kluczowym
czynnikiem równania jest oczywiście znak równości, czyli =. Pochodzenie większości symboli matematycznych albo ginie w pomroce dziejów, albo w niektórych wypadkach jest nam
znane, gdyż pewne oznaczenia zostały wprowadzone tak niedawno, że można nawet wskazać ich twórców. Znak równości jest pod tym względem szczególny, gdyż choć po raz
pierwszy zastosowano go przeszło 450 lat temu, wiemy doskonale, kto wprowadził ów symbol do języka matematyki. Oznaczenie to zawdzięczamy Robertowi Recorde’owi, który
użył go w wydanej w 1557 roku książce The Whetstone of Witte. Posłużył się symbolem dwóch równoległych linii (sam użył archaicznego angielskiego terminu gemowe oznaczającego
„bliźniacze”), by uniknąć w ten sposób żmudnego powtarzania frazy „jest równe”. Wybór uzasadniał argumentem, że próżno szukać „czegokolwiek bardziej sobie równego”. Trzeba
przyznać, że zdecydował się na wyjątkowo trafne oznaczenie – stosujemy je nieprzerwanie od 450 lat.
Potęga równań kryje się w wywodzącym się z filozofii problemie odnajdowania odpowiedniości pomiędzy opisem matematycznym, dziełem wielu nieprzeciętnych umysłów,
a otaczającym nas światem. Równania to modele tego, co obserwujemy na świecie. Gdy nauczysz się widzieć ich wartość i odczytywać skryte w nich informacje, odkryjesz mechanizm
funkcjonowania świata. W praktyce stosuje się także inne metody. Wiele osób woli posługiwać się słowami zamiast symboli; pamiętajmy, że język także daje moc władania nad
otoczeniem. Jednak doświadczenie nauczyło nas, że słowa są zbyt mało precyzyjne, by stać się narzędziami nauki i technologii; język jest zbyt ograniczony, by pozwolił nam zgłębić
strukturę świata. Znaczenie słów gubi się na poziomie interpretacji i ludzkich domysłów, dlatego sam język nie wystarczy, by dokładnie pojąć mechanizmy rządzące światem.
Natomiast równania radzą sobie z tym doskonale. Od tysięcy lat mają istotny wpływ na rozwój cywilizacji. Całe wieki to one pociągały za sznurki na scenie relacji społecznych.
Oczywiście, kryły się za kulisami, pozostawały niewidoczne, ale zawsze były, zawsze kształtowały nasze losy, czy ludzkość była tego świadoma czy nie. Oto historia rozwoju ludzkości
opowiedziana w siedemnastu równaniach.
Rozdział 1. W obie strony jednakowe spodnie Pitagorasowe
Twierdzenie Pitagorasa
Co z niego wynika?
Określa związek między długościami boków w trójkącie prostokątnym.
Dlaczego jest ono tak ważne?
Dlatego że stanowi połączenie między geometrią a algebrą, dzięki czemu możemy obliczać odległości między punktami, znając ich współrzędne. Dało także podwaliny pod utworzenie
trygonometrii.
Co dzięki temu osiągnęliśmy?
Bez twierdzenia Pitagorasa nie rozwinęłyby się miernictwo ani nawigacja, a z bardziej współczesnych odkryć ogólna teoria względności, czyli najlepsze narzędzie opisu przestrzeni, czasu
i grawitacji, jakim dziś dysponujemy.
Uczeń poproszony o podanie imienia najsłynniejszego matematyka – o ile w ogóle będzie jakieś znał – przywoła zapewne Pitagorasa, jeśli zaś nie jego, to przypuszczalnie Archimedesa.
Nawet znamienity Newton musiałby się zadowolić w takim rankingu trzecią pozycją, ustępując miejsca na podium dwóm znakomitościom świata starożytnego. Archimedes miał
prawdziwie wielki umysł, Pitagoras zapewne nie, ale i tak należy mu się większe uznanie, niż dziś skonni bylibyśmy mu przyznać – nie tyle za osiągnięcia, ile za to, czemu dał początek.
Pitagoras urodził się na jednej z greckich wysp Morza Egejskiego, Samos, około 570 roku p.n.e. Był filozofem i geometrą. Nieliczne informacje dotyczące jego życia, jakie przetrwały
do naszych czasów, pochodzą z pism znacznie późniejszych, ich wartość historyczna jest więc praktycznie żadna, ale można z dużym prawdopodobieństwem przyjąć, że najważniejsze
z podawanych wydarzeń rzeczywiście są prawdziwe. Około roku 530 p.n.e. przeniósł się do Krotony, greckiej kolonii położonej na terenie dzisiejszych Włoch. Tam założył słynną
szkołę pitagorejską, grupę zrzeszającą ludzi o określonych poglądach filozoficzno-religijnych. Pitagorejczycy wierzyli, że o kształcie świata decydują liczby. Dziś Pitagorasa kojarzymy
przede wszystkim z twierdzeniem jego imienia. Jego treść jest znana od przeszło dwóch tysięcy lat i na stałe weszła już do kultury masowej. W nakręconym w 1958 roku filmie Merry
Andrew odtwórca tytułowej roli, Danny Kaye, śpiewał piosenkę zaczynającą się słowami:
Kwadrat przeciwprostokątnej
w trójkącie prostokątnym
jest równy
sumie kwadratów
boków przylegających do kąta prostego.
Piosenka była pełna dwuznaczności oraz nawiązań do odkryć wielkich naukowców – Einsteina, Newtona czy braci Wright – które sprawnie powiązano ze słynnym twierdzeniem
matematycznym. Dwaj pierwsi oznajmiali wreszcie „Eureka!”, ale to sprowadza nas już do Archimedesa, któremu historycznie przypisuje się ów okrzyk. Jak się zapewne domyślacie,
wierność historii nie była głównym zmartwieniem twórców tekstu, ale produkcje hollywoodzkie przyzwyczaiły nas do tego. Wyprzedzę teraz nieco fakty – otóż z rozdziału 13 dowiecie
się, że autor tekstu (Johnny Mercer) jeśli chodzi o Einsteina, nie odbiegł nadto od rzeczywistości.
Twierdzenie Pitagorasa pojawia się w książkach1, kreskówkach, na koszulkach polo; w Grecji wydano nawet znaczek pocztowy z ilustracją słynnej reguły (można go zobaczyć na rys.
1).
Rysunek 1. Grecki znaczek przedstawiający graficzny dowód twierdzenia Pitagorasa.
Pomimo całego hałasu, jaki powstał wokół wspomnianej reguły, w rzeczywistości nie mamy pojęcia, czy Pitagoras rzeczywiście udowodnił twierdzenie nazwane jego imieniem. Nie
jesteśmy nawet w stanie stwierdzić, czy to on je sformułował; równie dobrze mogło zrodzić się ono w głowie któregoś z jego uczniów lub gdzieś w Sumerze czy Babilonie. To właśnie
Pitagorasowi jednak przypadła chwała odkrywcy lub chociaż uczonego, który wykazał prawdziwość spostrzeżenia, i tak już zostało. Niezależnie od tego, kto je sformułował,
twierdzenie to miało ogromny wpływ na historię człowieka. Można powiedzieć, że otworzyło ono nas na świat.
Grecy nie zapisywali twierdzenia Pitagorasa w postaci równania, jakie znamy dziś ze szkoły – ta forma pojawiła się później, gdy algebra osiągnęła już odpowiedni poziom.
W starożytności teorię tę wyrażano słownie oraz geometrycznie. Najstaranniej przedstawił ją na piśmie Euklides z Aleksandrii; to najstarszy znany nam przekaz pisany zawierający
wspomniane twierdzenie. Euklides jest uważany za pierwszego współczesnego matematyka, a to za sprawą słynnych Elementów geometrii, najbardziej znaczącego podręcznika do
matematyki. Uczony wprowadził do geometrii logikę, wyrażając założenia wprost, w sposób jasny i prosty, a następnie dowodząc wszystkich przedstawionych w podręczniku teorii.
W ten sposób, wychodząc z założeń dotyczących najprostszych tworów geometrycznych – punktu, prostej i okręgu – dowiódł istnienia pięciu brył foremnych.
Jednym z największych osiągnięć Euklidesa jest niewątpliwie fakt, że dziś twierdzenie Pitagorasa jest znane jako twierdzenie 47 z pierwszej księgi Elementów geometrii. W jednym
z popularniejszych przekładów dokonanych przez sir Thomasa Heatha czytamy: „w trójkącie prostokątnym kwadrat przylegający do boku znajdującego się naprzeciw kąta prostego
jest równy kwadratom przylegającym do boków znajdujących się przy kącie prostym”.
Czyli żadnych spodni, żadnej przeciwprostokątnej, żadnego jawnego wspomnienia sumy czy dodawania, jedynie wspomnienie naprzeciwległości. A przecież takie sformułowanie
twierdzenia Pitagorasa nie pozostawia wątpliwości, że chodzi o równanie – zawiera bowiem wiele znaczące słowa jest równy.
Wyższa matematyka wymagała od Greków odejścia od zapisu liczbowego na rzecz wyrażania problemów logicznych za pomocą prostych i powierzchni, dlatego też Pitagoras i jego
następcy formułowali twierdzenie tak, by opisywało równość odpowiednich płaszczyzn. „Powierzchnia kwadratu zbudowanego na najdłuższym boku trójkąta prostokątnego jest sumą
powierzchni kwadratów utworzonych na jego pozostałych dwóch bokach”. Najdłuższy bok to oczywiście przeciwprostokątna, czyli odcinek leżący naprzeciwko kąta prostego, co
widać na ilustracji znajdującej się po lewej stronie rysunku 2.
Z czasem twierdzenie Pitagorasa zyskało formę równania algebraicznego, w której jest używane od niemal dwóch tysięcy lat:
a2 + b2 = c2,
gdzie c jest długością przeciwprostokątnej, a i b zaś to długości pozostałych dwóch boków. Umieszczona w indeksie górnym dwójka oznacza, że dana wartość jest „podnoszona do
kwadratu”. W algebrze rozumiemy przez to pojęcie pomnożenie liczby przez samą siebie, natomiast powierzchnię dowolnego kwadratu oblicza się właśnie, podnosząc do kwadratu
długość jego boku. Zatem równanie Pitagorasa, jak pozwolę sobie je nazwać, wyraża dokładnie to samo co podana przez Euklidesa formuła. Jedyne, z czego zrezygnowaliśmy, to
obciążenie psychiczne związane z rozważaniami nad pojmowaniem idei liczb i powierzchni przez starożytnych Greków.
Równanie Pitagorasa znalazło wiele praktycznych zastosowań. Przede wszystkim wykorzystujemy je do obliczania długości przeciwprostokątnej trójkąta prostokątnego, gdy znane są
długości pozostałych dwóch boków. Załóżmy przykładowo, że a = 3 i b = 4. Wtedy, na mocy twierdzenia Pitagorasa, c2 = a2 + b2 = 32 + 42 = 9 + 16 = 25. Zatem c = 5. To słynny
trójkąt o bokach 3–4–5 pojawiający się w każdym podręczniku szkolnym, a zarazem najprostsza z pitagorejskich trójek – trzy liczby całkowite spełniające równanie Pitagorasa.
Następny w kolejności jest (pomijam tu skalowane wersje pierwszego zestawu liczb, na przykład 6–8–10) zestaw 5–12–13. Takich układów można znaleźć nieskończenie wiele,
a Grecy wiedzieli, w jaki sposób je konstruować. Zagadnienie budowania trójek pitagorejskich z liczb całkowitych nadal stanowi istotny i rozwijany problem teorii liczb – nawet
w ostatnim dziesięcioleciu odkrywano nowe cechy tych układów.
Oczywiście nie musisz ograniczać się do wyznaczania wartości c przy danych a i b. Możesz rozwiązać równanie Pitagorasa, by wyznaczyć z niego a przy znanych b i c. Dzięki niemu
znajdziesz także rozwiązania bardziej złożonych problemów, o czym przekonasz się już za chwilę.
Rysunek 2. Z lewej: Linie pomocnicze potrzebne do przeprowadzenia dowodu prawdziwości twierdzenia Pitagorasa w sposób przedstawiony przez
Euklidesa. Pośrodku i z prawej: Inny dowód prawdziwości twierdzenia. Zewnętrzne kwadraty mają identyczne powierzchnie, również powierzchnie
zaznaczonych ciemniejszym kolorem trójkątów są sobie równe. Oznacza to, że przechylony nieco biały kwadrat ma taką samą powierzchnię jak
suma powierzchni dwóch mniejszych białych kwadratów.
Skąd wiemy, że twierdzenie Pitagorasa jest prawdziwe? Dowód przeprowadzony przez Euklidesa jest skomplikowany. Wymaga wprowadzenia do schematu pięciu dodatkowych linii,
co widać na rysunku 2 (z lewej), i odwołania się do kilku udowodnionych wcześniej twierdzeń. W czasach wiktoriańskich chłopcy (w tamtym okresie jedynie nieliczne dziewczęta
kształciły się z geometrii) określali ten rysunek prześmiewczo mianem spodni Pitagorasowych. Bardziej bezpośredni i znacznie łatwiejszy do zrozumienia, choć nie tak elegancki dowód
sprowadza się do wykorzystania czterech identycznych trójkątów, za pomocą których rozwiązuje się pewną układankę matematyczną (rysunek 2, z prawej). Rysunek przykuwa
uwagę, ale zrozumienie istoty tego dowodu wymaga pewnego zastanowienia. Rodzi się na przykład pytanie, skąd wiemy, że przechylona jasna figura na środkowej ilustracji to
rzeczywiście kwadrat.
Okazuje się, że istnieją dość mocne dowody świadczące, iż twierdzenie Pitagorasa było znane ludzkości wiele lat przed narodzinami uczonego. Na glinianej tabliczce z Babilonii2
znajdującej się w British Museum zapisano pismem klinowym zadanie i jego rozwiązanie, które można by odczytać następująco:
Skoro 4 to długość, a 5 to przekątna, ile wynosi szerokość?
4 razy 4 to 16.
5 razy 5 to 25.
Odejmij 16 od 25, a otrzymasz 9.
Jaka liczba, pomnożona przez siebie samą, da 9?
3 razy 3 to 9.
Oznacza to, że szerokość wynosi 3.
Wynika stąd, że Babilończycy znali trójk ąt 3–4–5 już tysiąc lat przed Pitagorasem.
Na innej tabliczce babilońskiej – YBC 7289 przechowywanej na Uniwersytecie Yale, którą przedstawia rysunek 3 (z lewej) – znajduje się szkic kwadratu o boku 30, którego
przekątna jest opisana dwoma zestawami liczb: 1, 24, 51, 10 oraz 42, 25, 35. Babilończycy posługiwali się systemem zapisu liczb o podstawie 60, zatem pierwszy układ liczb należy
rozumieć jako 1 + 24/60 + 51/602 + 10/603, co w systemie dziesiętnym odpowiada wartości 1,4142129. Wiemy zaś, że pierwiastek kwadratowy z liczby 2 wynosi 1,4142135. Drugi
zestaw liczb odpowiada trzydziestokrotnej wielokrotności tej wartości. Oznacza to, że Babilończycy znali wzór pozwalający wyznaczyć długość przekątnej kwadratu jako iloczyn
długości boku i pierwiastka kwadratowego z 2. Ponieważ
to zależność wyryta na tabliczce jest po prostu pochodną twierdzenia Pitagorasa.
Rysunek 3. Z lewej: YBC 7289. Z prawej: Plimpton 322.
Jeszcze bardziej niezwykła, choć znacznie mniej przejrzysta jest tabliczka znana jako Plimpton 322 znajdująca się w kolekcji George’a Arthura Plimptona na Uniwersytecie Columbia,
przedstawiona na rysunku 3 (z prawej). Tabliczka zawiera liczby zapisane w czterech kolumnach i piętnastu wierszach. W ostatniej kolumnie znajdują się po prostu numery wierszy
od 1 do 15. W 1945 roku historycy nauki Otto Neugebauer i Abraham Sachs3 doszli do wniosku, że kwadrat wartości podanej w trzeciej kolumnie (nazwijmy go c) pomniejszony
o kwadrat wartości zawartej w drugiej kolumnie (dajmy na to b) daje wartość będącą kwadratem pewnej liczby (na przykład a). Schemat ten jest przekształceniem wzoru a2 + b2 =
c2, co mogłoby sugerować, że tabliczka zawiera spis trójek pitagorejskich. W takim wypadku należałoby jednak poprawić cztery oczywiste błędy. Niestety nie można stwierdzić na
pewno, czy Plimpton 322 ma cokolwiek wspólnego z trójkami pitagorejskimi, a nawet jeśli tak jest, nie da się wykluczyć, że tabliczka nie jest po prostu spisem boków trójkątów, dla
których łatwo było wyznaczyć pola powierzchni. Tego rodzaju narzędzie można było z powodzeniem wykorzystywać do przybliżania wyników dla innych trójkątów czy wręcz innych
kształtów, może nawet do wykonywania pomiarów odległości na ziemi.
W tamtych czasach istniała jeszcze jedna cywilizacja słynąca z równie podniosłych odkryć – egipska. Pewne poszlaki wskazują na to, że Pitagoras mógł w młodości odwiedzić Egipt.
Niektórzy badacze utrzymują, że w czasie tej podróży zetknął się ze słynnym dziś twierdzeniem i jedynie przedstawił je Grekom. Udało się wprawdzie znaleźć dowody potwierdzające
tę teorię, lecz są one bardzo nieliczne i wymagają specjalistycznej wiedzy. Często słyszy się – szczególnie w kontekście rozważań nad technologią budowy piramid – że Egipcjanie
wyznaczali kąty proste, konstruując trójkąt o bokach 3–4–5. Miało to polegać na odwzorowaniu układu boków za pomocą sznurka z dwunastoma węzłami wyznaczającymi równe
odległości. Słyszy się też, że archeolodzy odnaleźli tak przygotowane sznurki. Wystarczy jednak zastanowić się chwilę, by dojść do wniosku, że żadne z przytoczonych tu stwierdzeń nie
ma sensu. Opisana metoda wyznaczania kątów prostych nie dawałaby wystarczająco dokładnych rezultatów. Pamiętajmy, że sznurek jest rozciągliwy, a wyznaczenie równych
odcinków za pomocą węzełków – niemal niemożliwe. Piramidy z Gizy są zbudowane z dokładnością znacznie przewyższającą wyniki, jakie można by osiągnąć, stosując tak
prymitywne narzędzie. Znacznie bardziej praktycznym rozwiązaniem byłoby posłużenie się narzędziem przypominającym kątownik ciesielski – dodam, że archeolodzy odnaleźli
pozostałości po tego typu przedmiotach. Badacze zgłębiający zagadnienia związane z matematyką starożytnego Egiptu nie znaleźli dowodów na stosowanie sznurków do wyznaczania
odległości w trójkącie prostokątnym o bokach 3–4–5, nie odkryto też żadnych pozostałości po narzędziu tego rodzaju. Zatem, choć pomysł jest niewątpliwie uroczy, można z niemal
stuprocentową pewnością uznać go za wymysł.
Gdyby Pitagoras znalazł się jakimś cudem w naszym świecie, byłby zdumiony. W jego czasach wiedza medyczna była w powijakach, źródło światła stanowiły świece i pochodnie,
a najszybszą formą przekazywania wiadomości było wysłanie konnego posłańca. Znany świat zamykał się w obszarze Europy, Azji i Afryki – nie słyszano o Amerykach, Australii,
Arktyce czy Antarktyce. Wiele kultur przyjmowało, że świat jest płaski: miał mieć kształt dysku czy kwadratu wyznaczonego czterema punktami głównymi. Mimo odkryć poczynionych
przez starożytnych Greków ten ostatni pogląd zakorzenił się silnie w czasach średniowiecza, czego dowodem są mapy orbis terrae, jak ta przedstawiona na rysunku 4.
Kto pierwszy zdał sobie sprawę, że Ziemia jest okrągła? Jeśli wierzyć Diogenesowi Laertiosowi, greckiemu biografowi z III wieku n.e., człowiekiem tym był Pitagoras. W swoich
Żywotach i poglądach słynnych filozofów, dziele zawierającym zbiór myśli filozoficznych i biografii ich twórców, będącym obecnie jednym z najważniejszych źródeł historycznych
poświęconych prywatnemu życiu filozofów starożytnej Grecji, znajdujemy uwagę: „Choć Teofrast przypisuje to twierdzenie Parmenidesowi, a Zenon Hezjodowi, to właśnie Pitagoras
pierwszy zasugerował, że Ziemia jest kulą”. Grecy bardzo często łączyli wielkie odkrycia ze słynnymi filozofami z przeszłości niezależnie od tego, kto rzeczywiście ich dokonał, zatem
cytaty tego rodzaju nie mają wielkiej wartości dowodowej, ale jednocześnie nie sposób zaprzeczyć, że od V wieku p.n.e. wszyscy liczący się greccy filozofowie i matematycy
przyjmowali kulistość Ziemi. O ile możemy to stwierdzić, pogląd ten ukształtował się właśnie w czasach Pitagorasa, niewykluczone więc, że zrodził się właśnie w jego szkole.
Oczywiście równie dobrze mogła być to wiedza powszechna w tamtym okresie, wniosek wypływający w sposób bezdyskusyjny z obserwacji okrągłego cienia, jaki rzuca Ziemia na
powierzchnię Księżyca w czasie zaćmienia, czy też wyciągany na podstawie analogii do kształtu naszego satelity.
Rysunek 4. Mapa świata wykonana około 1100 roku przez marokańskiego kartografa al-Idrisiego dla króla Sycylii Rogera.
Mimo tak rewolucyjnych wniosków dotyczących kształtu Ziemi nawet dla Greków nasza planeta stanowiła środek Wszechświata, wokół którego poruszały się wszystkie ciała
niebieskie. Jedyną metodą prowadzenia nawigacji była nawigacja zliczeniowa – obserwowanie gwiazd i śledzenie linii brzegowej. Równanie Pitagorasa zrewolucjonizowało żeglugę.
Można powiedzieć, że wprowadziło ludzkość na drogę, która wiodła ostatecznie do zrozumienia geografii i poznania miejsca naszej planety w Układzie Słonecznym. Dzięki niemu
wykonaliśmy pierwszy znaczący krok w kierunku rozwinięcia kartografii, nawigacji i miernictwa. Wreszcie to właśnie twierdzenie Pitagorasa dało podstawy do powiązania geometrii
z algebrą. Bezpośrednio z niego wypłynęły odkrycia, które ostatecznie doprowadziły do stworzenia ogólnej teorii względności i dały podstawy współczesnej kosmologii, o czym
przeczytasz więcej w rozdziale 13. Równanie Pitagorasa otworzyło ludzkości drogę do nowych odkryć – dosłownie i w przenośni. Pozwoliło nam poznać kształt świata i określić nasze
miejsce we Wszechświecie.
Trójkąty prostokątne są szczególnym przypadkiem i wydaje się, że skoro w życiu częściej spotyka się inne ich rodzaje, twierdzenie Pitagorasa powinno mieć ograniczone zastosowania.
Nic bardziej mylnego, gdyż każdy trójkąt da się podzielić na dwa trójkąty prostokątne, co widać na rysunku 6, a każdy wielokąt da się podzielić na trójkąty. Oznacza to, że trójkąt
prostokątny stanowi klucz pozwalający zbudować zależność między samym kształtem figury geometrycznej a długościami jej boków. Spostrzeżenie to doprowadziło do rozwoju nowej
gałęzi matematyki – trygonometrii – zajmującej się badaniem zależności między miarami kątów i boków w trójkątach.
Trygonometria opiera się na zależnościach definiowanych w trójkącie prostokątnym. Najbardziej znanym jej fragmentem są definicje trzech funkcji – sinus, cosinus i tangens. Ich nazwy
wywodzą się z dialektów arabskich, a historia budowania tych funkcji oraz liczne próby poprzedzające wprowadzenie dzisiejszych definicji wyznaczają skomplikowany szlak, jaki
musieliśmy przebyć, by osiągnąć dzisiejszy stan wiedzy. Nie będę tu jednak wnikać w szczegóły i skupię się na znanych nam wzorach. Jeden z kątów trójkąta prostokątnego jest
oczywiście prosty, natomiast miary dwóch pozostałych są dowolne, ograniczone jedynie warunkiem, że w sumie muszą wynosić one 90°. Dla każdego z kątów trójkąta prostokątnego
można podać trzy funkcje, czyli wzory pozwalające wyznaczyć wartości powiązane z miarą kąta. Rysunek 5 przedstawia trójkąt o kącie A i bokach oznaczonych tradycyjnie a, b i c.
Dla kąta A można zdefiniować wspomniane trzy funkcje – sinus (sin), cosinus (cos) i tangens (tg):
sinA = a/c, cosA = b/c, tgA = a/b.
Wyznaczone w ten sposób wartości zależą wyłącznie od wartości kąta A, ponieważ wszystkie trójkąty prostokątne o danym kącie A różnią się jedynie skalą.
Rysunek 5. Podstawą trygonometrii jest określenie związków liczbowych w trójkącie prostokątnym.
Dzięki temu można stworzyć tabelę wartości funkcji sin, cos i tg dla kątów z pewnego zakresu, aby następnie korzystać z nich podczas wyznaczania długości boków i miar kątów
w dowolnym trójkącie prostokątnym. Typowym przykładem zastosowania trygonometrii, znanym już od czasów starożytnych, jest wyznaczanie wysokości kolumny na podstawie
pomiarów dokonywanych wyłącznie na ziemi. Załóżmy, że z odległości 100 metrów czubek kolumny widać pod kątem 22°. Jeśli zaznaczony na rysunku 5 kąt A = 22°, to wysokość
kolumny będzie odpowiadać długości boku a. Z definicji funkcji tangens otrzymujemy:
tg(22°) = a/100,
zatem
a = 100·tg(22°).
Ponieważ tangens kąta 22° wynosi z dokładnością do trzeciego miejsca po przecinku 0,404, wysokość kolumny a = 40,4 m.
Rysunek 6. Podział dowolnego trójkąta na dwa trójkąty prostokątne.
Dysponując definicjami funkcji trygonometrycznych, zdołamy bez trudu zapisać równanie Pitagorasa dla dowolnego trójkąta, czyli takiego, w którym nie ma kąta prostego. Rysunek 6
przedstawia trójkąt o bokach a, b i c oraz kącie C. Poprowadzenie prostej prostopadłej do podstawy trójkąta, wychodzącej z leżącego naprzeciw niej wierzchołka, podzieli go na dwa
trójkąty prostokątne w sposób zaprezentowany na rysunku. Po dwukrotnym wykorzystaniu twierdzenia Pitagorasa i przeprowadzeniu pewnych przekształceń algebraicznych4 można
zapisać:
a2 + b2 − 2ab cos C = c2.
Podane równanie różni się od równania Pitagorasa czynnikiem 2abcos C. Wzór ten, znany jako twierdzenie cosinusów, pełni tę samą funkcję dla dowolnego trójkąta co wzór
Pitagorasa dla trójkąta prostokątnego – pozwala powiązać długość boku c z długościami boków a i b, z tym że w takim wypadku musimy znać też miarę kąta C.
Twierdzenie cosinusów jest jednym z filarów trygonometrii. Znając długości dwóch boków trójkąta oraz kąt między nimi, możemy obliczyć długość trzeciego boku. Miary pozostałych
dwóch kątów wyznacza się z równań opisujących zależności między kątami w każdym trójkącie. Wszystkie je można sprowadzić do opisu odpowiednich trójkątów prostokątnych.
Skoro dysponujemy już równaniami trygonometrycznymi i odpowiednimi metodami pomiarowymi, możemy zebrać dane, na podstawie których da się wykonać mapę. Pomysł nie jest
wcale nowy. Techniki wykonywania pomiarów i obliczeń stosowane w starożytnym świecie zostały opisane na pochodzącym z 1650 roku p.n.e. tak zwanym papirusie matematycznym
Rhinda. Grecki filozof Tales wykorzystał geometrię trójkątów, by około 600 roku p.n.e. oszacować wysokość piramid w Gizie. Heron z Aleksandrii opisał ponownie tę metodę w 50
roku n.e. Mniej więcej w 240 roku p.n.e. grecki matematyk Eratostenes wyznaczył obwód Ziemi, wykorzystując pomiar kąta, pod jakim w południe widziano Słońce w dwóch różnych
miejscach – w Aleksandrii i Syene (dzisiejszym Asuanie) w Egipcie. Arabscy uczeni zachowali wiedzę o tych metodach, co więcej, rozwinęli ją, dzięki czemu mogli przeprowadzić
szereg pomiarów astronomicznych, między innymi wyznaczyć ponownie promień Ziemi.
Początek nowożytnego miernictwa to rok 1533, kiedy to holenderski kartograf Gemma Frisius wyjaśnił w Libellus de locorum describendorum ratione („Broszura poświęcona
zagadnieniom opisu miejsc”), w jaki sposób wykorzystać trygonometrię do dokładnego odwzorowywania kształtu terenu. Praca ta bardzo szybko zyskała dużą popularność w całej
Europie i wkrótce wieści o niej dotarły do duńskiego uczonego i szlachcica Tychona Brahego. W 1579 roku Brahe wykonał na jej podstawie pomiary i w efekcie także mapę Hven,
wyspy, na której położone było jego obserwatorium. W roku 1615 holenderski matematyk Willebrord Snellius (Snel van Royen) miał już przygotowaną ulepszoną wersję metody
opracowanej przez Tychona Brahego. Przetrwała ona w niemal niezmienionej formie do naszych czasów – to triangulacja. Mierzony obszar pokrywa się siatką trójkątów. Dokonując
bardzo dokładnego pomiaru początkowej długości i wyznaczając starannie miary kątów, można określić położenie wierzchołków trójkąta i na tej podstawie obliczyć zależności
opisujące odległości. Snellius wyznaczył odległość dzielącą dwa holenderskie miasta, Alkmaar i Bergen op Zoom, stosując sieć 33 trójkątów. Wybrał właśnie te dwie miejscowości,
ponieważ były one położone na tej samej długości geograficznej w odległości dokładnie jednego stopnia od siebie. Znając dzielącą je odległość, Snellius mógł wyznaczyć promień
Ziemi. Wyniki przeprowadzonych z dokładnością do 4% pomiarów opublikował w wydanej w 1617 roku pracy Eratosthenes Batavus („Holenderski Eratostenes”). Warto też
wspomnieć, że zmodyfikował nieco równania trygonometryczne w sposób, który pozwolił oddać kulisty kształt Ziemi, co stało się ważnym krokiem w kierunku uzyskania metod
skutecznej nawigacji.
Triangulacja jest metodą pośredniego wyznaczania odległości na podstawie zmierzonych wcześniej kątów. Podczas przeprowadzania pomiarów wyznaczonego obszaru, na przykład
przed podzieleniem ziemi na działki budowlane czy rolnicze, znacznie łatwiej określa się kąty pomiędzy poszczególnymi punktami, niż mierzy odległości między nimi. Triangulacja
pozwala wyznaczyć kilka odległości na podstawie pomiarów wielu kątów. Początkiem pomiaru jest wyznaczenie linii łączącej dwa punkty – to tak zwana linia bazowa – i bardzo
dokładne określenie jej długości na podstawie bezpośredniego pomiaru. Następnie wybiera się z otoczenia wyróżniający się punkt, widoczny z obu końców linii bazowej, i mierzy kąty,
pod jakimi jest on z nich widoczny. W ten sposób uzyskujemy trójkąt skonstruowany na jednym znanym nam boku i dwóch kątach, do których ten bok przylega – to wystarczy, by
określić kształt i rozmiar trójkąta. Długości pozostałych dwóch boków i miarę trzeciego kąta wyznacza się na podstawie funkcji trygonometrycznych.
W ten sposób uzyskujemy dwie kolejne linie bazowe, czyli wyznaczone właśnie boki trójkąta. Następnie wykonujemy pomiary z wierzchołków trójkąta dla położonych dalej punktów
charakterystycznych ukształtowania terenu. Tak tworzy się siatka trójkątów pokrywająca cały interesujący nas obszar. W każdym z trójkątów określa się kąty, pod jakimi widać z ich
obszaru wszystkie istotne elementy terenu – wieże kościelne, skrzyżowania i tak dalej. Wspomniane wcześniej wzory trygonometryczne pozwalają wyznaczyć dokładne położenia tych
obiektów. Wreszcie przeprowadza się sprawdzenie dokładności pomiaru, czyli mierzy się bezpośrednio jeden z boków któregoś z trójkątów.
Pod koniec XVIII wieku triangulacja była już powszechnie stosowaną metodą pomiarową. W 1783 roku Ordnance Survey, agenda rządowa zajmująca się sporządzaniem map,
rozpoczęło trwające siedemdziesiąt lat pomiary powierzchni Wielkiej Brytanii. Z kolei w 1801 roku zainicjowało Wielki Pomiar Trygonometryczny, projekt, którego celem było
sporządzenie map Indii, w tym także Himalajów, i wyznaczenie wysokości Mount Everestu. W XXI wieku pomiary na tak wielką skalę przeprowadza się na podstawie zdjęć
satelitarnych i danych dostarczanych przez system globalnego namierzania GPS; bezpośrednia triangulacja stała się przeżytkiem, ale sama teoria nadal nam służy, dane zbierane przez
urządzenia elektroniczne są bowiem analizowane i przekształcane za pomocą tych samych wzorów, z jakich korzystano dawniej.
Twierdzenie Pitagorasa dało także początek geometrii analitycznej. Geometria analityczna pozwala opisywać figury i bryły za pomocą zestawów liczb podawanych w określonym
układzie odniesienia. Tak zwany układ współrzędnych tworzą linie zwane osiami, z naniesioną na nie podziałką. Najbardziej znany jest układ kartezjański na płaszczyźnie, nazwany tak
na cześć francuskiego matematyka i filozofa René Descartes’a (Kartezjusza), jednego z pionierów geometrii analitycznej, choć nie pierwszego zajmującego się tą dziedziną. Układ
kartezjański komponuje się następująco. Narysuj dwie linie – poziomą oznaczoną symbolem x oraz pionową opisaną jako y. Będą to osie układu współrzędnych. Punkt ich przecięcia
nazywamy początkiem układu. Na każdej z osi zaznacz teraz odcinki odpowiadające odległości od początku układu w sposób przypominający oznaczenia na linijce – wartości
dodatnie znajdą się po prawej stronie początku układu oraz w górę od niego, wartości ujemne trafią na lewą stronę poziomej osi i na dół osi pionowej. W tak przygotowanej
przestrzeni położenie każdego punktu można opisać parą liczb x i y, tak zwanymi współrzędnymi, co przedstawia schematycznie rysunek 7. Para liczb (x, y) jednoznacznie określa
położenie punktu.
Rysunek 7. Dwie osie i współrzędne punktu.
Wprowadzenie układu współrzędnych pozwoliło wielkim matematykom siedemnastowiecznej Europy zrozumieć, że linia lub krzywa poprowadzona na płaszczyźnie stanowi zestaw
rozwiązań (x, y) określonego równania zmiennych x i y. Przykładowo równanie y = x opisuje ukośną linię wznoszącą się z lewego dolnego obszaru układu do prawego górnego. Punkt
(x, y) znajdzie się na takiej prostej wtedy i tylko wtedy, gdy y = x. Bardziej ogólna forma tego wzoru, równanie liniowe, ax + by = c, gdzie a, b i c to odpowiednie stałe, opisuje
dowolną linię prostą.
A jakim równaniem opisany jest okrąg? W tym miejscu na scenę wkracza równanie Pitagorasa. Wynika z niego, że odległość r od punktu (x, y) jest opisana wzorem:
r2 = x2 + y2,
co można przekształcić do postaci pozwalającej wyznaczyć wartość r:
Ponieważ wszystkie punkty leżące w odległości r od początku układu współrzędnych tworzą okrąg o promieniu r, podany powyżej wzór opisuje taką właśnie figurę geometryczną.
W bardziej ogólnej postaci, czyli dla okręgu o środku w punkcie (a, b), równanie okręgu przedstawia się następująco:
(x − a)2 + (y − b)2 = r2.
To samo równanie opisuje jednocześnie odległość r między punktami (a, b) oraz (x, y). Zatem twierdzenie Pitagorasa pozwoliło sformułować dwa bardzo istotne wzory: równanie
okręgu i wzór określający odległość punktu od układu współrzędnych.
Choć twierdzenie Pitagorasa jest istotne samo w sobie, jego uogólnienia miały dla nauki znaczenie nie mniejsze niż ono samo. Skupię się teraz na jednym tylko wątku rozwinięć
twierdzenia Pitagorasa, z którego wynikają założenia dotyczące teorii względności. Do tego tematu wrócę jeszcze w rozdziale 13.
Dowód słuszności twierdzenia Pitagorasa przeprowadzony w Elementach geometrii wiąże je ściśle z założeniami geometrii euklidesowej. Dawniej przymiotnik ten nie był potrzebny,
sama „geometria” wystarczała w zupełności, zakładano bowiem, że każda przestrzeń fizyczna jest w rzeczywistości przestrzenią euklidesową. Było to założenie oczywiste dla
wszystkich i, jak większość oczywistości, okazało się całkowicie błędne.
Euklides wywodził wszystkie twierdzenia z niewielkiej grupy przyjętych z góry definicji, tak zwanych aksjomatów, oraz powszechnie znanych faktów. Sformułował w ten sposób
eleganckie, intuicyjne i spójne podstawy geometrii. Z jednym wyjątkiem, którym okazał się piąty aksjomat mówiący, że „jeśli prosta padająca na dwie proste utworzy z nimi kąty
jednostronne wewnętrzne o sumie mniejszej niż suma dwóch kątów prostych, to dwie przecinane proste, przedłużone w nieskończoność, przetną się po tej stronie, po której znajdują
się kąty o sumie mniejszej od łącznej miary dwóch kątów prostych”. Opis ten jest bardzo rozbudowany, dlatego warto rzucić okiem na rysunek 8, który zdecydowanie ułatwi
zrozumienie przedstawionej tu idei.
Rysunek 8. Równoległość według aksjomatu Euklidesa.
Przeszło tysiąc lat zajęło matematykom poprawienie tego, co uważali za wadę pracy Euklidesa. Nie szukali ani niczego prostszego, ani niczego bardziej intuicyjnego, co doprowadziłoby
do takiego wniosku, choć w kilku wypadkach udało się znaleźć owe rozwiązania. Nadrzędnym celem było jednak usunięcie dziwacznego stwierdzenia z grupy aksjomatów przez
przeprowadzenie jego dowodu. Dopiero po kilkuset latach matematycy zrozumieli w końcu, że istnieją także inne, nieeuklidesowe geometrie, co sugerowało, iż taki dowód po prostu
nie może istnieć. Nowe geometrie były równie spójne logicznie co geometria Euklidesa i we wszystkich obowiązywały podane przez starożytnego myśliciela aksjomaty, z wyjątkiem
oczywiście aksjomatu o równoległości. Zinterpretowano je jako geometrie geodetyk – najkrótszych linii – na powierzchniach zakrzywionych przedstawionych na rysunku 9.
Rysunek 9. Zakrzywienie powierzchni. Z lewej: krzywizna zerowa; pośrodku: krzywizna dodatnia; z prawej: krzywizna ujemna.
Powierzchnia euklidesowa jest płaska, co jest tożsame ze stwierdzeniem, że ma zerową krzywiznę. Krzywizna sfery jest w każdym miejscu taka sama i zawsze dodatnia – w każdym
punkcie przypomina kopułę. (W charakterze ciekawostki technicznej dodam, że koła wielkie przecinają się w dwóch punktach, a nie w jednym, jak wymagałby tego aksjomat
Euklidesa, zatem w geometrii sferycznej definiuje się dodatkowo punkty antypodyczne na sferze i stwierdza, że są one identyczne. Pojęcie powierzchni zastąpiono pojęciem płaszczyzny
rzutowej, a całą geometrię nazwano eliptyczną). Istnieje także powierzchnia o ujemnej krzywiźnie, która w pobliżu każdego ze swoich punktów przypomina siodło. Nazywamy ją
powierzchnią hiperboliczną. Zilustrowanie takiej powierzchni nie jest wcale trudne. Najłatwiej wyobrazić ją sobie jako wnętrze okrągłego dysku, w którym „prosta” jest zdefiniowana
jako łuk przecinający krawędź dysku w dwóch miejscach pod kątami prostymi (rysunek 10).
Rysunek 10. Dyskowy model powierzchni hiperbolicznej. Trzy linie przechodzące przez punkt P nie przecinają się z linią L.
Mogłoby się wydawać, że tworzenie przestrzeni nieeuklidesowych jest możliwe wyłącznie w dwóch wymiarach, natomiast nie może zachodzić w trzech. Ostatecznie można
podejrzewać, że o ile powierzchnię dwuwymiarową jakoś wypchniemy w trzeci wymiar, o tyle podobnej operacji nie da się przeprowadzić dla przestrzeni, ponieważ nie ma w niej
dodatkowego wymiaru, w którym można by zdefiniować zakrzywienie. Oczywiście takie rozumowanie jest raczej naiwne. Dobrym modelem trójwymiarowej przestrzeni hiperbolicznej
jest wnętrze sfery, w którym linie są odwzorowane jako łuki okręgów przechodzące przez powierzchnię sfery pod kątem prostym. Geometria ta jest trójwymiarowa, spełnia wszystkie
aksjomaty geometrii euklidesowej z wyjątkiem piątego i w pewnym sensie pozwala zdefiniować trójwymiarową przestrzeń zakrzywioną, choć zakrzywienie nie pojawia się wokół
czegoś ani nie polega na wypchnięciu przestrzeni w nowym kierunku.
Przestrzeń po prostu jest zakrzywiona.
Gdy tylko odkryto istnieni e nowych geometrii, zainteresowanie naukowców skupiło się na wypływających stąd konsekwencjach, ale paradoksalnie nie dla matematyki, lecz dla fizyki.
Zaczęto zadawać sobie pytanie: skoro przestrzeń nie musi być euklidesowa, jaka zatem jest? Naukowcy szybko uświadomili sobie, że tak naprawdę nie mają pojęcia. W 1813 roku
Gauss przeprowadził pomiar kątów trójkąta tworzonego przez trzy góry – Brocken, Hohehagen i Inselberg. Wówczas wiadomo już było, że w trójkącie wyznaczonym w zakrzywionej
przestrzeni suma kątów jest różna od wartości 180°. Wynik pomiarów był o 15 sekund kątowych większy od wartości 180°, co sugerowałoby – o ile uzyskane wartości były
poprawne – że przestrzeń (przynajmniej w tym miejscu) ma krzywiznę dodatnią. Niestety do wykonania dokładniejszych pomiarów należałoby wyznaczyć znacznie większy trójkąt.
Ostatecznie pomiary Gaussa uznano za niewystarczające, by na ich podstawie wnioskować cokolwiek – przestrzeń nie musiała być euklidesowa, ale równie dobrze mogła być.
Moje wcześniejsze stwierdzenie, że trójwymiarowa przestrzeń hiperboliczna jest „po prostu zakrzywiona”, ma sens jedynie w nowym, wywodzącym się z prac Gaussa rozumieniu
krzywizny. Wiemy, że sfera ma dodatnią krzywiznę, a przestrzeń hiperboliczna jest zakrzywiona ujemnie, ale przecież nigdzie nie jest powiedziane, że promień krzywizny musi mieć stałą
wartość. Przestrzeń może być w pewnych miejscach zakrzywiona w większym stopniu niż w innych, a nawet więcej – w niektórych obszarach może mieć krzywiznę dodatnią, w innych
zaś ujemną. Promień krzywizny może zmieniać się w sposób ciągły. Jeśli rozważymy powierzchnię wyglądającą jak psia kość, to w obszarach odpowiadających zgrubieniom na
końcach przestrzeń będzie mieć krzywiznę dodatnią, natomiast w obszarze łączącym zgrubienia będzie ona ujemna.
Gauss szukał wzoru opisującego krzywiznę powierzchni w dowolnym punkcie. Gdy go wreszcie sformułował i wydał w książce pod tytułem Disquisitiones generales circa superficies
curva („Ogólne rozważania na temat powierzchni zakrzywionych”), która ukazała się w 1828 roku, nazwał go „niezwykłym twierdzeniem”. Co było w nim tak zadziwiającego?
Podstawę rozważań Gaussa stanowiło raczej naiwne spojrzenie na krzywiznę, którą definiował jako powierzchnię osadzoną w przestrzeni trójwymiarowej. Dla tak zdefiniowanej
obliczał promień krzywizny. Ostatecznie jednak otrzymał wynik stwierdzający jasno, że przestrzeń, w której umieszczał powierzchnię, nie miała żadnego wpływu na zakrzywienie. Ten
czynnik w ogóle nie pojawiał się we wzorze. Gauss zapisał: „wzór […] samoczynnie przekształca się w niezwykłe twierdzenie – jeśli zakrzywiona powierzchnia rozwija się na dowolnej
innej powierzchni, to miara krzywizny w dowolnym punkcie pozostanie niezmieniona”. Mówiąc o „rozwijaniu się na powierzchni”, Gauss miał na myśli „owinięcie” czegoś powierzchnią.
Weź zwykłą, płaską kartkę papieru o zerowej krzywiźnie. Owiń nią butelkę. Jeśli butelka ma kształt walca, kartka będzie do niej przylegać idealnie – nie zmarszczy się nigdzie, nie
rozciągnie ani nie przerwie. Na oko wydaje się zakrzywiona, ale to trywialny rodzaj krzywizny, ponieważ w żaden sposób nie zmienia geometrii kartki, wpływa jedynie na ułożenie jej
punktów w otaczającej ją przestrzeni. Narysuj na płaskiej kartce trójkąt prostokątny, zmierz długości jego boków, sprawdź, czy spełnione jest dla niego twierdzenie Pitagorasa. Teraz
zawiń rysunek wokół butelki. Długości boków zmierzone teraz na papierze się nie zmienią. Twierdzenie Pitagorasa nadal obowiązuje.
Sprawa przedstawia się zupełnie inaczej w wypadku powierzchni kuli, której krzywizna jest, przypominam, niezerowa. Nie dasz rady owinąć kuli kartką papieru, tak by przylegała
idealnie do kuli – musisz ją zgnieść w pewnych miejscach, nieco naciągnąć, być może nawet rozerwać. Geometria sferyczna jest z natury rzeczy zupełnie odmienna od geometrii
płaszczyzny. Posłużę się przykładem – równik Ziemi oraz południki zerowy i 90° tworzą na półkuli północnej trójkąt równoboczny o trzech równych kątach (o ile przyjmie się, że
Ziemia ma kształt idealnej kuli). W geometrii sferycznej twierdzenie Pitagorasa jest nieprawdziwe.
Krzywiznę należącą do wewnętrznej geometrii powierzchni nazywamy dziś krzywizną Gaussa. Gauss wyjaśnił nawet, dlaczego wprowadzenie tego pojęcia jest tak ważne. Posłużył się
w tym celu bardzo obrazową analogią, która do dziś nie straciła na aktualności. Wyobraź sobie mrówkę poruszającą się po powierzchni. W jaki sposób miałaby ona stwierdzić, że
powierzchnia jest zakrzywiona? Nie zdoła oderwać się od kartki, by zobaczyć, że ta zagina się wokół butelki, ale gdyby znała wzór Gaussa i dokonała odpowiednich pomiarów na
powierzchni, zdołałaby określić promień jej krzywizny. Nasze próby określenia krzywizny przestrzeni świata przypominają starania mrówki żyjącej na kartce papieru. Nie możemy
wznieść się ponad naszą przestrzeń, nim jednak przystąpimy do pomiarów, które wykonała mrówka, musimy poznać wzór opisujący zakrzywienie przestrzeni trójwymiarowej. Gauss
nie potrafił go podać, ale jeden z jego uczniów odważnie stwierdził, że umie go wskazać.
Uczniem tym był Georg Bernhard Riemann. Przygotowywał się wtedy do obrony pracy habilitacyjnej, stanowiącej następny stopień rozwoju kariery naukowej po doktoracie.
W tamtych czasach uzyskanie habilitacji pozwalało wykładowcom niemieckich uniwersytetów pobierać opłaty od słuchaczy ich wykładów. Obrona pracy habilitacyjnej zachowała
niezmienioną postać – polega ona na wygłoszeniu publicznego wykładu, w którym prezentuje się wyniki prowadzonych badań. Wykład ten oraz następująca po nim dyskusja są właśnie
egzaminem przyszłego doktora habilitowanego. Kandydat przedstawia kilka tematów, na które mógłby się wypowiedzieć, a jego promotor – w wypadku Riemanna był to Gauss –
wybiera jeden z nich. Riemann, człowiek obdarzony niewątpliwą intuicją matematyczną, podał kilka typowych tematów, które znał od podszewki, ale w przypływie czy to natchnienia,
czy w zaaferowaniu umieścił też na liście pozycję „O hipotezach leżących u podstaw geometrii”. Gauss, od dawna interesujący się tymi zagadnieniami, natychmiast wyznaczył ten temat
na obronę pracy habilitacyjnej Riemanna.
Młody naukowiec od razu pożałował wybrania zagadnienia tak wymagającego. Szczerze nienawidził wystąpień publicznych, nie opracował też jeszcze szczegółów wyprowadzenia
matematycznego swoich rozważań. W chwili ustalania tematu obrony dysponował jedynie mglistymi, choć niewątpliwie błyskotliwymi przemyśleniami dotyczącymi przestrzeni
zakrzywionych. Rozważania te prowadził dla dowolnej liczby wymiarów. Riemann starał się przenieść niezwykłe twierdzenie Gaussa, prawdziwe dla zaledwie dwóch wymiarów,
w przestrzeń nieskończenie wymiarową. Rozwój wypadków zmusił go do szybkiego działania, gdyż termin wygłoszenia wykładu zbliżał się wielkimi krokami. Presja, pod jaką
pracował, doprowadziła go na skraj załamania nerwowego, a praca polegająca na asystowaniu współpracownikowi Gaussa, Wilhelmowi Weberowi, podczas jego eksperymentów
z elektrycznością w niczym Riemannowi nie pomagała. A może jednak… Prowadząc badania nad zależnościami łączącymi siły elektryczne i magnetyczne, Riemann doszedł do wniosku,
że mógłby powiązać ze sobą pojęcia siły i krzywizny. Takie założenie, które w rzeczywistości było wynikiem, pozwoliło mu przeprowadzić wsteczną analizę matematyki sił i zdefiniować
za jej pomocą krzywiznę. Tego właśnie potrzebował, by obronić pracę habilitacyjną.
Wykład habilitacyjny odbył się w 1854 roku i, co raczej nie dziwi, spotkał się z ciepłym przyjęciem. Riemann zaczął od zdefiniowania pojęcia rozmaitości, którą to nazwę wywiódł
od niemieckiego słowa oznaczającego „różnorodność”, uzasadniając, że zmienne tworzące rozmaitość mogą przyjmować wiele odmiennych wartości. W ujęciu formalnym rozmaitością
nazywamy ściśle zdefiniowany układ wielu współrzędnych oraz wzór pozwalający określić odległość między sąsiadującymi punktami; wzór ten nazywamy dziś metryką Riemanna.
Mniej formalnie rozmaitość to wielowymiarowa przestrzeń w całej okazałości. Punktem kulminacyjnym wykładu Riemanna było przedstawienie wzoru uogólniającego niezwykłe
twierdzenie Gaussa – równanie przedstawiało krzywiznę rozmaitości wyłącznie w zależności od jej metryki. W taki oto sposób nasza opowieść zatoczyła koło niczym wąż Uroboros
połykający swój ogon, jak się bowiem okazuje, metryka wyraźnie przywołuje na myśl skojarzenia ze wzorem Pitagorasa.
Załóżmy przykładowo, że mamy do czynienia z rozmaitością trójwymiarową. Niech punkt będzie opisany współrzędnymi (x, y, z), a jego sąsiad będzie mieć współrzędne (x + dx, y +
dy, z + dz). Symbolem „d” oznacza się w matematyce „niewielki fragment”. W przestrzeni euklidesowej, czyli o zerowej krzywiźnie, odległość ds między tymi punktami będzie opisana
wzorem:
ds2 = dx2 + dy2 + dz2,
czyli po prostu wzorem Pitagorasa dla dwóch bardzo blisko położonych punktów. W przestrzeni zakrzywionej o promieniu krzywizny zmieniającym się w sposób ciągły odległość ta,
metryka, opisana jest następująco:
ds2 = X dx2 + Y dy2 + Z dz2 + 2U dxdy + 2V dxdz + 2W dydz.
Pojawiające się we wzorze wielkości X, Y, Z, U, V i W mogą zależeć od zmiennych x, y i z. Równanie to na pierwszy rzut oka przytłacza, ale i w nim odnajdziemy pewne
podobieństwo do wzoru Pitagorasa – sumę kwadratów (oraz podobne pod względem charakteru czynniki będące iloczynami dwóch wielkości, na przykład dxdy) uzupełnioną o kilka
dodatków. Niektóre czynniki metryki są mnożone przez 2, ponieważ całość można zapisać w postaci macierzy 3 × 3, w której pewne elementy występują dwukrotnie:
Wielkości X, Y i Z pojawiają się w niej tylko raz, natomiast każdy z parametrów U, V i W znajduje się w dwóch miejscach macierzy. Macierz jest symetryczna względem przekątnej, co
w ujęciu geometrii różniczkowej czyni z niej tensor symetryczny. Riemannowskie uogólnienie niezwykłego twierdzenia Gaussa jest równaniem opisującym krzywiznę rozmaitości
w dowolnym punkcie wyrażonym za pomocą wspomnianego tensora. W przypadku szczególnym, opisanym właśnie twierdzeniem Pitagorasa, krzywizna rozmaitości wynosi zero.
Oznacza to, że wykazując spełnienie równania Pitagorasa, dowodzimy braku zakrzywienia przestrzeni.
Rozwinięcie Riemanna, wywodzące się przecież ze wzoru zaproponowanego przez Gaussa, zależy wyłącznie od metryki rozmaitości. Mrówka uwięziona na rozmaitości mogłaby
zbadać jej metrykę, mierząc boki niewielkich trójkątów i obliczając krzywiznę. Pamiętaj, że krzywizna jest nierozerwalnie związana z rozmaitością i nie zależy w żaden sposób
od przestrzeni, w jakiej znajduje się rozmaitość. Co więcej, sama metryka zawiera definicję geometrii, rozważania na temat przestrzeni, w której znajduje się rozmaitość, nie są więc
w ogóle konieczne. Oznacza to, że stawianie sobie pytań o kształt otaczającego nas – ludzkie mrówki – niezmierzonego i tajemniczego Wszechświata ma sens. Możemy nawet liczyć na
znalezienie odpowiedzi na podstawie obserwacji niewymagających od nas wykraczania poza granice Wszechświata. To bardzo pocieszające, ponieważ opuszczenie naszej przestrzeni
jest niemożliwe.
Riemann zdołał sformułować swój wzór, definiując geometrię przestrzeni za pomocą sił. Pięćdziesiąt lat później Einstein odwrócił ideę tego rozwiązania i wykorzystał geometrię
przestrzeni do określenia siły grawitacji. Wyniki jego przemyśleń znamy dziś pod nazwą ogólnej teorii względności. Teoria ta dała podstawy, by zastanawiać się nad kształtem
Wszechświata – do tematu tego wrócę jeszcze w rozdziale 13. Wypadki potoczyły się doprawdy niezwykle. Sformułowane przeszło trzy i pół tysiąca lat temu twierdzenie Pitagorasa
pozwalało obliczyć powierzchnię pola uprawnego. Po rozszerzeniu go do postaci opisującej trójkąty bez kątów prostych i trójkąty kreślone na sferze dało nam narzędzie do kreślenia
map i obliczenia wymiarów planety, na której żyjemy, a niezwykłe jego uogólnienie stwarza nadzieję na zbadanie kształtu Wszechświata. Wielkie pomysły rodzą się z prostych myśli.
1 Tytuł tego rozdziału pochodzi właśnie z jednej z takich książek, Tajemnica zielonej pieczęci autorstwa H. Ożogowskiej (przyp. tłum.).
2 Wspominanej bez podania źródeł na stronie http://www-history.mcs.st-and.ac.uk/HistTopics/Babylonian_Pythagoras.html.
3 A. Sachs, A. Goetze i O. Neugebauer, Mathematical Cuneiform Texts, American Oriental Society, New Haven 1945.
4 Aby ułatwić zrozumienie przekształceń algebraicznych, na rysunku 60 przedstawiamy figurę geometryczną uzupełnioną o dokładniejszy opis.
Rysunek 60. Podział trójkąta na dwa trójkąty prostokątne.
Odcinek prostopadły do boku b dzieli go na dwie części. Z definicji funkcji trygonometrycznych wynika, że długość jednej części to a cos C, zatem druga musi być równa b − a cos C. Oznaczmy wysokość
prostopadłego odcinka przez h, zatem z twierdzenia Pitagorasa:
a2 = h2 + (a cos C)2
c2 = h2 + (b − a cos C )2.
Stąd:
a2 = h 2 + a2 cos2 C
c2 = h2 + (b − a cos C)2 = h2 + b2 − 2ab cos C + a2 cos2 C.
Po odjęciu pierwszego równania od drugiego z układu znikają niechciany czynnik h2 oraz iloczyn a2 cos2 C. Otrzymujemy więc zależność: c2 − a2 = b2 − 2ab cos C, co łatwo przekształcić do podanego na
początku wzoru.
Rozdział 2. Jak skrócić czas obliczeń?
Logarytmowanie
Co z niego wynika?
Logarytmowanie pozwala przedstawiać mnożenie w postaci dodawania odpowiednio dobranych wartości.
Dlaczego jest ono tak ważne?
Dlatego że wykonywanie dodawania jest znacznie prostsze od wykonywania mnożenia.
Co dzięki temu osiągnęliśmy?
Możliwość prowadzenia obliczeń astronomicznych, na przykład określania parametrów związanych z zaćmieniami czy wyznaczania orbit planetarnych. Dzięki logarytmom zyskaliśmy możliwość
przeprowadzania obliczeń naukowych, a inżynierowie otrzymali jedno z najważniejszych narzędzi pracy – suwak logarytmiczny. Logarytmy pozwalają opisywać rozpad promieniotwórczy oraz
psychofizyczne ujęcie ludzkiej percepcji.
Liczby zrodziły się z praktycznej potrzeby opisywania pewnych wielkości w życiu człowieka – zapisywania danych o posiadanych zwierzętach czy przynależnej ziemi, rejestrowania
transakcji finansowych: na przykład naliczania podatków, prowadzenia księgowości. Najstarsze znane nam formy zapisu liczbowego, wykraczające poza najprostsze symbole takie jak
||||, pochodzą mniej więcej z 8000 roku p.n.e. Znaleziono je na glinianych pojemnikach, w których mezopotamscy rachmistrzowie przechowywali gliniane żetony o różnych kształtach.
Denise Schmandt-Besserat, archeolog zajmująca się badaniem tamtejszej kultury, zasugerowała, że każdy z kształtów odpowiadał innemu rodzajowi dóbr codziennego użytku: kulą
oznaczano zboże, żetonem w kształcie jajka – słój oliwy i tak dalej. Aby uchronić sztony przed zniszczeniem, zamykano je w glinianych pojemnikach. Oczywiście żeby sprawdzić stan
takiego antycznego „konta”, należało rozbić pojemnik i przeliczyć jego zawartość, dlatego rachmistrzowie zaczęli znaczyć zewnętrzne ścianki naczyń symbolami, dzięki którym można
było podać liczbę żetonów bez naruszania warstwy ochronnej opakowania. Z czasem zrozumieli, że dysponując takimi symbolami, mogą zrezygnować z samych żetonów. W ten
sposób zrodził się zestaw znaków będących pierwowzorami liczb, a może także pisma.
Razem z liczbami pojawiła się arytmetyka – zestaw reguł pozwalających dodawać, odejmować, mnożyć i dzielić liczby. Wartości składowe sumowano na liczydłach, a wynik
zapisywano odpowiednim symbolem. Z czasem opracowano znaki graficzne pozwalające przeprowadzać obliczenia bez uciekania się do pomocy urządzeń mechanicznych, ale liczydła
nie przeszły do lamusa – do dziś używa się ich w wielu częściach świata; gdzie indziej kartka i długopis zostały wyparte przez urządzenia elektroniczne.
Arytmetyka sprawdziła się także w innych dziedzinach. Szczególnie cenna okazała się dla astronomów i pierwszych geodetów. Wraz z powstaniem podwalin dzisiejszej fizyki pojawił się
problem prowadzenia obliczeń. Pierwsi badacze byli zmuszeni wykonywać ręcznie nawet najbardziej skomplikowane rachunki. Bardzo często to właśnie obliczenia pochłaniały
większość ich czasu i energii, odciągając od bardziej twórczych zajęć; czasami techniczna strona rozwiązywania problemu zajmowała kilka miesięcy bądź nawet lat. Z czasem nikt nie
miał już wątpliwości, że dalszy rozwój nauki bez opracowania odpowied niego aparatu matematycznego stanie się niemożliwy. Wymyślono niezliczoną liczbę urządzeń mechanicznych
mających ułatwić prowadzenie obliczeń, ale najbardziej przełomowe odkrycie wiązało się z całkowitą zmianą metody działania – najpierw myśleć, liczyć potem. Okazało się, że sprytne
rozwiązania matematyczne pozwalają znacznie uprościć nawet najbardziej skomplikowane obliczenia.
Nowa gałąź matematyki bardzo szybko zaczęła żyć własnym życiem, a zajmujący się nią uczeni odkryli, że poza praktycznymi implikacjami niesie ona ze sobą także bardzo poważne
konsekwencje na polu teoretycznym. Dziś tamte pomysły stanowią nieodzowne narzędzie pracy każdego naukowca, również psychologów i humanistów. Do lat osiemdziesiątych XX
wieku korzystano z nich powszechnie i dopiero pojawienie się komputerów sprawiło, że sprawdzone metody obliczeniowe zostały nieco zapomniane. Mimo to matematyka i inne nauki
ścisłe nadal czerpią pełnymi garściami z dawnych osiągnięć.
Nowy sposób rozumowania wiązał się nierozerwalnie z metodą matematyczną nazwaną logarytmowaniem. Twórcą idei logarytmów był szkocki laird5, ale dopiero pewien profesor
geometrii żywo zainteresowany zagadnieniami nawigacji i astronomii zdołał rozwinąć niewątpliwie genialną, lecz niepozbawioną wad myśl posiadacza ziemskiego.
W liście wysłanym w marcu 1615 roku do Jamesa Usshera Henry Briggs niechcący dał świadectwo jednemu z ważniejszych wydarzeń w historii rozwoju nauki:
Napper, pan na dobrach Markinston, zajął mnie bardzo skutecznie nową, niezwykle pociągającą ideą logarytmów. Bóg da, zobaczę się z nim tego lata, czego wypatruję
z rosnącą niecierpliwością, nigdy dotąd bowiem nie spotkałem się z książką równie fascynującą i bardziej skłaniającą do myślenia.
Briggs był pierwszym profesorem geometrii w londyńskim Gresham College, natomiast „Napper, pan na dobrach Markinston” to John Napier, ósmy dziedzic Merchiston, majątku,
który dziś jest częścią Edynburga. Napier był zafascynowany mistycyzmem; zajmowała go teologia, szczególnie zaś (jeśli nie wyłącznie) zgłębianie tajemnic Objawienia św. Jana. Za
swoje największe dzieło uważał A Plaine Discovery of the Whole Revelation of St John („Proste wyjaśnienie Księgi Objawienia św. Jana”), na podstawie którego ustalił datę końca
świata na rok 1688 lub 1700. Uważa się też, że poza próbami głębszego poznania Apokalipsy Napier aktywnie badał sekrety alchemii i nekromancji, z pewnością zaś jego
zainteresowanie okultyzmem wyrobiło mu wśród ówczesnych opinię czarnoksiężnika. Plotka głosi, że gdziekolwiek się pojawiał, zawsze nosił przy sobie pudełko, w którym trzymał
czarnego pająka; miał też podobno „chowańca”, magicznego towarzysza, przyjmującego postać czarnego koguta. Jeden z jego potomków, Mark Napier, utrzymuje, jakoby głównym
zadaniem chowańca było wykrywanie nieuczciwych służących. Ósmy laird Merchiston miał zamykać podejrzanego o kradzież w jednym pomieszczeniu z kogutem, po czym rozkazywał
mu pogłaskać zwierzę, informując uprzednio, że ptak jest stworzeniem magicznym, dzięki czemu bezbłędnie wykrywa winnych. Jednak za pozornym mistycyzmem kryły się solidne,
niemalże naukowe podstawy – w opisywanym przypadku Napier pokrywał wcześniej pióra zwierzęcia cienką warstwą sadzy. Człowiek niewinny, niemający nic na sumieniu, bez
wahania głaskał koguta, brudząc sobie dłonie. Złodziej, w obawie przed zdemaskowaniem, markował jedynie dotknięcie zwierzęcia – Napier wiedział, że człowiek o czystych rękach
miał nieczyste sumienie.
Laird poświęcał wiele czasu matematyce, szczególnie zaś rozwijaniu technik obliczeniowych, które mogłyby przyspieszyć prowadzenie rachunków. Jednym z jego wynalazków były tak
zwane kostki czy też pałeczki Napiera – zestaw pręcików z naniesionymi na ich ścianki liczbami, które po odpowiednim ułożeniu pozwalały znacznie uprościć proces wykonywania
złożonych mnożeń – jednak za jego największe dzieło, które przyniosło mu sławę i spowodowało prawdziwą rewolucję w nauce, uznaje się nie pracę poświęconą Księdze Objawienia,
na co liczył w skrytości ducha, ale Mirifici logarithmorum canonis descriptio („Opis pięknych zasad logarytmowania”) z 1614 roku. Słowa wstępu dowodzą wyraźnie, że Napier
doskonale zdawał sobie sprawę z podniosłości swojego odkrycia oraz konsekwencji, jakie miało ono mieć dla nauki:
Jak dobrze wszystkim szanownym kolegom matematykom wiadomo, w sztuce naszej nie ma nic bardziej nużącego niż spowolnienia wynikające z konieczności
prowadzenia wielokrotnych mnożeń i dzieleń, szukania właściwych proporcji i określania wartości pierwiastków kwadratowych i sześciennych; o […] mogących pojawić
się w trakcie tych obliczeń błędach nawet nie wspomnę. Dlatego też od pewnego czasu wysiłki swe kierowałem ku przygotowaniu pewnej i szybkiej techniki, która
pozwoliłaby te niedogodności ominąć. Wreszcie po wielu próbach […] mam zaszczyt przedstawić gotową metodę, z której od dziś może korzystać każdy matematyk6.
Idea logarytmów ujęła Briggsa od pierwszej chwili. Jak wielu matematyków w tamtych czasach sam spędzał niezliczone godziny, prowadząc obliczenia astronomiczne. Wiemy to,
ponieważ w innym ze swoich listów do Usshera, napisanym w 1610 roku, wspomina wyznaczanie parametrów elipsy. Dodatkowe potwierdzenie stanowią dwa tomy tablic
numerycznych Briggsa, które ukazały się drukiem dwa lata później – pierwszy z nich poświęcony był badaniom nad biegunem północnym, drugi zawierał dane niezbędne do
prowadzenia nawigacji. W obydwu wypadkach uczony musiał wykonać olbrzymią liczbę skomplikowanych obliczeń arytmetycznych i trygonometrycznych, był więc aż nadto świadom,
ile czasu i trudu mogło mu w przyszłości oszczędzić odkrycie Napiera. Jednak im dłużej studiował pracę szkockiego badacza, tym bardziej utwierdzał się w przekonaniu, że choć sam
pomysł był genialny, jego realizacja pozostawiała wiele do życzenia. Briggs opracował prostą, ale bardzo istotną poprawkę i wyruszył w długą podróż do Szkocji. Gdy wreszcie stanęli
twarzą w twarz, „przez kwadrans niemal jeden na drugiego spoglądał z niemym uwielbieniem, nim wreszcie pierwsze słowo paść miało”7.
Co wywołało aż taki zachwyt? Każdy, kto kiedykolwiek miał do czynienia z arytmetyką, wie doskonale, że dodawanie liczb jest stosunkowo proste, natomiast mnożenie ich przez
siebie zawsze sprawia trudności. Mnożenie wymaga przeprowadzenia znacznie większej liczby operacji arytmetycznych niż dodawanie – przykładowo dodanie do siebie dwóch
dziesięciocyfrowych liczb da się przeprowadzić mniej więcej w dziesięciu prostych krokach, natomiast mnożenie wymaga przeprowadzenia dwustu niezależnych operacji. Sprawa ta nie
traci na znaczeniu nawet w dobie komputerów, ale kryje się za kurtyną algorytmów zastosowanych do oprogramowania funkcji wykonujących poszczególne działania.
W czasach Napiera wszystko, czym dziś zajmują się komputery, trzeba było wykonywać ręcznie. Dlatego myśl o narzędziu pozwalającym przekształcić żmudne mnożenia w zgrabne
i szybko wyznaczane sumy kusiła tak wiele umysłów. Choć dla niektórych pomysł ten był zbyt piękny, by mógł być prawdziwy, Napier uświadomił sobie, że w rzeczywistości
wprowadzenie takiej tożsamości jest możliwe. Należało jedynie przekształcić wyrazy iloczynu tak, by były zapisane w postaci potęgi pewnej z góry określonej liczby.
W zapisie algebraicznym potęgę nieznanej wartości x oznacza się liczbą w indeksie górnym, czyli wzniesioną nieco ponad linię bazową teksu. W ten sposób xx = x2, xxx = x3, xxxx
= x4 i tak dalej; pamiętajmy przy tym, że w algebrze umieszczenie dwóch liter obok siebie jest tożsame z pomnożeniem ich. Zgodnie z tym 104 = 10 × 10 × 10 × 10 = 10 000.
Wystarczy poćwiczyć nieco działania na tego typu wyrażeniach, by szybko odkryć, w jaki sposób przyspieszyć przeprowadzanie obliczeń. Przyjrzyjmy się przykładowi 104 × 103 –
rozpiszmy potęgowanie na mnożenie:
10000 × 1000 = (10 × 10 × 10 × 10) × (10 × 10 × 10)
= 10 × 10 × 10 × 10 × 10 × 10 × 10
=10 000 000.
W wyniku pojawia się siedem zer, czyli 3 + 4 zera. Pierwszym krokiem dalszych rozważań będzie wykazanie, dlaczego zastosowałem przed chwilą zapis 3 + 4. Zapiszmy obok siebie
mnożenie trzech dziesiątek i czterech dziesiątek, co w skrócie można przedstawić jako:
104 × 103 = 103+4 = 107.
Na tej samej zasadzie mnożenie dowolnej liczby x podniesionej do potęgi a przez tę samą liczbę x podniesioną do potęgi b, gdzie a i b są liczbami całkowitymi, oznacza podniesienie
jej do potęgi (a + b):
xaxb = xa+b.
Wzór ten wygląda bardzo niepozornie, ale przyjrzyjmy się mu dokładniej. Gdybyśmy chcieli rozwiązać lewą stronę równania, należałoby wykonać mnożenie dwóch wartości, natomiast
głównym działaniem prowadzącym do uzyskania wyniku po prawej stronie jest znacznie prostsze z arytmetycznego punktu widzenia dodanie do siebie wykładników potęgi a i b.
Załóżmy, że chcesz pomnożyć liczby 2,67 i 3,51. Po długich obliczeniach uzyskasz wynik: 9,3717, co po zaokrągleniu do dwóch miejsc po przecinku daje 9,37. Jak w takim wypadku
wykorzystać przedstawiony wcześniej wzór? Cała sztuka polega na odpowiednim dobraniu podstawy potęgi, czyli liczby x. Dla x = 1,001 po nieskomplikowanych, choć żmudnych
obliczeniach otrzymamy:
(1,001)983 = 2,67
(1,001)1256 = 3,51
z dokładnością do dwóch miejsc po przecinku. Stąd wynika, że 2,67 × 3,51 można zapisać jako:
(1,001)983+1256 = (1,001)2239,
czyli z dokładnością do dwóch miejsc po przecinku właśnie 9,37.
Najważniejszym wykonywanym w tym przykładzie działaniem było proste dodawanie: 983 + 1256 = 2239. Oczywiście każdy, kto chciałby sprawdzić poprawność przedstawionych
powyżej obliczeń, szybko doszedłby do wniosku, że wprowadzając taki zapis, raczej utrudniłem obliczenia, zamiast je ułatwić. Aby wyznaczyć wynik potęgowania (1,001)983, należy
pomnożyć liczbę 1,001 aż 983 razy przez samą siebie; odkrycie, że 983 jest wykładnikiem potrzebnym do rozwiązania pierwotnego problemu, zajmuje jeszcze więcej czasu. Na
pierwszy rzut oka wydaje się zatem, że cały pomysł jest mocno chybiony.
Geniusz Napiera objawił się przede wszystkim w spostrzeżeniu, że to bezpodstawne uprzedzenie. Oczywiście przygotowanie skutecznego narzędzia przyspieszającego i ułatwiającego
prowadzenie obliczeń wymagało, by ktoś pracowity poświęcił się i wyznaczył wartości wszystkich potęg liczby 1,001 od (1,001)2 do mniej więcej (1,001)10 000. Tak przygotowane
dane mogłyby zostać opublikowane w postaci tablic, co w zasadzie położyłoby kres trudom obliczeń. Później uczeni musieliby jedynie odnaleźć w przygotowanym zbiorze odpowiednie
wykładniki, czyli stwierdzić, że liczba 2,67 pojawia się przy wartości 983, a liczba 3,51 występuje obok wartości 1256. Po dodaniu ich do siebie otrzymaliby wynik 2239, by
ostatecznie odczytać w odpowiednim rzędzie tabeli, że 1,001 podniesione do potęgi 2239 daje 9,37. I to już koniec.
W rzeczywistości by otrzymać odpowiednio dokładne wyniki, trzeba posłużyć się podstawą potęgi znacznie bliższą jedności, na przykład liczbą 1,000001, co z kolei znacznie zwiększa
liczbę koniecznych do przeprowadzenia obliczeń – przy tak wybranej podstawie należałoby wyznaczyć około miliona potęg. Przygotowanie odpowiednich tablic stanowi zatem nie lada
wyzwanie, ale to praca, którą wykonuje się jednokrotnie. Wystarczył jeden obdarzony szlachetną naturą dobroczyńca, który podjąłby się tego zadania, oszczędzając tym samym
następnym pokoleniom trudów prowadzenia żmudnych rachunków.
Wróćmy na chwilę do podanego wcześniej przykładu. Przy zaprezentowanym spojrzeniu na prowadzenie obliczeń wykładniki 983 i 1256 są logarytmami liczb 2,67 i 3,51, czyli
czynników planowanego mnożenia. Analogicznie liczba 2239 jest logarytmem iloczynu tego mnożenia, czyli wartości 9,83. Po wprowadzeniu skrótowego oznaczenia terminu logarytm –
log8 – możemy zapisać:
log ab = log a + log b.
Wyrażenie to jest prawdziwe dla dowolnych wartości a i b. Wartość 1,001, wybrana zupełnie przypadkowo, będzie stanowić podstawę logarytmu. Gdyby zamiast niej wybrać inną
liczbę, wartości logarytmów uległyby zmianie, ale opisana tu metoda działa dla każdej dowolnej ustalonej podstawy.
Tak powinno przebiegać rozumowanie Napiera, jednak z nieznanych nam przyczyn tok myślowy twórcy logarytmów okazał się nieco inny. Briggs, dla którego zaprezentowana metoda
obliczeniowa była zupełną nowością, miał świeże spojrzenie na całą sprawę, zasugerował więc dwie zmiany wprowadzające usprawnienia do techniki Napiera.
Pomysł, by zastąpić mnożenie dodawaniem, krążył już od jakiegoś czasu wśród matematyków, gdy pod koniec XVI wieku Napier rozpoczął swoje rozważania dotyczące
potęgowania. W owym czasie w Danii sporą popularnością cieszyła się skomplikowana metoda bazująca na wykorzystaniu funkcji trygonometrycznych zwana prosthaphaeresis9.
Zaciekawiony nią Napier bardzo szybko zrozumiał, że te same efekty można osiągnąć znacznie prościej, używając zamiast funkcji trygonometrycznych potęg o ustalonej podstawie.
Brakowało oczywiście odpowiednich tablic, ale temu akurat łatwo było zaradzić – ktoś musiał wykazać się postawą obywatelską i przeprowadzić niezbędne obliczenia. Napier podjął
się tego zadania, lecz popełnił poważny błąd strategiczny. Zamiast użyć podstawy o wartości nieco większej od 1, wybrał liczbę nieco mniejszą od jedynki. W efekcie zbiór
wykładników rozpoczynał się od dużych wartości, które stopniowo malały. Utrudniło to nieco obliczenia.
Briggs zauważył ten mankament, znalazł też rozwiązanie – wystarczyło, jak wspominałem, użyć podstawy o wartości nieco większej od 1. Jednak nie to stało się największą zasługą
Briggsa. Uczony dostrzegł także znacznie bardziej delikatny problem związany z oryginalną metodą Napiera i również w tym wypadku zaproponował odpowiednią poprawkę. Gdyby
modyfikacje w metodzie Napiera ograniczyć do zmiany podstawy logarytmu i wybrać na nią na przykład liczbę 1,0000000001, między logarytmami liczb, przykładowo, 12,3456
i 1,23456 nie istniałby żaden widoczny na pierwszy rzut oka związek. W konsekwencji nie można by wskazać żadnej konkretnej wartości, na której należałoby zakończyć tablice.
Powodem była wartość log 10, ponieważ:
log 10x = log 10 + log x.
Niestety wyrażenie log 10 sprawiało same kłopoty; dla podstawy 1,0000000001 logarytm liczby 10 wynosił 23 025 850 929. Briggs uznał, że obliczenia byłyby znacznie bardziej
eleganckie, gdyby przyjąć log 10 = 1. Wtedy log 10x = 1 + log x, zatem niezależnie od wartości log 1,23456 wystarczyłoby dodać do niej 1, aby otrzymać wartość log 12,3456. Takie
rozwiązanie pozwoliło odgraniczyć wartości logarytmów w tablicach do przedziału od 1 do 10. Gdyby w obliczeniach pojawiły się większe liczby, wystarczyło dodać do nich
odpowiednią liczbę całkowitą.
Aby uzyskać warunek log 10 = 1, należy – wzorem Napiera – wyznaczyć wartości logarytmów dla podstawy 1,0000000001, a następnie podzielić je przez 23 025 850 929.
W efekcie uzyska się wartości logarytmów o podstawie 10. Logarytmy liczb o takiej podstawie zapisuje się jako log10 x. Spełniają one, jak poprzednie, warunek:
log10 xy = log10 x + log10 y,
lecz jednocześnie:
log10 10x = log10 x + 1.
Napier zmarł dwa lata później, więc prace nad tablicami logarytmów dziesiętnych musiał podjąć Briggs. W 1617 roku opublikował Logarithmorum chilias prima („Logarytmy
pierwszej chiliady”), zbiór wartości logarytmów dla liczb naturalnych od 1 do 1000 podanych z dokładnością do czternastego miejsca po przecinku. W 1624 roku uzupełnił to
wydawnictwo o Arithmetic logarithmica („Arytmetyka logarytmiczna”), tablicę logarytmów dziesiętnych dla liczb od 1 do 20 000 oraz od 90 000 do 100 000, podając je z taką
samą jak poprzednio dokładnością. Bardzo szybko znalazł naśladowców, którzy uzupełnili brakujące wartości, a także przygotowali tablice pomocnicze, zawierające między innymi
logarytmy funkcji trygonometrycznych, na przykład log sin x.
Sposób myślenia, który doprowadził Napiera do sformułowania definicji logarytmu, pozwala także określać wyniki potęgowania x a, gdzie x jest dowolną liczbą dodatnią, a zaś
wykładnikiem, który niekoniecznie musi być dodatnią liczbą całkowitą. Formułując definicję, musimy jedynie pamiętać, by nie kłóciła się ona z równaniem xaxb = xa+b. Resztę
z powodzeniem załatwi intuicja matematyczna. Aby uniknąć zbędnych komplikacji, przyjmiemy, że x ma wartość dodatnią, tak samo jak definiowane wzorem wyrażenie xa. (Ujemnymi
podstawami potęgi zajmę się w rozdziale 5, w którym wprowadzę pojęcie liczb zespolonych).
Zastanówmy się teraz, ile wyniesie wynik potęgowania x0. Pamiętając, że x1 = x, możemy zapisać warunek x0x = x0+1 = x. Po podzieleniu wyniku przez x otrzymamy x0 = 1. Jak
zatem będzie przedstawiać się wynik potęgowania x−1? Postąpimy analogicznie. Zgodnie z podanym wcześniej wzorem x−1x = x−1+1 = x0 = 1. Po podzieleniu otrzymanej wartości
przez x okaże się, że x−1 = 1/x. Idąc dalej tym tropem, otrzymamy x−2 = 1/x2, x−3 = 1/x3 i tak dalej.
W tym świetle rozważania nad wartością potęgowania x1/2 wydają się zarówno bardziej interesujące, jak i potencjalnie bardzo potrzebne. Tak sformułowany problem musi
pozostawać w zgodzie z warunkiem x1/2x1/2 = x1/2+1/2 = x1 = x. Wynika stąd, że wyrażenie x1/2 pomnożone przez samo siebie musi dawać x. Jedyną liczbą mogącą spełnić tak
zadany warunek jest pierwiastek kwadratowy z liczby x, zatem
Analogicznie
czyli wynikiem potęgowania x1/3 jest pierwiastek sześcienny liczby x. Kontynuując ten ciąg myślowy, można zdefiniować potęgowanie xp/q dla dowolnego ułamka p/q. Później można
przybliżyć ułamek liczbą rzeczywistą, co pozwoli podać definicję potęgowania xa dla dowolnej wartości rzeczywistej a. Podany na początku warunek xaxb = xa+b będzie w takim
wypadku nadal spełniony.
Jednocześnie spełnione są warunki
oraz
dzięki którym staje się możliwe wyznaczenie wartości pierwiastków kwadratowych i sześciennych liczby x za pomocą tablic logarytmicznych. Przykładowo w celu znalezienia wartości
pierwiastka kwadratowego danej liczby wystarczy zapisać jego logarytm, podzielić go przez 2, a następnie sprawdzić w tablicach, dla której z liczb otrzymany wynik jest wartością
logarytmu. Przy wyznaczaniu pierwiastka sześciennego postępuje się tak samo, zastępując jedynie dzielenie przez 2 dzieleniem przez 3. Stosowane wcześniej metody wyznaczania
wartości pierwiastków wymagały przeprowadzenia znacznie bardziej skomplikowanych i nużących obliczeń. W obliczu tych faktów nie dziwi, że Napier przedstawił przykład obliczania
pierwiastków kwadratowych w przedmowie do swojej książki.
Tablice logarytmiczne, gdy wreszcie uzupełniono ich wartości, stały się niezbędnym narzędziem każdego uczonego, inżyniera, mierniczego czy nawigatora. Pozwalały oszczędzić
mnóstwo czasu i wysiłków, zmniejszały też ryzyko wystąpienia błędów w obliczeniach. Pierwszymi, którzy docenili zalety nowej metody, byli astronomowie – z dawien dawna
wykonujący długie i skomplikowane obliczenia. Francuski matematyk Pierre Simon de Laplace żywo zainteresowany badaniem nocnego nieba stwierdził, że wynalezienie logarytmów
„pozwala ograniczyć do kilku dni to, co dawniej zajmowało miesiące, chroni astronomów przed przedwczesną śmiercią oraz oszczędza im popełniania błędów i ratuje przed
zniechęceniem”. Z czasem zaczęła się rozwijać technologia i bardzo szybko okazało się, że żaden inżynier nie obejdzie się bez matematyki – projektowanie urządzeń, wyznaczanie
parametrów mostów i budynków, konstruowanie samochodów, ciężarówek, statków i samolotów wymagało prowadzenia dokładnych obliczeń. Jeszcze kilkadziesiąt lat temu logarytmy
znajdowały się w szkolnym programie nauczania, a każdy inżynier miał w kieszeni ówczesny odpowiednik kalkulatora pozwalający od ręki rozwiązywać podstawowe równania
logarytmiczne. Urządzenie to nazywano suwakiem logarytmicznym. Używali go wszyscy – od architektów do projektantów samolotów.
Pierwszy suwak logarytmiczny powstał w 1630 roku; miał postać dwóch obracających się względem siebie kolistych skal logarytmicznych i był dziełem angielskiego matematyka
Williama Oughtreda. W 1632 roku Oughtred udoskonalił swój projekt, przenosząc skale z dwóch kół na układ dwóch linijek. Od tej chwili suwak rzeczywiście stał się suwakiem. Idea
działania tego urządzenia była wyjątkowo prosta. Długości złożonych końcami linijek sumują się, zatem jeśli na każdą z nich naniesie się wartości skali logarytmicznej, czyli rozmieści
liczby w odległościach określonych przez ich logarytmy, to odpowiadające sobie wartości będą w rzeczywistości mnożone. Wyobraź sobie, że linijki ułożono tak, by podziałka
oznaczająca liczbę 1 na pierwszej z nich schodziła się z podziałką oznaczającą liczbę 2 na drugiej. Wtedy każdej wartości x na pierwszej linijce będzie odpowiadać wartość 2x na
drugiej – naprzeciw wartości 3 na pierwszej linijce znajduje się wartość 6 na drugiej i tak dalej (rysunek 11). Jeśli interesowałyby nas bardziej złożone obliczenia, na przykład mnożenie
2,67 i 3,51, to naprzeciw liczby 1 na pierwszej linijce należałoby ustawić wartość 2,67 na drugiej, a następnie odczytać wynik, czyli znaleźć wartość leżącą naprzeciw liczby 3,51 –
byłoby to 9,37. Ot, i cała tajemnica mnożenia za pomocą suwaka.
Rysunek 11. Mnożenie 2 przez 3 na suwaku logarytmicznym.
Inżynierowie natychmiast zaczęli przygotowywać bardziej złożone odmiany suwaków zawierające funkcje trygonometryczne, pierwiastki kwadratowe czy skale log-log (logarytmy
logarytmów), by móc przeprowadzać potęgowanie. Z czasem logarytmy musiały ustąpić pola komputerom, ale nawet dziś zajmują poczesne miejsce w nauce i technologii, nie rozstając
się ze swoją wierną towarzyszką, funkcją wykładniczą. Dla logarytmów dziesiętnych funkcja ta przyjmuje postać 10x, dla logarytmów naturalnych jest to ex, gdzie e to w przybliżeniu
2,71828. Funkcje logarytmiczna i wykładnicza są swoimi odwrotnościami, co oznacza, że gdy obliczysz logarytm danej liczby, a następnie określisz jego wykładnik, odkryjesz, iż jest
nim ta właśnie liczba.
Po co dziś używać logarytmów, skoro mamy komputery?
W 2011 roku u wybrzeży Japonii doszło do trzęsienia ziemi o sile 9,0 w skali Richtera. Trzęsienie ziemi wywołało tsunami, falę o wysokości kilkudziesięciu metrów, która dotarłszy do
Wysp Japońskich, wywołała ogromne zniszczenia i spowodowała śmierć blisko 25 000 osób. Na wybrzeżu znajdowała się także elektrownia jądrowa Fukushima Dai-ichi (Fukushima
1, nazwana tak, by odróżnić ją od drugiej znajdującej się w bezpośrednim sąsiedztwie). Elektrownia składała się z sześciu niezależnych reaktorów, z których trzy pracowały w chwili
nadejścia tsunami. Pozostałe trzy były czasowo wyłączone, a znajdujące się w nich na co dzień paliwo przeniesiono do basenów z wodą położonych poza obszarem reaktora, ale nadal
na terenie budynku, w którym się mieścił.
Zabezpieczenia elektrowni nie wytrzymały naporu wody, w efekcie doszło do odcięcia zasilania. Trzy pracujące reaktory (1, 2 i 3) zostały wyłączone w trybie awaryjnym, lecz zasilanie
było niezbędne, by podtrzymać pracę układu chłodzenia i zapobiec stopieniu się prętów paliwowych. Niestety przejście wielkiej fali zniszczyło także system zasilania awaryjnego
odpowiedzialny za utrzymanie pracy układu chłodzenia oraz wszystkich systemów bezpieczeństwa. Projektanci elektrowni przewidzieli oczywiście i taką możliwość, lecz stanowiące
kolejny stopień zabezpieczeń baterie bardzo szybko się wyczerpały. Pozbawiony prądu układ chłodzenia reaktora przestał działać, więc temperatura paliwa natychmiast zaczęła rosnąć.
Obsłudze elektrowni pozostała wyłącznie improwizacja. Pracownicy wykorzystali pompy przeciwpożarowe, by zalać trzy funkcjonujące reaktory wodą morską. Niestety woda weszła
w reakcję chemiczną z cyrkonową powłoką prętów paliwowych, w efekcie czego wydzieliły się duże ilości wodoru. Nagromadzenie tego gazu doprowadziło do wybuchu w budynku
reaktora 1. Nie trzeba było długo czekać, by w reaktorach 2 i 3 doszło do podobnych reakcji. Tymczasem woda z basenu chłodząca paliwo wyniesione z reaktora 4 stopniowo
parowała. Nim obsługa elektrowni zyskała jako takie panowanie nad sytuacją, doszło do uszkodzenia przynajmniej jednego z pojemników, w których przechowywano materiał
promieniotwórczy, i w efekcie do skażenia okolicy. Władze przeprowadziły ewakuację 200 000 osób mieszkających w najbliższym sąsiedztwie elektrowni, ponieważ poziom
promieniowania przekroczył znacznie dopuszczalne normy. Sześć miesięcy później rzecznik sprawującej pieczę nad reaktorami firmy TEPCO wydał oświadczenie, w którym
stwierdzano, że stan zagrożenia nadal nie minął, a odzyskanie pełnej kontroli nad reaktorami będzie wymagało wykonania mnóstwa pracy, lecz poinformował jednocześnie, że
przynajmniej udało się zahamować wyciek radioaktywny.
Nie chcę się tu wdawać w dyskusję nad wadami i zaletami energii jądrowej, pokażę natomiast, w jaki sposób logarytmy pozwalają udzielić odpowiedzi na jedne z ważniejszych
w takich sytuacjach pytań: ile materiału promieniotwórczego przedostało się do środowiska, jak długo będzie się odczuwać skutki wycieku i które obszary stanowią poważne
zagrożenie dla życia i zdrowia ludzi.
Pierwiastki promieniotwórcze podlegają rozpadowi, co oznacza, że w wyniku zachodzenia reakcji jądrowych przekształcają się w inne pierwiastki układu okresowego. W czasie
reakcji dochodzi do wytworzenia pewnych cząstek i to właśnie ich emisję nazywamy promieniowaniem. Poziom promieniowania opada z czasem, tak samo jak zmniejsza się
temperatura powierzchni stygnącego ciała – wykładniczo. Oznacza to, że w odpowiednich jednostkach, których nie będę tu omawiać, poziom promieniowania N(t) po czasie t można
zapisać następującym równaniem:
N(t) = N0e−kt,
gdzie N0 to początkowy poziom promieniowania, a k – stała rozpadu dla dane go pierwiastka, konkretnie zaś do jego postaci, czyli tak zwanego izotopu.
Wygodną jednostką mierzenia czasu, w którym skutki promieniowania są nadal odczuwalne, jest tak zwany okres połowicznego rozpadu, pojęcie wprowadzone w 1907 roku. Jest to
czas, w jakim początkowy poziom promieniowania N0 zmniejsza się o połowę. Aby wyznaczyć jego wielkość, należy rozwiązać następujące równanie:
co wymaga obustronnego logarytmowania. W efekcie otrzymujemy:
Równanie to wyznacza okres połowicznego rozpadu, ponieważ k jest wartością uzyskiwaną doświadczalnie.
Okres półrozpadu pozwala szacować, jak długo dany teren będzie skażony promieniotwórczo. Załóżmy, że interesujący nas pierwiastek charakteryzuje się okresem połowicznego
rozpadu równym jeden tydzień. Oznacza to, że po tygodniu tempo emitowania promieniowania zmniejszy się o połowę, po dwóch tygodniach będzie wynosić jedną czwartą wartości
początkowej, po trzech już tylko jedną ósmą i tak dalej. W zaledwie dziesięć tygodni od rozpoczęcia reakcji będzie ono wynosić tylko jedną tysięczną wartości początkowej
(a dokładnie 1/1024), po dwudziestu tygodniach zaś spadnie do jednej milionowej.
Najbardziej niebezpiecznymi dla ludzi związkami uwalniającymi się w czasie awarii tradycyjnych reaktorów jądrowych są promieniotwórcze izotopy jodu (131I) oraz cezu (137Cs).
Pierwszy z nich wywołuje nowotwory tarczycy, ponieważ tarczyca bardzo chętnie pochłania znajdujące się w powietrzu związki jodu. Okres połowicznego zaniku jodu
promieniotwórczego 131I to zaledwie osiem dni, łatwo więc daje się złagodzić skutki jego obecności w środowisku – należy powstrzymać wyciek i podać ludziom odpowiedni lek
zawierający związki jodu niewydzielającego promieniowania. Tarczyca może przyjąć określoną dawkę jodu w pewnym czasie, zatem dzięki dostarczeniu jej czystej formy pierwiastka
eliminuje się ryzyko przyjmowania przez organizm jodu promieniotwórczego. Najskuteczniejszym zaś sposobem chronienia się przed skutkami rozpadu jodu 131I jest zaprzestanie picia
skażonego mleka.
W wypadku cezu 137Cs sprawa wygląda zupełnie inaczej, gdyż okres połowicznego rozpadu tego pierwiastka wynosi aż trzydzieści lat. Dopiero po mniej więcej dwustu latach poziom
promieniowania spada do jednej setnej wartości początkowej, cez promieniotwórczy stanowi więc poważne zagrożenie dla życia przez naprawdę długi czas. Jeśli chodzi o awarię
reaktorów jądrowych, największym problemem jest skażenie gleby i budynków. Usuwanie skutków jest wprawdzie możliwe, ale to bardzo kosztowny proces – przykładowo skażoną
warstwę gleby można usunąć i wywieźć w miejsce, gdzie będzie stanowić dużo mniejsze zagrożenie, jednak w ten sposób tworzy się ogromne ilości odpadów o niskim poziomie
promieniowania.
Opisywanie zjawisk promieniotwórczych to tylko jedna z dziedzin nauki, w których sposób działania na liczbach zaproponowany przez Napiera i Briggsa zachował się do dziś. Przerzuć
szybko strony ostatnich rozdziałów tej książki, a przekonasz się, że logarytmy pojawiają się również między innymi w opisie zjawisk termodynamicznych czy teorii informacji.
Wprawdzie szybkie komputery pozbawiły logarytmy ich pierwotnego znaczenia – zastąpiły je w charakterze narzędzia sprawnego przeprowadzania obliczeń – ale sama idea logarytmu
przetrwała i nadal służy nauce.
Logarytmy, jak się okazało, przydają się także niezmiernie do opisu naszego postrzegania świata. Pionierzy psychofizyki poświęcili wiele czasu na opisanie mechanizmów widzenia,
słyszenia, zbadanie zmysłu dotyku i podjęcie prób matematycznego ujęcia zmierzonych zależności.
Pracujący w latach czterdziestych XIX wieku niemiecki lekarz Ernst Weber przeprowadził serię badań sprawdzających czułość ludzkiej percepcji. Osoby poddane badaniu dostały do
rąk dwa ciężarki i zostały poproszone o określenie, który z nich jest cięższy. Weber chciał w ten sposób określić, jaką najmniejszą różnicę mas potrafi wyczuć człowiek. Z pewnym
zdziwieniem odkrył, że różnica ta u jednego z badanych nie miała stałej wartości, zależała natomiast od mas porównywanych przedmiotów. Okazało się, że człowiek nie potrafi określać
różnicy mas z dokładnością do, powiedzmy, 50 gramów, natomiast doskonale wyczuwa względną różnicę, przyjmijmy, 1% porównywanych ciężarów. Z badań Webera wypływał
następujący wniosek: różnica poziomu „sygnałów” odbieranych przez ludzki umysł jest proporcjonalna do natężenia bodźca, mierzalnej wielkości fizycznej.
Tę samą zależność odkrył w latach pięćdziesiątych XIX wieku Gustav Fechner, który podjął trud opisania jej matematycznie. Ostatecznie doprowadziło go to do sformułowania prawa,
które nazwał prawem Webera, określanego dziś raczej jako prawo Fechnera (lub prawo Webera–Fechnera, jeśli nazywający jest formalistą). Stwierdza ono, że odbierane uczucie jest
proporcjonalne do logarytmu bodźca. Doświadczenia wykazały, że zależność ta nie tylko obowiązuje przy określaniu różnic w ciężarze, lecz opisuje także sposób odbierania bodźców
wzrokowych i słuchowych. Zmiany natężenia źródła światła, jakie rozpoznaje ludzkie oko, zmieniają się z logarytmem faktycznej wypromieniowanej energii. Oznacza to, że gdy
będziemy mieć do czynienia z dwoma źródłami światła, z których jedno będzie dziesięciokrotnie jaśniejsze od drugiego, to niezależnie od rzeczywistej (absolutnej) ich jasności nasze
oko zawsze uzna różnicę między nimi za identyczną. Tak samo odbieramy dźwięki – wybuch o energii większej dziesięciokrotnie od innego źródła dźwięku będziemy odbierać zawsze
jako głośniejszy o konkretną, stałą wartość niezależnie od bezwzględnych natężeń dźwięku w obydwu wypadkach.
Prawo Webera–Fechnera nie jest idealnie dokładne, ale dobrze sprawdza się w roli przybliżenia. Do naszych zmysłów nieustannie docierają bodźce o bardzo dużej rozpiętości
natężenia, ewolucja musiała więc wytworzyć własny odpowiednik skali logarytmicznej. Ludzkie ucho potrafi wyłowić szelest myszy w żywopłocie, lecz musi radzić sobie również
z odbiorem grzmotu, jaki towarzyszy burzy. Żaden biologiczny „czujnik” nie zdołałby należycie zareagować na bodziec wytwarzany przez dźwięki o tak skrajnie różnych natężeniach –
gdyby ucho było zdolne zareagować na bezwzględną energię fali dźwiękowej wytwarzanej przez mysz, huk gromu zniszczyłby je bezpowrotnie; gdyby natomiast było dostosowane do
odbierania dźwięków generowanych przez grzmot, nie zdołałoby wychwycić szmerów myszy w żywopłocie. Dlatego właśnie człowiek dysponuje aparatem słuchowym, który
kompresuje poziomy energii do zakresu, z jakim może poradzić sobie jeden odbiornik. Skala logarytmiczna działa w ten sam sposób. Odróżnianie względnych różnic to bardzo zmyślne
rozwiązanie dla zmysłów.
Podstawowa jednostka poziomu głośności, decybel, jest definiowana właśnie na mocy prawa Webera–Fechnera. Określa ona poziom hałasu podawany względem pewnej wartości
odniesienia. Mysz buszująca w trawie wytwarza dźwięki o natężeniu około 10 decybeli. Rozmowa prowadzona przez ludzi stojących w odległości metra od siebie to hałas rzędu 40–60
decybeli. Mikser elektryczny emituje w kierunku używającej go osoby falę o natężeniu 60 decybeli. Pracujący silnik i opony trące o asfalt wytwarzają we wnętrzu samochodu hałas
o natężeniu 60–80 decybeli. W odległości 100 metrów od silnika odrzutowego do ucha docierają dźwięki o natężeniu 110–140 decybeli, a po zbliżeniu się na odległość 30 metrów
hałas wzrasta do 150 decybeli. Słyszana z jednego metra wuwuzela (plastikowa trąbka o irytującym dźwięku, która zyskała sobie popularność w czasie mistrzostw świata w piłce
nożnej w 2010 roku, dzięki czemu trafiła do wielu domów jako pamiątka) jest źródłem hałasu o natężeniu 120 decybeli; dla porównania dodam, że stosowany w wojsku granat
ogłuszający wytwarza huk o natężeniu 180 decybeli.
Tego rodzaju skale są w powszechnym użyciu do dziś, ponieważ pozwalają nam precyzyjnie określać warunki bezpieczne dla ludzi. Uszkodzeń słuchu można się spodziewać już przy
dźwiękach o natężeniu 120 decybeli, zatem wyrzuć swoją wuwuzelę. Bardzo proszę.
5 Dziedzic, ziemianin. Mimo podobieństwa tytuł ten nie ma nic wspólnego z angielskim tytułem szlacheckim „lord” (przyp. tłum.).
6 http://www.17centurymaths.com/contents/napiercontents.html.
7 Z listu Johna Marra do Williama Lilly’ego.
8 Dziś logarytmy Napiera, zwane też naturalnymi, oznacza się symbolem ln x, lecz autor używa zamiast niego symbolu log x, rezerwowanego zazwyczaj dla logarytmu dziesiętnego, czyli tak zwanego logarytmu
Briggsa. Aby zachować spójność wywodu, w pierwszej części rozdziału pozostawiono oznaczenia wprowadzone przez autora, później zaś stosowano już ogólnie przyjętą konwencję (przyp. tłum.).
9 W metodzie tej wykorzystuje się wzór trygonometryczny wprowadzony przez François Viète’a:
Na jego podstawie oraz za pomocą wartości zebranych w tablicach sinusów dowolny iloczyn można zapisać w postaci sum, różnic i dzielenia przez 2.
Rozdział 3. Duchy wielkości minionych
Rachunek różniczkowy
Co z niego wynika?
Aby wyznaczyć chwilowe tempo zmian danej wielkości, której wartość zależy na przykład od czasu, trzeba obliczyć, jak dana wielkość zmienia się w krótkim przedziale czasu i podzielić wynik
przez długość tego przedziału. Potem nieskończenie zmniejszyć przedział.
Dlaczego jest on tak ważny?
Definicja ta to podstawowy wzór rachunku różniczkowego, naszego głównego narzędzia opisu świata.
Co dzięki niemu osiągnęliśmy?
Pozwala nam obliczać styczne i powierzchnie, a także wyprowadzać wzory opisujące objętość brył i długość krzywych. Dzięki niemu można sformułować różniczkową postać zasad dynamiki
Newtona i podać wzory opisujące zasady zachowania energii oraz pędu. Rachunek różniczkowy stanowi szeroki zakres fizyki matematycznej.
W 1665 roku na tronie Anglii zasiadał Karol II, a Londyn, stolica jego państwa, był wielkim, zamieszkanym przez pół miliona ludzi miastem. Kwitła sztuka, a nauka, choć ciągle
w powijakach, z każdym rokiem wkraczała na ścieżkę intensywnego rozwoju. W Londynie działało już Towarzystwo Królewskie, prawdopodobnie najstarsza na świecie akademia
nauk bardzo szybko objęta patronatem Jego Królewskiej Mości. Bogacze mieszkali w imponujących rezydencjach, handel kwitł, ale ubodzy cisnęli się w chwiejnych ruderach
wyrastających coraz wyżej ponad wąskie uliczki miasta. W dzielnicach biedoty panowały koszmarne warunki sanitarne – domy i ulice pełne były szczurów oraz wszelkiego rodzaju
robactwa. Roznoszona przez gryzonie, a później już przez ludzi dżuma zaczęła zbierać krwawe żniwo – w 1666 roku populacja Londynu zmniejszyła się aż o jedną piątą. Była to
największa tragedia w historii miasta; zaraza dotknęła wtedy znaczną część Europy i Afrykę Północną. Król wraz z dworem przeniósł się w znacznie czystsze okolice do Oxfordshire;
do stolicy powrócił dopiero na początku 1666 roku. Przyczyna wybuchu epidemii pozostawała nieznana. Władze miasta próbowały wszystkiego, by powstrzymać zarazę – palono
wielkie stosy, które miały oczyścić powietrze, spalano każdą wydzielającą nieco silniejszą woń rzecz, zmarłych chowano natychmiast w masowych grobach. Zabito prawie wszystkie
psy i koty w Londynie, jak na ironię pozbywając się jedynych zwierząt, które mogły powstrzymać ekspansję szczurów.
Właśnie wtedy studia w Cambridge ukończył nieznany i niepozorny student Trinity College. Aby uniknąć zarazy, powrócił do domu rodzinnego na wsi, którym wraz z całym majątkiem
zarządzała jego matka. Ojciec chłopaka zmarł jeszcze przed jego urodzeniem, więc wychowanie malca powierzono babce ze strony matki. Być może właśnie cicha, spokojna, wiejska
okolica i brak innych rozrywek sprawiły, że młody człowiek skupił się na studiowaniu matematyki i nauk ścisłych. Później pisał: „Byłem wtedy u szczytu możliwości umysłowych,
a matematyka i filozofia [naturalna] zajmowały mnie bardziej niż jakakolwiek inna dziedzina nauki”. Prowadzone badania pozwoliły mu ostatecznie sformułować prawo powszechnego
ciążenia – uzależnić wartość działającej na ciała siły grawitacji od odwrotności kwadratu odległości dzielącej przyciągające je masy – i dać w ten sposób odpowiedź na pytania,
z którymi ówcześni naukowcy borykali się od przeszło pięćdziesięciu lat. W tym samym okresie zdołał sformułować pewne koncepcje matematyczne, których badaniem zajmowało się
w tamtych czasach wielu uczonych. Dzięki temu mógł z czasem wprowadzić nowe narzędzie obliczeniowe – równania różniczkowe i całkowe. Wreszcie udało mu się odkryć, że światło
słoneczne składa się z wielu różnych barw – wszystkich kolorów tęczy.
Zaraza z czasem ustąpiła, ludzie mogli więc powrócić do swoich wcześniejszych zajęć, ale młodzieniec nie spieszył się z ujawnianiem wniosków, do jakich doszedł. Wrócił do
Cambridge, zdobył tytuł magistra i został wykładowcą w Trinity College. Niebawem przyznano mu profesurę i katedrę matematyki Lucasa. Dopiero wtedy zaczął wydawać kolejne
prace poświęcone zarówno swoim starszym odkryciom, jak i nowym badaniom.
Człowiekiem tym był Isaac Newton. Jego odkrycia zrewolucjonizowały ówczesną naukę, a ostatecznie przyczyniły się do powstania świata, jaki nie miał prawa pojawić się nawet
w na jśmielszych snach króla Karola II – świata stupiętrowych budynków, pojazdów, które nie dość, że nie są zaprzężone w konie, to poruszają się z prędkością 130 kilometrów na
godzinę po wielopasmowych autostradach i których kier owcy słuchają muzyki z magicznych krążków wykonanych z materiału przypominającego szkło. W tym świecie pokonanie
Oceanu Atlantyckiego zajmuje sześć godzin lotu w maszynie znacznie cięższej od powietrza, a dzięki pudełku mieszczącemu się w kieszeni można porozmawiać z człowiekiem
znajdującym się po drugiej stronie globu…
Już wcześniej Galileo Galilei, Johannes Kepler oraz kilku innych równie znamienitych uczonych zdołało uchylić nieco rąbka tajemnic natury i ukazać ludziom cuda Wszechświata, ale
dopiero odkrycia Newtona pozwoliły ostatecznie zerwać zasłonę skrywającą prawa rządzące światem. Uczony nie tylko dowiódł, że wszystko wokół rządzi się ściśle określonymi
prawami, ale przede wszystkim opisał dokładnie te prawa, d zięki czemu możliwe stało się dokładne przewidywanie wyników określonych działań. Okazało się, że świat funkcjonuje
zgodnie z zasadami matematyki. W środku boskiego stworzenia Newton odnalazł bezduszny, precyzyjny mechanizm napędzający Wszechświat.
Oczywiście odkrycia Newtona nie wywołały rewolucji – ludzkość nie zarzuciła w jednej chwili dogmatów religijnych na rzecz świeckich poglądów. Do dziś religia odgrywa ważną rolę
w naszym życiu i to zapewne nie zmieni się nigdy, ale od chwili ukazania się drukiem dzieła Newtona Philosophiæ naturalis princ ipia mathematica (Matematyczne zasady filozofii
przyrody”)10 badania nad „istotą świata” – a taki właśnie podtytuł nosiła księga – przestały być wyłączną domeną studiów religijnych. Mimo to sam Newton nie odpowiadał dzisiejszej
wizji naukowca. Mistyka pociągała go w nie mniejszym stopniu niż nauka – wiele lat poświęcił na zgłębianie tajemnic alchemii i prowadzenie rozważań religijnych. W notatkach do
odczytu11 ekonomisty Johna Maynarda Keynesa, który żywo interesował się historią życia Isaaca Newtona, znajdujemy następujący fragment:
Nie należy uznawać Newtona za pierwszego człowieka ery umysłu, gdyż w rzeczywistości był on ostatnim z magów, ostatnim z Babilończyków i Sumerów, ostatnim
z wielkich zdolnym postrzegać to co widzialne i niewidzialne w sposób, w jaki dziesięć tysięcy lat temu widzieli świat twórcy naszego dziedzictwa intelektualnego. Isaac
Newton, który nigdy nie poznał swojego ojca, przyszedł na świat po jego śmierci w Boże Narodzenie 1642 roku, był ostatnim cudownym dzieckiem godnym, by Trzej
Mędrcy złożyli mu szczery, płynący z serca pokłon.
Dziś mistyczne fascynacje Newtona zaprzątają nas w znacznie mniejszym stopniu niż jego dokonania w dziedzinie fizyki i matematyki, szczególnie gdy przychodzi do rozważań na temat
podniosłości dwóch jego najważniejszych dokonań – ukazania światu, że prawa natury podlegają zasadom matematyki, oraz sformułowania równań rachunku różniczkowo-całkowego,
który jest jednym z podstawowych narzędzi opisu wspomnianych wcześniej praw. Mniej więcej w tym samym czasie gdy Newton pracował nad zagadnieniami rachunku różniczkowo-
całkowego, niezależnie do podobnych wniosków doszedł niemiecki matematyk i filozof Gottfried Wilhelm Leibniz, nie wykorzystał on jednak w żaden sposób swojego odkrycia.
Newton użył nowej metody obliczeniowej, by zrozumieć prawa rządzące Wszechświatem, choć nie ujawnił tego w swoich publikacjach, w których zastosował klasyczne dowody
geometryczne. Zapisał się w historii jako postać okresu przejściowego, człowiek, który pozwolił ludzkości odejść od średniowiecznego, nasyconego mistycyzmem postrzegania świata
i skierować się w stronę bliższych współczesnym racjonalnych poglądów. To właśnie za sprawą Newtona naukowcy zrozumieli, że Wszechświat funkcjonuje zgodnie z dającymi opisać
się matematycznie wzorcami, ale też dzięki niemu zyskali narzędzia pozwalające badać je i opisywać.
Rachunek różniczkowy nie pojawił się „znikąd”. Wypłynął z rozważań matematyki teoretycznej i stosowanej, a pierwsze ślady zagadnień, które ostatecznie przyczyniły się do jego
rozwoju, znajdujemy już w czasach Archimedesa. Już Newton stwierdził „Jeśli udało mi się dostrzec nieco więcej, to dlatego że stałem na ramionach olbrzymów”12. Olbrzymami tymi
byli niewątpliwie John Wallis, Pierre de Fermat, Galileusz i Kepler. Wallis w swoim dziele z 1656 roku, Arithmetica infinitorum („Arytmetyka nieskończoności”), przedstawił
rozważania, które można uznać za wczesną postać rachunku różniczkowego. W opublikowanym w 1679 roku traktacie De tangentibus linearum curvarum („O stycznych do linii
krzywych”) Fermat zawarł opis metody pozwalającej wyznaczyć styczną do dowolnej krzywej, które to zagadnienie wiąże się bezpośrednio z problemami rozwiązywanymi za pomocą
rachunku różniczkowo-całkowego, Kepler zaś sformułował trzy podstawowe prawa ruchu planet, które pozwoliły Newtonowi odkryć prawo powszechnego ciążenia (nim zresztą
zajmiemy się w następnym rozdziale). Galileusz zajmował się zagadnieniami z zakresu astronomii, która rozwinęła się znacznie dzięki jego staraniom, lecz równie wiele uwagi poświęcał
problemom właściwym dla ciał przebywających na Ziemi. Swoje spostrzeżenia wydał w 1590 roku w dziele De motu („O ruchu”). To jemu zawdzięczamy wiedzę o sposobie
poruszania się spadających ciał i ujęcie jej w elegancką matematyczną formułę. Odkrycia Galileusza dały Newtonowi solidne podstawy do sformułowania trzech fundamentalnych dziś
zasad ruchu.
Aby zrozumieć zależność, jaką odkrył Galileusz, musimy wprowadzić dwa znane z codziennego życia pojęcia: prędkość i przyspieszenie. Prędkość jest wielkością opisującą, jak
szybko porusza się dane ciało i w jakim kierunku się przemieszcza. Gdy zrezygnujemy z podawania kierunku ruchu, otrzymamy tak zwaną wartość prędkości czy też szybkość.
Przyspieszenie opisuje zmianę prędkości, która zazwyczaj wiąże się ze zmianą jej wartości (wyjątkiem jest przypadek polegający na zmianie kierunku ruchu z zachowaniem szybkości).
Na co dzień mówimy o przyspieszaniu i zwalnianiu, mając na myśli zwiększanie prędkości poruszania się i odpowiednio jej zmniejszanie, natomiast w mechanice każdą zmianę
prędkości określa się najczęściej mianem przyspieszenia – gdy prędkość ciała rośnie, ma ono wartość dodatnią, w przeciwnym wypadku jest ujemne13. Wyobraź sobie teraz, że
jedziesz samochodem. Licznik prędkości wskazuje wartość 50 km/h – to szybkość, z jaką porusza się pojazd. Kierunek ruchu jest wyznaczany przez przód samochodu. Załóżmy, że
w pewnej chwili dociskasz pedał gazu: samochód przyspiesza, więc wartość prędkości podawana na liczniku rośnie. Gdy nadepniesz pedał hamulca, samochód zwolni, co oznacza, że
będzie się poruszać z ujemnym przyspieszeniem.
Gdy samochód porusza się ze stałą prędkością, podanie jej wartości w dowolnej chwili ruchu nie nastręcza żadnych trudności. Skrót km/h odczytuje się jako „kilometry na godzinę”.
Jeżeli samochód przebywa odległość pięćdziesięciu kilometrów w czasie jednej godziny, wystarczy podzielić przez siebie te dwie wartości – długość przebytej drogi przez czas ruchu –
by określić prędkość, z jaką przemieszcza się pojazd. Aby przeprowadzić taki eksperyment, nie trzeba jechać nigdzie przez godzinę; wystarczy, by samochód pokonał pięć kilometrów
w czasie sześciu minut. Wartości te uzyskaliśmy, dzieląc poprzednie przez 10, ich stosunek więc nadal wynosi 50 km/h. Podsumujmy zatem:
prędkość = przebyta droga podzielona przez czas trwania ruchu.
Analogicznie wyznacza się przyspieszenie o stałej wartości:
przyspieszenie = zmiana wartości prędkości podzielona przez czas przyspieszania.
Te rozważania były stosunkowo proste, ale gdy wartość prędkości lub przyspieszenia ulega zmianie, opis ruchu staje się nieco bardziej skomplikowany. A przecież nie mogą być
jednocześnie stałe, bo stałe (i niezerowe) przyspieszenie oznacza zmianę prędkości. Wyobraź sobie teraz, że jedziesz wiejską drogą – przyspieszasz na prostych i zwalniasz przed
zakrętami. Prędkość samochodu ulega ciągłym zmianom, tak samo jak przyspieszenie, z jakim się poruszasz. Jak wyznaczyć ich wartości w dowolnej chwili trwania ruchu? Rozsądek
podpowiada, by zdefiniować na początek krótki przedział czasowy, na przykład jednosekundowy. Wtedy prędkość chwilowa mierzona o godzinie, powiedzmy, 11.30 wyrazi się
stosunkiem drogi pokonanej między tą chwilą a chwilą o sekundę późniejszą, do czasu trwania ruchu. Przyspieszenie chwilowe będzie określone w sposób analogiczny.
Tyle że… tak obliczona prędkość nie będzie prędkością chwilową. W rzeczywistości w ten sposób wyznacza się prędkość średnią w trwającym jedną sekundę ruchu przyspieszonym,
a zaręczam, że istnieją przypadki, w których jedna sekunda to naprawdę długi czas – choć struna gitary wydająca z siebie środkowe C w ciągu jednej sekundy wykonuje 440 drgań,
jej średnia prędkość w tym czasie wynosi zero, co sugerowałoby, że struna w ogóle się nie porusza. Należy zatem skrócić przedział czasowy, jakim operujemy w naszych obliczeniach,
na przykład do jednej dziesięciotysięcznej sekundy. Niestety nawet po narzuceniu tak surowych warunków nie zbliżymy się do definicji prędkości chwilowej. Światło o długości fali
należącej do zakresu pasma widzialnego wykonuje w ciągu sekundy kwadrylion drgań (1015), zatem w wypadku obliczeń prowadzonych dla takiego rodzaju ruchu należałoby posłużyć
się przedziałem mniejszym niż jedna kwadrylionowa sekundy. A mimo to… cóż, formalnie tak krótki czas nadal nie odpowiada definicji chwili. Te rozważania prowadzą wprost do
wniosku, że tak zwane wielkości chwilowe powinny być definiowane w przedziale czasu krótszym od jakiegokolwiek nam znanego. Niestety jedyną liczbą spełniającą tak zadany
warunek jest 0, co czyni go bezużytecznym, bo przecież droga przebyta w czasie 0 s musi wynosić 0 m, a wyrażenie 0/0 nie ma matematycznie sensu.
Pionierzy nauki zignorowali te niuanse, przyjmując praktyczne podejście do sprawy. Skoro błędy pomiarowe i tak przewyższałyby zwiększoną precyzję pomiarów, jaką można by
uzyskać dzięki zmniejszeniu przedziału czasu, wprowadzenie takiej zmiany nie miało żadnego sensu. W czasach Galileusza zegary były tak niedokładne, że uczony, chcąc mierzyć czas
ruchu, nucił pod nosem melodię – dobry muzyk potrafi podzielić pełny ton na bardzo małe fragmenty – ale nawet przy takiej metodzie Galileusz musiał się uciec do pewnego podstępu,
by zmierzyć czas ruchu spadającego ciała: spowolnił ruch pionowy, tocząc kulę po równi pochyłej. Eksperyment polegał na określaniu położenia kuli po upływie kolejnych, równych
sobie chwil. Uczony odkrył, że chwilom oznaczonym jako 0, 1, 2, 3, 4, 5, 6… (podaję tu uproszczone wartości, ale zależność pozostaje niezmieniona) odpowiadają położenia
0 1 4 9 16 25 36.
Droga pokonywana przez ciało poruszające się na równi pochyłej okazała się proporcjonalna do kwadratu czasu potrzebnego na przebycie każdego z odcinków. A jak zmieniała się
prędkość ciała? Jej średnia dla każdego przedziału przyjmowała wartość różnicy
1 3 5 7 9 11
między wartościami kolejnych kwadratów. Dla każdego przedziału z wyjątkiem pierwszego prędkość średnia wzrastała o dwie jednostki. Taka zależność musiała zwrócić uwagę
Galileusza, tym bardziej że powtarzała się we wszystkich wykonanych seriach pomiarowych – dla kul o różnych masach i przy różnych kątach nachylenia równi do powierzchni.
Przeprowadzone eksperymenty i zaobserwowana na ich podstawie zależność pozwoliły uczonemu wyciągnąć wiekopomny wniosek – torem lotu spadającego ciała, czy też ciała
wystrzelonego w powietrze, jest parabola, U-kształtna krzywa znana już starożytnym Grekom. (W omawianym przypadku ramiona krzywej będą zwrócone do dołu. Dodam też, że
w rozważaniach pomijam kwestię oporu, który zmienia kształt toru ruchu ciała lecącego w powietrzu, ale nie ma większego wpływu na ruch kulek po równi). Warto zaznaczyć, że
krzywa z tej samej rodziny – elipsa – pojawiła się w wynikach prac Keplera poświęconych ruchowi planet na orbitach. Niewątpliwie owa zbieżność zwróciła uwagę Newtona, ale tą
historią zajmę się w następnym rozdziale.
Wróćmy do eksperymentu Galileusza: przeprowadzone przez niego pomiary nie wystarczą, by dostrzec ogólną zasadę, jaka kryje się za zauważoną zależnością. Newton zrozumiał, że
zaobserwowana relacja musi wypływać z tempa zmian pewnych wielkości. Prędkość opisuje tempo zmian położenia ciała wraz z upływającym czasem ruchu, natomiast przyspieszenie
to tempo zmian prędkości ciała w czasie trwania ruchu. Z obserwacji Galileusza wynikało, że położenie zmieniało się zgodnie z kwadratem czasu, w jakim dokonywano pomiaru,
prędkość zmieniała się zgodnie z zależnością liniową, a przyspieszenie nie zmieniało się wcale. Newton uświadomił sobie, że jeśli chce zrozumieć, skąd wywodzi się zaobserwowana
przez Galileusza zależność, i poznać jej znaczenie dla naszego postrzegania świata, musi znaleźć metodę opisywania wartości chwilowych wielkości charakteryzujących tempo zmian.
Tak właśnie narodził się rachunek różniczkowo-całkowy.
Mogłob y się wydawać, że odkrycie tak doniosłe jak reguły obliczeń różniczkowo-całkowych powinno zostać ogłoszone przy dźwięku fanfar i w odpowiednio uroczystej atmosferze,
niestety ludzie zazwyczaj potrzebują czasu, by docenić znaczenie nowatorskich myśli. Tak też było w wypadku rachunku różniczkowo-całkowego. Rozważania Newtona poświęcone
tym zagadnieniom zostały sformułowane przypuszczalnie w 1671 roku, a być może nawet wcześniej, gdy uczony opracował ostatecznie dzieło The Method of Fluxions and Infinite
Series („Metoda fluksji i szeregów nieskończonych”). Dziś trudno jest określić dokładną datę jego powstania, ponieważ książka ta została wydana dopiero w 1736 roku, niemal
dziesięć lat po śmierci Newtona. Szkice do rozważań nad zagadnieniami znanymi dziś jako reguły rachunku różniczkowego i całkowego pojawiły się także w kilku innych rękopisach
uczonego. Z notatek Leibniza wynika, że pierwsze znaczące wyniki otrzymał już w 1675 roku, ale nie opublikował nic związanego z tym tematem aż do 1684 roku.
Wiele lat po ukończeniu przez obydwu twórców prac nad podstawami rachunku różniczkowo-całkowego, gdy Newton osiągnął już znaczną pozycję naukową w świecie, jego
przyjaciele wszczęli raczej bezsensowną, acz budzącą wiele emocji dysputę nad kwestią praw pierwszeństwa do odkrycia; posunęli się nawet do tego, że oskarżyli Leibniza
o splagiatowanie wczesnych praw Newtona. W odpowiedzi kilku matematyków z kontynentu zarzuciło plagiat Newtonowi. Spór przekształcił się w trwający prawie sto lat konflikt
między angielskimi matematykami a ich kolegami z Europy kontynentalnej. Brak kontaktów przyniósł poważne szkody angielskiej nauce, nie odbił się jednak negatywnie na
osiągnięciach czynionych na kontynencie. Podczas gdy angielscy uczeni trwonili czas i energię na wynajdywanie kolejnych krzywd, jakich ich zdaniem doznał Newton, matematycy zza
Kanału szybko nauczyli się wykorzystywać jego odkrycie do wykonywania większości obliczeń w fizyce. Nawet dziś historycy nauk ścisłych nie potrafią udzielić jednoznacznej
odpowiedzi, kto miał rację w tym sporze, wiele dowodów wskazuje jednak na to, że Newton i Leibniz sformułowali podstawy rachunku różniczkowo-całkowego niemal jednocześnie
i niezależnie od siebie – a przynajmniej o tyle niezależnie, o ile pozwalały na to zależności łączące społeczność naukową w tamtych czasach.
Leibniz zastosował inną formę zapisu niż Newton, ale zasadnicza myśl jego rozważań nie różniła się znacząco od wywodów Newtona. Natomiast ścieżki, jakimi obydwaj dotarli do
rozwiązania, nie miały ze sobą nic wspólnego. Rozważania Leibniza były znacznie bardziej formalne – polegały na przeprowadzeniu szeregu przekształceń algebraicznych – z kolei
Newton pracował nad rozwiązaniem konkretnego problemu fizycznego, w którym badana przezeń funkcja była rzeczywistą wielkością fizyczną zmieniającą się z upływem czasu. Stąd
zresztą określenie „fluksje” wprowadzone do tytułu pracy – fluksja, czyli przepływ.
Metodę Newtona można bez trudu zilustrować prostym przykładem – pewna wielkość y jest kwadratem x2 innej wielkości x. (Właśnie taką zależność odkrył dla kuli toczącej się po
równi Galileusz: położenie ciała okazało się wartością proporcjonalną do kwadratu czasu trwania ruchu. W omawianym przypadku y byłoby położeniem, a x czasem). Zaczniemy
od wprowadzenia nowej wielkości o oznaczającej niewielką zmianę wartości x. Odpowiadającą jej zmianę wartości y można zapisać jako:
(x+o)2 – x2,
co upraszcza się do postaci 2xo + o2. Tempo zmian (uśrednione na niewielkim przedziale odpowiadającym zmianie o, gdyż x zwiększa się do wartości x + o) wyrazi się zatem wzorem:
Wartość tego wyrażenia zależy od wartości parametru o, czego zresztą należało się spodziewać w razie, gdybyśmy dokonali uśrednienia tempa zmian w pewnym niezerowym przedziale
zmienności. Zauważ jednak, że im bardziej będzie zmniejszać się wartość tego parametru, innymi słowy, im bardziej będzie on „przepływać w kierunku” zera, tym bardziej wartość
wyrażenia 2x + o będzie stawać się bliższa wartości 2x. Ta zaś nie zależy już w żaden sposób od o, natomiast opisuje chwilową zmianę wielkości x.
Rozważania Leibniza nie różniły się zasadniczo od przedstawionego tu toku rozumowania, z tym że niemiecki uczony użył symbolu dx („niewielka zmiana wartości x”) zamiast
oznaczenia o oraz analogicznie dy, by zaznaczyć zmianę wartości y. Gdy wartość zmiennej y zależy od wartości innej zmiennej, na przykład x, tempo zmian wielkości y względem
wielkości x nazywamy pochodną wielkości y. Newton oznaczał pochodną, umieszczając kropkę nad symbolem zmiennej – dla y było to
natomiast Leibniz wprowadził zapis
Dalsze pochodne Newton oznaczał kolejnymi kropkami, a Leibniz zapisywał na przykład
Dziś mówimy, że y jest funkcją x, co zapisuje się jako y = f(x), ale w czasach, które tu opisuję, koncepcja funkcji dopiero się rodziła. Obecnie naukowcy używają albo zapisu
Leibniza, albo pewnej wariacji notacji Newtona, w której kropkę zastąpiła łatwiejsza do uzyskania w druku kreska: y’, y’’. Czasami używa się także oznaczeń f ’(x) i f ’’(x), by
podkreślić, że pochodne funkcji są także funkcjami. Pochodną wyznacza się, wykonując działanie zwane różniczkowaniem.
Rachunek całkowy – zbiór wzorów pozwalających wyznaczać pola powierzchni – okazał się odwrotnością rachunku różniczkowego, za pomocą którego wyznacza się kąt nachylenia
krzywej do poziomu. Spróbuj zrozumieć tę zależność. Wyobraź sobie, że na końcu obszaru oznaczonego na rysunku 12 szarym kolorem pojawia się dodatkowy wąski pas. Kształtem
będzie on zbliżony do długiego, wąskiego prostokąta o szerokości o i wysokości y, co oznacza, że pole jego powierzchni będzie w pewnym przybliżeniu wynosić oy. Tempo zmiany
pola powierzchni względem zmian wartości x jest opisane stosunkiem oy/o, czyli wynosi dokładnie y. Oznacza to, że pochodna pola powierzchni jest równa pierwotnej funkcji
opisującej krzywą. Zarówno Newton, jak i Leibniz rozumieli, że działanie potrzebne do obliczenia pola powierzchni wyznaczanego pod określoną krzywą, tak zwane całkowanie, jest
w pewnym sensie odwrotnością różniczkowania. Leibniz początkowo oznaczał całkowanie skrótem omn. pochodzącym od łacińskiego wyrażenia omnia, „suma”. Z czasem zmienił je
na symbol ∫, stosowaną dawniej wydłużoną literę s, również nawiązując do słowa „suma”. Newton nie wprowadzał żadnego oznaczenia nowego działania.
Rysunek 12. Dodatkowy fragment powierzchni pod krzywą y = f(x).
Brak osobnego symbolu, który oznaczałby całkowanie, nie powstrzymał go jednak od poczynienia znaczących postępów w tej dziedzinie. Wallis obliczył, że pochodna dowolnego
wyrażenia potęgowego xa wynosi axa−1, zatem pochodne wyrażeń x3, x4, x5 muszą wyrażać się jako odpowiednio 3x2, 4x3 i 5x4. Następnie rozszerzył to twierdzenie na dowolny
wielomian – skończoną kombinację wyrażeń potęgowych, na przykład 3x7 − 25x4 + x2 − 3. Obliczanie pochodnych tego rodzaju sum polega na wyznaczeniu osobno pochodnej
każdego ze składników sumy, a następnie dodaniu ich do siebie zgodnie ze wcześniejszym zapisem. Newton zauważył, że taka sama zasada obowiązuje dla szeregów nieskończonych –
wyrażeń zbudowanych z nieskończenie wielu potęg określonej zmiennej. Odkrycie to pozwoliło mu przeprowadzać całkowanie na funkcjach znacznie bardziej skomplikowanych niż
proste wielomiany.
W świetle oczywistych podobieństw obydwu zaproponowanych rozwiązań przestaje dziwić spór o pierwszeństwo odkrycia, jaki rozgorzał w tamtym okresie wśród uczonych –
rozważania różniły się głównie metodą zapisu. Jednak gdy sformułuje się jawnie problem leżący u podstaw zagadnienia, da się dostrzec, w jaki sposób Newton i Leibniz mogli osiągnąć
niezależnie ten sam wynik. Zresztą Fermat i Wallis nieraz uprzedzali odkrycia tych dwóch matematyków, więc roztrząsanie praw pierwszeństwa było pozbawione większego sensu.
Znacznie bardziej interesujące kontrowersje wiązały się z logiką leżącą u podstaw powstania rachunku różniczkowo-całkowego, a w zasadzie z brakiem tejże. Głównym krytykiem
niespójnej struktury nowego narzędzia stał się angielsko-irlandzki filozof George Berkeley, biskup Cloyne. Berkeley był człowiekiem wiary – uznawał, że materialistyczne spojrzenie na
świat, ukształtowane w znacznej mierze dzięki pracom Newtona, marginalizowało rolę Boga w świecie, sprowadzało go do pozycji bezstronnego obserwatora, który porzucił dzieło
stworzenia natychmiast po jego ukończeniu i pozostawił je własnemu losowi. Taka wizja Stwórcy kłóciła się z obrazem immanentnego Boga chrześcijan. Berkeley uznał przypuszczalnie,
że wskazując niespójności w założeniach rachunku różniczkowo-całkowego, zdoła zdyskredytować bazującą na nim silnie naukę. Jego działania nie wywarły większego wpływu na
rozwój metod matematycznych stosowanych w fizyce z prozaicznej przyczyny – wyniki uzyskiwane dzięki rachunkowi różniczkowo-całkowemu pozwalały poznać bliżej tajemnice
natury i tak dalece zgadzały się z doświadczeniami, że nikt nie wnikał w logiczne założenia nowej teorii. Zresztą postawa ta cechuje także dzisiejszych fizyków – skoro coś działa, nie ma
sensu dzielić włosa na czworo i pytać o podstawy.
Berkeley uznał, że błędem logicznym jest przypisywanie pewnym zmiennym (newtonowskiemu o i dx Leibniza) przez większą część obliczeń niewielkiej wartości niezerowej, by potem
ostatecznie stwierdzić, że mają one jednak wartość zero, jeśli wcześniej wykonało się dzielenie przez te zmienne licznika i mianownika ułamka. Dzielenie przez zero jest niedopuszczalne
w matematyce, ponieważ nie ma ono jednoznacznie określonego wyniku. Przykładowo równanie 0 × 1 = 0 × 2 jest prawdziwe, ponieważ wyrażenia po obydwu stronach znaku
równości mają wartość 0, ale gdybyśmy wykonali obustronne dzielenie przez zero, otrzymalibyśmy 1 = 2, czyli fałsz14. Zarzuty te Berkeley wyraził w wydanym w 1734 roku pamflecie
The Analyst, a Discourse Addressed to an Infidel Mathematician („Analityk, czyli wykład pod adresem niewiernego matematyka”).
Newton starał się zresztą uzasadnić to kłócące się z logiką założenie, odwołując się do pewnych analogii fizycznych. W jego rozumieniu zmienna o nie była wielkością stałą, ale
parametrem zmieniającym się w czasie, którego wartość płynnie zmierzała w kierunku zera, ale nigdy nie osiągała tej granicy. W ten sposób pochodną również definiowało wyrażenie
o zmiennej wartości – stosunek wartości zmiany parametru y do wartości zmiany parametru x. Proporcja ta także zmierzała ku określonej wartości granicznej, by nigdy do niej nie
dotrzeć. Wartością graniczną miała być właśnie wielkość chwilowego tempa zmian, czyli pochodna parametru y po zmiennej x. Berkeley odrzucił te wyjaśnienia, określając
przedstawioną ideę szyderczym mianem „duchów wielkości minionych”.
Również Leibniz musiał zmagać się z zagorzałym przeciwnikiem przedstawionej idei. Rola ta przypadła geometrze Bernardowi Nieuwentijtowi, który w latach 1694 i 1695 wydał
drukiem swoje zarzuty pod adresem niemieckiego uczonego. Leibniz usiłował bronić zaprezentowanego rozwiązania jako metody słusznej w wypadku „nieskończenie małych” wartości,
lecz nie zdało się to na wiele, gdyż wprowadzone określenie wywołało szereg błędnych interpretacji. Jednak udało się mu osiągnąć jedno: dzięki nowemu terminowi zdołał wyjaśnić, że
teoria posługiwała się nie tyle stałą i niezerową wartością, która może być dowolnie mała (co kłóci się z logiką), ile raczej zmiennym, niezerowym parametrem, który może stać się
dowolnie mały w wyniku określonego procesu. Newton i Leibniz przyjęli niemal identyczną ścieżkę obrony, która ich przeciwnikom musiała się wydawać maskowanym elokwencją
oszustwem.
Na szczęście ani ówcześni fizycy, ani matematycy nie czekali na logicznie spójny dowód prawdziwości rachunku różniczkowo-całkowego, tylko ochoczo zabrali się do używania
nowego narzędzia. Wszelkie wątpliwości mogli rozwiązać w bardzo prosty sposób – porównując otrzymane wyniki z danymi zebranymi w czasie obserwacji. Newtonowi przyświecał
zresztą konkretny cel, gdy opracowywał nową metodę obliczeniową. Dzięki niej zdołał sformułować prawa rządzące ruchem ciała poruszającego się pod wpływem działającej na nie
siły i powiązać je z prawem opisującym ruch ciał pod wpływem grawitacji. Dzięki temu zdołał wyjaśnić wiele tajemnic dotyczących ruchu planet i innych ciał niebieskich w Układzie
Słonecznym. Prawo powszechnego ciążenia wywarło tak wielki wpływ na rozwój fizyki i astronomii, że poświęciłem mu osobny rozdział tej książki (następny), natomiast tak zwane
zasady dynamiki – trzy prawa rządzące ruchem ciał, z których jedno przyjmuje ściśle matematyczną postać – doprowadziły bezpośrednio do rozwoju rachunku różniczkowo-
całkowego.
Na ironię zakrawa fakt, że Newton usunął wszystkie ślady obliczeń różniczkowo-całkowych z pracy poświęconej zasadom dynamiki, zastępując je dowodami bazującymi na
klasycznych zasadach geometrii. Prawdopodobnie uznał, że taki wywód spotka się z lepszym odbiorem współczesnych mu słuchaczy. Jeżeli rzeczywiście powodowało nim właśnie to,
trzeba przyznać, że wykazał się niebywałą intuicją. Jednocześnie należy zauważyć, że wiele z przedstawionych w Principiach dowodów geometrycznych zrodziło się w wyniku
prowadzonych wcześniej rozważań różniczkowo-całkowych albo przybrało taki, a nie inny kształt dzięki wykorzystaniu rachunku różniczkowo-całkowego, który pozwolił wcześniej
określić poprawną odpowiedź. Dopiero mając ją, Newton mógł przystąpić do sformułowania odpowiedniego dowodu geometrycznego, co zresztą dziś jest powszechnie przyjętą
metodą postępowania. Jest to dla nas szczególnie wyraźnie widoczne w sposobie operowania tak zwanymi wielkościami wymiarowymi, które wprowadził Newton w drugiej księdze
pracy poświęconej zasadom dynamiki. Ich wartości zwiększają się lub zmniejszają w wyniku „ciągłego ruchu bądź zmian”, co oznacza, że nie są one niczym innym jak fluksjami
ze wspominanej już niepublikowanej pracy Newtona. Dziś nazwalibyśmy je funkcjami ciągłymi (i co więcej, różniczkowalnymi). Newton opracował substytut metody „proporcji
pierwszych i ostatecznych”. Lemat (nazwa wyniku pomocniczego używanego często, ale który sam jest pozbawiony większego znaczenia) otwierający dzieło nie pozostawia żadnych
co do tego wątpliwości, ponieważ autor definiuje w nim równość wspomnianych wielkości:
Wielkości i ich proporcje dążące stale i w skończonym czasie do równości, które przed upływem tego czasu zbliżają się do siebie bardziej niż w stopniu określonym
jakąkolwiek różnicą, stają się ostatecznie sobie równe.
W książce Never at Rest („Bez chwili wytchnienia”) Richard Westfall, biograf Newtona, uzasadnia, dlaczego lemat uczonego był tak znaczący i tak nowatorski: „Niezależnie od języka,
jakim ją sformułowano, sama koncepcja […] była na wskroś współczesna; w żadnym z założeń geometrii klasycznej nie znajdziemy nawet śladu podobnego rozumowania”15.
Współcześni Newtonowi musieli solidnie wytężać głowy, by zrozumieć, do czego zmierzał ich znamienity kolega. Zresztą Berkeleyowi zapewne nigdy się to nie udało – o czym wkrótce
się przekonamy – gdyż właśnie ten lemat zawiera wyjaśnienie niezbędne do odparcia zarzutów, jakie biskup stawiał nowej teorii.
W tamtym okresie rachunek różniczkowo-całkowy, choć odegrał kluczową rolę w sformułowaniu tez zawartych w Principiach, nie istniał jako oficjalne narzędzie matematyczne.
Jednak z chwilą gdy tylko jego zasady ujrzały światło dzienne, intelektualni spadkobiercy Newtona przystąpili do odtworzenia procesu myślowego uczonego. Szybko przełożyli główne
koncepcje dzieła na język rachunku jako bardziej naturalny i wszechstronny, czym zapoczątkowali ekspansję tej metody obliczeniowej w świecie nauk ścisłych.
Pewne wskazówki dotyczące pracy z rachunkiem różniczkowo-całkowym można było znaleźć w zasadach dynamiki. Zrodziły się one w wyniku poszukiwań odpowiedzi na pytania
z gruntu filozoficzne: co sprawia, że ciało zaczyna się poruszać, i co powoduje zmianę stanu ruchu? Klasyczna nauka nakazywała udzielać odpowiedzi podanej jeszcze przez
Arystotelesa: ciało porusza się, gdy działa na nie pewna siła, i to właśnie ona decyduje o prędkości ciała. Arystoteles przyjął także, że aby utrzymać ciało w ruchu, należy stale działać na
nie siłą. Twierdzenie filozofa można sprawdzić w bardzo prosty sposób – połóż książkę lub podobny przedmiot na stole. Gdy ją popchniesz, książka przesunie się nieco i będzie się
poruszać po blacie tak długo, jak długo będziesz ją popychać; utrzyma też mniej więcej stałą prędkość ruchu. Gdy przestaniesz ją popychać, książka natychmiast się zatrzyma. Wydaje
się zatem, że zasada podana przez Arystotelesa znajduje potwierdzenie w doświadczeniu, jednak po namyśle dojdziemy do wniosku, że zgodność ta jest jedynie pozorna. Okazuje się,
że na książkę działa jeszcze jedna siła poza tą, z jaką jest ona popychana – siła tarcia powstająca między okładką a powierzchnią blatu. Co więcej, wartość tej siły rośnie wraz
z prędkością, z jaką porusza się książka, o ile oczywiście prędkość książki pozostanie w rozsądnych granicach. Książka porusza się po stole ze stałą prędkością, gdy siła tarcia, jaka
działa między jej okładką a powierzchnią stołu, jest równoważona przez siłę pchnięcia, ostatecznie więc wypadkowa siła działająca na to ciało ma wartość zero.
Newton uświadomił sobie ten fakt podczas studiów nad traktatami Galileusza i Kartezjusza. W efekcie zrodziła się teoria całkowicie odmienna od arystotelejskiej. Trzy zasady dynamiki
Newtona głoszą, co następuje:
Zasada pierwsza. Dopóki na ciało nie zadziała niezrównoważona siła wypadkowa, pozostanie ono w spoczynku lub będzie poruszać się ruchem jednostajnym
prostoliniowym.
Zasada druga. Zmiana ruchu ciała jest wprost proporcjonalna do działającej na ciało siły i pojawia się w kierunku jej działania. (Stałą proporcjonalności w tym równaniu
jest masa ciała, a dokładnie wartość równa jej odwrotności).
Zasada trzecia. Działaniu każdej siły odpowiada działanie innej siły o takiej samej wartości, ale przeciwnym zwrocie. (Każdej akcji odpowiada reakcja).
Pierwsza z podanych zasad jawnie zaprzecza naukom Arystotelesa. Z trzeciej zasady wynika, że pchnięte ciało działa na pchającego z taką samą siłą, z jaką on podziałał na nie.
Rachunek różniczkowo-całkowy objawia się w zasadzie numer dwa. „Zmianą ruchu” określił w niej Newton tempo, w jakim zmienia się prędkość ciała, czyli jego przyspieszenie.
Przyspieszenie jest pochodną prędkości ciała liczoną po czasie i drugą pochodną położenia liczoną także po czasie, co oznacza, że druga zasada dynamiki Newtona podaje zależność
między położeniem ciała i działającą na to ciało siłą w postaci równania różniczkowego:
druga pochodna położenia = siła/masa.
Aby odnaleźć na tej podstawie położenie ciała, należy rozwiązać powyższe równanie, co polega na „wydedukowaniu” wzoru opisującego położenie z jego drugiej pochodnej.
Rozumowanie to pozwala prosto wyjaśnić zachowanie kuli na równi pochyłej zaobserwowane przez Galileusza. Sekret tkwi w dostrzeżeniu faktu, że przyspieszenie ruchu ciała na równi
jest stałe. Wniosek ten podawałem już uprzednio, posiłkując się przybliżonymi obliczeniami prowadzonymi dla skończonych przedziałów czasu. Teraz możemy wreszcie przeprowadzić
rachunki należycie, zakładając ciągły upływ czasu. Wartość przyspieszenia w tym ruchu zależy od wartości siły grawitacji oraz kąta nachylenia równi do poziomu, ale nie będziemy
wnikać aż tak głęboko w szczegóły obliczeń. Przyjmijmy, że stałe przyspieszenie ruchu ciała na równi to a. Po scałkowaniu tej funkcji otrzymamy wzór opisujący prędkość kuli
w dowolnej chwili t trwania ruchu: at + b, gdzie b jest prędkością ciała w zerowej chwili ruchu. Kolejne całkowanie pozwala wyznaczyć wzór opisujący położenie ciała na równi:
gdzie c jest położeniem ciała w zerowej chwili ruchu. W szczególnym wypadku, gdy a = 2, b = 0 i c = 0, kolejne współrzędne położenia ciała będą odpowiadać wynikom
uproszczonych obliczeń, które zaprezentowałem wcześniej, czyli położenie ciała w chwili t będzie równe t2. W podobny sposób można udowodnić słuszność jednego z większych
odkryć Galileusza: wystrzelony pocisk porusza się po paraboli.
Zasady dynamiki Newtona dały światu znacznie więcej niż tylko narzędzie potrzebne do prowadzenia obliczeń parametrów ruchu ciał. Dzięki nim zdołaliśmy zrozumieć dokładnie
ogólne prawa rządzące fizyką. Za najważniejsze z nich uznaje się tak zwane zasady zachowania, głoszące, że w każdym poruszającym się układzie ciał – nieważne, jak bardzo
skomplikowanym – pewne wielkości pozostają niezmienione. Okazuje się, że zamieszanie wywołane ruchem w układzie omija pewne parametry, nie burząc ich błogiego spokoju.
Trzy spośród zachowywanych wielkości to energia, pęd i moment pędu.
Energię określa się czasami mianem zdolności ciała do wykonania pewnej pracy. Wzniesienie ciała na określoną wysokość wymaga wykonania pracy umożliwiającej pokonanie (stałej)
siły grawitacji. Praca ta jest proporcjonalna do masy ciała, siły grawitacji oraz wysokości, na jaką trafia to ciało. Zmagazynowana w ten sposób energia zostaje uwolniona, gdy ciało
powraca na wyjściową wysokość. Wtedy to wykonuje ono pracę równą tej, jaka była potrzebna, by pierwotnie umieścić je wyżej. Tego rodzaju energię nazywamy energią
potencjalną.
Energia potencjalna sama w sobie nie jest niczym specjalnie interesującym, ale bez niej nie da się przeprowadzić pięknego matematycznego wyprowadzenia pozwalającego wywieść
z drugiej zasady dynamiki Newtona zależność opisującą inny rodzaj energii – energię kinetyczną. W czasie ruchu ciała jego energia potencjalna i energia kinetyczna zmieniają się, ale
nie dowolnie. Zmiana energii jednego rodzaju jest natychmiast równoważona zmianą drugiego rodzaju. Ciało spadające pod wpływem działania siły grawitacji stale przyspiesza,
a zasada dynamiki Newtona pozwala określić, w jaki sposób wraz z wysokością zmienia się prędkość. Okazuje się, że spadek energii potencjalnej jest równy dokładnie połowie
iloczynu masy i kwadratu prędkości ciała. Nazwijmy tę wielkość energią kinetyczną; całkowita energia układu wyrażona jako suma energii potencjalnej i kinetycznej jest zachowana.
Zasady dynamiki Newtona dowodzą, że nigdy nie zdołamy skonstruować perpetuum mobile – żadne urządzenie mechaniczne nie jest w stanie działać w nieskończoność bez
pozyskiwania energii z zewnątrz.
W ujęciu fizycznym energia potencjalna jest czymś zupełnie innym od energii kinetycznej, natomiast matematycznie można je swobodnie porównywać, czasami wręcz zastępować jedną
drugą. W naszym rozumieniu ruch jest zjawiskiem pozwalającym przekształcać energię potencjalną w kinetyczną. „Energia” – termin wykorzystywany do nazwania obydwu właściwości
układu – opisuje pewną abstrakcję zdefiniowaną w taki sposób, by można było mówić o jej zachowaniu. Nasuwa się tu pewna analogia do podróżnego, który w czasie swoich wojaży
wymienia funty na dolary. Każda z wymiennych walut ma podany w tabelach kurs i na tej podstawie określa się sposób ich przeliczania. Załóżmy, że 1 funt odpowiada 1,4693 dolara;
wiedząc to, podróżny może określić dokładną kwotę obcej waluty, jakiej będzie potrzebować. Nie wnikając w szczegóły operacji bankowych związanych z wymianą walut, można
stwierdzić, że wartość pieniężna obydwu kwot powinna być równa, co znaczy, że podróżny otrzyma w dolarach dokładną równowartość kwoty w funtach, pomniejszoną wyłącznie
o prowizję związaną z przeprowadzeniem przeliczenia. Oczywiście żaden z banknotów nie zawiera żadnego elementu, który zostałby wydobyty z funta i przełożony do dolara oraz
kilkudziesięciu centów. Zamiana przebiega wyłącznie w naszych umysłach; konwersja bazuje na ludzkim przekonaniu, że banknoty mają konkretną wartość.
Energia jest nowym rodzajem wielkości „fizycznej”. W teorii Newtona wielkości takie jak położenie, czas, prędkość, przyspieszenie i masa mają swoją reprezentację w rzeczywistym
świecie. Położenie daje się zmierzyć linijką, czas określić za pomocą zegara, prędkość i przyspieszenie wyznaczy się na podstawie pomiarów dokonanych obydwoma wspomnianymi
przyrządami, natomiast masę określa się z użyciem wagi. W wypadku energii jest inaczej; nie istnieje żaden licznik pozwalający zmierzyć jej ilość. Oczywiście można określić wartości
konkretnych jej rodzajów. Energia potencjalna jest proporcjonalna do wysokości, jeśli więc znasz siłę grawitacji działającą na ciało, zdołasz wyznaczyć powiązaną z nią energię,
dokonując odpowiedniego pomiaru linijką. Energia kinetyczna to połowa iloczynu masy i kwadratu prędkości ciała, więc masa i prędkościomierz pozwolą podać jej wartość, ale
definicyjnie energia opisuje nie coś istniejącego fizycznie, ale raczej wygodną ideę stanowiącą równowagę dla mechanicznej wiedzy podawanej w książkach.
Drugą z zachowywanych wielkości – pęd – wyznacza się, obliczając prosty iloczyn masy i prędkości. Pęd staje się niezmiernie ważnym pojęciem, gdy układ zawiera kilka ciał.
Doskonałym przykładem jest rakieta odrzutowa, gdy rakietę i jej paliwo potraktujemy jak dwa odrębne ciała. Zgodnie z zasadą zachowania pędu rakieta musi poruszać się
w przeciwnym kierunku niż gazy uzyskane w wyniku zużywania paliwa wyrzucane z silnika. Tak modeluje się ruch rakiety w próżni.
Moment pędu definiuje się podobnie do pojęcia pędu, z tym że odnosi się on do ruchu obrotowego, posługuje się więc pojęciem prędkości kątowej, a nie liniowej. Moment pędu jest
jednym z filarów techniki rakietowej, więcej nawet, mechaniki ziemskiej i ciał niebieskich. Jedną z największych zagadek Układu Słonecznego jest olbrzymi moment pędu Księżyca.
Współczesna nauka zakłada, że do powstania satelity Ziemi doszło w wyniku zderzenia naszej planety z inną, o rozmiarach porównywalnych z rozmiarami Marsa, mniej więcej
4,5 miliarda lat temu. Teoria ta pozwala wyjaśnić wielki moment pędu satelity i do niedawna była przyjmowana niemal bez zastrzeżeń, ale w świetle najnowszych badań wydaje się
jednak niepoprawna, gdyż Księżyc zawiera zbyt wiele wody, by mógł powstać w opisany sposób. Zderzenie o tak wielkiej sile spowodowałoby odparowanie większości wody
z objętości formującego się ciała niebieskiego16. Niezależnie jednak od przyczyn powstania Księżyca moment pędu pozostaje w tej kwestii jedną z kluczowych wielkości.
Rachunek różniczkowo-całkowy niewątpliwie spełnia swoje zadanie. Potrafimy dzięki niemu rozwiązywać problemy z zakresu fizyki i geometrii, a uzyskiwane w ten sposób wyniki są
poprawne. Co więcej, dzięki niemu naukowcy zdołali wprowadzić nowe, dziś uznawane za jedne z podstawowych pojęcia fizyczne – energię i pęd. Niestety nic z tego nie stanowi
odpowiedzi na zarzuty, jakie stawiał metodzie biskup Berkeley. Jako narzędzie obliczeniowe rachunek różniczkowo-całkowy powinien spełniać wymogi stawiane każdej teorii
matematycznej; zgodność z wynikami doświadczeń fizycznych w takim wypadku to za mało. Zarówno Newton, jak i Leibniz rozumieli, że zmienne o i dx nie mogą jednocześnie
przyjmować wartości niezerowej i zerowej. Newton usiłował uniknąć tej pułapki logicznej, wprowadzając do teorii fizyczne pojęcie fluksji, z kolei Leibniz mówił o wielkościach
nieskończenie małych. Obydwaj mieli na myśli zmienne, których wartość stopniowo zbliża się do zera, ale nigdy jej nie osiąga. Czym miałyby być takie wielkości? Paradoksalnie
najbliższe prawdy było szyderstwo Berkeleya – „duch wielkości minionych” – chociaż sam autor nie zdołał zrozumieć tego, co tak usilnie podkreślali Newton i Leibniz: sposobu
„przemijania” tych wielkości. Wystarczy zadbać o to, by odeszły właściwie, a uzyska się całkowicie pełnoprawnego ducha. Gdyby Newton lub Leibniz zdołali wyrazić swoje przeczucia
ściśle matematycznym językiem, może Berkeley zrozumiałby ich wywody.
Kluczowe dla zrozumienia nowej teorii wydaje się pytanie, na które Newton nigdy nie odpowiedział wprost, gdyż wydawało mu się ono zbyt błahe, a odpowiedź zbyt oczywista.
Przypomnij sobie przykład funkcji i ich pochodnych. Dla funkcji y = x2 Newton wyznaczył pochodną wyrażoną wzorem 2x + o, a następnie stwierdził, że zmienna o zdąża do zera,
w związku z tym całe wyrażenie 2x + o zmierza do wartości 2x. I choć to oczywiste, nie wolno upraszczać tego wywodu i przyjmować o = 0. Oczywiście przyjęcie takiego warunku
prowadzi do właściwego wyniku, ale to tylko zasłona dymna17. W Principiach Newton sprytnie ominął ten problem, zastępując wyrażenie 2x + o „proporcją pierwszą”, a wyrażenie
2x „proporcją ostateczną”. Jednak dla rozwoju teorii kluczowe znaczenie miało przede wszystkim poruszenie tego zagadnienia. Skąd mamy wiedzieć, że im o jest bliższe zera, tym 2x
+ o będzie bliższe 2x? W tym wypadku stawianie takiego pytania wydaje się zbędną pedanterią, ale gdybym posłużył się bardziej złożonym przykładem, odpowiedź nie byłaby tak
oczywista.
Gdy matematycy zajęli się badaniem założeń logicznych leżących u podstaw rachunku różniczkowo-całkowego, odkryli, że w tym pozornie prostym pytaniu tkwiło sedno teorii.
Mówiąc, że zmienna o zdąża do zera, mamy na myśli, że jest ona mniejsza od dowolnie wybranej liczby dodatniej. (To raczej oczywiste – można przyjąć, że o jest połową wybranej
liczby). Podobnie należy podejść do problemu wyrażenia 2x + o zdążającego do 2x, gdzie do zera ma dążyć (w poprzednim rozumieniu) różnica między nimi. Ponieważ wówczas jest
ona równa dokładnie o, dalsze rozważania stają się wyjątkowo proste. Niezależnie od tego, czym jest „dążenie do zera”, można stwierdzić, że tym razem o dąży do zera, gdy o dąży do
zera. W wypadku funkcji bardziej skomplikowanych niż kwadratowa konieczna byłaby bardziej złożona analiza.
Odpowiedzi na kluczowe dla całej teorii pytanie należy szukać w formalnym, matematycznym ujęciu, w którym nie ma miejsca na koncepcję „przepływu”. Przełomowe okazały się
w tym zakresie prace czeskiego matematyka i teologa Bernarda Bolzano oraz Niemca Karla Weierstrassa. Bolzano opublikował swoje przemyślenia w 1816 roku, lecz świat
zainteresował się nimi dopiero w 1870 roku, gdy Weierstrass rozszerzył je na funkcje złożone. Bolzano i Weierstrass wprowadzili do polemiki z Berkeleyem pojęcie granicy. Tu podam
jej definicję słownie, a zainteresowanych zapisem matematycznym odsyłam do przypisu18. Mówimy, że funkcja f(h) zmiennej h zmierza do granicy równej L dla każdego h zdążającego
do zera, jeśli istnieje dowolna niezerowa i dodatnia liczba, dla której przy odpowiednio małych wartościach h wartość różnicy f(h) i L będzie mniejsza od tej liczby. Symbolicznie
zapisuje się to jako:
Zatem sednem rachunku różniczkowo-całkowego jest uśrednienie tempa zmian funkcji w niewielkim przedziale zmienności h, a następnie wyznaczenie granicznej wartości z tej średniej
przy założeniu, że h zdąża do zera. Dokonanie takiej operacji dla dowolnej funkcji y = f(x) prowadzi do równania przedstawionego na początku tego rozdziału, choć tym razem zamiast
czasu pojawia się w nim zmienna x:
W liczniku widzimy matematyczny zapis zmiany wartości funkcji f, w mianowniku zaś pojawia się zmiana wartości x. Równanie to definiuje jednoznacznie pochodną f ’(x) przy
założeniu, że istnieje jego granica. Jej istnienia należy dowodzić dla każdej funkcji, której pochodną chcemy wyznaczyć, ale warto wspomnieć, że dla większości typowych funkcji –
kwadratowych, sześciennych i wielomianów wyższych potęg, logarytmów, funkcji wykładniczych czy trygonometrycznych – daje się ją wyznaczyć.
Zauważ, że w żadnym miejscu obliczeń nie pojawiło się dzielenie przez zero, ponieważ nigdzie nie przyjmowaliśmy warunku h = 0. Ponadto żadna ze zmiennych w obliczeniach nie
„płynie”. Istotny tu jest przedział wartości, jakie może przyjmować zmienna h, a nie sposób, w jaki się ona zmienia. Ostatecznie sarkastyczna uwaga Berkeleya okazała się nadzwyczaj
trafna. Granica L jest duchem wielkości minionej – mojego h i newtonowskiego o. Jednocześnie sposób, w jaki wielkość przemija – zbliża się do zera, nigdy go nie osiągając –
pozwala uzyskać w pełni poprawnego i zdefiniowanego w sposób niekłócący się z logiką ducha.
Weierstrass i Bolzano dali rachunkow i różniczkowo-całkowemu logiczne podstawy. Nowa metoda obliczeniowa zasługiwała na nazwę, która oddawałaby jej nowy status. I otrzymała
ją: analiza matematyczna.
Nie podejmę się wymieniać wszystkich metod korzystania z rachunku różniczkowo-całkowego, tak samo jak nie podjąłbym się wypisać tu wszystkich tych rzeczy, których działanie
zależy od użycia śrubokrętu. Jednym z najbardziej podstawowych zastosowań rachunku różniczkowo-całkowego jest wyznaczanie długości krzywych, pól powierzchni
o skomplikowanych kształtach, objętości brył, minimalnych i maksymalnych wartości oraz środków mas. Zastosowany do wyrażenia praw mechaniki pozwala określać tory lotu rakiet
kosmicznych, obliczać naprężenia powierzchni skał w strefach wzmożonej aktywności sejsmicznej, czyli wszędzie tam, gdzie może dojść do trzęsienia ziemi czy drgania rozchodzącego
się w ścianach budynku, gdy do trzęsienia już dojdzie. Dzięki niemu potrafimy obliczyć drgania zawieszenia samochodu, czas potrzebny na rozprzestrzenienie się infekcji bakteryjnej,
określić sposób gojenia się ran chirurgicznych czy poznać siły działające na most wiszący podczas silnej wichury.
Wiele ze znanych nam zastosowań rachunku różniczkowo-całkowego wypływa wprost z zasad dynamiki sformułowanych przez Newtona, które są przecież niczym innym jak modelem
otaczającego nas świata wyrażonym za pomocą równań różniczkowych. W równaniach tych pojawiają się pochodne nieznanej funkcji, do ich rozwiązania więc należy zastosować
specjalne metody obliczeniowe. Nie będę rozpisywać się dalej na ten temat, ponieważ począwszy od rozdziału 8, każdy z poruszanych w książce tematów będzie zawierać odnośniki
do rachunku różniczkowo-całkowego, głównie w postaci równań różniczkowych. Wyjątkiem będzie rozdział 15 poświęcony teorii informacji, ale chciałbym zaznaczyć, że choć nie
będę tu omawiać pewnych metod, nawet w teorii informacji pojawiają się rozwiązania wykorzystujące równania różniczkowe i całkowe. Rachunek różniczkowo-całkowy, niczym
śrubokręt, jest zwyczajnie niezastąpionym narzędziem każdego inżyniera czy naukowca. Bardziej niż jakakolwiek inna metoda obliczeniowa przyczynił się do rozwoju współczesnej
nauki.
10 Matematyczne zasady filozofii przyrody, przeł. J. Wawrzycki, Copernicus Center Press, Kraków–Rzeszów 2011 (przyp. red.).
11 Keynes nigdy nie wygłosił tego odczytu. Towarzystwo Królewskie planowało uczcić w ten sposób przypadającą w 1942 roku trzechsetną rocznicę urodzin Newtona, niestety II wojna światowa uniemożliwiła
organizację uroczystości, która ostatecznie odbyła się dopiero w 1946 roku. Uroczyste przemówienia przygotowali fizycy Edward da Costa Andrade i Niels Bohr oraz matematycy Herbert Turnbull i Jacques
Hadamard. Organizatorzy poprosili o wystąpienie także Keynesa, który od lat interesował się rękopisami pozostawionymi przez wielkiego uczonego. Keynes przygotował wystąpienie zatytułowane „Newton –
człowiek”, niestety zmarł przed rozpoczęciem obchodów rocznicy. W jego imieniu mowę wygłosił brat Geoffrey.
12 Cytat ten pochodzi z listu Newtona do Hooke’a datowanego na 1676 rok, ale po raz pierwszy podobnym wyrażeniem posłużył się już w 1159 roku John z Salisbury, który napisał „Bernard z Chartres zwykł
mawiać, że jesteśmy niczym karły stojące na ramionach olbrzymów, dzięki czemu możemy dostrzec więcej niż one”. W XVII wieku ta figura retoryczna cieszyła się ogromną popularnością.
13 Czasami spotyka się pojęcie opóźnienia (ujemne przyspieszenie), ale ten termin cieszy się znacznie mniejszą popularnością (przyp. tłum.).
14 Dopuszczenie dzielenia przez zero doprowadziłoby do uzyskania błędnych dowodów, na przykład dałoby się udowodnić „twierdzenie”, że wszystkie liczby są zerami. Przyjmijmy a = b, stąd a2 = ab, zatem a2
− b2 = ab − b2. Po rozłożeniu na czynniki otrzymujemy (a + b)(a − b) = b(a − b) . Dzieląc obydwie strony przez (a − b), otrzymujemy a + b = b, a stąd a = 0. Błąd kryje się w wykonaniu dzielenia obydwu stron
równania przez wyrażenie (a − b), czyli zgodnie z założeniem a = b przez 0.
15 R. Westfall, Never at Rest, Cambridge University Press, Cambridge 1980, s. 425.
16 E. H. Hauri, T. Weinreich, A. E. Saal, M. C. Rutherford i J. A. Van Orman, High pre-eruptive water contents preserved in lunar melt inclusions, „Science Online”, 26 maja 2011 r., 1204626, DOI:
10.1126/science.1204626. Wyniki badań wywołały wiele kontrowersji.
17 Wielkość ta nie została dobrana przypadkowo. Sprawdza się ona dla każdej funkcji różniczkowalnej, czyli takiej z ciągłą pochodną. Do rodziny tej należą wszystkie wielomiany i wszystkie zbieżne szeregi
potęgowe, na przykład funkcje logarytmiczne, wykładnicze i różne funkcje trygonometryczne.
18 Współcześnie granicę definiuje się następująco: jeśli funkcja f(h) dla h zdążającego do zera zmierza do granicy równej L dla dowolnego ε > 0, istnieje δ > 0 taka, że dla |h|< δ |f(h) − L|< ε. Wprowadzenie
warunku ε > 0 pozwala uniknąć jakichkolwiek przepływów czy tego, że pewne zmienne zmaleją. Jedna nierówność uwzględnia wszystkie możliwe wartości.
Tytuł oryginału SEVENTEEN EQUATIONS THAT CHANGED THE WORLD Copyright © Joat Enterprises, 2012 First published in Great Britain in 2012 by PROFILE BOOKS LTD All rights reserved Projekt okładki © Profile 2012 Redaktor prowadzący Adrian Markowski Redakcja Anna Kaniewska Korekta Bronisława Dziedzic-Wesołowska ISBN 978-83-7961-547-6 Warszawa 2013 Wydawca Prószyński Media Sp. z o.o. 02-697 Warszawa, ul. Rzymowskiego 28 www.proszynski.pl
Aby uniknąć zbyt częstego powtarzania słów „jest równe”, wprowadzę, jak to mam w zwyczaju czynić w swoich pracach, oznaczenie zbudowane z dwóch linii równoległych jednej długości: , trudno byłoby bowiem znaleźć cokolwiek bardziej sobie równego niźli owe linie. Robert Recorde, The Whetstone of Witte, 1557
Dlaczego właśnie równania? Równania to siła życiowa matematyki, nauk ścisłych i technologii. Bez nich świat, jaki dziś znamy, nie mógłby zaistnieć. Mimo swojej przydatności równania „cieszą się” opinią nieprzystępnych i trudnych – wydawcy Krótkiej historii czasu ostrzegli jej autora, Stephena Hawkinga, że każde wprowadzone w tekście zmniejszy przypuszczalnie sprzedaż książki o połowę. Ostatecznie jednak zignorowali własne słowa, bo w książce pojawił się wzór E = mc2. Gdyby wierzyć zapewnieniom wydawców, usunięcie tego równania zapewniłoby sprzedaż dodatkowych 10 milionów egzemplarzy książki. W tej dyspucie zdecydowanie staję po stronie Hawkinga. Równania są zbyt istotne, by ukrywać je przed ludźmi, choć oczywiście wydawcom też nie sposób odmówić racji – wzory matematyczne sprawiają oficjalne, wręcz odpychające wrażenie, a że trudno się je czyta w tekście, ich nadmiar potrafi odstraszyć od lektury nawet tych, którzy darzą je cieplejszymi uczuciami. Mnie się poszczęściło i mam doskonałą wymówkę, by wprowadzać do książki kolejne wzory. Ostatecznie jest ona poświęcona równaniom, więc nie sposób ich unikać. Przecież nie da się napisać dzieła o alpinizmie, unikając słowa „góra”. Postaram się przekonać czytelników, że równania odgrywają istotną rolę w kształtowaniu świata, jaki znamy – bez nich nie istniałyby mapy ani nawigacja satelitarna, bez nich nie odkrylibyśmy ani Ameryki, ani Jowisza na nocnym niebie. Na szczęście nie trzeba być specjalistą, by docenić piękno i poezję zaklęte w poprawnym i znaczącym coś równaniu. W matematyce pojawiają się dwa rodzaje równań, pozornie bardzo do siebie podobne. Do pierwszej grupy zaliczamy zależności łączące różnego rodzaju wielkości matematyczne – takie równania wymagają dowiedzenia ich poprawności. Drugą grupę tworzą równania zawierające informacje o nieznanej wielkości – tego rodzaju równania rozwiązuje się, by wyznaczyć z nich tę wielkość. Podział nie jest do końca wyraźny, ponieważ wiele równań zalicza się do obydwu grup naraz, ale daje on pewien pogląd na naturę wzorów. W dalszych rozważaniach spotkamy się z równaniami zaliczającymi się do obydwu tych kategorii. Równania czysto matematyczne należą zazwyczaj do pierwszej ze wspomnianych grup – opisują skryte głęboko piękne struktury i ukazują regularność matematyki. Zależności te obowiązują, gdy przyjmiemy prawdziwość pewnych założeń dotyczących struktury logicznej matematyki. Twierdzenie Pitagorasa, będące geometrycznym wyrażeniem pewnego równania, jest przykładem tego, o czym mówię. Przy założeniu poprawności podstaw geometrii euklidesowej twierdzenie Pitagorasa jest zawsze prawdziwe. Równania matematyki stosowanej oraz wzory fizyczne zaliczają się zazwyczaj do drugiej ze wspomnianych kategorii. Za ich pomocą opisujemy rzeczywistość, wyrażamy uniwersalne prawa Wszechświata, które jednak mogłyby równie dobrze przyjmować zupełnie inną postać. Dobrym przykładem równania tego rodzaju jest sformułowane przez Newtona prawo powszechnego ciążenia opisujące siłę przyciągania pojawiającą się między dwoma ciałami o pewnych masach. Rozwiązanie go pozwala wyznaczyć orbitę planety poruszającej się wokół gwiazdy czy też trajektorię lotu sondy kosmicznej. Prawo powszechnego ciążenia nie jest natomiast teorią w rozumieniu matematyki – jego prawdziwość potwierdza się wynikami obserwacji, a to oznacza, że równanie opisujące prawo grawitacji mogłoby mieć zupełnie inną postać. Okazuje się zresztą, że ma inną postać – wzory ogólnej teorii względności Einsteina lepiej pokrywają się z niektórymi obserwacjami, nie przecząc jednak wynikom płynącym z prawa grawitacji Newtona w zakresie jego obowiązywania. Wzory nieraz wpływały na losy całej ludzkości, kryje się w nich bowiem prawdziwa moc pozwalająca ujawniać najgłębiej skrywane tajemnice natury. Historie dynastii, wojen i klęsk naturalnych pojawiają się na kartach licznych książek historycznych, lecz rzadko kiedy porusza się w nich tematy związane z nauką, która miała przecież niebagatelny wpływ na kształt dziejów. To zdecydowanie niesprawiedliwe. Za czasów rządów królowej Wiktorii w Instytucie Królewskim w Londynie odbył się przeprowadzony przez Michaela Faradaya pokaz dowodzący istnienia zależności między oddziaływaniem elektrycznym i magnetycznym. Rzekomo obecny w czasie prezentacji premier William Gladstone zapytał uczonego, czy z tego odkrycia wynikają jakiekolwiek zastosowania praktyczne. Faraday miał na to jakoby (brak tu jakichkolwiek dowodów, ale to nie powód, by niszczyć piękną anegdotę) odpowiedzieć: „Oczywiście, ekscelencjo. Pewnego dnia nałoży pan na nie podatki”. Jeśli Faraday rzeczywiście stwierdził coś takiego, istotnie wygłosił proroczą przepowiednię, James Clerk Maxwell bowiem przekuł wyniki pierwszych obserwacji oraz empiryczne prawa opisujące elektryczność i magnetyzm w układ równań tworzących podstawę teorii oddziaływań elektromagnetycznych. To dzięki niej udało się skonstruować radio, radar i telewizor. Moc równania, choć ogromna, jest jednocześnie bardzo prosta. Równanie pozwala stwierdzić, że obliczenia znajdujące się po jego dwóch stronach dają taki sam wynik. Kluczowym czynnikiem równania jest oczywiście znak równości, czyli =. Pochodzenie większości symboli matematycznych albo ginie w pomroce dziejów, albo w niektórych wypadkach jest nam znane, gdyż pewne oznaczenia zostały wprowadzone tak niedawno, że można nawet wskazać ich twórców. Znak równości jest pod tym względem szczególny, gdyż choć po raz pierwszy zastosowano go przeszło 450 lat temu, wiemy doskonale, kto wprowadził ów symbol do języka matematyki. Oznaczenie to zawdzięczamy Robertowi Recorde’owi, który użył go w wydanej w 1557 roku książce The Whetstone of Witte. Posłużył się symbolem dwóch równoległych linii (sam użył archaicznego angielskiego terminu gemowe oznaczającego „bliźniacze”), by uniknąć w ten sposób żmudnego powtarzania frazy „jest równe”. Wybór uzasadniał argumentem, że próżno szukać „czegokolwiek bardziej sobie równego”. Trzeba przyznać, że zdecydował się na wyjątkowo trafne oznaczenie – stosujemy je nieprzerwanie od 450 lat. Potęga równań kryje się w wywodzącym się z filozofii problemie odnajdowania odpowiedniości pomiędzy opisem matematycznym, dziełem wielu nieprzeciętnych umysłów, a otaczającym nas światem. Równania to modele tego, co obserwujemy na świecie. Gdy nauczysz się widzieć ich wartość i odczytywać skryte w nich informacje, odkryjesz mechanizm funkcjonowania świata. W praktyce stosuje się także inne metody. Wiele osób woli posługiwać się słowami zamiast symboli; pamiętajmy, że język także daje moc władania nad otoczeniem. Jednak doświadczenie nauczyło nas, że słowa są zbyt mało precyzyjne, by stać się narzędziami nauki i technologii; język jest zbyt ograniczony, by pozwolił nam zgłębić strukturę świata. Znaczenie słów gubi się na poziomie interpretacji i ludzkich domysłów, dlatego sam język nie wystarczy, by dokładnie pojąć mechanizmy rządzące światem. Natomiast równania radzą sobie z tym doskonale. Od tysięcy lat mają istotny wpływ na rozwój cywilizacji. Całe wieki to one pociągały za sznurki na scenie relacji społecznych. Oczywiście, kryły się za kulisami, pozostawały niewidoczne, ale zawsze były, zawsze kształtowały nasze losy, czy ludzkość była tego świadoma czy nie. Oto historia rozwoju ludzkości opowiedziana w siedemnastu równaniach.
Rozdział 1. W obie strony jednakowe spodnie Pitagorasowe Twierdzenie Pitagorasa Co z niego wynika? Określa związek między długościami boków w trójkącie prostokątnym. Dlaczego jest ono tak ważne? Dlatego że stanowi połączenie między geometrią a algebrą, dzięki czemu możemy obliczać odległości między punktami, znając ich współrzędne. Dało także podwaliny pod utworzenie trygonometrii. Co dzięki temu osiągnęliśmy? Bez twierdzenia Pitagorasa nie rozwinęłyby się miernictwo ani nawigacja, a z bardziej współczesnych odkryć ogólna teoria względności, czyli najlepsze narzędzie opisu przestrzeni, czasu i grawitacji, jakim dziś dysponujemy.
Uczeń poproszony o podanie imienia najsłynniejszego matematyka – o ile w ogóle będzie jakieś znał – przywoła zapewne Pitagorasa, jeśli zaś nie jego, to przypuszczalnie Archimedesa. Nawet znamienity Newton musiałby się zadowolić w takim rankingu trzecią pozycją, ustępując miejsca na podium dwóm znakomitościom świata starożytnego. Archimedes miał prawdziwie wielki umysł, Pitagoras zapewne nie, ale i tak należy mu się większe uznanie, niż dziś skonni bylibyśmy mu przyznać – nie tyle za osiągnięcia, ile za to, czemu dał początek. Pitagoras urodził się na jednej z greckich wysp Morza Egejskiego, Samos, około 570 roku p.n.e. Był filozofem i geometrą. Nieliczne informacje dotyczące jego życia, jakie przetrwały do naszych czasów, pochodzą z pism znacznie późniejszych, ich wartość historyczna jest więc praktycznie żadna, ale można z dużym prawdopodobieństwem przyjąć, że najważniejsze z podawanych wydarzeń rzeczywiście są prawdziwe. Około roku 530 p.n.e. przeniósł się do Krotony, greckiej kolonii położonej na terenie dzisiejszych Włoch. Tam założył słynną szkołę pitagorejską, grupę zrzeszającą ludzi o określonych poglądach filozoficzno-religijnych. Pitagorejczycy wierzyli, że o kształcie świata decydują liczby. Dziś Pitagorasa kojarzymy przede wszystkim z twierdzeniem jego imienia. Jego treść jest znana od przeszło dwóch tysięcy lat i na stałe weszła już do kultury masowej. W nakręconym w 1958 roku filmie Merry Andrew odtwórca tytułowej roli, Danny Kaye, śpiewał piosenkę zaczynającą się słowami: Kwadrat przeciwprostokątnej w trójkącie prostokątnym jest równy sumie kwadratów boków przylegających do kąta prostego. Piosenka była pełna dwuznaczności oraz nawiązań do odkryć wielkich naukowców – Einsteina, Newtona czy braci Wright – które sprawnie powiązano ze słynnym twierdzeniem matematycznym. Dwaj pierwsi oznajmiali wreszcie „Eureka!”, ale to sprowadza nas już do Archimedesa, któremu historycznie przypisuje się ów okrzyk. Jak się zapewne domyślacie, wierność historii nie była głównym zmartwieniem twórców tekstu, ale produkcje hollywoodzkie przyzwyczaiły nas do tego. Wyprzedzę teraz nieco fakty – otóż z rozdziału 13 dowiecie się, że autor tekstu (Johnny Mercer) jeśli chodzi o Einsteina, nie odbiegł nadto od rzeczywistości. Twierdzenie Pitagorasa pojawia się w książkach1, kreskówkach, na koszulkach polo; w Grecji wydano nawet znaczek pocztowy z ilustracją słynnej reguły (można go zobaczyć na rys. 1). Rysunek 1. Grecki znaczek przedstawiający graficzny dowód twierdzenia Pitagorasa. Pomimo całego hałasu, jaki powstał wokół wspomnianej reguły, w rzeczywistości nie mamy pojęcia, czy Pitagoras rzeczywiście udowodnił twierdzenie nazwane jego imieniem. Nie jesteśmy nawet w stanie stwierdzić, czy to on je sformułował; równie dobrze mogło zrodzić się ono w głowie któregoś z jego uczniów lub gdzieś w Sumerze czy Babilonie. To właśnie Pitagorasowi jednak przypadła chwała odkrywcy lub chociaż uczonego, który wykazał prawdziwość spostrzeżenia, i tak już zostało. Niezależnie od tego, kto je sformułował, twierdzenie to miało ogromny wpływ na historię człowieka. Można powiedzieć, że otworzyło ono nas na świat. Grecy nie zapisywali twierdzenia Pitagorasa w postaci równania, jakie znamy dziś ze szkoły – ta forma pojawiła się później, gdy algebra osiągnęła już odpowiedni poziom. W starożytności teorię tę wyrażano słownie oraz geometrycznie. Najstaranniej przedstawił ją na piśmie Euklides z Aleksandrii; to najstarszy znany nam przekaz pisany zawierający wspomniane twierdzenie. Euklides jest uważany za pierwszego współczesnego matematyka, a to za sprawą słynnych Elementów geometrii, najbardziej znaczącego podręcznika do matematyki. Uczony wprowadził do geometrii logikę, wyrażając założenia wprost, w sposób jasny i prosty, a następnie dowodząc wszystkich przedstawionych w podręczniku teorii. W ten sposób, wychodząc z założeń dotyczących najprostszych tworów geometrycznych – punktu, prostej i okręgu – dowiódł istnienia pięciu brył foremnych. Jednym z największych osiągnięć Euklidesa jest niewątpliwie fakt, że dziś twierdzenie Pitagorasa jest znane jako twierdzenie 47 z pierwszej księgi Elementów geometrii. W jednym z popularniejszych przekładów dokonanych przez sir Thomasa Heatha czytamy: „w trójkącie prostokątnym kwadrat przylegający do boku znajdującego się naprzeciw kąta prostego jest równy kwadratom przylegającym do boków znajdujących się przy kącie prostym”. Czyli żadnych spodni, żadnej przeciwprostokątnej, żadnego jawnego wspomnienia sumy czy dodawania, jedynie wspomnienie naprzeciwległości. A przecież takie sformułowanie twierdzenia Pitagorasa nie pozostawia wątpliwości, że chodzi o równanie – zawiera bowiem wiele znaczące słowa jest równy. Wyższa matematyka wymagała od Greków odejścia od zapisu liczbowego na rzecz wyrażania problemów logicznych za pomocą prostych i powierzchni, dlatego też Pitagoras i jego następcy formułowali twierdzenie tak, by opisywało równość odpowiednich płaszczyzn. „Powierzchnia kwadratu zbudowanego na najdłuższym boku trójkąta prostokątnego jest sumą powierzchni kwadratów utworzonych na jego pozostałych dwóch bokach”. Najdłuższy bok to oczywiście przeciwprostokątna, czyli odcinek leżący naprzeciwko kąta prostego, co widać na ilustracji znajdującej się po lewej stronie rysunku 2. Z czasem twierdzenie Pitagorasa zyskało formę równania algebraicznego, w której jest używane od niemal dwóch tysięcy lat: a2 + b2 = c2, gdzie c jest długością przeciwprostokątnej, a i b zaś to długości pozostałych dwóch boków. Umieszczona w indeksie górnym dwójka oznacza, że dana wartość jest „podnoszona do kwadratu”. W algebrze rozumiemy przez to pojęcie pomnożenie liczby przez samą siebie, natomiast powierzchnię dowolnego kwadratu oblicza się właśnie, podnosząc do kwadratu długość jego boku. Zatem równanie Pitagorasa, jak pozwolę sobie je nazwać, wyraża dokładnie to samo co podana przez Euklidesa formuła. Jedyne, z czego zrezygnowaliśmy, to obciążenie psychiczne związane z rozważaniami nad pojmowaniem idei liczb i powierzchni przez starożytnych Greków. Równanie Pitagorasa znalazło wiele praktycznych zastosowań. Przede wszystkim wykorzystujemy je do obliczania długości przeciwprostokątnej trójkąta prostokątnego, gdy znane są długości pozostałych dwóch boków. Załóżmy przykładowo, że a = 3 i b = 4. Wtedy, na mocy twierdzenia Pitagorasa, c2 = a2 + b2 = 32 + 42 = 9 + 16 = 25. Zatem c = 5. To słynny trójkąt o bokach 3–4–5 pojawiający się w każdym podręczniku szkolnym, a zarazem najprostsza z pitagorejskich trójek – trzy liczby całkowite spełniające równanie Pitagorasa. Następny w kolejności jest (pomijam tu skalowane wersje pierwszego zestawu liczb, na przykład 6–8–10) zestaw 5–12–13. Takich układów można znaleźć nieskończenie wiele, a Grecy wiedzieli, w jaki sposób je konstruować. Zagadnienie budowania trójek pitagorejskich z liczb całkowitych nadal stanowi istotny i rozwijany problem teorii liczb – nawet w ostatnim dziesięcioleciu odkrywano nowe cechy tych układów. Oczywiście nie musisz ograniczać się do wyznaczania wartości c przy danych a i b. Możesz rozwiązać równanie Pitagorasa, by wyznaczyć z niego a przy znanych b i c. Dzięki niemu znajdziesz także rozwiązania bardziej złożonych problemów, o czym przekonasz się już za chwilę. Rysunek 2. Z lewej: Linie pomocnicze potrzebne do przeprowadzenia dowodu prawdziwości twierdzenia Pitagorasa w sposób przedstawiony przez Euklidesa. Pośrodku i z prawej: Inny dowód prawdziwości twierdzenia. Zewnętrzne kwadraty mają identyczne powierzchnie, również powierzchnie zaznaczonych ciemniejszym kolorem trójkątów są sobie równe. Oznacza to, że przechylony nieco biały kwadrat ma taką samą powierzchnię jak suma powierzchni dwóch mniejszych białych kwadratów.
Skąd wiemy, że twierdzenie Pitagorasa jest prawdziwe? Dowód przeprowadzony przez Euklidesa jest skomplikowany. Wymaga wprowadzenia do schematu pięciu dodatkowych linii, co widać na rysunku 2 (z lewej), i odwołania się do kilku udowodnionych wcześniej twierdzeń. W czasach wiktoriańskich chłopcy (w tamtym okresie jedynie nieliczne dziewczęta kształciły się z geometrii) określali ten rysunek prześmiewczo mianem spodni Pitagorasowych. Bardziej bezpośredni i znacznie łatwiejszy do zrozumienia, choć nie tak elegancki dowód sprowadza się do wykorzystania czterech identycznych trójkątów, za pomocą których rozwiązuje się pewną układankę matematyczną (rysunek 2, z prawej). Rysunek przykuwa uwagę, ale zrozumienie istoty tego dowodu wymaga pewnego zastanowienia. Rodzi się na przykład pytanie, skąd wiemy, że przechylona jasna figura na środkowej ilustracji to rzeczywiście kwadrat. Okazuje się, że istnieją dość mocne dowody świadczące, iż twierdzenie Pitagorasa było znane ludzkości wiele lat przed narodzinami uczonego. Na glinianej tabliczce z Babilonii2 znajdującej się w British Museum zapisano pismem klinowym zadanie i jego rozwiązanie, które można by odczytać następująco: Skoro 4 to długość, a 5 to przekątna, ile wynosi szerokość? 4 razy 4 to 16. 5 razy 5 to 25. Odejmij 16 od 25, a otrzymasz 9. Jaka liczba, pomnożona przez siebie samą, da 9? 3 razy 3 to 9. Oznacza to, że szerokość wynosi 3. Wynika stąd, że Babilończycy znali trójk ąt 3–4–5 już tysiąc lat przed Pitagorasem. Na innej tabliczce babilońskiej – YBC 7289 przechowywanej na Uniwersytecie Yale, którą przedstawia rysunek 3 (z lewej) – znajduje się szkic kwadratu o boku 30, którego przekątna jest opisana dwoma zestawami liczb: 1, 24, 51, 10 oraz 42, 25, 35. Babilończycy posługiwali się systemem zapisu liczb o podstawie 60, zatem pierwszy układ liczb należy rozumieć jako 1 + 24/60 + 51/602 + 10/603, co w systemie dziesiętnym odpowiada wartości 1,4142129. Wiemy zaś, że pierwiastek kwadratowy z liczby 2 wynosi 1,4142135. Drugi zestaw liczb odpowiada trzydziestokrotnej wielokrotności tej wartości. Oznacza to, że Babilończycy znali wzór pozwalający wyznaczyć długość przekątnej kwadratu jako iloczyn długości boku i pierwiastka kwadratowego z 2. Ponieważ to zależność wyryta na tabliczce jest po prostu pochodną twierdzenia Pitagorasa. Rysunek 3. Z lewej: YBC 7289. Z prawej: Plimpton 322. Jeszcze bardziej niezwykła, choć znacznie mniej przejrzysta jest tabliczka znana jako Plimpton 322 znajdująca się w kolekcji George’a Arthura Plimptona na Uniwersytecie Columbia, przedstawiona na rysunku 3 (z prawej). Tabliczka zawiera liczby zapisane w czterech kolumnach i piętnastu wierszach. W ostatniej kolumnie znajdują się po prostu numery wierszy od 1 do 15. W 1945 roku historycy nauki Otto Neugebauer i Abraham Sachs3 doszli do wniosku, że kwadrat wartości podanej w trzeciej kolumnie (nazwijmy go c) pomniejszony o kwadrat wartości zawartej w drugiej kolumnie (dajmy na to b) daje wartość będącą kwadratem pewnej liczby (na przykład a). Schemat ten jest przekształceniem wzoru a2 + b2 = c2, co mogłoby sugerować, że tabliczka zawiera spis trójek pitagorejskich. W takim wypadku należałoby jednak poprawić cztery oczywiste błędy. Niestety nie można stwierdzić na pewno, czy Plimpton 322 ma cokolwiek wspólnego z trójkami pitagorejskimi, a nawet jeśli tak jest, nie da się wykluczyć, że tabliczka nie jest po prostu spisem boków trójkątów, dla których łatwo było wyznaczyć pola powierzchni. Tego rodzaju narzędzie można było z powodzeniem wykorzystywać do przybliżania wyników dla innych trójkątów czy wręcz innych kształtów, może nawet do wykonywania pomiarów odległości na ziemi. W tamtych czasach istniała jeszcze jedna cywilizacja słynąca z równie podniosłych odkryć – egipska. Pewne poszlaki wskazują na to, że Pitagoras mógł w młodości odwiedzić Egipt. Niektórzy badacze utrzymują, że w czasie tej podróży zetknął się ze słynnym dziś twierdzeniem i jedynie przedstawił je Grekom. Udało się wprawdzie znaleźć dowody potwierdzające tę teorię, lecz są one bardzo nieliczne i wymagają specjalistycznej wiedzy. Często słyszy się – szczególnie w kontekście rozważań nad technologią budowy piramid – że Egipcjanie wyznaczali kąty proste, konstruując trójkąt o bokach 3–4–5. Miało to polegać na odwzorowaniu układu boków za pomocą sznurka z dwunastoma węzłami wyznaczającymi równe odległości. Słyszy się też, że archeolodzy odnaleźli tak przygotowane sznurki. Wystarczy jednak zastanowić się chwilę, by dojść do wniosku, że żadne z przytoczonych tu stwierdzeń nie ma sensu. Opisana metoda wyznaczania kątów prostych nie dawałaby wystarczająco dokładnych rezultatów. Pamiętajmy, że sznurek jest rozciągliwy, a wyznaczenie równych odcinków za pomocą węzełków – niemal niemożliwe. Piramidy z Gizy są zbudowane z dokładnością znacznie przewyższającą wyniki, jakie można by osiągnąć, stosując tak prymitywne narzędzie. Znacznie bardziej praktycznym rozwiązaniem byłoby posłużenie się narzędziem przypominającym kątownik ciesielski – dodam, że archeolodzy odnaleźli pozostałości po tego typu przedmiotach. Badacze zgłębiający zagadnienia związane z matematyką starożytnego Egiptu nie znaleźli dowodów na stosowanie sznurków do wyznaczania odległości w trójkącie prostokątnym o bokach 3–4–5, nie odkryto też żadnych pozostałości po narzędziu tego rodzaju. Zatem, choć pomysł jest niewątpliwie uroczy, można z niemal stuprocentową pewnością uznać go za wymysł. Gdyby Pitagoras znalazł się jakimś cudem w naszym świecie, byłby zdumiony. W jego czasach wiedza medyczna była w powijakach, źródło światła stanowiły świece i pochodnie, a najszybszą formą przekazywania wiadomości było wysłanie konnego posłańca. Znany świat zamykał się w obszarze Europy, Azji i Afryki – nie słyszano o Amerykach, Australii, Arktyce czy Antarktyce. Wiele kultur przyjmowało, że świat jest płaski: miał mieć kształt dysku czy kwadratu wyznaczonego czterema punktami głównymi. Mimo odkryć poczynionych przez starożytnych Greków ten ostatni pogląd zakorzenił się silnie w czasach średniowiecza, czego dowodem są mapy orbis terrae, jak ta przedstawiona na rysunku 4. Kto pierwszy zdał sobie sprawę, że Ziemia jest okrągła? Jeśli wierzyć Diogenesowi Laertiosowi, greckiemu biografowi z III wieku n.e., człowiekiem tym był Pitagoras. W swoich Żywotach i poglądach słynnych filozofów, dziele zawierającym zbiór myśli filozoficznych i biografii ich twórców, będącym obecnie jednym z najważniejszych źródeł historycznych poświęconych prywatnemu życiu filozofów starożytnej Grecji, znajdujemy uwagę: „Choć Teofrast przypisuje to twierdzenie Parmenidesowi, a Zenon Hezjodowi, to właśnie Pitagoras pierwszy zasugerował, że Ziemia jest kulą”. Grecy bardzo często łączyli wielkie odkrycia ze słynnymi filozofami z przeszłości niezależnie od tego, kto rzeczywiście ich dokonał, zatem cytaty tego rodzaju nie mają wielkiej wartości dowodowej, ale jednocześnie nie sposób zaprzeczyć, że od V wieku p.n.e. wszyscy liczący się greccy filozofowie i matematycy przyjmowali kulistość Ziemi. O ile możemy to stwierdzić, pogląd ten ukształtował się właśnie w czasach Pitagorasa, niewykluczone więc, że zrodził się właśnie w jego szkole. Oczywiście równie dobrze mogła być to wiedza powszechna w tamtym okresie, wniosek wypływający w sposób bezdyskusyjny z obserwacji okrągłego cienia, jaki rzuca Ziemia na powierzchnię Księżyca w czasie zaćmienia, czy też wyciągany na podstawie analogii do kształtu naszego satelity.
Rysunek 4. Mapa świata wykonana około 1100 roku przez marokańskiego kartografa al-Idrisiego dla króla Sycylii Rogera. Mimo tak rewolucyjnych wniosków dotyczących kształtu Ziemi nawet dla Greków nasza planeta stanowiła środek Wszechświata, wokół którego poruszały się wszystkie ciała niebieskie. Jedyną metodą prowadzenia nawigacji była nawigacja zliczeniowa – obserwowanie gwiazd i śledzenie linii brzegowej. Równanie Pitagorasa zrewolucjonizowało żeglugę. Można powiedzieć, że wprowadziło ludzkość na drogę, która wiodła ostatecznie do zrozumienia geografii i poznania miejsca naszej planety w Układzie Słonecznym. Dzięki niemu wykonaliśmy pierwszy znaczący krok w kierunku rozwinięcia kartografii, nawigacji i miernictwa. Wreszcie to właśnie twierdzenie Pitagorasa dało podstawy do powiązania geometrii z algebrą. Bezpośrednio z niego wypłynęły odkrycia, które ostatecznie doprowadziły do stworzenia ogólnej teorii względności i dały podstawy współczesnej kosmologii, o czym przeczytasz więcej w rozdziale 13. Równanie Pitagorasa otworzyło ludzkości drogę do nowych odkryć – dosłownie i w przenośni. Pozwoliło nam poznać kształt świata i określić nasze miejsce we Wszechświecie. Trójkąty prostokątne są szczególnym przypadkiem i wydaje się, że skoro w życiu częściej spotyka się inne ich rodzaje, twierdzenie Pitagorasa powinno mieć ograniczone zastosowania. Nic bardziej mylnego, gdyż każdy trójkąt da się podzielić na dwa trójkąty prostokątne, co widać na rysunku 6, a każdy wielokąt da się podzielić na trójkąty. Oznacza to, że trójkąt prostokątny stanowi klucz pozwalający zbudować zależność między samym kształtem figury geometrycznej a długościami jej boków. Spostrzeżenie to doprowadziło do rozwoju nowej gałęzi matematyki – trygonometrii – zajmującej się badaniem zależności między miarami kątów i boków w trójkątach. Trygonometria opiera się na zależnościach definiowanych w trójkącie prostokątnym. Najbardziej znanym jej fragmentem są definicje trzech funkcji – sinus, cosinus i tangens. Ich nazwy wywodzą się z dialektów arabskich, a historia budowania tych funkcji oraz liczne próby poprzedzające wprowadzenie dzisiejszych definicji wyznaczają skomplikowany szlak, jaki musieliśmy przebyć, by osiągnąć dzisiejszy stan wiedzy. Nie będę tu jednak wnikać w szczegóły i skupię się na znanych nam wzorach. Jeden z kątów trójkąta prostokątnego jest oczywiście prosty, natomiast miary dwóch pozostałych są dowolne, ograniczone jedynie warunkiem, że w sumie muszą wynosić one 90°. Dla każdego z kątów trójkąta prostokątnego można podać trzy funkcje, czyli wzory pozwalające wyznaczyć wartości powiązane z miarą kąta. Rysunek 5 przedstawia trójkąt o kącie A i bokach oznaczonych tradycyjnie a, b i c. Dla kąta A można zdefiniować wspomniane trzy funkcje – sinus (sin), cosinus (cos) i tangens (tg): sinA = a/c, cosA = b/c, tgA = a/b. Wyznaczone w ten sposób wartości zależą wyłącznie od wartości kąta A, ponieważ wszystkie trójkąty prostokątne o danym kącie A różnią się jedynie skalą. Rysunek 5. Podstawą trygonometrii jest określenie związków liczbowych w trójkącie prostokątnym. Dzięki temu można stworzyć tabelę wartości funkcji sin, cos i tg dla kątów z pewnego zakresu, aby następnie korzystać z nich podczas wyznaczania długości boków i miar kątów w dowolnym trójkącie prostokątnym. Typowym przykładem zastosowania trygonometrii, znanym już od czasów starożytnych, jest wyznaczanie wysokości kolumny na podstawie pomiarów dokonywanych wyłącznie na ziemi. Załóżmy, że z odległości 100 metrów czubek kolumny widać pod kątem 22°. Jeśli zaznaczony na rysunku 5 kąt A = 22°, to wysokość kolumny będzie odpowiadać długości boku a. Z definicji funkcji tangens otrzymujemy: tg(22°) = a/100, zatem a = 100·tg(22°). Ponieważ tangens kąta 22° wynosi z dokładnością do trzeciego miejsca po przecinku 0,404, wysokość kolumny a = 40,4 m. Rysunek 6. Podział dowolnego trójkąta na dwa trójkąty prostokątne. Dysponując definicjami funkcji trygonometrycznych, zdołamy bez trudu zapisać równanie Pitagorasa dla dowolnego trójkąta, czyli takiego, w którym nie ma kąta prostego. Rysunek 6 przedstawia trójkąt o bokach a, b i c oraz kącie C. Poprowadzenie prostej prostopadłej do podstawy trójkąta, wychodzącej z leżącego naprzeciw niej wierzchołka, podzieli go na dwa trójkąty prostokątne w sposób zaprezentowany na rysunku. Po dwukrotnym wykorzystaniu twierdzenia Pitagorasa i przeprowadzeniu pewnych przekształceń algebraicznych4 można zapisać: a2 + b2 − 2ab cos C = c2. Podane równanie różni się od równania Pitagorasa czynnikiem 2abcos C. Wzór ten, znany jako twierdzenie cosinusów, pełni tę samą funkcję dla dowolnego trójkąta co wzór Pitagorasa dla trójkąta prostokątnego – pozwala powiązać długość boku c z długościami boków a i b, z tym że w takim wypadku musimy znać też miarę kąta C. Twierdzenie cosinusów jest jednym z filarów trygonometrii. Znając długości dwóch boków trójkąta oraz kąt między nimi, możemy obliczyć długość trzeciego boku. Miary pozostałych dwóch kątów wyznacza się z równań opisujących zależności między kątami w każdym trójkącie. Wszystkie je można sprowadzić do opisu odpowiednich trójkątów prostokątnych. Skoro dysponujemy już równaniami trygonometrycznymi i odpowiednimi metodami pomiarowymi, możemy zebrać dane, na podstawie których da się wykonać mapę. Pomysł nie jest wcale nowy. Techniki wykonywania pomiarów i obliczeń stosowane w starożytnym świecie zostały opisane na pochodzącym z 1650 roku p.n.e. tak zwanym papirusie matematycznym Rhinda. Grecki filozof Tales wykorzystał geometrię trójkątów, by około 600 roku p.n.e. oszacować wysokość piramid w Gizie. Heron z Aleksandrii opisał ponownie tę metodę w 50 roku n.e. Mniej więcej w 240 roku p.n.e. grecki matematyk Eratostenes wyznaczył obwód Ziemi, wykorzystując pomiar kąta, pod jakim w południe widziano Słońce w dwóch różnych
miejscach – w Aleksandrii i Syene (dzisiejszym Asuanie) w Egipcie. Arabscy uczeni zachowali wiedzę o tych metodach, co więcej, rozwinęli ją, dzięki czemu mogli przeprowadzić szereg pomiarów astronomicznych, między innymi wyznaczyć ponownie promień Ziemi. Początek nowożytnego miernictwa to rok 1533, kiedy to holenderski kartograf Gemma Frisius wyjaśnił w Libellus de locorum describendorum ratione („Broszura poświęcona zagadnieniom opisu miejsc”), w jaki sposób wykorzystać trygonometrię do dokładnego odwzorowywania kształtu terenu. Praca ta bardzo szybko zyskała dużą popularność w całej Europie i wkrótce wieści o niej dotarły do duńskiego uczonego i szlachcica Tychona Brahego. W 1579 roku Brahe wykonał na jej podstawie pomiary i w efekcie także mapę Hven, wyspy, na której położone było jego obserwatorium. W roku 1615 holenderski matematyk Willebrord Snellius (Snel van Royen) miał już przygotowaną ulepszoną wersję metody opracowanej przez Tychona Brahego. Przetrwała ona w niemal niezmienionej formie do naszych czasów – to triangulacja. Mierzony obszar pokrywa się siatką trójkątów. Dokonując bardzo dokładnego pomiaru początkowej długości i wyznaczając starannie miary kątów, można określić położenie wierzchołków trójkąta i na tej podstawie obliczyć zależności opisujące odległości. Snellius wyznaczył odległość dzielącą dwa holenderskie miasta, Alkmaar i Bergen op Zoom, stosując sieć 33 trójkątów. Wybrał właśnie te dwie miejscowości, ponieważ były one położone na tej samej długości geograficznej w odległości dokładnie jednego stopnia od siebie. Znając dzielącą je odległość, Snellius mógł wyznaczyć promień Ziemi. Wyniki przeprowadzonych z dokładnością do 4% pomiarów opublikował w wydanej w 1617 roku pracy Eratosthenes Batavus („Holenderski Eratostenes”). Warto też wspomnieć, że zmodyfikował nieco równania trygonometryczne w sposób, który pozwolił oddać kulisty kształt Ziemi, co stało się ważnym krokiem w kierunku uzyskania metod skutecznej nawigacji. Triangulacja jest metodą pośredniego wyznaczania odległości na podstawie zmierzonych wcześniej kątów. Podczas przeprowadzania pomiarów wyznaczonego obszaru, na przykład przed podzieleniem ziemi na działki budowlane czy rolnicze, znacznie łatwiej określa się kąty pomiędzy poszczególnymi punktami, niż mierzy odległości między nimi. Triangulacja pozwala wyznaczyć kilka odległości na podstawie pomiarów wielu kątów. Początkiem pomiaru jest wyznaczenie linii łączącej dwa punkty – to tak zwana linia bazowa – i bardzo dokładne określenie jej długości na podstawie bezpośredniego pomiaru. Następnie wybiera się z otoczenia wyróżniający się punkt, widoczny z obu końców linii bazowej, i mierzy kąty, pod jakimi jest on z nich widoczny. W ten sposób uzyskujemy trójkąt skonstruowany na jednym znanym nam boku i dwóch kątach, do których ten bok przylega – to wystarczy, by określić kształt i rozmiar trójkąta. Długości pozostałych dwóch boków i miarę trzeciego kąta wyznacza się na podstawie funkcji trygonometrycznych. W ten sposób uzyskujemy dwie kolejne linie bazowe, czyli wyznaczone właśnie boki trójkąta. Następnie wykonujemy pomiary z wierzchołków trójkąta dla położonych dalej punktów charakterystycznych ukształtowania terenu. Tak tworzy się siatka trójkątów pokrywająca cały interesujący nas obszar. W każdym z trójkątów określa się kąty, pod jakimi widać z ich obszaru wszystkie istotne elementy terenu – wieże kościelne, skrzyżowania i tak dalej. Wspomniane wcześniej wzory trygonometryczne pozwalają wyznaczyć dokładne położenia tych obiektów. Wreszcie przeprowadza się sprawdzenie dokładności pomiaru, czyli mierzy się bezpośrednio jeden z boków któregoś z trójkątów. Pod koniec XVIII wieku triangulacja była już powszechnie stosowaną metodą pomiarową. W 1783 roku Ordnance Survey, agenda rządowa zajmująca się sporządzaniem map, rozpoczęło trwające siedemdziesiąt lat pomiary powierzchni Wielkiej Brytanii. Z kolei w 1801 roku zainicjowało Wielki Pomiar Trygonometryczny, projekt, którego celem było sporządzenie map Indii, w tym także Himalajów, i wyznaczenie wysokości Mount Everestu. W XXI wieku pomiary na tak wielką skalę przeprowadza się na podstawie zdjęć satelitarnych i danych dostarczanych przez system globalnego namierzania GPS; bezpośrednia triangulacja stała się przeżytkiem, ale sama teoria nadal nam służy, dane zbierane przez urządzenia elektroniczne są bowiem analizowane i przekształcane za pomocą tych samych wzorów, z jakich korzystano dawniej. Twierdzenie Pitagorasa dało także początek geometrii analitycznej. Geometria analityczna pozwala opisywać figury i bryły za pomocą zestawów liczb podawanych w określonym układzie odniesienia. Tak zwany układ współrzędnych tworzą linie zwane osiami, z naniesioną na nie podziałką. Najbardziej znany jest układ kartezjański na płaszczyźnie, nazwany tak na cześć francuskiego matematyka i filozofa René Descartes’a (Kartezjusza), jednego z pionierów geometrii analitycznej, choć nie pierwszego zajmującego się tą dziedziną. Układ kartezjański komponuje się następująco. Narysuj dwie linie – poziomą oznaczoną symbolem x oraz pionową opisaną jako y. Będą to osie układu współrzędnych. Punkt ich przecięcia nazywamy początkiem układu. Na każdej z osi zaznacz teraz odcinki odpowiadające odległości od początku układu w sposób przypominający oznaczenia na linijce – wartości dodatnie znajdą się po prawej stronie początku układu oraz w górę od niego, wartości ujemne trafią na lewą stronę poziomej osi i na dół osi pionowej. W tak przygotowanej przestrzeni położenie każdego punktu można opisać parą liczb x i y, tak zwanymi współrzędnymi, co przedstawia schematycznie rysunek 7. Para liczb (x, y) jednoznacznie określa położenie punktu. Rysunek 7. Dwie osie i współrzędne punktu. Wprowadzenie układu współrzędnych pozwoliło wielkim matematykom siedemnastowiecznej Europy zrozumieć, że linia lub krzywa poprowadzona na płaszczyźnie stanowi zestaw rozwiązań (x, y) określonego równania zmiennych x i y. Przykładowo równanie y = x opisuje ukośną linię wznoszącą się z lewego dolnego obszaru układu do prawego górnego. Punkt (x, y) znajdzie się na takiej prostej wtedy i tylko wtedy, gdy y = x. Bardziej ogólna forma tego wzoru, równanie liniowe, ax + by = c, gdzie a, b i c to odpowiednie stałe, opisuje dowolną linię prostą. A jakim równaniem opisany jest okrąg? W tym miejscu na scenę wkracza równanie Pitagorasa. Wynika z niego, że odległość r od punktu (x, y) jest opisana wzorem: r2 = x2 + y2, co można przekształcić do postaci pozwalającej wyznaczyć wartość r: Ponieważ wszystkie punkty leżące w odległości r od początku układu współrzędnych tworzą okrąg o promieniu r, podany powyżej wzór opisuje taką właśnie figurę geometryczną. W bardziej ogólnej postaci, czyli dla okręgu o środku w punkcie (a, b), równanie okręgu przedstawia się następująco: (x − a)2 + (y − b)2 = r2. To samo równanie opisuje jednocześnie odległość r między punktami (a, b) oraz (x, y). Zatem twierdzenie Pitagorasa pozwoliło sformułować dwa bardzo istotne wzory: równanie okręgu i wzór określający odległość punktu od układu współrzędnych. Choć twierdzenie Pitagorasa jest istotne samo w sobie, jego uogólnienia miały dla nauki znaczenie nie mniejsze niż ono samo. Skupię się teraz na jednym tylko wątku rozwinięć twierdzenia Pitagorasa, z którego wynikają założenia dotyczące teorii względności. Do tego tematu wrócę jeszcze w rozdziale 13. Dowód słuszności twierdzenia Pitagorasa przeprowadzony w Elementach geometrii wiąże je ściśle z założeniami geometrii euklidesowej. Dawniej przymiotnik ten nie był potrzebny, sama „geometria” wystarczała w zupełności, zakładano bowiem, że każda przestrzeń fizyczna jest w rzeczywistości przestrzenią euklidesową. Było to założenie oczywiste dla wszystkich i, jak większość oczywistości, okazało się całkowicie błędne. Euklides wywodził wszystkie twierdzenia z niewielkiej grupy przyjętych z góry definicji, tak zwanych aksjomatów, oraz powszechnie znanych faktów. Sformułował w ten sposób eleganckie, intuicyjne i spójne podstawy geometrii. Z jednym wyjątkiem, którym okazał się piąty aksjomat mówiący, że „jeśli prosta padająca na dwie proste utworzy z nimi kąty jednostronne wewnętrzne o sumie mniejszej niż suma dwóch kątów prostych, to dwie przecinane proste, przedłużone w nieskończoność, przetną się po tej stronie, po której znajdują się kąty o sumie mniejszej od łącznej miary dwóch kątów prostych”. Opis ten jest bardzo rozbudowany, dlatego warto rzucić okiem na rysunek 8, który zdecydowanie ułatwi zrozumienie przedstawionej tu idei.
Rysunek 8. Równoległość według aksjomatu Euklidesa. Przeszło tysiąc lat zajęło matematykom poprawienie tego, co uważali za wadę pracy Euklidesa. Nie szukali ani niczego prostszego, ani niczego bardziej intuicyjnego, co doprowadziłoby do takiego wniosku, choć w kilku wypadkach udało się znaleźć owe rozwiązania. Nadrzędnym celem było jednak usunięcie dziwacznego stwierdzenia z grupy aksjomatów przez przeprowadzenie jego dowodu. Dopiero po kilkuset latach matematycy zrozumieli w końcu, że istnieją także inne, nieeuklidesowe geometrie, co sugerowało, iż taki dowód po prostu nie może istnieć. Nowe geometrie były równie spójne logicznie co geometria Euklidesa i we wszystkich obowiązywały podane przez starożytnego myśliciela aksjomaty, z wyjątkiem oczywiście aksjomatu o równoległości. Zinterpretowano je jako geometrie geodetyk – najkrótszych linii – na powierzchniach zakrzywionych przedstawionych na rysunku 9. Rysunek 9. Zakrzywienie powierzchni. Z lewej: krzywizna zerowa; pośrodku: krzywizna dodatnia; z prawej: krzywizna ujemna. Powierzchnia euklidesowa jest płaska, co jest tożsame ze stwierdzeniem, że ma zerową krzywiznę. Krzywizna sfery jest w każdym miejscu taka sama i zawsze dodatnia – w każdym punkcie przypomina kopułę. (W charakterze ciekawostki technicznej dodam, że koła wielkie przecinają się w dwóch punktach, a nie w jednym, jak wymagałby tego aksjomat Euklidesa, zatem w geometrii sferycznej definiuje się dodatkowo punkty antypodyczne na sferze i stwierdza, że są one identyczne. Pojęcie powierzchni zastąpiono pojęciem płaszczyzny rzutowej, a całą geometrię nazwano eliptyczną). Istnieje także powierzchnia o ujemnej krzywiźnie, która w pobliżu każdego ze swoich punktów przypomina siodło. Nazywamy ją powierzchnią hiperboliczną. Zilustrowanie takiej powierzchni nie jest wcale trudne. Najłatwiej wyobrazić ją sobie jako wnętrze okrągłego dysku, w którym „prosta” jest zdefiniowana jako łuk przecinający krawędź dysku w dwóch miejscach pod kątami prostymi (rysunek 10). Rysunek 10. Dyskowy model powierzchni hiperbolicznej. Trzy linie przechodzące przez punkt P nie przecinają się z linią L. Mogłoby się wydawać, że tworzenie przestrzeni nieeuklidesowych jest możliwe wyłącznie w dwóch wymiarach, natomiast nie może zachodzić w trzech. Ostatecznie można podejrzewać, że o ile powierzchnię dwuwymiarową jakoś wypchniemy w trzeci wymiar, o tyle podobnej operacji nie da się przeprowadzić dla przestrzeni, ponieważ nie ma w niej dodatkowego wymiaru, w którym można by zdefiniować zakrzywienie. Oczywiście takie rozumowanie jest raczej naiwne. Dobrym modelem trójwymiarowej przestrzeni hiperbolicznej jest wnętrze sfery, w którym linie są odwzorowane jako łuki okręgów przechodzące przez powierzchnię sfery pod kątem prostym. Geometria ta jest trójwymiarowa, spełnia wszystkie aksjomaty geometrii euklidesowej z wyjątkiem piątego i w pewnym sensie pozwala zdefiniować trójwymiarową przestrzeń zakrzywioną, choć zakrzywienie nie pojawia się wokół czegoś ani nie polega na wypchnięciu przestrzeni w nowym kierunku. Przestrzeń po prostu jest zakrzywiona. Gdy tylko odkryto istnieni e nowych geometrii, zainteresowanie naukowców skupiło się na wypływających stąd konsekwencjach, ale paradoksalnie nie dla matematyki, lecz dla fizyki. Zaczęto zadawać sobie pytanie: skoro przestrzeń nie musi być euklidesowa, jaka zatem jest? Naukowcy szybko uświadomili sobie, że tak naprawdę nie mają pojęcia. W 1813 roku Gauss przeprowadził pomiar kątów trójkąta tworzonego przez trzy góry – Brocken, Hohehagen i Inselberg. Wówczas wiadomo już było, że w trójkącie wyznaczonym w zakrzywionej przestrzeni suma kątów jest różna od wartości 180°. Wynik pomiarów był o 15 sekund kątowych większy od wartości 180°, co sugerowałoby – o ile uzyskane wartości były poprawne – że przestrzeń (przynajmniej w tym miejscu) ma krzywiznę dodatnią. Niestety do wykonania dokładniejszych pomiarów należałoby wyznaczyć znacznie większy trójkąt. Ostatecznie pomiary Gaussa uznano za niewystarczające, by na ich podstawie wnioskować cokolwiek – przestrzeń nie musiała być euklidesowa, ale równie dobrze mogła być. Moje wcześniejsze stwierdzenie, że trójwymiarowa przestrzeń hiperboliczna jest „po prostu zakrzywiona”, ma sens jedynie w nowym, wywodzącym się z prac Gaussa rozumieniu krzywizny. Wiemy, że sfera ma dodatnią krzywiznę, a przestrzeń hiperboliczna jest zakrzywiona ujemnie, ale przecież nigdzie nie jest powiedziane, że promień krzywizny musi mieć stałą wartość. Przestrzeń może być w pewnych miejscach zakrzywiona w większym stopniu niż w innych, a nawet więcej – w niektórych obszarach może mieć krzywiznę dodatnią, w innych zaś ujemną. Promień krzywizny może zmieniać się w sposób ciągły. Jeśli rozważymy powierzchnię wyglądającą jak psia kość, to w obszarach odpowiadających zgrubieniom na końcach przestrzeń będzie mieć krzywiznę dodatnią, natomiast w obszarze łączącym zgrubienia będzie ona ujemna. Gauss szukał wzoru opisującego krzywiznę powierzchni w dowolnym punkcie. Gdy go wreszcie sformułował i wydał w książce pod tytułem Disquisitiones generales circa superficies curva („Ogólne rozważania na temat powierzchni zakrzywionych”), która ukazała się w 1828 roku, nazwał go „niezwykłym twierdzeniem”. Co było w nim tak zadziwiającego? Podstawę rozważań Gaussa stanowiło raczej naiwne spojrzenie na krzywiznę, którą definiował jako powierzchnię osadzoną w przestrzeni trójwymiarowej. Dla tak zdefiniowanej obliczał promień krzywizny. Ostatecznie jednak otrzymał wynik stwierdzający jasno, że przestrzeń, w której umieszczał powierzchnię, nie miała żadnego wpływu na zakrzywienie. Ten czynnik w ogóle nie pojawiał się we wzorze. Gauss zapisał: „wzór […] samoczynnie przekształca się w niezwykłe twierdzenie – jeśli zakrzywiona powierzchnia rozwija się na dowolnej innej powierzchni, to miara krzywizny w dowolnym punkcie pozostanie niezmieniona”. Mówiąc o „rozwijaniu się na powierzchni”, Gauss miał na myśli „owinięcie” czegoś powierzchnią. Weź zwykłą, płaską kartkę papieru o zerowej krzywiźnie. Owiń nią butelkę. Jeśli butelka ma kształt walca, kartka będzie do niej przylegać idealnie – nie zmarszczy się nigdzie, nie rozciągnie ani nie przerwie. Na oko wydaje się zakrzywiona, ale to trywialny rodzaj krzywizny, ponieważ w żaden sposób nie zmienia geometrii kartki, wpływa jedynie na ułożenie jej punktów w otaczającej ją przestrzeni. Narysuj na płaskiej kartce trójkąt prostokątny, zmierz długości jego boków, sprawdź, czy spełnione jest dla niego twierdzenie Pitagorasa. Teraz zawiń rysunek wokół butelki. Długości boków zmierzone teraz na papierze się nie zmienią. Twierdzenie Pitagorasa nadal obowiązuje. Sprawa przedstawia się zupełnie inaczej w wypadku powierzchni kuli, której krzywizna jest, przypominam, niezerowa. Nie dasz rady owinąć kuli kartką papieru, tak by przylegała idealnie do kuli – musisz ją zgnieść w pewnych miejscach, nieco naciągnąć, być może nawet rozerwać. Geometria sferyczna jest z natury rzeczy zupełnie odmienna od geometrii płaszczyzny. Posłużę się przykładem – równik Ziemi oraz południki zerowy i 90° tworzą na półkuli północnej trójkąt równoboczny o trzech równych kątach (o ile przyjmie się, że Ziemia ma kształt idealnej kuli). W geometrii sferycznej twierdzenie Pitagorasa jest nieprawdziwe. Krzywiznę należącą do wewnętrznej geometrii powierzchni nazywamy dziś krzywizną Gaussa. Gauss wyjaśnił nawet, dlaczego wprowadzenie tego pojęcia jest tak ważne. Posłużył się
w tym celu bardzo obrazową analogią, która do dziś nie straciła na aktualności. Wyobraź sobie mrówkę poruszającą się po powierzchni. W jaki sposób miałaby ona stwierdzić, że powierzchnia jest zakrzywiona? Nie zdoła oderwać się od kartki, by zobaczyć, że ta zagina się wokół butelki, ale gdyby znała wzór Gaussa i dokonała odpowiednich pomiarów na powierzchni, zdołałaby określić promień jej krzywizny. Nasze próby określenia krzywizny przestrzeni świata przypominają starania mrówki żyjącej na kartce papieru. Nie możemy wznieść się ponad naszą przestrzeń, nim jednak przystąpimy do pomiarów, które wykonała mrówka, musimy poznać wzór opisujący zakrzywienie przestrzeni trójwymiarowej. Gauss nie potrafił go podać, ale jeden z jego uczniów odważnie stwierdził, że umie go wskazać. Uczniem tym był Georg Bernhard Riemann. Przygotowywał się wtedy do obrony pracy habilitacyjnej, stanowiącej następny stopień rozwoju kariery naukowej po doktoracie. W tamtych czasach uzyskanie habilitacji pozwalało wykładowcom niemieckich uniwersytetów pobierać opłaty od słuchaczy ich wykładów. Obrona pracy habilitacyjnej zachowała niezmienioną postać – polega ona na wygłoszeniu publicznego wykładu, w którym prezentuje się wyniki prowadzonych badań. Wykład ten oraz następująca po nim dyskusja są właśnie egzaminem przyszłego doktora habilitowanego. Kandydat przedstawia kilka tematów, na które mógłby się wypowiedzieć, a jego promotor – w wypadku Riemanna był to Gauss – wybiera jeden z nich. Riemann, człowiek obdarzony niewątpliwą intuicją matematyczną, podał kilka typowych tematów, które znał od podszewki, ale w przypływie czy to natchnienia, czy w zaaferowaniu umieścił też na liście pozycję „O hipotezach leżących u podstaw geometrii”. Gauss, od dawna interesujący się tymi zagadnieniami, natychmiast wyznaczył ten temat na obronę pracy habilitacyjnej Riemanna. Młody naukowiec od razu pożałował wybrania zagadnienia tak wymagającego. Szczerze nienawidził wystąpień publicznych, nie opracował też jeszcze szczegółów wyprowadzenia matematycznego swoich rozważań. W chwili ustalania tematu obrony dysponował jedynie mglistymi, choć niewątpliwie błyskotliwymi przemyśleniami dotyczącymi przestrzeni zakrzywionych. Rozważania te prowadził dla dowolnej liczby wymiarów. Riemann starał się przenieść niezwykłe twierdzenie Gaussa, prawdziwe dla zaledwie dwóch wymiarów, w przestrzeń nieskończenie wymiarową. Rozwój wypadków zmusił go do szybkiego działania, gdyż termin wygłoszenia wykładu zbliżał się wielkimi krokami. Presja, pod jaką pracował, doprowadziła go na skraj załamania nerwowego, a praca polegająca na asystowaniu współpracownikowi Gaussa, Wilhelmowi Weberowi, podczas jego eksperymentów z elektrycznością w niczym Riemannowi nie pomagała. A może jednak… Prowadząc badania nad zależnościami łączącymi siły elektryczne i magnetyczne, Riemann doszedł do wniosku, że mógłby powiązać ze sobą pojęcia siły i krzywizny. Takie założenie, które w rzeczywistości było wynikiem, pozwoliło mu przeprowadzić wsteczną analizę matematyki sił i zdefiniować za jej pomocą krzywiznę. Tego właśnie potrzebował, by obronić pracę habilitacyjną. Wykład habilitacyjny odbył się w 1854 roku i, co raczej nie dziwi, spotkał się z ciepłym przyjęciem. Riemann zaczął od zdefiniowania pojęcia rozmaitości, którą to nazwę wywiódł od niemieckiego słowa oznaczającego „różnorodność”, uzasadniając, że zmienne tworzące rozmaitość mogą przyjmować wiele odmiennych wartości. W ujęciu formalnym rozmaitością nazywamy ściśle zdefiniowany układ wielu współrzędnych oraz wzór pozwalający określić odległość między sąsiadującymi punktami; wzór ten nazywamy dziś metryką Riemanna. Mniej formalnie rozmaitość to wielowymiarowa przestrzeń w całej okazałości. Punktem kulminacyjnym wykładu Riemanna było przedstawienie wzoru uogólniającego niezwykłe twierdzenie Gaussa – równanie przedstawiało krzywiznę rozmaitości wyłącznie w zależności od jej metryki. W taki oto sposób nasza opowieść zatoczyła koło niczym wąż Uroboros połykający swój ogon, jak się bowiem okazuje, metryka wyraźnie przywołuje na myśl skojarzenia ze wzorem Pitagorasa. Załóżmy przykładowo, że mamy do czynienia z rozmaitością trójwymiarową. Niech punkt będzie opisany współrzędnymi (x, y, z), a jego sąsiad będzie mieć współrzędne (x + dx, y + dy, z + dz). Symbolem „d” oznacza się w matematyce „niewielki fragment”. W przestrzeni euklidesowej, czyli o zerowej krzywiźnie, odległość ds między tymi punktami będzie opisana wzorem: ds2 = dx2 + dy2 + dz2, czyli po prostu wzorem Pitagorasa dla dwóch bardzo blisko położonych punktów. W przestrzeni zakrzywionej o promieniu krzywizny zmieniającym się w sposób ciągły odległość ta, metryka, opisana jest następująco: ds2 = X dx2 + Y dy2 + Z dz2 + 2U dxdy + 2V dxdz + 2W dydz. Pojawiające się we wzorze wielkości X, Y, Z, U, V i W mogą zależeć od zmiennych x, y i z. Równanie to na pierwszy rzut oka przytłacza, ale i w nim odnajdziemy pewne podobieństwo do wzoru Pitagorasa – sumę kwadratów (oraz podobne pod względem charakteru czynniki będące iloczynami dwóch wielkości, na przykład dxdy) uzupełnioną o kilka dodatków. Niektóre czynniki metryki są mnożone przez 2, ponieważ całość można zapisać w postaci macierzy 3 × 3, w której pewne elementy występują dwukrotnie: Wielkości X, Y i Z pojawiają się w niej tylko raz, natomiast każdy z parametrów U, V i W znajduje się w dwóch miejscach macierzy. Macierz jest symetryczna względem przekątnej, co w ujęciu geometrii różniczkowej czyni z niej tensor symetryczny. Riemannowskie uogólnienie niezwykłego twierdzenia Gaussa jest równaniem opisującym krzywiznę rozmaitości w dowolnym punkcie wyrażonym za pomocą wspomnianego tensora. W przypadku szczególnym, opisanym właśnie twierdzeniem Pitagorasa, krzywizna rozmaitości wynosi zero. Oznacza to, że wykazując spełnienie równania Pitagorasa, dowodzimy braku zakrzywienia przestrzeni. Rozwinięcie Riemanna, wywodzące się przecież ze wzoru zaproponowanego przez Gaussa, zależy wyłącznie od metryki rozmaitości. Mrówka uwięziona na rozmaitości mogłaby zbadać jej metrykę, mierząc boki niewielkich trójkątów i obliczając krzywiznę. Pamiętaj, że krzywizna jest nierozerwalnie związana z rozmaitością i nie zależy w żaden sposób od przestrzeni, w jakiej znajduje się rozmaitość. Co więcej, sama metryka zawiera definicję geometrii, rozważania na temat przestrzeni, w której znajduje się rozmaitość, nie są więc w ogóle konieczne. Oznacza to, że stawianie sobie pytań o kształt otaczającego nas – ludzkie mrówki – niezmierzonego i tajemniczego Wszechświata ma sens. Możemy nawet liczyć na znalezienie odpowiedzi na podstawie obserwacji niewymagających od nas wykraczania poza granice Wszechświata. To bardzo pocieszające, ponieważ opuszczenie naszej przestrzeni jest niemożliwe. Riemann zdołał sformułować swój wzór, definiując geometrię przestrzeni za pomocą sił. Pięćdziesiąt lat później Einstein odwrócił ideę tego rozwiązania i wykorzystał geometrię przestrzeni do określenia siły grawitacji. Wyniki jego przemyśleń znamy dziś pod nazwą ogólnej teorii względności. Teoria ta dała podstawy, by zastanawiać się nad kształtem Wszechświata – do tematu tego wrócę jeszcze w rozdziale 13. Wypadki potoczyły się doprawdy niezwykle. Sformułowane przeszło trzy i pół tysiąca lat temu twierdzenie Pitagorasa pozwalało obliczyć powierzchnię pola uprawnego. Po rozszerzeniu go do postaci opisującej trójkąty bez kątów prostych i trójkąty kreślone na sferze dało nam narzędzie do kreślenia map i obliczenia wymiarów planety, na której żyjemy, a niezwykłe jego uogólnienie stwarza nadzieję na zbadanie kształtu Wszechświata. Wielkie pomysły rodzą się z prostych myśli. 1 Tytuł tego rozdziału pochodzi właśnie z jednej z takich książek, Tajemnica zielonej pieczęci autorstwa H. Ożogowskiej (przyp. tłum.). 2 Wspominanej bez podania źródeł na stronie http://www-history.mcs.st-and.ac.uk/HistTopics/Babylonian_Pythagoras.html. 3 A. Sachs, A. Goetze i O. Neugebauer, Mathematical Cuneiform Texts, American Oriental Society, New Haven 1945. 4 Aby ułatwić zrozumienie przekształceń algebraicznych, na rysunku 60 przedstawiamy figurę geometryczną uzupełnioną o dokładniejszy opis.
Rysunek 60. Podział trójkąta na dwa trójkąty prostokątne. Odcinek prostopadły do boku b dzieli go na dwie części. Z definicji funkcji trygonometrycznych wynika, że długość jednej części to a cos C, zatem druga musi być równa b − a cos C. Oznaczmy wysokość prostopadłego odcinka przez h, zatem z twierdzenia Pitagorasa: a2 = h2 + (a cos C)2 c2 = h2 + (b − a cos C )2. Stąd: a2 = h 2 + a2 cos2 C c2 = h2 + (b − a cos C)2 = h2 + b2 − 2ab cos C + a2 cos2 C. Po odjęciu pierwszego równania od drugiego z układu znikają niechciany czynnik h2 oraz iloczyn a2 cos2 C. Otrzymujemy więc zależność: c2 − a2 = b2 − 2ab cos C, co łatwo przekształcić do podanego na początku wzoru.
Rozdział 2. Jak skrócić czas obliczeń? Logarytmowanie Co z niego wynika? Logarytmowanie pozwala przedstawiać mnożenie w postaci dodawania odpowiednio dobranych wartości. Dlaczego jest ono tak ważne? Dlatego że wykonywanie dodawania jest znacznie prostsze od wykonywania mnożenia. Co dzięki temu osiągnęliśmy? Możliwość prowadzenia obliczeń astronomicznych, na przykład określania parametrów związanych z zaćmieniami czy wyznaczania orbit planetarnych. Dzięki logarytmom zyskaliśmy możliwość przeprowadzania obliczeń naukowych, a inżynierowie otrzymali jedno z najważniejszych narzędzi pracy – suwak logarytmiczny. Logarytmy pozwalają opisywać rozpad promieniotwórczy oraz psychofizyczne ujęcie ludzkiej percepcji.
Liczby zrodziły się z praktycznej potrzeby opisywania pewnych wielkości w życiu człowieka – zapisywania danych o posiadanych zwierzętach czy przynależnej ziemi, rejestrowania transakcji finansowych: na przykład naliczania podatków, prowadzenia księgowości. Najstarsze znane nam formy zapisu liczbowego, wykraczające poza najprostsze symbole takie jak ||||, pochodzą mniej więcej z 8000 roku p.n.e. Znaleziono je na glinianych pojemnikach, w których mezopotamscy rachmistrzowie przechowywali gliniane żetony o różnych kształtach. Denise Schmandt-Besserat, archeolog zajmująca się badaniem tamtejszej kultury, zasugerowała, że każdy z kształtów odpowiadał innemu rodzajowi dóbr codziennego użytku: kulą oznaczano zboże, żetonem w kształcie jajka – słój oliwy i tak dalej. Aby uchronić sztony przed zniszczeniem, zamykano je w glinianych pojemnikach. Oczywiście żeby sprawdzić stan takiego antycznego „konta”, należało rozbić pojemnik i przeliczyć jego zawartość, dlatego rachmistrzowie zaczęli znaczyć zewnętrzne ścianki naczyń symbolami, dzięki którym można było podać liczbę żetonów bez naruszania warstwy ochronnej opakowania. Z czasem zrozumieli, że dysponując takimi symbolami, mogą zrezygnować z samych żetonów. W ten sposób zrodził się zestaw znaków będących pierwowzorami liczb, a może także pisma. Razem z liczbami pojawiła się arytmetyka – zestaw reguł pozwalających dodawać, odejmować, mnożyć i dzielić liczby. Wartości składowe sumowano na liczydłach, a wynik zapisywano odpowiednim symbolem. Z czasem opracowano znaki graficzne pozwalające przeprowadzać obliczenia bez uciekania się do pomocy urządzeń mechanicznych, ale liczydła nie przeszły do lamusa – do dziś używa się ich w wielu częściach świata; gdzie indziej kartka i długopis zostały wyparte przez urządzenia elektroniczne. Arytmetyka sprawdziła się także w innych dziedzinach. Szczególnie cenna okazała się dla astronomów i pierwszych geodetów. Wraz z powstaniem podwalin dzisiejszej fizyki pojawił się problem prowadzenia obliczeń. Pierwsi badacze byli zmuszeni wykonywać ręcznie nawet najbardziej skomplikowane rachunki. Bardzo często to właśnie obliczenia pochłaniały większość ich czasu i energii, odciągając od bardziej twórczych zajęć; czasami techniczna strona rozwiązywania problemu zajmowała kilka miesięcy bądź nawet lat. Z czasem nikt nie miał już wątpliwości, że dalszy rozwój nauki bez opracowania odpowied niego aparatu matematycznego stanie się niemożliwy. Wymyślono niezliczoną liczbę urządzeń mechanicznych mających ułatwić prowadzenie obliczeń, ale najbardziej przełomowe odkrycie wiązało się z całkowitą zmianą metody działania – najpierw myśleć, liczyć potem. Okazało się, że sprytne rozwiązania matematyczne pozwalają znacznie uprościć nawet najbardziej skomplikowane obliczenia. Nowa gałąź matematyki bardzo szybko zaczęła żyć własnym życiem, a zajmujący się nią uczeni odkryli, że poza praktycznymi implikacjami niesie ona ze sobą także bardzo poważne konsekwencje na polu teoretycznym. Dziś tamte pomysły stanowią nieodzowne narzędzie pracy każdego naukowca, również psychologów i humanistów. Do lat osiemdziesiątych XX wieku korzystano z nich powszechnie i dopiero pojawienie się komputerów sprawiło, że sprawdzone metody obliczeniowe zostały nieco zapomniane. Mimo to matematyka i inne nauki ścisłe nadal czerpią pełnymi garściami z dawnych osiągnięć. Nowy sposób rozumowania wiązał się nierozerwalnie z metodą matematyczną nazwaną logarytmowaniem. Twórcą idei logarytmów był szkocki laird5, ale dopiero pewien profesor geometrii żywo zainteresowany zagadnieniami nawigacji i astronomii zdołał rozwinąć niewątpliwie genialną, lecz niepozbawioną wad myśl posiadacza ziemskiego. W liście wysłanym w marcu 1615 roku do Jamesa Usshera Henry Briggs niechcący dał świadectwo jednemu z ważniejszych wydarzeń w historii rozwoju nauki: Napper, pan na dobrach Markinston, zajął mnie bardzo skutecznie nową, niezwykle pociągającą ideą logarytmów. Bóg da, zobaczę się z nim tego lata, czego wypatruję z rosnącą niecierpliwością, nigdy dotąd bowiem nie spotkałem się z książką równie fascynującą i bardziej skłaniającą do myślenia. Briggs był pierwszym profesorem geometrii w londyńskim Gresham College, natomiast „Napper, pan na dobrach Markinston” to John Napier, ósmy dziedzic Merchiston, majątku, który dziś jest częścią Edynburga. Napier był zafascynowany mistycyzmem; zajmowała go teologia, szczególnie zaś (jeśli nie wyłącznie) zgłębianie tajemnic Objawienia św. Jana. Za swoje największe dzieło uważał A Plaine Discovery of the Whole Revelation of St John („Proste wyjaśnienie Księgi Objawienia św. Jana”), na podstawie którego ustalił datę końca świata na rok 1688 lub 1700. Uważa się też, że poza próbami głębszego poznania Apokalipsy Napier aktywnie badał sekrety alchemii i nekromancji, z pewnością zaś jego zainteresowanie okultyzmem wyrobiło mu wśród ówczesnych opinię czarnoksiężnika. Plotka głosi, że gdziekolwiek się pojawiał, zawsze nosił przy sobie pudełko, w którym trzymał czarnego pająka; miał też podobno „chowańca”, magicznego towarzysza, przyjmującego postać czarnego koguta. Jeden z jego potomków, Mark Napier, utrzymuje, jakoby głównym zadaniem chowańca było wykrywanie nieuczciwych służących. Ósmy laird Merchiston miał zamykać podejrzanego o kradzież w jednym pomieszczeniu z kogutem, po czym rozkazywał mu pogłaskać zwierzę, informując uprzednio, że ptak jest stworzeniem magicznym, dzięki czemu bezbłędnie wykrywa winnych. Jednak za pozornym mistycyzmem kryły się solidne, niemalże naukowe podstawy – w opisywanym przypadku Napier pokrywał wcześniej pióra zwierzęcia cienką warstwą sadzy. Człowiek niewinny, niemający nic na sumieniu, bez wahania głaskał koguta, brudząc sobie dłonie. Złodziej, w obawie przed zdemaskowaniem, markował jedynie dotknięcie zwierzęcia – Napier wiedział, że człowiek o czystych rękach miał nieczyste sumienie. Laird poświęcał wiele czasu matematyce, szczególnie zaś rozwijaniu technik obliczeniowych, które mogłyby przyspieszyć prowadzenie rachunków. Jednym z jego wynalazków były tak zwane kostki czy też pałeczki Napiera – zestaw pręcików z naniesionymi na ich ścianki liczbami, które po odpowiednim ułożeniu pozwalały znacznie uprościć proces wykonywania złożonych mnożeń – jednak za jego największe dzieło, które przyniosło mu sławę i spowodowało prawdziwą rewolucję w nauce, uznaje się nie pracę poświęconą Księdze Objawienia, na co liczył w skrytości ducha, ale Mirifici logarithmorum canonis descriptio („Opis pięknych zasad logarytmowania”) z 1614 roku. Słowa wstępu dowodzą wyraźnie, że Napier doskonale zdawał sobie sprawę z podniosłości swojego odkrycia oraz konsekwencji, jakie miało ono mieć dla nauki: Jak dobrze wszystkim szanownym kolegom matematykom wiadomo, w sztuce naszej nie ma nic bardziej nużącego niż spowolnienia wynikające z konieczności prowadzenia wielokrotnych mnożeń i dzieleń, szukania właściwych proporcji i określania wartości pierwiastków kwadratowych i sześciennych; o […] mogących pojawić się w trakcie tych obliczeń błędach nawet nie wspomnę. Dlatego też od pewnego czasu wysiłki swe kierowałem ku przygotowaniu pewnej i szybkiej techniki, która pozwoliłaby te niedogodności ominąć. Wreszcie po wielu próbach […] mam zaszczyt przedstawić gotową metodę, z której od dziś może korzystać każdy matematyk6. Idea logarytmów ujęła Briggsa od pierwszej chwili. Jak wielu matematyków w tamtych czasach sam spędzał niezliczone godziny, prowadząc obliczenia astronomiczne. Wiemy to, ponieważ w innym ze swoich listów do Usshera, napisanym w 1610 roku, wspomina wyznaczanie parametrów elipsy. Dodatkowe potwierdzenie stanowią dwa tomy tablic numerycznych Briggsa, które ukazały się drukiem dwa lata później – pierwszy z nich poświęcony był badaniom nad biegunem północnym, drugi zawierał dane niezbędne do prowadzenia nawigacji. W obydwu wypadkach uczony musiał wykonać olbrzymią liczbę skomplikowanych obliczeń arytmetycznych i trygonometrycznych, był więc aż nadto świadom, ile czasu i trudu mogło mu w przyszłości oszczędzić odkrycie Napiera. Jednak im dłużej studiował pracę szkockiego badacza, tym bardziej utwierdzał się w przekonaniu, że choć sam pomysł był genialny, jego realizacja pozostawiała wiele do życzenia. Briggs opracował prostą, ale bardzo istotną poprawkę i wyruszył w długą podróż do Szkocji. Gdy wreszcie stanęli twarzą w twarz, „przez kwadrans niemal jeden na drugiego spoglądał z niemym uwielbieniem, nim wreszcie pierwsze słowo paść miało”7. Co wywołało aż taki zachwyt? Każdy, kto kiedykolwiek miał do czynienia z arytmetyką, wie doskonale, że dodawanie liczb jest stosunkowo proste, natomiast mnożenie ich przez siebie zawsze sprawia trudności. Mnożenie wymaga przeprowadzenia znacznie większej liczby operacji arytmetycznych niż dodawanie – przykładowo dodanie do siebie dwóch dziesięciocyfrowych liczb da się przeprowadzić mniej więcej w dziesięciu prostych krokach, natomiast mnożenie wymaga przeprowadzenia dwustu niezależnych operacji. Sprawa ta nie traci na znaczeniu nawet w dobie komputerów, ale kryje się za kurtyną algorytmów zastosowanych do oprogramowania funkcji wykonujących poszczególne działania. W czasach Napiera wszystko, czym dziś zajmują się komputery, trzeba było wykonywać ręcznie. Dlatego myśl o narzędziu pozwalającym przekształcić żmudne mnożenia w zgrabne i szybko wyznaczane sumy kusiła tak wiele umysłów. Choć dla niektórych pomysł ten był zbyt piękny, by mógł być prawdziwy, Napier uświadomił sobie, że w rzeczywistości wprowadzenie takiej tożsamości jest możliwe. Należało jedynie przekształcić wyrazy iloczynu tak, by były zapisane w postaci potęgi pewnej z góry określonej liczby. W zapisie algebraicznym potęgę nieznanej wartości x oznacza się liczbą w indeksie górnym, czyli wzniesioną nieco ponad linię bazową teksu. W ten sposób xx = x2, xxx = x3, xxxx = x4 i tak dalej; pamiętajmy przy tym, że w algebrze umieszczenie dwóch liter obok siebie jest tożsame z pomnożeniem ich. Zgodnie z tym 104 = 10 × 10 × 10 × 10 = 10 000. Wystarczy poćwiczyć nieco działania na tego typu wyrażeniach, by szybko odkryć, w jaki sposób przyspieszyć przeprowadzanie obliczeń. Przyjrzyjmy się przykładowi 104 × 103 – rozpiszmy potęgowanie na mnożenie: 10000 × 1000 = (10 × 10 × 10 × 10) × (10 × 10 × 10) = 10 × 10 × 10 × 10 × 10 × 10 × 10 =10 000 000.
W wyniku pojawia się siedem zer, czyli 3 + 4 zera. Pierwszym krokiem dalszych rozważań będzie wykazanie, dlaczego zastosowałem przed chwilą zapis 3 + 4. Zapiszmy obok siebie mnożenie trzech dziesiątek i czterech dziesiątek, co w skrócie można przedstawić jako: 104 × 103 = 103+4 = 107. Na tej samej zasadzie mnożenie dowolnej liczby x podniesionej do potęgi a przez tę samą liczbę x podniesioną do potęgi b, gdzie a i b są liczbami całkowitymi, oznacza podniesienie jej do potęgi (a + b): xaxb = xa+b. Wzór ten wygląda bardzo niepozornie, ale przyjrzyjmy się mu dokładniej. Gdybyśmy chcieli rozwiązać lewą stronę równania, należałoby wykonać mnożenie dwóch wartości, natomiast głównym działaniem prowadzącym do uzyskania wyniku po prawej stronie jest znacznie prostsze z arytmetycznego punktu widzenia dodanie do siebie wykładników potęgi a i b. Załóżmy, że chcesz pomnożyć liczby 2,67 i 3,51. Po długich obliczeniach uzyskasz wynik: 9,3717, co po zaokrągleniu do dwóch miejsc po przecinku daje 9,37. Jak w takim wypadku wykorzystać przedstawiony wcześniej wzór? Cała sztuka polega na odpowiednim dobraniu podstawy potęgi, czyli liczby x. Dla x = 1,001 po nieskomplikowanych, choć żmudnych obliczeniach otrzymamy: (1,001)983 = 2,67 (1,001)1256 = 3,51 z dokładnością do dwóch miejsc po przecinku. Stąd wynika, że 2,67 × 3,51 można zapisać jako: (1,001)983+1256 = (1,001)2239, czyli z dokładnością do dwóch miejsc po przecinku właśnie 9,37. Najważniejszym wykonywanym w tym przykładzie działaniem było proste dodawanie: 983 + 1256 = 2239. Oczywiście każdy, kto chciałby sprawdzić poprawność przedstawionych powyżej obliczeń, szybko doszedłby do wniosku, że wprowadzając taki zapis, raczej utrudniłem obliczenia, zamiast je ułatwić. Aby wyznaczyć wynik potęgowania (1,001)983, należy pomnożyć liczbę 1,001 aż 983 razy przez samą siebie; odkrycie, że 983 jest wykładnikiem potrzebnym do rozwiązania pierwotnego problemu, zajmuje jeszcze więcej czasu. Na pierwszy rzut oka wydaje się zatem, że cały pomysł jest mocno chybiony. Geniusz Napiera objawił się przede wszystkim w spostrzeżeniu, że to bezpodstawne uprzedzenie. Oczywiście przygotowanie skutecznego narzędzia przyspieszającego i ułatwiającego prowadzenie obliczeń wymagało, by ktoś pracowity poświęcił się i wyznaczył wartości wszystkich potęg liczby 1,001 od (1,001)2 do mniej więcej (1,001)10 000. Tak przygotowane dane mogłyby zostać opublikowane w postaci tablic, co w zasadzie położyłoby kres trudom obliczeń. Później uczeni musieliby jedynie odnaleźć w przygotowanym zbiorze odpowiednie wykładniki, czyli stwierdzić, że liczba 2,67 pojawia się przy wartości 983, a liczba 3,51 występuje obok wartości 1256. Po dodaniu ich do siebie otrzymaliby wynik 2239, by ostatecznie odczytać w odpowiednim rzędzie tabeli, że 1,001 podniesione do potęgi 2239 daje 9,37. I to już koniec. W rzeczywistości by otrzymać odpowiednio dokładne wyniki, trzeba posłużyć się podstawą potęgi znacznie bliższą jedności, na przykład liczbą 1,000001, co z kolei znacznie zwiększa liczbę koniecznych do przeprowadzenia obliczeń – przy tak wybranej podstawie należałoby wyznaczyć około miliona potęg. Przygotowanie odpowiednich tablic stanowi zatem nie lada wyzwanie, ale to praca, którą wykonuje się jednokrotnie. Wystarczył jeden obdarzony szlachetną naturą dobroczyńca, który podjąłby się tego zadania, oszczędzając tym samym następnym pokoleniom trudów prowadzenia żmudnych rachunków. Wróćmy na chwilę do podanego wcześniej przykładu. Przy zaprezentowanym spojrzeniu na prowadzenie obliczeń wykładniki 983 i 1256 są logarytmami liczb 2,67 i 3,51, czyli czynników planowanego mnożenia. Analogicznie liczba 2239 jest logarytmem iloczynu tego mnożenia, czyli wartości 9,83. Po wprowadzeniu skrótowego oznaczenia terminu logarytm – log8 – możemy zapisać: log ab = log a + log b. Wyrażenie to jest prawdziwe dla dowolnych wartości a i b. Wartość 1,001, wybrana zupełnie przypadkowo, będzie stanowić podstawę logarytmu. Gdyby zamiast niej wybrać inną liczbę, wartości logarytmów uległyby zmianie, ale opisana tu metoda działa dla każdej dowolnej ustalonej podstawy. Tak powinno przebiegać rozumowanie Napiera, jednak z nieznanych nam przyczyn tok myślowy twórcy logarytmów okazał się nieco inny. Briggs, dla którego zaprezentowana metoda obliczeniowa była zupełną nowością, miał świeże spojrzenie na całą sprawę, zasugerował więc dwie zmiany wprowadzające usprawnienia do techniki Napiera. Pomysł, by zastąpić mnożenie dodawaniem, krążył już od jakiegoś czasu wśród matematyków, gdy pod koniec XVI wieku Napier rozpoczął swoje rozważania dotyczące potęgowania. W owym czasie w Danii sporą popularnością cieszyła się skomplikowana metoda bazująca na wykorzystaniu funkcji trygonometrycznych zwana prosthaphaeresis9. Zaciekawiony nią Napier bardzo szybko zrozumiał, że te same efekty można osiągnąć znacznie prościej, używając zamiast funkcji trygonometrycznych potęg o ustalonej podstawie. Brakowało oczywiście odpowiednich tablic, ale temu akurat łatwo było zaradzić – ktoś musiał wykazać się postawą obywatelską i przeprowadzić niezbędne obliczenia. Napier podjął się tego zadania, lecz popełnił poważny błąd strategiczny. Zamiast użyć podstawy o wartości nieco większej od 1, wybrał liczbę nieco mniejszą od jedynki. W efekcie zbiór wykładników rozpoczynał się od dużych wartości, które stopniowo malały. Utrudniło to nieco obliczenia. Briggs zauważył ten mankament, znalazł też rozwiązanie – wystarczyło, jak wspominałem, użyć podstawy o wartości nieco większej od 1. Jednak nie to stało się największą zasługą Briggsa. Uczony dostrzegł także znacznie bardziej delikatny problem związany z oryginalną metodą Napiera i również w tym wypadku zaproponował odpowiednią poprawkę. Gdyby modyfikacje w metodzie Napiera ograniczyć do zmiany podstawy logarytmu i wybrać na nią na przykład liczbę 1,0000000001, między logarytmami liczb, przykładowo, 12,3456 i 1,23456 nie istniałby żaden widoczny na pierwszy rzut oka związek. W konsekwencji nie można by wskazać żadnej konkretnej wartości, na której należałoby zakończyć tablice. Powodem była wartość log 10, ponieważ: log 10x = log 10 + log x. Niestety wyrażenie log 10 sprawiało same kłopoty; dla podstawy 1,0000000001 logarytm liczby 10 wynosił 23 025 850 929. Briggs uznał, że obliczenia byłyby znacznie bardziej eleganckie, gdyby przyjąć log 10 = 1. Wtedy log 10x = 1 + log x, zatem niezależnie od wartości log 1,23456 wystarczyłoby dodać do niej 1, aby otrzymać wartość log 12,3456. Takie rozwiązanie pozwoliło odgraniczyć wartości logarytmów w tablicach do przedziału od 1 do 10. Gdyby w obliczeniach pojawiły się większe liczby, wystarczyło dodać do nich odpowiednią liczbę całkowitą. Aby uzyskać warunek log 10 = 1, należy – wzorem Napiera – wyznaczyć wartości logarytmów dla podstawy 1,0000000001, a następnie podzielić je przez 23 025 850 929. W efekcie uzyska się wartości logarytmów o podstawie 10. Logarytmy liczb o takiej podstawie zapisuje się jako log10 x. Spełniają one, jak poprzednie, warunek: log10 xy = log10 x + log10 y, lecz jednocześnie: log10 10x = log10 x + 1. Napier zmarł dwa lata później, więc prace nad tablicami logarytmów dziesiętnych musiał podjąć Briggs. W 1617 roku opublikował Logarithmorum chilias prima („Logarytmy
pierwszej chiliady”), zbiór wartości logarytmów dla liczb naturalnych od 1 do 1000 podanych z dokładnością do czternastego miejsca po przecinku. W 1624 roku uzupełnił to wydawnictwo o Arithmetic logarithmica („Arytmetyka logarytmiczna”), tablicę logarytmów dziesiętnych dla liczb od 1 do 20 000 oraz od 90 000 do 100 000, podając je z taką samą jak poprzednio dokładnością. Bardzo szybko znalazł naśladowców, którzy uzupełnili brakujące wartości, a także przygotowali tablice pomocnicze, zawierające między innymi logarytmy funkcji trygonometrycznych, na przykład log sin x. Sposób myślenia, który doprowadził Napiera do sformułowania definicji logarytmu, pozwala także określać wyniki potęgowania x a, gdzie x jest dowolną liczbą dodatnią, a zaś wykładnikiem, który niekoniecznie musi być dodatnią liczbą całkowitą. Formułując definicję, musimy jedynie pamiętać, by nie kłóciła się ona z równaniem xaxb = xa+b. Resztę z powodzeniem załatwi intuicja matematyczna. Aby uniknąć zbędnych komplikacji, przyjmiemy, że x ma wartość dodatnią, tak samo jak definiowane wzorem wyrażenie xa. (Ujemnymi podstawami potęgi zajmę się w rozdziale 5, w którym wprowadzę pojęcie liczb zespolonych). Zastanówmy się teraz, ile wyniesie wynik potęgowania x0. Pamiętając, że x1 = x, możemy zapisać warunek x0x = x0+1 = x. Po podzieleniu wyniku przez x otrzymamy x0 = 1. Jak zatem będzie przedstawiać się wynik potęgowania x−1? Postąpimy analogicznie. Zgodnie z podanym wcześniej wzorem x−1x = x−1+1 = x0 = 1. Po podzieleniu otrzymanej wartości przez x okaże się, że x−1 = 1/x. Idąc dalej tym tropem, otrzymamy x−2 = 1/x2, x−3 = 1/x3 i tak dalej. W tym świetle rozważania nad wartością potęgowania x1/2 wydają się zarówno bardziej interesujące, jak i potencjalnie bardzo potrzebne. Tak sformułowany problem musi pozostawać w zgodzie z warunkiem x1/2x1/2 = x1/2+1/2 = x1 = x. Wynika stąd, że wyrażenie x1/2 pomnożone przez samo siebie musi dawać x. Jedyną liczbą mogącą spełnić tak zadany warunek jest pierwiastek kwadratowy z liczby x, zatem Analogicznie czyli wynikiem potęgowania x1/3 jest pierwiastek sześcienny liczby x. Kontynuując ten ciąg myślowy, można zdefiniować potęgowanie xp/q dla dowolnego ułamka p/q. Później można przybliżyć ułamek liczbą rzeczywistą, co pozwoli podać definicję potęgowania xa dla dowolnej wartości rzeczywistej a. Podany na początku warunek xaxb = xa+b będzie w takim wypadku nadal spełniony. Jednocześnie spełnione są warunki oraz dzięki którym staje się możliwe wyznaczenie wartości pierwiastków kwadratowych i sześciennych liczby x za pomocą tablic logarytmicznych. Przykładowo w celu znalezienia wartości pierwiastka kwadratowego danej liczby wystarczy zapisać jego logarytm, podzielić go przez 2, a następnie sprawdzić w tablicach, dla której z liczb otrzymany wynik jest wartością logarytmu. Przy wyznaczaniu pierwiastka sześciennego postępuje się tak samo, zastępując jedynie dzielenie przez 2 dzieleniem przez 3. Stosowane wcześniej metody wyznaczania wartości pierwiastków wymagały przeprowadzenia znacznie bardziej skomplikowanych i nużących obliczeń. W obliczu tych faktów nie dziwi, że Napier przedstawił przykład obliczania pierwiastków kwadratowych w przedmowie do swojej książki.
Tablice logarytmiczne, gdy wreszcie uzupełniono ich wartości, stały się niezbędnym narzędziem każdego uczonego, inżyniera, mierniczego czy nawigatora. Pozwalały oszczędzić mnóstwo czasu i wysiłków, zmniejszały też ryzyko wystąpienia błędów w obliczeniach. Pierwszymi, którzy docenili zalety nowej metody, byli astronomowie – z dawien dawna wykonujący długie i skomplikowane obliczenia. Francuski matematyk Pierre Simon de Laplace żywo zainteresowany badaniem nocnego nieba stwierdził, że wynalezienie logarytmów „pozwala ograniczyć do kilku dni to, co dawniej zajmowało miesiące, chroni astronomów przed przedwczesną śmiercią oraz oszczędza im popełniania błędów i ratuje przed zniechęceniem”. Z czasem zaczęła się rozwijać technologia i bardzo szybko okazało się, że żaden inżynier nie obejdzie się bez matematyki – projektowanie urządzeń, wyznaczanie parametrów mostów i budynków, konstruowanie samochodów, ciężarówek, statków i samolotów wymagało prowadzenia dokładnych obliczeń. Jeszcze kilkadziesiąt lat temu logarytmy znajdowały się w szkolnym programie nauczania, a każdy inżynier miał w kieszeni ówczesny odpowiednik kalkulatora pozwalający od ręki rozwiązywać podstawowe równania logarytmiczne. Urządzenie to nazywano suwakiem logarytmicznym. Używali go wszyscy – od architektów do projektantów samolotów. Pierwszy suwak logarytmiczny powstał w 1630 roku; miał postać dwóch obracających się względem siebie kolistych skal logarytmicznych i był dziełem angielskiego matematyka Williama Oughtreda. W 1632 roku Oughtred udoskonalił swój projekt, przenosząc skale z dwóch kół na układ dwóch linijek. Od tej chwili suwak rzeczywiście stał się suwakiem. Idea działania tego urządzenia była wyjątkowo prosta. Długości złożonych końcami linijek sumują się, zatem jeśli na każdą z nich naniesie się wartości skali logarytmicznej, czyli rozmieści liczby w odległościach określonych przez ich logarytmy, to odpowiadające sobie wartości będą w rzeczywistości mnożone. Wyobraź sobie, że linijki ułożono tak, by podziałka oznaczająca liczbę 1 na pierwszej z nich schodziła się z podziałką oznaczającą liczbę 2 na drugiej. Wtedy każdej wartości x na pierwszej linijce będzie odpowiadać wartość 2x na drugiej – naprzeciw wartości 3 na pierwszej linijce znajduje się wartość 6 na drugiej i tak dalej (rysunek 11). Jeśli interesowałyby nas bardziej złożone obliczenia, na przykład mnożenie 2,67 i 3,51, to naprzeciw liczby 1 na pierwszej linijce należałoby ustawić wartość 2,67 na drugiej, a następnie odczytać wynik, czyli znaleźć wartość leżącą naprzeciw liczby 3,51 – byłoby to 9,37. Ot, i cała tajemnica mnożenia za pomocą suwaka. Rysunek 11. Mnożenie 2 przez 3 na suwaku logarytmicznym. Inżynierowie natychmiast zaczęli przygotowywać bardziej złożone odmiany suwaków zawierające funkcje trygonometryczne, pierwiastki kwadratowe czy skale log-log (logarytmy logarytmów), by móc przeprowadzać potęgowanie. Z czasem logarytmy musiały ustąpić pola komputerom, ale nawet dziś zajmują poczesne miejsce w nauce i technologii, nie rozstając się ze swoją wierną towarzyszką, funkcją wykładniczą. Dla logarytmów dziesiętnych funkcja ta przyjmuje postać 10x, dla logarytmów naturalnych jest to ex, gdzie e to w przybliżeniu 2,71828. Funkcje logarytmiczna i wykładnicza są swoimi odwrotnościami, co oznacza, że gdy obliczysz logarytm danej liczby, a następnie określisz jego wykładnik, odkryjesz, iż jest nim ta właśnie liczba. Po co dziś używać logarytmów, skoro mamy komputery? W 2011 roku u wybrzeży Japonii doszło do trzęsienia ziemi o sile 9,0 w skali Richtera. Trzęsienie ziemi wywołało tsunami, falę o wysokości kilkudziesięciu metrów, która dotarłszy do Wysp Japońskich, wywołała ogromne zniszczenia i spowodowała śmierć blisko 25 000 osób. Na wybrzeżu znajdowała się także elektrownia jądrowa Fukushima Dai-ichi (Fukushima 1, nazwana tak, by odróżnić ją od drugiej znajdującej się w bezpośrednim sąsiedztwie). Elektrownia składała się z sześciu niezależnych reaktorów, z których trzy pracowały w chwili nadejścia tsunami. Pozostałe trzy były czasowo wyłączone, a znajdujące się w nich na co dzień paliwo przeniesiono do basenów z wodą położonych poza obszarem reaktora, ale nadal na terenie budynku, w którym się mieścił. Zabezpieczenia elektrowni nie wytrzymały naporu wody, w efekcie doszło do odcięcia zasilania. Trzy pracujące reaktory (1, 2 i 3) zostały wyłączone w trybie awaryjnym, lecz zasilanie było niezbędne, by podtrzymać pracę układu chłodzenia i zapobiec stopieniu się prętów paliwowych. Niestety przejście wielkiej fali zniszczyło także system zasilania awaryjnego odpowiedzialny za utrzymanie pracy układu chłodzenia oraz wszystkich systemów bezpieczeństwa. Projektanci elektrowni przewidzieli oczywiście i taką możliwość, lecz stanowiące kolejny stopień zabezpieczeń baterie bardzo szybko się wyczerpały. Pozbawiony prądu układ chłodzenia reaktora przestał działać, więc temperatura paliwa natychmiast zaczęła rosnąć. Obsłudze elektrowni pozostała wyłącznie improwizacja. Pracownicy wykorzystali pompy przeciwpożarowe, by zalać trzy funkcjonujące reaktory wodą morską. Niestety woda weszła w reakcję chemiczną z cyrkonową powłoką prętów paliwowych, w efekcie czego wydzieliły się duże ilości wodoru. Nagromadzenie tego gazu doprowadziło do wybuchu w budynku reaktora 1. Nie trzeba było długo czekać, by w reaktorach 2 i 3 doszło do podobnych reakcji. Tymczasem woda z basenu chłodząca paliwo wyniesione z reaktora 4 stopniowo parowała. Nim obsługa elektrowni zyskała jako takie panowanie nad sytuacją, doszło do uszkodzenia przynajmniej jednego z pojemników, w których przechowywano materiał promieniotwórczy, i w efekcie do skażenia okolicy. Władze przeprowadziły ewakuację 200 000 osób mieszkających w najbliższym sąsiedztwie elektrowni, ponieważ poziom promieniowania przekroczył znacznie dopuszczalne normy. Sześć miesięcy później rzecznik sprawującej pieczę nad reaktorami firmy TEPCO wydał oświadczenie, w którym stwierdzano, że stan zagrożenia nadal nie minął, a odzyskanie pełnej kontroli nad reaktorami będzie wymagało wykonania mnóstwa pracy, lecz poinformował jednocześnie, że przynajmniej udało się zahamować wyciek radioaktywny. Nie chcę się tu wdawać w dyskusję nad wadami i zaletami energii jądrowej, pokażę natomiast, w jaki sposób logarytmy pozwalają udzielić odpowiedzi na jedne z ważniejszych w takich sytuacjach pytań: ile materiału promieniotwórczego przedostało się do środowiska, jak długo będzie się odczuwać skutki wycieku i które obszary stanowią poważne zagrożenie dla życia i zdrowia ludzi. Pierwiastki promieniotwórcze podlegają rozpadowi, co oznacza, że w wyniku zachodzenia reakcji jądrowych przekształcają się w inne pierwiastki układu okresowego. W czasie reakcji dochodzi do wytworzenia pewnych cząstek i to właśnie ich emisję nazywamy promieniowaniem. Poziom promieniowania opada z czasem, tak samo jak zmniejsza się temperatura powierzchni stygnącego ciała – wykładniczo. Oznacza to, że w odpowiednich jednostkach, których nie będę tu omawiać, poziom promieniowania N(t) po czasie t można zapisać następującym równaniem: N(t) = N0e−kt, gdzie N0 to początkowy poziom promieniowania, a k – stała rozpadu dla dane go pierwiastka, konkretnie zaś do jego postaci, czyli tak zwanego izotopu. Wygodną jednostką mierzenia czasu, w którym skutki promieniowania są nadal odczuwalne, jest tak zwany okres połowicznego rozpadu, pojęcie wprowadzone w 1907 roku. Jest to czas, w jakim początkowy poziom promieniowania N0 zmniejsza się o połowę. Aby wyznaczyć jego wielkość, należy rozwiązać następujące równanie: co wymaga obustronnego logarytmowania. W efekcie otrzymujemy: Równanie to wyznacza okres połowicznego rozpadu, ponieważ k jest wartością uzyskiwaną doświadczalnie. Okres półrozpadu pozwala szacować, jak długo dany teren będzie skażony promieniotwórczo. Załóżmy, że interesujący nas pierwiastek charakteryzuje się okresem połowicznego
rozpadu równym jeden tydzień. Oznacza to, że po tygodniu tempo emitowania promieniowania zmniejszy się o połowę, po dwóch tygodniach będzie wynosić jedną czwartą wartości początkowej, po trzech już tylko jedną ósmą i tak dalej. W zaledwie dziesięć tygodni od rozpoczęcia reakcji będzie ono wynosić tylko jedną tysięczną wartości początkowej (a dokładnie 1/1024), po dwudziestu tygodniach zaś spadnie do jednej milionowej. Najbardziej niebezpiecznymi dla ludzi związkami uwalniającymi się w czasie awarii tradycyjnych reaktorów jądrowych są promieniotwórcze izotopy jodu (131I) oraz cezu (137Cs). Pierwszy z nich wywołuje nowotwory tarczycy, ponieważ tarczyca bardzo chętnie pochłania znajdujące się w powietrzu związki jodu. Okres połowicznego zaniku jodu promieniotwórczego 131I to zaledwie osiem dni, łatwo więc daje się złagodzić skutki jego obecności w środowisku – należy powstrzymać wyciek i podać ludziom odpowiedni lek zawierający związki jodu niewydzielającego promieniowania. Tarczyca może przyjąć określoną dawkę jodu w pewnym czasie, zatem dzięki dostarczeniu jej czystej formy pierwiastka eliminuje się ryzyko przyjmowania przez organizm jodu promieniotwórczego. Najskuteczniejszym zaś sposobem chronienia się przed skutkami rozpadu jodu 131I jest zaprzestanie picia skażonego mleka. W wypadku cezu 137Cs sprawa wygląda zupełnie inaczej, gdyż okres połowicznego rozpadu tego pierwiastka wynosi aż trzydzieści lat. Dopiero po mniej więcej dwustu latach poziom promieniowania spada do jednej setnej wartości początkowej, cez promieniotwórczy stanowi więc poważne zagrożenie dla życia przez naprawdę długi czas. Jeśli chodzi o awarię reaktorów jądrowych, największym problemem jest skażenie gleby i budynków. Usuwanie skutków jest wprawdzie możliwe, ale to bardzo kosztowny proces – przykładowo skażoną warstwę gleby można usunąć i wywieźć w miejsce, gdzie będzie stanowić dużo mniejsze zagrożenie, jednak w ten sposób tworzy się ogromne ilości odpadów o niskim poziomie promieniowania. Opisywanie zjawisk promieniotwórczych to tylko jedna z dziedzin nauki, w których sposób działania na liczbach zaproponowany przez Napiera i Briggsa zachował się do dziś. Przerzuć szybko strony ostatnich rozdziałów tej książki, a przekonasz się, że logarytmy pojawiają się również między innymi w opisie zjawisk termodynamicznych czy teorii informacji. Wprawdzie szybkie komputery pozbawiły logarytmy ich pierwotnego znaczenia – zastąpiły je w charakterze narzędzia sprawnego przeprowadzania obliczeń – ale sama idea logarytmu przetrwała i nadal służy nauce. Logarytmy, jak się okazało, przydają się także niezmiernie do opisu naszego postrzegania świata. Pionierzy psychofizyki poświęcili wiele czasu na opisanie mechanizmów widzenia, słyszenia, zbadanie zmysłu dotyku i podjęcie prób matematycznego ujęcia zmierzonych zależności. Pracujący w latach czterdziestych XIX wieku niemiecki lekarz Ernst Weber przeprowadził serię badań sprawdzających czułość ludzkiej percepcji. Osoby poddane badaniu dostały do rąk dwa ciężarki i zostały poproszone o określenie, który z nich jest cięższy. Weber chciał w ten sposób określić, jaką najmniejszą różnicę mas potrafi wyczuć człowiek. Z pewnym zdziwieniem odkrył, że różnica ta u jednego z badanych nie miała stałej wartości, zależała natomiast od mas porównywanych przedmiotów. Okazało się, że człowiek nie potrafi określać różnicy mas z dokładnością do, powiedzmy, 50 gramów, natomiast doskonale wyczuwa względną różnicę, przyjmijmy, 1% porównywanych ciężarów. Z badań Webera wypływał następujący wniosek: różnica poziomu „sygnałów” odbieranych przez ludzki umysł jest proporcjonalna do natężenia bodźca, mierzalnej wielkości fizycznej. Tę samą zależność odkrył w latach pięćdziesiątych XIX wieku Gustav Fechner, który podjął trud opisania jej matematycznie. Ostatecznie doprowadziło go to do sformułowania prawa, które nazwał prawem Webera, określanego dziś raczej jako prawo Fechnera (lub prawo Webera–Fechnera, jeśli nazywający jest formalistą). Stwierdza ono, że odbierane uczucie jest proporcjonalne do logarytmu bodźca. Doświadczenia wykazały, że zależność ta nie tylko obowiązuje przy określaniu różnic w ciężarze, lecz opisuje także sposób odbierania bodźców wzrokowych i słuchowych. Zmiany natężenia źródła światła, jakie rozpoznaje ludzkie oko, zmieniają się z logarytmem faktycznej wypromieniowanej energii. Oznacza to, że gdy będziemy mieć do czynienia z dwoma źródłami światła, z których jedno będzie dziesięciokrotnie jaśniejsze od drugiego, to niezależnie od rzeczywistej (absolutnej) ich jasności nasze oko zawsze uzna różnicę między nimi za identyczną. Tak samo odbieramy dźwięki – wybuch o energii większej dziesięciokrotnie od innego źródła dźwięku będziemy odbierać zawsze jako głośniejszy o konkretną, stałą wartość niezależnie od bezwzględnych natężeń dźwięku w obydwu wypadkach. Prawo Webera–Fechnera nie jest idealnie dokładne, ale dobrze sprawdza się w roli przybliżenia. Do naszych zmysłów nieustannie docierają bodźce o bardzo dużej rozpiętości natężenia, ewolucja musiała więc wytworzyć własny odpowiednik skali logarytmicznej. Ludzkie ucho potrafi wyłowić szelest myszy w żywopłocie, lecz musi radzić sobie również z odbiorem grzmotu, jaki towarzyszy burzy. Żaden biologiczny „czujnik” nie zdołałby należycie zareagować na bodziec wytwarzany przez dźwięki o tak skrajnie różnych natężeniach – gdyby ucho było zdolne zareagować na bezwzględną energię fali dźwiękowej wytwarzanej przez mysz, huk gromu zniszczyłby je bezpowrotnie; gdyby natomiast było dostosowane do odbierania dźwięków generowanych przez grzmot, nie zdołałoby wychwycić szmerów myszy w żywopłocie. Dlatego właśnie człowiek dysponuje aparatem słuchowym, który kompresuje poziomy energii do zakresu, z jakim może poradzić sobie jeden odbiornik. Skala logarytmiczna działa w ten sam sposób. Odróżnianie względnych różnic to bardzo zmyślne rozwiązanie dla zmysłów. Podstawowa jednostka poziomu głośności, decybel, jest definiowana właśnie na mocy prawa Webera–Fechnera. Określa ona poziom hałasu podawany względem pewnej wartości odniesienia. Mysz buszująca w trawie wytwarza dźwięki o natężeniu około 10 decybeli. Rozmowa prowadzona przez ludzi stojących w odległości metra od siebie to hałas rzędu 40–60 decybeli. Mikser elektryczny emituje w kierunku używającej go osoby falę o natężeniu 60 decybeli. Pracujący silnik i opony trące o asfalt wytwarzają we wnętrzu samochodu hałas o natężeniu 60–80 decybeli. W odległości 100 metrów od silnika odrzutowego do ucha docierają dźwięki o natężeniu 110–140 decybeli, a po zbliżeniu się na odległość 30 metrów hałas wzrasta do 150 decybeli. Słyszana z jednego metra wuwuzela (plastikowa trąbka o irytującym dźwięku, która zyskała sobie popularność w czasie mistrzostw świata w piłce nożnej w 2010 roku, dzięki czemu trafiła do wielu domów jako pamiątka) jest źródłem hałasu o natężeniu 120 decybeli; dla porównania dodam, że stosowany w wojsku granat ogłuszający wytwarza huk o natężeniu 180 decybeli. Tego rodzaju skale są w powszechnym użyciu do dziś, ponieważ pozwalają nam precyzyjnie określać warunki bezpieczne dla ludzi. Uszkodzeń słuchu można się spodziewać już przy dźwiękach o natężeniu 120 decybeli, zatem wyrzuć swoją wuwuzelę. Bardzo proszę. 5 Dziedzic, ziemianin. Mimo podobieństwa tytuł ten nie ma nic wspólnego z angielskim tytułem szlacheckim „lord” (przyp. tłum.). 6 http://www.17centurymaths.com/contents/napiercontents.html. 7 Z listu Johna Marra do Williama Lilly’ego. 8 Dziś logarytmy Napiera, zwane też naturalnymi, oznacza się symbolem ln x, lecz autor używa zamiast niego symbolu log x, rezerwowanego zazwyczaj dla logarytmu dziesiętnego, czyli tak zwanego logarytmu Briggsa. Aby zachować spójność wywodu, w pierwszej części rozdziału pozostawiono oznaczenia wprowadzone przez autora, później zaś stosowano już ogólnie przyjętą konwencję (przyp. tłum.). 9 W metodzie tej wykorzystuje się wzór trygonometryczny wprowadzony przez François Viète’a: Na jego podstawie oraz za pomocą wartości zebranych w tablicach sinusów dowolny iloczyn można zapisać w postaci sum, różnic i dzielenia przez 2.
Rozdział 3. Duchy wielkości minionych Rachunek różniczkowy Co z niego wynika? Aby wyznaczyć chwilowe tempo zmian danej wielkości, której wartość zależy na przykład od czasu, trzeba obliczyć, jak dana wielkość zmienia się w krótkim przedziale czasu i podzielić wynik przez długość tego przedziału. Potem nieskończenie zmniejszyć przedział. Dlaczego jest on tak ważny? Definicja ta to podstawowy wzór rachunku różniczkowego, naszego głównego narzędzia opisu świata. Co dzięki niemu osiągnęliśmy? Pozwala nam obliczać styczne i powierzchnie, a także wyprowadzać wzory opisujące objętość brył i długość krzywych. Dzięki niemu można sformułować różniczkową postać zasad dynamiki Newtona i podać wzory opisujące zasady zachowania energii oraz pędu. Rachunek różniczkowy stanowi szeroki zakres fizyki matematycznej.
W 1665 roku na tronie Anglii zasiadał Karol II, a Londyn, stolica jego państwa, był wielkim, zamieszkanym przez pół miliona ludzi miastem. Kwitła sztuka, a nauka, choć ciągle w powijakach, z każdym rokiem wkraczała na ścieżkę intensywnego rozwoju. W Londynie działało już Towarzystwo Królewskie, prawdopodobnie najstarsza na świecie akademia nauk bardzo szybko objęta patronatem Jego Królewskiej Mości. Bogacze mieszkali w imponujących rezydencjach, handel kwitł, ale ubodzy cisnęli się w chwiejnych ruderach wyrastających coraz wyżej ponad wąskie uliczki miasta. W dzielnicach biedoty panowały koszmarne warunki sanitarne – domy i ulice pełne były szczurów oraz wszelkiego rodzaju robactwa. Roznoszona przez gryzonie, a później już przez ludzi dżuma zaczęła zbierać krwawe żniwo – w 1666 roku populacja Londynu zmniejszyła się aż o jedną piątą. Była to największa tragedia w historii miasta; zaraza dotknęła wtedy znaczną część Europy i Afrykę Północną. Król wraz z dworem przeniósł się w znacznie czystsze okolice do Oxfordshire; do stolicy powrócił dopiero na początku 1666 roku. Przyczyna wybuchu epidemii pozostawała nieznana. Władze miasta próbowały wszystkiego, by powstrzymać zarazę – palono wielkie stosy, które miały oczyścić powietrze, spalano każdą wydzielającą nieco silniejszą woń rzecz, zmarłych chowano natychmiast w masowych grobach. Zabito prawie wszystkie psy i koty w Londynie, jak na ironię pozbywając się jedynych zwierząt, które mogły powstrzymać ekspansję szczurów. Właśnie wtedy studia w Cambridge ukończył nieznany i niepozorny student Trinity College. Aby uniknąć zarazy, powrócił do domu rodzinnego na wsi, którym wraz z całym majątkiem zarządzała jego matka. Ojciec chłopaka zmarł jeszcze przed jego urodzeniem, więc wychowanie malca powierzono babce ze strony matki. Być może właśnie cicha, spokojna, wiejska okolica i brak innych rozrywek sprawiły, że młody człowiek skupił się na studiowaniu matematyki i nauk ścisłych. Później pisał: „Byłem wtedy u szczytu możliwości umysłowych, a matematyka i filozofia [naturalna] zajmowały mnie bardziej niż jakakolwiek inna dziedzina nauki”. Prowadzone badania pozwoliły mu ostatecznie sformułować prawo powszechnego ciążenia – uzależnić wartość działającej na ciała siły grawitacji od odwrotności kwadratu odległości dzielącej przyciągające je masy – i dać w ten sposób odpowiedź na pytania, z którymi ówcześni naukowcy borykali się od przeszło pięćdziesięciu lat. W tym samym okresie zdołał sformułować pewne koncepcje matematyczne, których badaniem zajmowało się w tamtych czasach wielu uczonych. Dzięki temu mógł z czasem wprowadzić nowe narzędzie obliczeniowe – równania różniczkowe i całkowe. Wreszcie udało mu się odkryć, że światło słoneczne składa się z wielu różnych barw – wszystkich kolorów tęczy. Zaraza z czasem ustąpiła, ludzie mogli więc powrócić do swoich wcześniejszych zajęć, ale młodzieniec nie spieszył się z ujawnianiem wniosków, do jakich doszedł. Wrócił do Cambridge, zdobył tytuł magistra i został wykładowcą w Trinity College. Niebawem przyznano mu profesurę i katedrę matematyki Lucasa. Dopiero wtedy zaczął wydawać kolejne prace poświęcone zarówno swoim starszym odkryciom, jak i nowym badaniom. Człowiekiem tym był Isaac Newton. Jego odkrycia zrewolucjonizowały ówczesną naukę, a ostatecznie przyczyniły się do powstania świata, jaki nie miał prawa pojawić się nawet w na jśmielszych snach króla Karola II – świata stupiętrowych budynków, pojazdów, które nie dość, że nie są zaprzężone w konie, to poruszają się z prędkością 130 kilometrów na godzinę po wielopasmowych autostradach i których kier owcy słuchają muzyki z magicznych krążków wykonanych z materiału przypominającego szkło. W tym świecie pokonanie Oceanu Atlantyckiego zajmuje sześć godzin lotu w maszynie znacznie cięższej od powietrza, a dzięki pudełku mieszczącemu się w kieszeni można porozmawiać z człowiekiem znajdującym się po drugiej stronie globu… Już wcześniej Galileo Galilei, Johannes Kepler oraz kilku innych równie znamienitych uczonych zdołało uchylić nieco rąbka tajemnic natury i ukazać ludziom cuda Wszechświata, ale dopiero odkrycia Newtona pozwoliły ostatecznie zerwać zasłonę skrywającą prawa rządzące światem. Uczony nie tylko dowiódł, że wszystko wokół rządzi się ściśle określonymi prawami, ale przede wszystkim opisał dokładnie te prawa, d zięki czemu możliwe stało się dokładne przewidywanie wyników określonych działań. Okazało się, że świat funkcjonuje zgodnie z zasadami matematyki. W środku boskiego stworzenia Newton odnalazł bezduszny, precyzyjny mechanizm napędzający Wszechświat. Oczywiście odkrycia Newtona nie wywołały rewolucji – ludzkość nie zarzuciła w jednej chwili dogmatów religijnych na rzecz świeckich poglądów. Do dziś religia odgrywa ważną rolę w naszym życiu i to zapewne nie zmieni się nigdy, ale od chwili ukazania się drukiem dzieła Newtona Philosophiæ naturalis princ ipia mathematica (Matematyczne zasady filozofii przyrody”)10 badania nad „istotą świata” – a taki właśnie podtytuł nosiła księga – przestały być wyłączną domeną studiów religijnych. Mimo to sam Newton nie odpowiadał dzisiejszej wizji naukowca. Mistyka pociągała go w nie mniejszym stopniu niż nauka – wiele lat poświęcił na zgłębianie tajemnic alchemii i prowadzenie rozważań religijnych. W notatkach do odczytu11 ekonomisty Johna Maynarda Keynesa, który żywo interesował się historią życia Isaaca Newtona, znajdujemy następujący fragment: Nie należy uznawać Newtona za pierwszego człowieka ery umysłu, gdyż w rzeczywistości był on ostatnim z magów, ostatnim z Babilończyków i Sumerów, ostatnim z wielkich zdolnym postrzegać to co widzialne i niewidzialne w sposób, w jaki dziesięć tysięcy lat temu widzieli świat twórcy naszego dziedzictwa intelektualnego. Isaac Newton, który nigdy nie poznał swojego ojca, przyszedł na świat po jego śmierci w Boże Narodzenie 1642 roku, był ostatnim cudownym dzieckiem godnym, by Trzej Mędrcy złożyli mu szczery, płynący z serca pokłon. Dziś mistyczne fascynacje Newtona zaprzątają nas w znacznie mniejszym stopniu niż jego dokonania w dziedzinie fizyki i matematyki, szczególnie gdy przychodzi do rozważań na temat podniosłości dwóch jego najważniejszych dokonań – ukazania światu, że prawa natury podlegają zasadom matematyki, oraz sformułowania równań rachunku różniczkowo-całkowego, który jest jednym z podstawowych narzędzi opisu wspomnianych wcześniej praw. Mniej więcej w tym samym czasie gdy Newton pracował nad zagadnieniami rachunku różniczkowo- całkowego, niezależnie do podobnych wniosków doszedł niemiecki matematyk i filozof Gottfried Wilhelm Leibniz, nie wykorzystał on jednak w żaden sposób swojego odkrycia. Newton użył nowej metody obliczeniowej, by zrozumieć prawa rządzące Wszechświatem, choć nie ujawnił tego w swoich publikacjach, w których zastosował klasyczne dowody geometryczne. Zapisał się w historii jako postać okresu przejściowego, człowiek, który pozwolił ludzkości odejść od średniowiecznego, nasyconego mistycyzmem postrzegania świata i skierować się w stronę bliższych współczesnym racjonalnych poglądów. To właśnie za sprawą Newtona naukowcy zrozumieli, że Wszechświat funkcjonuje zgodnie z dającymi opisać się matematycznie wzorcami, ale też dzięki niemu zyskali narzędzia pozwalające badać je i opisywać. Rachunek różniczkowy nie pojawił się „znikąd”. Wypłynął z rozważań matematyki teoretycznej i stosowanej, a pierwsze ślady zagadnień, które ostatecznie przyczyniły się do jego rozwoju, znajdujemy już w czasach Archimedesa. Już Newton stwierdził „Jeśli udało mi się dostrzec nieco więcej, to dlatego że stałem na ramionach olbrzymów”12. Olbrzymami tymi byli niewątpliwie John Wallis, Pierre de Fermat, Galileusz i Kepler. Wallis w swoim dziele z 1656 roku, Arithmetica infinitorum („Arytmetyka nieskończoności”), przedstawił rozważania, które można uznać za wczesną postać rachunku różniczkowego. W opublikowanym w 1679 roku traktacie De tangentibus linearum curvarum („O stycznych do linii krzywych”) Fermat zawarł opis metody pozwalającej wyznaczyć styczną do dowolnej krzywej, które to zagadnienie wiąże się bezpośrednio z problemami rozwiązywanymi za pomocą rachunku różniczkowo-całkowego, Kepler zaś sformułował trzy podstawowe prawa ruchu planet, które pozwoliły Newtonowi odkryć prawo powszechnego ciążenia (nim zresztą zajmiemy się w następnym rozdziale). Galileusz zajmował się zagadnieniami z zakresu astronomii, która rozwinęła się znacznie dzięki jego staraniom, lecz równie wiele uwagi poświęcał problemom właściwym dla ciał przebywających na Ziemi. Swoje spostrzeżenia wydał w 1590 roku w dziele De motu („O ruchu”). To jemu zawdzięczamy wiedzę o sposobie poruszania się spadających ciał i ujęcie jej w elegancką matematyczną formułę. Odkrycia Galileusza dały Newtonowi solidne podstawy do sformułowania trzech fundamentalnych dziś zasad ruchu. Aby zrozumieć zależność, jaką odkrył Galileusz, musimy wprowadzić dwa znane z codziennego życia pojęcia: prędkość i przyspieszenie. Prędkość jest wielkością opisującą, jak szybko porusza się dane ciało i w jakim kierunku się przemieszcza. Gdy zrezygnujemy z podawania kierunku ruchu, otrzymamy tak zwaną wartość prędkości czy też szybkość. Przyspieszenie opisuje zmianę prędkości, która zazwyczaj wiąże się ze zmianą jej wartości (wyjątkiem jest przypadek polegający na zmianie kierunku ruchu z zachowaniem szybkości). Na co dzień mówimy o przyspieszaniu i zwalnianiu, mając na myśli zwiększanie prędkości poruszania się i odpowiednio jej zmniejszanie, natomiast w mechanice każdą zmianę prędkości określa się najczęściej mianem przyspieszenia – gdy prędkość ciała rośnie, ma ono wartość dodatnią, w przeciwnym wypadku jest ujemne13. Wyobraź sobie teraz, że jedziesz samochodem. Licznik prędkości wskazuje wartość 50 km/h – to szybkość, z jaką porusza się pojazd. Kierunek ruchu jest wyznaczany przez przód samochodu. Załóżmy, że w pewnej chwili dociskasz pedał gazu: samochód przyspiesza, więc wartość prędkości podawana na liczniku rośnie. Gdy nadepniesz pedał hamulca, samochód zwolni, co oznacza, że będzie się poruszać z ujemnym przyspieszeniem. Gdy samochód porusza się ze stałą prędkością, podanie jej wartości w dowolnej chwili ruchu nie nastręcza żadnych trudności. Skrót km/h odczytuje się jako „kilometry na godzinę”. Jeżeli samochód przebywa odległość pięćdziesięciu kilometrów w czasie jednej godziny, wystarczy podzielić przez siebie te dwie wartości – długość przebytej drogi przez czas ruchu – by określić prędkość, z jaką przemieszcza się pojazd. Aby przeprowadzić taki eksperyment, nie trzeba jechać nigdzie przez godzinę; wystarczy, by samochód pokonał pięć kilometrów w czasie sześciu minut. Wartości te uzyskaliśmy, dzieląc poprzednie przez 10, ich stosunek więc nadal wynosi 50 km/h. Podsumujmy zatem: prędkość = przebyta droga podzielona przez czas trwania ruchu.
Analogicznie wyznacza się przyspieszenie o stałej wartości: przyspieszenie = zmiana wartości prędkości podzielona przez czas przyspieszania. Te rozważania były stosunkowo proste, ale gdy wartość prędkości lub przyspieszenia ulega zmianie, opis ruchu staje się nieco bardziej skomplikowany. A przecież nie mogą być jednocześnie stałe, bo stałe (i niezerowe) przyspieszenie oznacza zmianę prędkości. Wyobraź sobie teraz, że jedziesz wiejską drogą – przyspieszasz na prostych i zwalniasz przed zakrętami. Prędkość samochodu ulega ciągłym zmianom, tak samo jak przyspieszenie, z jakim się poruszasz. Jak wyznaczyć ich wartości w dowolnej chwili trwania ruchu? Rozsądek podpowiada, by zdefiniować na początek krótki przedział czasowy, na przykład jednosekundowy. Wtedy prędkość chwilowa mierzona o godzinie, powiedzmy, 11.30 wyrazi się stosunkiem drogi pokonanej między tą chwilą a chwilą o sekundę późniejszą, do czasu trwania ruchu. Przyspieszenie chwilowe będzie określone w sposób analogiczny. Tyle że… tak obliczona prędkość nie będzie prędkością chwilową. W rzeczywistości w ten sposób wyznacza się prędkość średnią w trwającym jedną sekundę ruchu przyspieszonym, a zaręczam, że istnieją przypadki, w których jedna sekunda to naprawdę długi czas – choć struna gitary wydająca z siebie środkowe C w ciągu jednej sekundy wykonuje 440 drgań, jej średnia prędkość w tym czasie wynosi zero, co sugerowałoby, że struna w ogóle się nie porusza. Należy zatem skrócić przedział czasowy, jakim operujemy w naszych obliczeniach, na przykład do jednej dziesięciotysięcznej sekundy. Niestety nawet po narzuceniu tak surowych warunków nie zbliżymy się do definicji prędkości chwilowej. Światło o długości fali należącej do zakresu pasma widzialnego wykonuje w ciągu sekundy kwadrylion drgań (1015), zatem w wypadku obliczeń prowadzonych dla takiego rodzaju ruchu należałoby posłużyć się przedziałem mniejszym niż jedna kwadrylionowa sekundy. A mimo to… cóż, formalnie tak krótki czas nadal nie odpowiada definicji chwili. Te rozważania prowadzą wprost do wniosku, że tak zwane wielkości chwilowe powinny być definiowane w przedziale czasu krótszym od jakiegokolwiek nam znanego. Niestety jedyną liczbą spełniającą tak zadany warunek jest 0, co czyni go bezużytecznym, bo przecież droga przebyta w czasie 0 s musi wynosić 0 m, a wyrażenie 0/0 nie ma matematycznie sensu. Pionierzy nauki zignorowali te niuanse, przyjmując praktyczne podejście do sprawy. Skoro błędy pomiarowe i tak przewyższałyby zwiększoną precyzję pomiarów, jaką można by uzyskać dzięki zmniejszeniu przedziału czasu, wprowadzenie takiej zmiany nie miało żadnego sensu. W czasach Galileusza zegary były tak niedokładne, że uczony, chcąc mierzyć czas ruchu, nucił pod nosem melodię – dobry muzyk potrafi podzielić pełny ton na bardzo małe fragmenty – ale nawet przy takiej metodzie Galileusz musiał się uciec do pewnego podstępu, by zmierzyć czas ruchu spadającego ciała: spowolnił ruch pionowy, tocząc kulę po równi pochyłej. Eksperyment polegał na określaniu położenia kuli po upływie kolejnych, równych sobie chwil. Uczony odkrył, że chwilom oznaczonym jako 0, 1, 2, 3, 4, 5, 6… (podaję tu uproszczone wartości, ale zależność pozostaje niezmieniona) odpowiadają położenia 0 1 4 9 16 25 36. Droga pokonywana przez ciało poruszające się na równi pochyłej okazała się proporcjonalna do kwadratu czasu potrzebnego na przebycie każdego z odcinków. A jak zmieniała się prędkość ciała? Jej średnia dla każdego przedziału przyjmowała wartość różnicy 1 3 5 7 9 11 między wartościami kolejnych kwadratów. Dla każdego przedziału z wyjątkiem pierwszego prędkość średnia wzrastała o dwie jednostki. Taka zależność musiała zwrócić uwagę Galileusza, tym bardziej że powtarzała się we wszystkich wykonanych seriach pomiarowych – dla kul o różnych masach i przy różnych kątach nachylenia równi do powierzchni. Przeprowadzone eksperymenty i zaobserwowana na ich podstawie zależność pozwoliły uczonemu wyciągnąć wiekopomny wniosek – torem lotu spadającego ciała, czy też ciała wystrzelonego w powietrze, jest parabola, U-kształtna krzywa znana już starożytnym Grekom. (W omawianym przypadku ramiona krzywej będą zwrócone do dołu. Dodam też, że w rozważaniach pomijam kwestię oporu, który zmienia kształt toru ruchu ciała lecącego w powietrzu, ale nie ma większego wpływu na ruch kulek po równi). Warto zaznaczyć, że krzywa z tej samej rodziny – elipsa – pojawiła się w wynikach prac Keplera poświęconych ruchowi planet na orbitach. Niewątpliwie owa zbieżność zwróciła uwagę Newtona, ale tą historią zajmę się w następnym rozdziale. Wróćmy do eksperymentu Galileusza: przeprowadzone przez niego pomiary nie wystarczą, by dostrzec ogólną zasadę, jaka kryje się za zauważoną zależnością. Newton zrozumiał, że zaobserwowana relacja musi wypływać z tempa zmian pewnych wielkości. Prędkość opisuje tempo zmian położenia ciała wraz z upływającym czasem ruchu, natomiast przyspieszenie to tempo zmian prędkości ciała w czasie trwania ruchu. Z obserwacji Galileusza wynikało, że położenie zmieniało się zgodnie z kwadratem czasu, w jakim dokonywano pomiaru, prędkość zmieniała się zgodnie z zależnością liniową, a przyspieszenie nie zmieniało się wcale. Newton uświadomił sobie, że jeśli chce zrozumieć, skąd wywodzi się zaobserwowana przez Galileusza zależność, i poznać jej znaczenie dla naszego postrzegania świata, musi znaleźć metodę opisywania wartości chwilowych wielkości charakteryzujących tempo zmian. Tak właśnie narodził się rachunek różniczkowo-całkowy. Mogłob y się wydawać, że odkrycie tak doniosłe jak reguły obliczeń różniczkowo-całkowych powinno zostać ogłoszone przy dźwięku fanfar i w odpowiednio uroczystej atmosferze, niestety ludzie zazwyczaj potrzebują czasu, by docenić znaczenie nowatorskich myśli. Tak też było w wypadku rachunku różniczkowo-całkowego. Rozważania Newtona poświęcone tym zagadnieniom zostały sformułowane przypuszczalnie w 1671 roku, a być może nawet wcześniej, gdy uczony opracował ostatecznie dzieło The Method of Fluxions and Infinite Series („Metoda fluksji i szeregów nieskończonych”). Dziś trudno jest określić dokładną datę jego powstania, ponieważ książka ta została wydana dopiero w 1736 roku, niemal dziesięć lat po śmierci Newtona. Szkice do rozważań nad zagadnieniami znanymi dziś jako reguły rachunku różniczkowego i całkowego pojawiły się także w kilku innych rękopisach uczonego. Z notatek Leibniza wynika, że pierwsze znaczące wyniki otrzymał już w 1675 roku, ale nie opublikował nic związanego z tym tematem aż do 1684 roku. Wiele lat po ukończeniu przez obydwu twórców prac nad podstawami rachunku różniczkowo-całkowego, gdy Newton osiągnął już znaczną pozycję naukową w świecie, jego przyjaciele wszczęli raczej bezsensowną, acz budzącą wiele emocji dysputę nad kwestią praw pierwszeństwa do odkrycia; posunęli się nawet do tego, że oskarżyli Leibniza o splagiatowanie wczesnych praw Newtona. W odpowiedzi kilku matematyków z kontynentu zarzuciło plagiat Newtonowi. Spór przekształcił się w trwający prawie sto lat konflikt między angielskimi matematykami a ich kolegami z Europy kontynentalnej. Brak kontaktów przyniósł poważne szkody angielskiej nauce, nie odbił się jednak negatywnie na osiągnięciach czynionych na kontynencie. Podczas gdy angielscy uczeni trwonili czas i energię na wynajdywanie kolejnych krzywd, jakich ich zdaniem doznał Newton, matematycy zza Kanału szybko nauczyli się wykorzystywać jego odkrycie do wykonywania większości obliczeń w fizyce. Nawet dziś historycy nauk ścisłych nie potrafią udzielić jednoznacznej odpowiedzi, kto miał rację w tym sporze, wiele dowodów wskazuje jednak na to, że Newton i Leibniz sformułowali podstawy rachunku różniczkowo-całkowego niemal jednocześnie i niezależnie od siebie – a przynajmniej o tyle niezależnie, o ile pozwalały na to zależności łączące społeczność naukową w tamtych czasach. Leibniz zastosował inną formę zapisu niż Newton, ale zasadnicza myśl jego rozważań nie różniła się znacząco od wywodów Newtona. Natomiast ścieżki, jakimi obydwaj dotarli do rozwiązania, nie miały ze sobą nic wspólnego. Rozważania Leibniza były znacznie bardziej formalne – polegały na przeprowadzeniu szeregu przekształceń algebraicznych – z kolei Newton pracował nad rozwiązaniem konkretnego problemu fizycznego, w którym badana przezeń funkcja była rzeczywistą wielkością fizyczną zmieniającą się z upływem czasu. Stąd zresztą określenie „fluksje” wprowadzone do tytułu pracy – fluksja, czyli przepływ. Metodę Newtona można bez trudu zilustrować prostym przykładem – pewna wielkość y jest kwadratem x2 innej wielkości x. (Właśnie taką zależność odkrył dla kuli toczącej się po równi Galileusz: położenie ciała okazało się wartością proporcjonalną do kwadratu czasu trwania ruchu. W omawianym przypadku y byłoby położeniem, a x czasem). Zaczniemy od wprowadzenia nowej wielkości o oznaczającej niewielką zmianę wartości x. Odpowiadającą jej zmianę wartości y można zapisać jako: (x+o)2 – x2, co upraszcza się do postaci 2xo + o2. Tempo zmian (uśrednione na niewielkim przedziale odpowiadającym zmianie o, gdyż x zwiększa się do wartości x + o) wyrazi się zatem wzorem: Wartość tego wyrażenia zależy od wartości parametru o, czego zresztą należało się spodziewać w razie, gdybyśmy dokonali uśrednienia tempa zmian w pewnym niezerowym przedziale zmienności. Zauważ jednak, że im bardziej będzie zmniejszać się wartość tego parametru, innymi słowy, im bardziej będzie on „przepływać w kierunku” zera, tym bardziej wartość wyrażenia 2x + o będzie stawać się bliższa wartości 2x. Ta zaś nie zależy już w żaden sposób od o, natomiast opisuje chwilową zmianę wielkości x. Rozważania Leibniza nie różniły się zasadniczo od przedstawionego tu toku rozumowania, z tym że niemiecki uczony użył symbolu dx („niewielka zmiana wartości x”) zamiast
oznaczenia o oraz analogicznie dy, by zaznaczyć zmianę wartości y. Gdy wartość zmiennej y zależy od wartości innej zmiennej, na przykład x, tempo zmian wielkości y względem wielkości x nazywamy pochodną wielkości y. Newton oznaczał pochodną, umieszczając kropkę nad symbolem zmiennej – dla y było to natomiast Leibniz wprowadził zapis Dalsze pochodne Newton oznaczał kolejnymi kropkami, a Leibniz zapisywał na przykład Dziś mówimy, że y jest funkcją x, co zapisuje się jako y = f(x), ale w czasach, które tu opisuję, koncepcja funkcji dopiero się rodziła. Obecnie naukowcy używają albo zapisu Leibniza, albo pewnej wariacji notacji Newtona, w której kropkę zastąpiła łatwiejsza do uzyskania w druku kreska: y’, y’’. Czasami używa się także oznaczeń f ’(x) i f ’’(x), by podkreślić, że pochodne funkcji są także funkcjami. Pochodną wyznacza się, wykonując działanie zwane różniczkowaniem. Rachunek całkowy – zbiór wzorów pozwalających wyznaczać pola powierzchni – okazał się odwrotnością rachunku różniczkowego, za pomocą którego wyznacza się kąt nachylenia krzywej do poziomu. Spróbuj zrozumieć tę zależność. Wyobraź sobie, że na końcu obszaru oznaczonego na rysunku 12 szarym kolorem pojawia się dodatkowy wąski pas. Kształtem będzie on zbliżony do długiego, wąskiego prostokąta o szerokości o i wysokości y, co oznacza, że pole jego powierzchni będzie w pewnym przybliżeniu wynosić oy. Tempo zmiany pola powierzchni względem zmian wartości x jest opisane stosunkiem oy/o, czyli wynosi dokładnie y. Oznacza to, że pochodna pola powierzchni jest równa pierwotnej funkcji opisującej krzywą. Zarówno Newton, jak i Leibniz rozumieli, że działanie potrzebne do obliczenia pola powierzchni wyznaczanego pod określoną krzywą, tak zwane całkowanie, jest w pewnym sensie odwrotnością różniczkowania. Leibniz początkowo oznaczał całkowanie skrótem omn. pochodzącym od łacińskiego wyrażenia omnia, „suma”. Z czasem zmienił je na symbol ∫, stosowaną dawniej wydłużoną literę s, również nawiązując do słowa „suma”. Newton nie wprowadzał żadnego oznaczenia nowego działania. Rysunek 12. Dodatkowy fragment powierzchni pod krzywą y = f(x). Brak osobnego symbolu, który oznaczałby całkowanie, nie powstrzymał go jednak od poczynienia znaczących postępów w tej dziedzinie. Wallis obliczył, że pochodna dowolnego wyrażenia potęgowego xa wynosi axa−1, zatem pochodne wyrażeń x3, x4, x5 muszą wyrażać się jako odpowiednio 3x2, 4x3 i 5x4. Następnie rozszerzył to twierdzenie na dowolny wielomian – skończoną kombinację wyrażeń potęgowych, na przykład 3x7 − 25x4 + x2 − 3. Obliczanie pochodnych tego rodzaju sum polega na wyznaczeniu osobno pochodnej każdego ze składników sumy, a następnie dodaniu ich do siebie zgodnie ze wcześniejszym zapisem. Newton zauważył, że taka sama zasada obowiązuje dla szeregów nieskończonych – wyrażeń zbudowanych z nieskończenie wielu potęg określonej zmiennej. Odkrycie to pozwoliło mu przeprowadzać całkowanie na funkcjach znacznie bardziej skomplikowanych niż proste wielomiany.
W świetle oczywistych podobieństw obydwu zaproponowanych rozwiązań przestaje dziwić spór o pierwszeństwo odkrycia, jaki rozgorzał w tamtym okresie wśród uczonych – rozważania różniły się głównie metodą zapisu. Jednak gdy sformułuje się jawnie problem leżący u podstaw zagadnienia, da się dostrzec, w jaki sposób Newton i Leibniz mogli osiągnąć niezależnie ten sam wynik. Zresztą Fermat i Wallis nieraz uprzedzali odkrycia tych dwóch matematyków, więc roztrząsanie praw pierwszeństwa było pozbawione większego sensu. Znacznie bardziej interesujące kontrowersje wiązały się z logiką leżącą u podstaw powstania rachunku różniczkowo-całkowego, a w zasadzie z brakiem tejże. Głównym krytykiem niespójnej struktury nowego narzędzia stał się angielsko-irlandzki filozof George Berkeley, biskup Cloyne. Berkeley był człowiekiem wiary – uznawał, że materialistyczne spojrzenie na świat, ukształtowane w znacznej mierze dzięki pracom Newtona, marginalizowało rolę Boga w świecie, sprowadzało go do pozycji bezstronnego obserwatora, który porzucił dzieło stworzenia natychmiast po jego ukończeniu i pozostawił je własnemu losowi. Taka wizja Stwórcy kłóciła się z obrazem immanentnego Boga chrześcijan. Berkeley uznał przypuszczalnie, że wskazując niespójności w założeniach rachunku różniczkowo-całkowego, zdoła zdyskredytować bazującą na nim silnie naukę. Jego działania nie wywarły większego wpływu na rozwój metod matematycznych stosowanych w fizyce z prozaicznej przyczyny – wyniki uzyskiwane dzięki rachunkowi różniczkowo-całkowemu pozwalały poznać bliżej tajemnice natury i tak dalece zgadzały się z doświadczeniami, że nikt nie wnikał w logiczne założenia nowej teorii. Zresztą postawa ta cechuje także dzisiejszych fizyków – skoro coś działa, nie ma sensu dzielić włosa na czworo i pytać o podstawy. Berkeley uznał, że błędem logicznym jest przypisywanie pewnym zmiennym (newtonowskiemu o i dx Leibniza) przez większą część obliczeń niewielkiej wartości niezerowej, by potem ostatecznie stwierdzić, że mają one jednak wartość zero, jeśli wcześniej wykonało się dzielenie przez te zmienne licznika i mianownika ułamka. Dzielenie przez zero jest niedopuszczalne w matematyce, ponieważ nie ma ono jednoznacznie określonego wyniku. Przykładowo równanie 0 × 1 = 0 × 2 jest prawdziwe, ponieważ wyrażenia po obydwu stronach znaku równości mają wartość 0, ale gdybyśmy wykonali obustronne dzielenie przez zero, otrzymalibyśmy 1 = 2, czyli fałsz14. Zarzuty te Berkeley wyraził w wydanym w 1734 roku pamflecie The Analyst, a Discourse Addressed to an Infidel Mathematician („Analityk, czyli wykład pod adresem niewiernego matematyka”). Newton starał się zresztą uzasadnić to kłócące się z logiką założenie, odwołując się do pewnych analogii fizycznych. W jego rozumieniu zmienna o nie była wielkością stałą, ale parametrem zmieniającym się w czasie, którego wartość płynnie zmierzała w kierunku zera, ale nigdy nie osiągała tej granicy. W ten sposób pochodną również definiowało wyrażenie o zmiennej wartości – stosunek wartości zmiany parametru y do wartości zmiany parametru x. Proporcja ta także zmierzała ku określonej wartości granicznej, by nigdy do niej nie dotrzeć. Wartością graniczną miała być właśnie wielkość chwilowego tempa zmian, czyli pochodna parametru y po zmiennej x. Berkeley odrzucił te wyjaśnienia, określając przedstawioną ideę szyderczym mianem „duchów wielkości minionych”. Również Leibniz musiał zmagać się z zagorzałym przeciwnikiem przedstawionej idei. Rola ta przypadła geometrze Bernardowi Nieuwentijtowi, który w latach 1694 i 1695 wydał drukiem swoje zarzuty pod adresem niemieckiego uczonego. Leibniz usiłował bronić zaprezentowanego rozwiązania jako metody słusznej w wypadku „nieskończenie małych” wartości, lecz nie zdało się to na wiele, gdyż wprowadzone określenie wywołało szereg błędnych interpretacji. Jednak udało się mu osiągnąć jedno: dzięki nowemu terminowi zdołał wyjaśnić, że teoria posługiwała się nie tyle stałą i niezerową wartością, która może być dowolnie mała (co kłóci się z logiką), ile raczej zmiennym, niezerowym parametrem, który może stać się dowolnie mały w wyniku określonego procesu. Newton i Leibniz przyjęli niemal identyczną ścieżkę obrony, która ich przeciwnikom musiała się wydawać maskowanym elokwencją oszustwem. Na szczęście ani ówcześni fizycy, ani matematycy nie czekali na logicznie spójny dowód prawdziwości rachunku różniczkowo-całkowego, tylko ochoczo zabrali się do używania nowego narzędzia. Wszelkie wątpliwości mogli rozwiązać w bardzo prosty sposób – porównując otrzymane wyniki z danymi zebranymi w czasie obserwacji. Newtonowi przyświecał zresztą konkretny cel, gdy opracowywał nową metodę obliczeniową. Dzięki niej zdołał sformułować prawa rządzące ruchem ciała poruszającego się pod wpływem działającej na nie siły i powiązać je z prawem opisującym ruch ciał pod wpływem grawitacji. Dzięki temu zdołał wyjaśnić wiele tajemnic dotyczących ruchu planet i innych ciał niebieskich w Układzie Słonecznym. Prawo powszechnego ciążenia wywarło tak wielki wpływ na rozwój fizyki i astronomii, że poświęciłem mu osobny rozdział tej książki (następny), natomiast tak zwane zasady dynamiki – trzy prawa rządzące ruchem ciał, z których jedno przyjmuje ściśle matematyczną postać – doprowadziły bezpośrednio do rozwoju rachunku różniczkowo- całkowego. Na ironię zakrawa fakt, że Newton usunął wszystkie ślady obliczeń różniczkowo-całkowych z pracy poświęconej zasadom dynamiki, zastępując je dowodami bazującymi na klasycznych zasadach geometrii. Prawdopodobnie uznał, że taki wywód spotka się z lepszym odbiorem współczesnych mu słuchaczy. Jeżeli rzeczywiście powodowało nim właśnie to, trzeba przyznać, że wykazał się niebywałą intuicją. Jednocześnie należy zauważyć, że wiele z przedstawionych w Principiach dowodów geometrycznych zrodziło się w wyniku prowadzonych wcześniej rozważań różniczkowo-całkowych albo przybrało taki, a nie inny kształt dzięki wykorzystaniu rachunku różniczkowo-całkowego, który pozwolił wcześniej określić poprawną odpowiedź. Dopiero mając ją, Newton mógł przystąpić do sformułowania odpowiedniego dowodu geometrycznego, co zresztą dziś jest powszechnie przyjętą metodą postępowania. Jest to dla nas szczególnie wyraźnie widoczne w sposobie operowania tak zwanymi wielkościami wymiarowymi, które wprowadził Newton w drugiej księdze pracy poświęconej zasadom dynamiki. Ich wartości zwiększają się lub zmniejszają w wyniku „ciągłego ruchu bądź zmian”, co oznacza, że nie są one niczym innym jak fluksjami ze wspominanej już niepublikowanej pracy Newtona. Dziś nazwalibyśmy je funkcjami ciągłymi (i co więcej, różniczkowalnymi). Newton opracował substytut metody „proporcji pierwszych i ostatecznych”. Lemat (nazwa wyniku pomocniczego używanego często, ale który sam jest pozbawiony większego znaczenia) otwierający dzieło nie pozostawia żadnych co do tego wątpliwości, ponieważ autor definiuje w nim równość wspomnianych wielkości: Wielkości i ich proporcje dążące stale i w skończonym czasie do równości, które przed upływem tego czasu zbliżają się do siebie bardziej niż w stopniu określonym jakąkolwiek różnicą, stają się ostatecznie sobie równe. W książce Never at Rest („Bez chwili wytchnienia”) Richard Westfall, biograf Newtona, uzasadnia, dlaczego lemat uczonego był tak znaczący i tak nowatorski: „Niezależnie od języka, jakim ją sformułowano, sama koncepcja […] była na wskroś współczesna; w żadnym z założeń geometrii klasycznej nie znajdziemy nawet śladu podobnego rozumowania”15. Współcześni Newtonowi musieli solidnie wytężać głowy, by zrozumieć, do czego zmierzał ich znamienity kolega. Zresztą Berkeleyowi zapewne nigdy się to nie udało – o czym wkrótce się przekonamy – gdyż właśnie ten lemat zawiera wyjaśnienie niezbędne do odparcia zarzutów, jakie biskup stawiał nowej teorii. W tamtym okresie rachunek różniczkowo-całkowy, choć odegrał kluczową rolę w sformułowaniu tez zawartych w Principiach, nie istniał jako oficjalne narzędzie matematyczne. Jednak z chwilą gdy tylko jego zasady ujrzały światło dzienne, intelektualni spadkobiercy Newtona przystąpili do odtworzenia procesu myślowego uczonego. Szybko przełożyli główne koncepcje dzieła na język rachunku jako bardziej naturalny i wszechstronny, czym zapoczątkowali ekspansję tej metody obliczeniowej w świecie nauk ścisłych. Pewne wskazówki dotyczące pracy z rachunkiem różniczkowo-całkowym można było znaleźć w zasadach dynamiki. Zrodziły się one w wyniku poszukiwań odpowiedzi na pytania z gruntu filozoficzne: co sprawia, że ciało zaczyna się poruszać, i co powoduje zmianę stanu ruchu? Klasyczna nauka nakazywała udzielać odpowiedzi podanej jeszcze przez Arystotelesa: ciało porusza się, gdy działa na nie pewna siła, i to właśnie ona decyduje o prędkości ciała. Arystoteles przyjął także, że aby utrzymać ciało w ruchu, należy stale działać na nie siłą. Twierdzenie filozofa można sprawdzić w bardzo prosty sposób – połóż książkę lub podobny przedmiot na stole. Gdy ją popchniesz, książka przesunie się nieco i będzie się poruszać po blacie tak długo, jak długo będziesz ją popychać; utrzyma też mniej więcej stałą prędkość ruchu. Gdy przestaniesz ją popychać, książka natychmiast się zatrzyma. Wydaje się zatem, że zasada podana przez Arystotelesa znajduje potwierdzenie w doświadczeniu, jednak po namyśle dojdziemy do wniosku, że zgodność ta jest jedynie pozorna. Okazuje się, że na książkę działa jeszcze jedna siła poza tą, z jaką jest ona popychana – siła tarcia powstająca między okładką a powierzchnią blatu. Co więcej, wartość tej siły rośnie wraz z prędkością, z jaką porusza się książka, o ile oczywiście prędkość książki pozostanie w rozsądnych granicach. Książka porusza się po stole ze stałą prędkością, gdy siła tarcia, jaka działa między jej okładką a powierzchnią stołu, jest równoważona przez siłę pchnięcia, ostatecznie więc wypadkowa siła działająca na to ciało ma wartość zero. Newton uświadomił sobie ten fakt podczas studiów nad traktatami Galileusza i Kartezjusza. W efekcie zrodziła się teoria całkowicie odmienna od arystotelejskiej. Trzy zasady dynamiki Newtona głoszą, co następuje: Zasada pierwsza. Dopóki na ciało nie zadziała niezrównoważona siła wypadkowa, pozostanie ono w spoczynku lub będzie poruszać się ruchem jednostajnym prostoliniowym. Zasada druga. Zmiana ruchu ciała jest wprost proporcjonalna do działającej na ciało siły i pojawia się w kierunku jej działania. (Stałą proporcjonalności w tym równaniu jest masa ciała, a dokładnie wartość równa jej odwrotności).
Zasada trzecia. Działaniu każdej siły odpowiada działanie innej siły o takiej samej wartości, ale przeciwnym zwrocie. (Każdej akcji odpowiada reakcja). Pierwsza z podanych zasad jawnie zaprzecza naukom Arystotelesa. Z trzeciej zasady wynika, że pchnięte ciało działa na pchającego z taką samą siłą, z jaką on podziałał na nie. Rachunek różniczkowo-całkowy objawia się w zasadzie numer dwa. „Zmianą ruchu” określił w niej Newton tempo, w jakim zmienia się prędkość ciała, czyli jego przyspieszenie. Przyspieszenie jest pochodną prędkości ciała liczoną po czasie i drugą pochodną położenia liczoną także po czasie, co oznacza, że druga zasada dynamiki Newtona podaje zależność między położeniem ciała i działającą na to ciało siłą w postaci równania różniczkowego: druga pochodna położenia = siła/masa. Aby odnaleźć na tej podstawie położenie ciała, należy rozwiązać powyższe równanie, co polega na „wydedukowaniu” wzoru opisującego położenie z jego drugiej pochodnej. Rozumowanie to pozwala prosto wyjaśnić zachowanie kuli na równi pochyłej zaobserwowane przez Galileusza. Sekret tkwi w dostrzeżeniu faktu, że przyspieszenie ruchu ciała na równi jest stałe. Wniosek ten podawałem już uprzednio, posiłkując się przybliżonymi obliczeniami prowadzonymi dla skończonych przedziałów czasu. Teraz możemy wreszcie przeprowadzić rachunki należycie, zakładając ciągły upływ czasu. Wartość przyspieszenia w tym ruchu zależy od wartości siły grawitacji oraz kąta nachylenia równi do poziomu, ale nie będziemy wnikać aż tak głęboko w szczegóły obliczeń. Przyjmijmy, że stałe przyspieszenie ruchu ciała na równi to a. Po scałkowaniu tej funkcji otrzymamy wzór opisujący prędkość kuli w dowolnej chwili t trwania ruchu: at + b, gdzie b jest prędkością ciała w zerowej chwili ruchu. Kolejne całkowanie pozwala wyznaczyć wzór opisujący położenie ciała na równi: gdzie c jest położeniem ciała w zerowej chwili ruchu. W szczególnym wypadku, gdy a = 2, b = 0 i c = 0, kolejne współrzędne położenia ciała będą odpowiadać wynikom uproszczonych obliczeń, które zaprezentowałem wcześniej, czyli położenie ciała w chwili t będzie równe t2. W podobny sposób można udowodnić słuszność jednego z większych odkryć Galileusza: wystrzelony pocisk porusza się po paraboli. Zasady dynamiki Newtona dały światu znacznie więcej niż tylko narzędzie potrzebne do prowadzenia obliczeń parametrów ruchu ciał. Dzięki nim zdołaliśmy zrozumieć dokładnie ogólne prawa rządzące fizyką. Za najważniejsze z nich uznaje się tak zwane zasady zachowania, głoszące, że w każdym poruszającym się układzie ciał – nieważne, jak bardzo skomplikowanym – pewne wielkości pozostają niezmienione. Okazuje się, że zamieszanie wywołane ruchem w układzie omija pewne parametry, nie burząc ich błogiego spokoju. Trzy spośród zachowywanych wielkości to energia, pęd i moment pędu. Energię określa się czasami mianem zdolności ciała do wykonania pewnej pracy. Wzniesienie ciała na określoną wysokość wymaga wykonania pracy umożliwiającej pokonanie (stałej) siły grawitacji. Praca ta jest proporcjonalna do masy ciała, siły grawitacji oraz wysokości, na jaką trafia to ciało. Zmagazynowana w ten sposób energia zostaje uwolniona, gdy ciało powraca na wyjściową wysokość. Wtedy to wykonuje ono pracę równą tej, jaka była potrzebna, by pierwotnie umieścić je wyżej. Tego rodzaju energię nazywamy energią potencjalną. Energia potencjalna sama w sobie nie jest niczym specjalnie interesującym, ale bez niej nie da się przeprowadzić pięknego matematycznego wyprowadzenia pozwalającego wywieść z drugiej zasady dynamiki Newtona zależność opisującą inny rodzaj energii – energię kinetyczną. W czasie ruchu ciała jego energia potencjalna i energia kinetyczna zmieniają się, ale nie dowolnie. Zmiana energii jednego rodzaju jest natychmiast równoważona zmianą drugiego rodzaju. Ciało spadające pod wpływem działania siły grawitacji stale przyspiesza, a zasada dynamiki Newtona pozwala określić, w jaki sposób wraz z wysokością zmienia się prędkość. Okazuje się, że spadek energii potencjalnej jest równy dokładnie połowie iloczynu masy i kwadratu prędkości ciała. Nazwijmy tę wielkość energią kinetyczną; całkowita energia układu wyrażona jako suma energii potencjalnej i kinetycznej jest zachowana. Zasady dynamiki Newtona dowodzą, że nigdy nie zdołamy skonstruować perpetuum mobile – żadne urządzenie mechaniczne nie jest w stanie działać w nieskończoność bez pozyskiwania energii z zewnątrz. W ujęciu fizycznym energia potencjalna jest czymś zupełnie innym od energii kinetycznej, natomiast matematycznie można je swobodnie porównywać, czasami wręcz zastępować jedną drugą. W naszym rozumieniu ruch jest zjawiskiem pozwalającym przekształcać energię potencjalną w kinetyczną. „Energia” – termin wykorzystywany do nazwania obydwu właściwości układu – opisuje pewną abstrakcję zdefiniowaną w taki sposób, by można było mówić o jej zachowaniu. Nasuwa się tu pewna analogia do podróżnego, który w czasie swoich wojaży wymienia funty na dolary. Każda z wymiennych walut ma podany w tabelach kurs i na tej podstawie określa się sposób ich przeliczania. Załóżmy, że 1 funt odpowiada 1,4693 dolara; wiedząc to, podróżny może określić dokładną kwotę obcej waluty, jakiej będzie potrzebować. Nie wnikając w szczegóły operacji bankowych związanych z wymianą walut, można stwierdzić, że wartość pieniężna obydwu kwot powinna być równa, co znaczy, że podróżny otrzyma w dolarach dokładną równowartość kwoty w funtach, pomniejszoną wyłącznie o prowizję związaną z przeprowadzeniem przeliczenia. Oczywiście żaden z banknotów nie zawiera żadnego elementu, który zostałby wydobyty z funta i przełożony do dolara oraz kilkudziesięciu centów. Zamiana przebiega wyłącznie w naszych umysłach; konwersja bazuje na ludzkim przekonaniu, że banknoty mają konkretną wartość. Energia jest nowym rodzajem wielkości „fizycznej”. W teorii Newtona wielkości takie jak położenie, czas, prędkość, przyspieszenie i masa mają swoją reprezentację w rzeczywistym świecie. Położenie daje się zmierzyć linijką, czas określić za pomocą zegara, prędkość i przyspieszenie wyznaczy się na podstawie pomiarów dokonanych obydwoma wspomnianymi przyrządami, natomiast masę określa się z użyciem wagi. W wypadku energii jest inaczej; nie istnieje żaden licznik pozwalający zmierzyć jej ilość. Oczywiście można określić wartości konkretnych jej rodzajów. Energia potencjalna jest proporcjonalna do wysokości, jeśli więc znasz siłę grawitacji działającą na ciało, zdołasz wyznaczyć powiązaną z nią energię, dokonując odpowiedniego pomiaru linijką. Energia kinetyczna to połowa iloczynu masy i kwadratu prędkości ciała, więc masa i prędkościomierz pozwolą podać jej wartość, ale definicyjnie energia opisuje nie coś istniejącego fizycznie, ale raczej wygodną ideę stanowiącą równowagę dla mechanicznej wiedzy podawanej w książkach. Drugą z zachowywanych wielkości – pęd – wyznacza się, obliczając prosty iloczyn masy i prędkości. Pęd staje się niezmiernie ważnym pojęciem, gdy układ zawiera kilka ciał. Doskonałym przykładem jest rakieta odrzutowa, gdy rakietę i jej paliwo potraktujemy jak dwa odrębne ciała. Zgodnie z zasadą zachowania pędu rakieta musi poruszać się w przeciwnym kierunku niż gazy uzyskane w wyniku zużywania paliwa wyrzucane z silnika. Tak modeluje się ruch rakiety w próżni. Moment pędu definiuje się podobnie do pojęcia pędu, z tym że odnosi się on do ruchu obrotowego, posługuje się więc pojęciem prędkości kątowej, a nie liniowej. Moment pędu jest jednym z filarów techniki rakietowej, więcej nawet, mechaniki ziemskiej i ciał niebieskich. Jedną z największych zagadek Układu Słonecznego jest olbrzymi moment pędu Księżyca. Współczesna nauka zakłada, że do powstania satelity Ziemi doszło w wyniku zderzenia naszej planety z inną, o rozmiarach porównywalnych z rozmiarami Marsa, mniej więcej 4,5 miliarda lat temu. Teoria ta pozwala wyjaśnić wielki moment pędu satelity i do niedawna była przyjmowana niemal bez zastrzeżeń, ale w świetle najnowszych badań wydaje się jednak niepoprawna, gdyż Księżyc zawiera zbyt wiele wody, by mógł powstać w opisany sposób. Zderzenie o tak wielkiej sile spowodowałoby odparowanie większości wody z objętości formującego się ciała niebieskiego16. Niezależnie jednak od przyczyn powstania Księżyca moment pędu pozostaje w tej kwestii jedną z kluczowych wielkości. Rachunek różniczkowo-całkowy niewątpliwie spełnia swoje zadanie. Potrafimy dzięki niemu rozwiązywać problemy z zakresu fizyki i geometrii, a uzyskiwane w ten sposób wyniki są poprawne. Co więcej, dzięki niemu naukowcy zdołali wprowadzić nowe, dziś uznawane za jedne z podstawowych pojęcia fizyczne – energię i pęd. Niestety nic z tego nie stanowi odpowiedzi na zarzuty, jakie stawiał metodzie biskup Berkeley. Jako narzędzie obliczeniowe rachunek różniczkowo-całkowy powinien spełniać wymogi stawiane każdej teorii matematycznej; zgodność z wynikami doświadczeń fizycznych w takim wypadku to za mało. Zarówno Newton, jak i Leibniz rozumieli, że zmienne o i dx nie mogą jednocześnie przyjmować wartości niezerowej i zerowej. Newton usiłował uniknąć tej pułapki logicznej, wprowadzając do teorii fizyczne pojęcie fluksji, z kolei Leibniz mówił o wielkościach nieskończenie małych. Obydwaj mieli na myśli zmienne, których wartość stopniowo zbliża się do zera, ale nigdy jej nie osiąga. Czym miałyby być takie wielkości? Paradoksalnie najbliższe prawdy było szyderstwo Berkeleya – „duch wielkości minionych” – chociaż sam autor nie zdołał zrozumieć tego, co tak usilnie podkreślali Newton i Leibniz: sposobu „przemijania” tych wielkości. Wystarczy zadbać o to, by odeszły właściwie, a uzyska się całkowicie pełnoprawnego ducha. Gdyby Newton lub Leibniz zdołali wyrazić swoje przeczucia ściśle matematycznym językiem, może Berkeley zrozumiałby ich wywody. Kluczowe dla zrozumienia nowej teorii wydaje się pytanie, na które Newton nigdy nie odpowiedział wprost, gdyż wydawało mu się ono zbyt błahe, a odpowiedź zbyt oczywista. Przypomnij sobie przykład funkcji i ich pochodnych. Dla funkcji y = x2 Newton wyznaczył pochodną wyrażoną wzorem 2x + o, a następnie stwierdził, że zmienna o zdąża do zera, w związku z tym całe wyrażenie 2x + o zmierza do wartości 2x. I choć to oczywiste, nie wolno upraszczać tego wywodu i przyjmować o = 0. Oczywiście przyjęcie takiego warunku
prowadzi do właściwego wyniku, ale to tylko zasłona dymna17. W Principiach Newton sprytnie ominął ten problem, zastępując wyrażenie 2x + o „proporcją pierwszą”, a wyrażenie 2x „proporcją ostateczną”. Jednak dla rozwoju teorii kluczowe znaczenie miało przede wszystkim poruszenie tego zagadnienia. Skąd mamy wiedzieć, że im o jest bliższe zera, tym 2x + o będzie bliższe 2x? W tym wypadku stawianie takiego pytania wydaje się zbędną pedanterią, ale gdybym posłużył się bardziej złożonym przykładem, odpowiedź nie byłaby tak oczywista. Gdy matematycy zajęli się badaniem założeń logicznych leżących u podstaw rachunku różniczkowo-całkowego, odkryli, że w tym pozornie prostym pytaniu tkwiło sedno teorii. Mówiąc, że zmienna o zdąża do zera, mamy na myśli, że jest ona mniejsza od dowolnie wybranej liczby dodatniej. (To raczej oczywiste – można przyjąć, że o jest połową wybranej liczby). Podobnie należy podejść do problemu wyrażenia 2x + o zdążającego do 2x, gdzie do zera ma dążyć (w poprzednim rozumieniu) różnica między nimi. Ponieważ wówczas jest ona równa dokładnie o, dalsze rozważania stają się wyjątkowo proste. Niezależnie od tego, czym jest „dążenie do zera”, można stwierdzić, że tym razem o dąży do zera, gdy o dąży do zera. W wypadku funkcji bardziej skomplikowanych niż kwadratowa konieczna byłaby bardziej złożona analiza. Odpowiedzi na kluczowe dla całej teorii pytanie należy szukać w formalnym, matematycznym ujęciu, w którym nie ma miejsca na koncepcję „przepływu”. Przełomowe okazały się w tym zakresie prace czeskiego matematyka i teologa Bernarda Bolzano oraz Niemca Karla Weierstrassa. Bolzano opublikował swoje przemyślenia w 1816 roku, lecz świat zainteresował się nimi dopiero w 1870 roku, gdy Weierstrass rozszerzył je na funkcje złożone. Bolzano i Weierstrass wprowadzili do polemiki z Berkeleyem pojęcie granicy. Tu podam jej definicję słownie, a zainteresowanych zapisem matematycznym odsyłam do przypisu18. Mówimy, że funkcja f(h) zmiennej h zmierza do granicy równej L dla każdego h zdążającego do zera, jeśli istnieje dowolna niezerowa i dodatnia liczba, dla której przy odpowiednio małych wartościach h wartość różnicy f(h) i L będzie mniejsza od tej liczby. Symbolicznie zapisuje się to jako: Zatem sednem rachunku różniczkowo-całkowego jest uśrednienie tempa zmian funkcji w niewielkim przedziale zmienności h, a następnie wyznaczenie granicznej wartości z tej średniej przy założeniu, że h zdąża do zera. Dokonanie takiej operacji dla dowolnej funkcji y = f(x) prowadzi do równania przedstawionego na początku tego rozdziału, choć tym razem zamiast czasu pojawia się w nim zmienna x: W liczniku widzimy matematyczny zapis zmiany wartości funkcji f, w mianowniku zaś pojawia się zmiana wartości x. Równanie to definiuje jednoznacznie pochodną f ’(x) przy założeniu, że istnieje jego granica. Jej istnienia należy dowodzić dla każdej funkcji, której pochodną chcemy wyznaczyć, ale warto wspomnieć, że dla większości typowych funkcji – kwadratowych, sześciennych i wielomianów wyższych potęg, logarytmów, funkcji wykładniczych czy trygonometrycznych – daje się ją wyznaczyć. Zauważ, że w żadnym miejscu obliczeń nie pojawiło się dzielenie przez zero, ponieważ nigdzie nie przyjmowaliśmy warunku h = 0. Ponadto żadna ze zmiennych w obliczeniach nie „płynie”. Istotny tu jest przedział wartości, jakie może przyjmować zmienna h, a nie sposób, w jaki się ona zmienia. Ostatecznie sarkastyczna uwaga Berkeleya okazała się nadzwyczaj trafna. Granica L jest duchem wielkości minionej – mojego h i newtonowskiego o. Jednocześnie sposób, w jaki wielkość przemija – zbliża się do zera, nigdy go nie osiągając – pozwala uzyskać w pełni poprawnego i zdefiniowanego w sposób niekłócący się z logiką ducha. Weierstrass i Bolzano dali rachunkow i różniczkowo-całkowemu logiczne podstawy. Nowa metoda obliczeniowa zasługiwała na nazwę, która oddawałaby jej nowy status. I otrzymała ją: analiza matematyczna. Nie podejmę się wymieniać wszystkich metod korzystania z rachunku różniczkowo-całkowego, tak samo jak nie podjąłbym się wypisać tu wszystkich tych rzeczy, których działanie zależy od użycia śrubokrętu. Jednym z najbardziej podstawowych zastosowań rachunku różniczkowo-całkowego jest wyznaczanie długości krzywych, pól powierzchni o skomplikowanych kształtach, objętości brył, minimalnych i maksymalnych wartości oraz środków mas. Zastosowany do wyrażenia praw mechaniki pozwala określać tory lotu rakiet kosmicznych, obliczać naprężenia powierzchni skał w strefach wzmożonej aktywności sejsmicznej, czyli wszędzie tam, gdzie może dojść do trzęsienia ziemi czy drgania rozchodzącego się w ścianach budynku, gdy do trzęsienia już dojdzie. Dzięki niemu potrafimy obliczyć drgania zawieszenia samochodu, czas potrzebny na rozprzestrzenienie się infekcji bakteryjnej, określić sposób gojenia się ran chirurgicznych czy poznać siły działające na most wiszący podczas silnej wichury. Wiele ze znanych nam zastosowań rachunku różniczkowo-całkowego wypływa wprost z zasad dynamiki sformułowanych przez Newtona, które są przecież niczym innym jak modelem otaczającego nas świata wyrażonym za pomocą równań różniczkowych. W równaniach tych pojawiają się pochodne nieznanej funkcji, do ich rozwiązania więc należy zastosować specjalne metody obliczeniowe. Nie będę rozpisywać się dalej na ten temat, ponieważ począwszy od rozdziału 8, każdy z poruszanych w książce tematów będzie zawierać odnośniki do rachunku różniczkowo-całkowego, głównie w postaci równań różniczkowych. Wyjątkiem będzie rozdział 15 poświęcony teorii informacji, ale chciałbym zaznaczyć, że choć nie będę tu omawiać pewnych metod, nawet w teorii informacji pojawiają się rozwiązania wykorzystujące równania różniczkowe i całkowe. Rachunek różniczkowo-całkowy, niczym śrubokręt, jest zwyczajnie niezastąpionym narzędziem każdego inżyniera czy naukowca. Bardziej niż jakakolwiek inna metoda obliczeniowa przyczynił się do rozwoju współczesnej nauki. 10 Matematyczne zasady filozofii przyrody, przeł. J. Wawrzycki, Copernicus Center Press, Kraków–Rzeszów 2011 (przyp. red.). 11 Keynes nigdy nie wygłosił tego odczytu. Towarzystwo Królewskie planowało uczcić w ten sposób przypadającą w 1942 roku trzechsetną rocznicę urodzin Newtona, niestety II wojna światowa uniemożliwiła organizację uroczystości, która ostatecznie odbyła się dopiero w 1946 roku. Uroczyste przemówienia przygotowali fizycy Edward da Costa Andrade i Niels Bohr oraz matematycy Herbert Turnbull i Jacques Hadamard. Organizatorzy poprosili o wystąpienie także Keynesa, który od lat interesował się rękopisami pozostawionymi przez wielkiego uczonego. Keynes przygotował wystąpienie zatytułowane „Newton – człowiek”, niestety zmarł przed rozpoczęciem obchodów rocznicy. W jego imieniu mowę wygłosił brat Geoffrey. 12 Cytat ten pochodzi z listu Newtona do Hooke’a datowanego na 1676 rok, ale po raz pierwszy podobnym wyrażeniem posłużył się już w 1159 roku John z Salisbury, który napisał „Bernard z Chartres zwykł mawiać, że jesteśmy niczym karły stojące na ramionach olbrzymów, dzięki czemu możemy dostrzec więcej niż one”. W XVII wieku ta figura retoryczna cieszyła się ogromną popularnością. 13 Czasami spotyka się pojęcie opóźnienia (ujemne przyspieszenie), ale ten termin cieszy się znacznie mniejszą popularnością (przyp. tłum.). 14 Dopuszczenie dzielenia przez zero doprowadziłoby do uzyskania błędnych dowodów, na przykład dałoby się udowodnić „twierdzenie”, że wszystkie liczby są zerami. Przyjmijmy a = b, stąd a2 = ab, zatem a2 − b2 = ab − b2. Po rozłożeniu na czynniki otrzymujemy (a + b)(a − b) = b(a − b) . Dzieląc obydwie strony przez (a − b), otrzymujemy a + b = b, a stąd a = 0. Błąd kryje się w wykonaniu dzielenia obydwu stron równania przez wyrażenie (a − b), czyli zgodnie z założeniem a = b przez 0. 15 R. Westfall, Never at Rest, Cambridge University Press, Cambridge 1980, s. 425. 16 E. H. Hauri, T. Weinreich, A. E. Saal, M. C. Rutherford i J. A. Van Orman, High pre-eruptive water contents preserved in lunar melt inclusions, „Science Online”, 26 maja 2011 r., 1204626, DOI: 10.1126/science.1204626. Wyniki badań wywołały wiele kontrowersji. 17 Wielkość ta nie została dobrana przypadkowo. Sprawdza się ona dla każdej funkcji różniczkowalnej, czyli takiej z ciągłą pochodną. Do rodziny tej należą wszystkie wielomiany i wszystkie zbieżne szeregi potęgowe, na przykład funkcje logarytmiczne, wykładnicze i różne funkcje trygonometryczne. 18 Współcześnie granicę definiuje się następująco: jeśli funkcja f(h) dla h zdążającego do zera zmierza do granicy równej L dla dowolnego ε > 0, istnieje δ > 0 taka, że dla |h|< δ |f(h) − L|< ε. Wprowadzenie warunku ε > 0 pozwala uniknąć jakichkolwiek przepływów czy tego, że pewne zmienne zmaleją. Jedna nierówność uwzględnia wszystkie możliwe wartości.