|||||||||||||||||||| ==== Ad Rem! ==== No. I ==== Listopad 2005 ==== |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||\\| WYKŁAD - zawiera wykład (lub wykłady) na temat w zasadzie dowolny, lecz raczej poważny i przydatny. Celem tego działu jest, aby Czytelnik po jego przeczytaniu pomyślał: Aha! Więc to jest tak! No, wreszcie rozumiem!; niestety bowiem nie każdy wykład kończy sie takim westchnieniem ulgi. Ambicją moją byłoby, aby w tym dziale stało sie to regułą, jednak w przypadku tematów zaawansowanych - niekoniecznie musi się to udać, nawet jeśli dyskurs będzie nienaganny. Przeszkodą może być wymagany, bazowy poziom wiedzy. Dlatego też powinien on zawsze zostać określony na początku wykładu.









Dla zrozumienia treści tego wykładu nie jest potrzebne żadne szczególne przygotowanie poza, powiedzmy, liceum ogólnokształcącym.

ZASADY RACJONALNEGO MYŚLENIA.

Ponieważ cały numer poświęcony jest prawidłowemu myśleniu, będzie chyba nie od rzeczy ten wykład (inauguracyjny) poświęcić także myśleniu, a w szczególności tym regułom myślenia, które pozwoliły stworzyć naukę, w takiej postaci, w jakiej ją znamy [1]. Zasady te są w dużej mierze zbieżne z regułami racjonalnego myślenia w ogóle (a więc nie tylko naukowego). Ograniczyłem się do tych najbardziej fundamentalnych pomijając różne techniki szczegółowe (sylogizmy, sposoby dowodzenia etc.). Niektóre z omawianych zasad, jak na przykład zasada optymizmu poznawczego, są tak (wydawałoby się) oczywiste, że często bywają w wielu podręcznikach metodologii w ogóle pomijane, podobnie jak skrypty medyczne rzadko (jeśli w ogóle) informują o tym, że człowiek żyje na ziemi, choć fakt ten w znacznym stopniu determinuje jego anatomię i fizjologię.

Zaznaczyć też wypada, że omawiane zasady są zasadami klasycznymi, to znaczy odnoszą się do świata makroskopowego. I choć zasada przyczynowości, na przykład, bywa podawana w wątpliwość przez współczesną fizykę mikroświata – to na poziomie makroskopowym jest spełniona. Podobnie też zasada wyłączonego środka bywała kwestionowana przez niektórych matematyków i logików. Wątpliwości te jednak dotyczą bardzo szczególnych zjawisk, a ponadto nie ma pełnej zgody, co do ich prawomocności. Z drugiej zaś strony w świecie matematyki i fizyki klasycznej oraz nauk przyrodniczych podane poniżej reguły sprawdzają się bez zastrzeżeń. Sądzę więc, że stanowią one wystarczająco solidną bazę dla większości zagadnień poruszanych w czasopiśmie.

I tak też należy ten wykład rozumieć. Nie jest to kompletny zestaw reguł racjonalnego myślenia, lecz zestaw, który będzie fundamentem treści tego czasopisma. Dla dociekliwych podałem dalsze lektury.

A oto i zapowiedziane zasady:

Zasada niepewności. Głosi ona, że nasza wiedza NIGDY nie jest pewna; może być tylko wysoce prawdopodobna.

Na „pierwszy rzut mózgu” wydaje się to dość szokujące, dopiero kiedy pomyśleć głębiej – nabiera sensu. Od razu bowiem nasuwa się tu pytanie w rodzaju: „Czy to znaczy, że ani logika, ani matematyka nie dają nam żadnej pewności?” Otóż to. Nie dają! Nic i nigdy nie jest pewne! I w istocie tylko tak można osiągnąć sensowny przyrost wiedzy. Zasada ta bowiem pozwala na rewizję dowolnych poglądów, kiedy zajdzie taka potrzeba. Uwalnia nas od dogmatyzmu, stagnacji, pomaga „wychodzić z impasów”. I jeśli już nie w praktyce, to przynajmniej zawsze w potencjalnej możliwości.

Oczywiście taki zlekka paranoidalny sceptycyzm, stosowany bez umiaru, prowadziłby raczej do obłędu niż do sukcesów naukowych (choć te możliwości wcale się, niestety, wzajem nie wykluczają). Dlatego też zachowujemy go tylko na te sytuacje, kiedy dotychczas stosowane reguły zawodzą. W praktyce bowiem jest bardzo wygodnie przyjąć pewne twierdzenia jako pewne i posługiwać się nimi bez zastanowienia, tak jakby rzeczywiście były pewne. Kiedy więc wypowiadamy twierdzenie „dwa razy dwa jest cztery”, to nie znaczy ono wcale, że tak jest bez wszelkiej wątpliwości, lecz w zasadzie jest to jedynie praktyczny skrót myślowy takiego, powiedzmy, zdania jak: „dwa razy dwa jest cztery z tak olbrzymim prawdopodobieństwem, że nie potrafimy nawet tego obliczyć, sprawdziło się to już niezliczoną ilość razy w naszej dotychczasowej działalności i jak dotychczas mamy żadnego powodu, aby to twierdzenie kwestionować – dlatego też przyjmujemy je prowizorycznie jako pewne; gdyby jednak wystąpiły jakieś sensownie umotywowane wątpliwości - wtedy rozważymy to zdanie ponownie”.

I tak to zgodnie z tą zasadą możemy się posługiwać prawem Ohma (dopóki idzie nam o dostatecznie duże prądy, a nie elektrony liczone na sztuki), możemy dodawać prędkości (wystarczająco małe w porównaniu z prędkością światła) i przyjmować bez obaw, że dwa a dwa jest cztery, zaś my ważymy tyle samo idąc, co siedząc na stołku. Jedyne bowiem, czego od nas wymaga ta zasada, to gotowość do rewizji tych prawd.

Zasada optymizmu poznawczego. Można ją wypowiedzieć różnie; najprostsze sformułowanie brzmi: „Świat jest zasadniczo poznawalny”.

Inne postaci to: „Przyczyna niewiedzy leży zawsze po stronie podmiotu poznającego” lub „Nie istnieje nic, co zabraniałoby dowolnego badania rzeczywistości”.

Zasadę tę należy właściwie rozumieć.

Po pierwsze – nie oznacza ona wcale, że dowiemy się rzeczywiście wszystkiego, a tym bardziej szybko i bezbłędnie. Znaczy ona jedynie tyle, że możemy nasze zrozumienie rzeczywistości dowolnie pogłębiać. Jeżeli więc się czegoś nie dowiemy, to wyłącznie z braku inteligencji, narzędzi, czasu lub chęci.

Po drugie – zasada ta nie mówi nic o stopniu pewności uzyskanej wiedzy.

Zasadę optymizmu poznawczego cechuje z jednej strony skromność; nie pozwala ona bowiem na obarczanie winą za niewiedzę niczego, a tym bardziej nikogo. Z drugiej zaś strony jest ona bardzo potężna – wymiata bowiem jednym zamachem z naszego poznania wszelką możliwą metafizykę.

Zasada uniwersalności. Spełniające tę zasadę twierdzenie musi obowiązywać uniwersalnie w czasie i przestrzeni.

Regułę tę nazywa się też czasami zasadą powtarzalności. Dla przykładu – woda podgrzana do temperatury 100°C zaczyna wrzeć. Doświadczenie wykorzystujące to zjawisko powinno więc przebiegać identycznie, niezależnie od czasu i miejsca. Koniecznym jest jednak zagwarantowanie takich samych warunków doświadczenia (co nie zawsze jest łatwe).

Wiem, że nie jest to dokładnie 100°C, pomijam też świadomie parę innych drobiazgów. Fizyków proszę o wyrozumiałość – chodzi mi o prosty przykład.

Można też tę zasadę wypowiedzieć inaczej: zajścia niepowtarzalne nie należą do nauki.

Tutaj także konieczne jest wyjaśnienie. Otóż woda postawiona w czajniku na ogniu może także… zamarznąć. Jest to teoretycznie możliwe, ponieważ składa się ona z gigantycznej liczby cząstek poruszających się z prędkościami proporcjonalnymi do temperatury. Może się jednak zdarzyć, że przypadkowe zderzenia cząstek wzajemnie „powygaszają” ich ruch w taki sposób, że temperatura przejściowo się obniży. Prawdopodobieństwo wystąpienia takiego zdarzenia (nie mówiąc już o wystąpieniu wielokrotnym) jest jednak tak niewyobrażalnie małe (jakkolwiek można je obliczyć!), że właściwie nie ma szans na jego obserwację. Nie należy ono zatem do nauki (nawet, gdyby taki cud raz się komuś przydarzył!). Natomiast fakt, że woda ogrzana do 100°C wrze – jest powtarzalny (choć także tylko z olbrzymim prawdopodobieństwem, które praktycznie przyjmujemy za pewność!) – jest to zatem stwierdzenie naukowe.

Wymaganie powtarzalności powoduje konieczność weryfikacji twierdzeń. Jeżeli ktoś otrzyma w swej pracowni jakiś wynik, to inni natychmiast zabiorą się do sprawdzania i nie ma to nic wspólnego z zaufaniem lub jego brakiem, lecz taka jest po prostu procedura nauki. Nawiasem mówiąc dlatego właśnie stwierdzenia muzykologów w rodzaju „Muzyka Chopina jest w swej istocie (tu dowolny przymiotnik)…” nie wydają mi się naukowymi, choć mogą być jakoś tam zgodne z prawdą; są jednak nieweryfikowalne.

Zasada uniwersalności jest blisko spokrewniona z zagadnieniem wywrotności twierdzeń. Otóż twierdzenia mają tym większą wartość poznawczą im bardziej są wywrotne (tzn. łatwe do obalenia). Zakrawa to na paradoks, ale tak to właśnie jest. Twierdzenie niewywrotne (typu „woda wrze w jakiejś temperaturze”) choć prawdziwe, jest raczej jałowe poznawczo, zaś twierdzenie „woda wrze w temperaturze 100°C” jest potencjalnie łatwiejsze do falsyfikacji, toteż jeżeli mimo to „wytrzymuje” kolejne sprawdzania – zyskuje na wartości.

Zasada przyczynowości. Mówi ona, że każde zjawisko wywołuje jakieś skutki, i ma jakąś przyczynę, a ponadto, że przyczyna zawsze poprzedza skutek w czasie.

Jakkolwiek na poziomie mikroświata zasada ta bywa kwestionowana (choć i tu fizycy nie są do końca zgodni), o tyle w świecie makroskopowym króluje ona niepodzielnie. W praktyce jednak nie zawsze potrafimy dokładnie określić związki przyczynowo – skutkowe. Tak dzieje się na przykład w bardzo złożonych systemach, kiedy nie możemy dokładnie obserwować każdego elementu (naczynie z wielką ilością cząsteczek cieczy na przykład). Uciekamy się wtedy do statystycznego lub probabilistycznego opisu zjawiska. Podejście takie jest więc raczej „opisujące” niż „wyjaśniające”; może jednak być bardzo użyteczne (przykładem choćby pomiar temperatury). Nadal jednak zakładamy, że poszczególne elementy tego systemu rządzone są zasadą przyczynowości i uniwersalności, a tylko my nie potrafimy prześledzić tego dokładnie.

Częstym błędem pseudonauki jest wskazywanie na związki przyczynowe, które w rzeczywistości nie istnieją (czarny kot, prorocze sny, astrologia etc.).

Zasada wyłączonego środka. Znana także pod łacińską nazwą „tertium non datur” (trzeciej możliwości nie ma). Mówi ona, że jeśli prawdziwe jest twierdzenie A, to fałszywe jest jego zaprzeczenie, czyli „nieprawdą jest, że A” – i odwrotnie.

Krótko: „A” albo „nie A”.

Choć reguła wydaje się niezwykle prosta i oczywista, niektórzy matematycy (Brouwer, Gentzen) także dąsali się na nią uważając, że z całkowicie pewnego twierdzenia „nieprawdą jest, że A” nie wynika koniecznie, iż „prawdą jest, że nie A”. [2] Dziś jednak koncepcje takie zostały, jak się wydaje, zarzucone.

Wnikliwy Czytelnik zauważył też może w definicji tej zasady użycie wyrazu „albo” w miejsce częściej używanego „lub”. Otóż niektórzy logicy odróżniają te dwa słowa rezerwując „albo” dla sytuacji, kiedy obydwa człony alternatywy wykluczają się. „W koszyku jest jabłko albo gruszka” – czyli tylko jeden owoc, zaś „W koszyku jest jabłko lub gruszka” – może być zarówno jeden z tych owoców, jak i obydwa. To wyjaśnienie, jak sądzę eliminuje możliwe nieporozumienia.

Często popełniany błąd polega natomiast na pomieszaniu zaprzeczenia z przeciwieństwem. Dla przykładu: zaprzeczeniem twierdzenia „Ten kot jest biały” nie jest twierdzenie „Ten kot jest czarny”, lecz twierdzenie „Ten kot nie jest biały”.

Brzytwa Ockhama. Sformułowana w XIII w przez franciszkanina Williama Ockhama zasada głosi, że nie należy mnożyć bytów ponad niezbędną konieczność.

W pierwotnej postaci niezbyt przejrzysta, została później przekształcona w metodologiczny postulat ekonomii myślenia i nazwana, jak w tytule. Ekonomia myślenia oznacza, że nie powinniśmy szukać wyjaśnień bardziej skomplikowanych, jeśli prostsze wyjaśniają zjawisko dostatecznie, a w szczególności nie wprowadzać nowych „bytów”, jeśli nie jest to niezbędnie konieczne.

Jako przykład naruszenia tej zasady można by tu przytoczyć dziewiętnastowieczny pomysł „flogistonu” jako nośnika ciepła, oraz „eteru”, w którym miały się rozchodzić fale elektromagnetyczne. Podobnie sprzeczne z tą regułą jest przypuszczenie, że ktoś zachorował na grypę ponieważ zaszło niekorzystne ustawienie Neptuna i Saturna – prościej przyjąć, że zaraził się grypą od kogoś innego.

Z zasadą tą związany jest często popełniany błąd tzw. „uprzedmiotowienia” polegający na przyjęciu, że coś, co zostało nazwane – rzeczywiście musi istnieć [jednorożec, inteligencja (tudzież IQ), wolna wola [3], intuicja (również ta sławna – kobieca), a także liczne pomysły pana Zygmunta Freuda].[4]

Zasady zachowania. Spośród kilku znanych zasad zachowania – najważniejszą dla nas będzie tu zasada zachowania materii/energii. Głosi ona, że w izolowanym systemie bilans materii/energii nie zmienia się.

Ważne jest tu założenie, że system nie oddziałuje z otoczeniem. Jeśli takiego oddziaływania nie sposób uniknąć – należy rozszerzyć pojęcie (lub po prostu wymiary) systemu. Masa może się wprawdzie przekształcić w energię (bomba atomowa) – ogólny bilans pozostaje jednak zawsze stały.

Jako ciekawostkę (nie wiem, czy to właściwe słowo, dla tego smutnego faktu) dodam, że masa, która przekształciła się w energię podczas wybuchu bomby atomowej w Hiroszimie wynosiła ok. 1 grama.

O innych zasadach zachowania można przeczytać na przykład w książce R. Feynmanna – „Charakter praw fizycznych”.[5]

Zasada ekstremów. Głosi ona, że wszystkie naturalne procesy zmierzają do stanów ekstremalnych (maksymalnych lub minimalnych).

W szczególności zaś każdy izolowany system „pozostawiony samemu sobie” zmierza do stanu minimalnej o energii. Dlatego też woda ścieka na dół (a nie do góry), gorące ciała stygną do temperatury otoczenia, a światło (w klasycznej makroskopowej optyce) porusza się po torach wymagających najkrótszego czasu na ich przebycie. Z zasadą tą jest ściśle związana poniższa:

Zasada wzrostu entropii. Pojęcie entropii pochodzi z XIX–wiecznej fizyki klasycznej, a ściślej z termodynamiki. Samo słowo zostało sztucznie utworzone od greckiego "entropé" oznaczającego zwrot, obrót, lub przekształcenie. W połowie XX w. Stało się „modne” i zaczęło być (nad)używane w różnych dziedzinach działalności ludzkiej, jak biologia, ekonomia, a nawet lingwistyka. Ponadto pojęcie entropii (poza tą dobrze zdefiniowaną fizyczną) bywa często używane nieprecyzyjnie, co może rodzić różne nieporozumienia. O ile jednak sens fizyczny entropii jest dość dobrze określony, to teza o jej stałym wzroście i konsekwencje tej tezy są ciągle jeszcze dyskutowane przez naukowców i filozofów.

Aby nie przeciążać wywodu nadmiarem szczegółów – podam na razie kilka tez dotyczących entropii, które można (prowizorycznie) przyjąć „na wiarę”. Na końcu wykładu [6] podaję elementarne omówienie pojęcia entropii w fizyce i teorii informacji, oraz sugestie dalszych lektur. Słowo układ – oznacza dalej układ nie oddziałujący w żaden sposób z otoczeniem (doskonale izolowany).

Entropia (fizyczna) jest miarą energii układu, która nie może być użyta do wykonania pracy. Kiedy układ osiąga maksymalną entropię – nie możemy już z niego pobrać energii.

Przykład: Wyobraźmy sobie układ złożony z filiżanki z herbatą i kryształkiem cukru. Jeżeli herbata znajdzie się w jednej (powiedzmy prawej) połówce filiżanki, to entropia układu będzie mała. Możemy to osiągnąć na przykład nadając filiżance ruch przyspieszony (popychając ją po stole). Kiedy przestaniemy ją pchać – herbata przejdzie do stanu bardziej prawdopodobnego – rozleje się równomiernie po dnie, zatem jej entropia wzrośnie. Podczas tego „przejścia” herbata może wykonać pracę – na przykład poruszenie kryształka cukru. Kiedy już jednak układ znajdzie się w stanie maksymalnej entropii (herbata nieruchomo rozlana po dnie), kryształka nie da się poruszyć. Zawsze, oczywiście, możemy to jednak zrobić przez dostarczenie układowi energii z zewnątrz (ponowne popchnięcie, lub zamieszanie łyżeczką).

Oznaczmy przyrost entropii przez dS. Uwaga! Przyrost (dodatni lub ujemny), a nie wielkość. Teraz:

Wszystkie rzeczywiste procesy w naturze są (jak się uważa) w ogólnym bilansie nieodwracalne, choć lokalnie (w czasie i przestrzeni) mogą przyjmować stany o mniejszej entropii. Mówimy więc, że bez dopływu energii entropia izolowanego układu musi wzrastać. Warto zauważyć, że jeżeli wszechświat jest układem izolowanym, to (zgodnie z powyższym) jego temperatura musi się kiedyś wyrównać (na poziomie bardzo niskim) i nastąpi tak zwana „śmierć termiczna” wszechświata. Pocieszające jest to, że mamy jeszcze do tego momentu dobrych kilka miliardów lat czasu, oraz to, że istnieją teorie konkurencyjne (też niezbyt optymistyczne, nawiasem mówiąc).

Pojęcie entropii zrobiło taką karierę między innymi z tego powodu, że jest to jedyna znana wielkość fizyczna, która uzależniona jest od kierunku upływu czasu (tak zwanej „strzałki czasu”). Jeżeli na przykład sfilmujemy ruch planet (układ odwracalny, o stałej entropii), to film można puścić z całkiem dobrym sensem do tyłu (odwrócony czas). Planety będą wprawdzie biegły w odwrotną stronę, ale zgodnie z prawami dynamiki Newtona (tak zresztą może być na przykład w innych układach planetarnych, a i w naszym w końcu mogło się przecież właśnie tak zdarzyć). Podobnie film przedstawiający wahadło (idealne, bez tarcia) wyglądałby sensownie puszczony w dowolnym kierunku. Ale już film pokazujący, co dzieje się od momentu, kiedy przestajemy pchać naszą filiżankę i herbata rozlewa się po dnie (układ nieodwracalny – entropia wzrasta) ma sens tylko zgodnie z naturalnym upływem czasu.

Co z tego wynika jako wytyczne dla „AdRem”? Na przykład to, że:

1. Nie można na przykład postawić pionowo leżącego na stole gwoździa „siłą woli”. Ponieważ jest to układ (gwóźdź, blat stołu i ziemia z jej grawitacją) o maksymalnej entropii, można to zrobić jedynie dostarczywszy mu energię (podnieść ręką, włączyć jakiś elektromagnes, puścić prąd powietrza etc.).

A właściwie to nie tak – jest furtka!! Przypominam zasadę uniwersalności. Należy więc zaczekać jakieś 10100 000 000 lat (nie sprzeczajmy się o te głupie parę miliardów). Zachodzi jednak obawa, że mogłoby się to sprzykrzyć nawet najbardziej cierpliwemu Czytelnikowi „AdRem”.

2. Nie zamieszczamy ogłoszeń o sprzedaży perpetuum mobile, silników działających bez wymiany ciepła, aparatów do zmartwychwstawania i temu podobnych wynalazków.

3. Słowa „entropia” używamy wyłącznie w znaczeniach podanych w tym wykładzie.

Podsumowanie. Wymienione wyżej zasady chciałbym uczynić fundamentem wszystkich artykułów, jakie zamieszczane będą w tym czasopiśmie. Nie znaczy to oczywiście, że nie ma w nim miejsca na hipotezy, czy ryzykowne nawet spekulacje; mamy prawo snuć najodważniejsze nawet przypuszczenia. Rzecz w tym, aby nie mieszać hipotez z faktami, a fantazji z racjonalnym myśleniem.

Jedną z najważniejszych cech racjonalnego myślenia (może i nawet najważniejszą) jest wymieniona na początku gotowość do modyfikacji twierdzeń przyjmowanych dotychczas za pewne. Jeśli coś takiego się wydarzy się w odniesieniu do powyższych zasad – będzie to jedynie znakomita okazja, aby poświęcić temu faktowi kolejny numer „Ad Rem”.

Czytanki:

[1] Z. Pazameta – „The Laws of nature: A Skeptic’s Guide” zamieszczone w „Skeptical Inquirer” Vol. 24, N°5 (Sept/Oct). Dostępne pod adresem: http://www.csicop.org/si/2000-09/laws.html .

[2] Dygresja: Zasadę wyłączonego środka kwestionowali matematycy tak zwanej szkoły intuicjonistycznej. Nie było to całkiem bezzasadne, zwłaszcza po wstrząsie, jaki wywołało twierdzenie Gödla. Gentzen przeprowadził nawet konkurencyjny dowód niesprzeczności arytmetyki, jednakże opierając się na metodach wykraczających poza standardowe (a niektórzy uważali nawet, że wykraczające poza zdrowy rozsądek). Brouwer z kolei, jako redaktor prestiżowego czasopisma „Mathematische Annalen” posunął się nawet do tego, że odrzucał wszelkie prace które stosowały, oparte na zasadzie wyłączonego środka, reductio ad absurdum. Zniesmaczone tym kolegium redakcyjne rozwiązało się, a następnie znów utworzyło, ale już bez Brouwera. Ten jednak poradził sobie nieźle założywszy sponsorowane przez rząd holenderski konkurencyjne pismo. Koniec dygresji.

[3] Polecam na ten temat świetną nowelkę (?), powiastkę (?) R. Smullyana – „Is God a taoist?” ze zbioru “The Tao is Silent” (Harper & Row Publishers, Inc.). Sam znam to z przedruku w “Mind’s I” D.R.Hofstadtera (ISBN 0-553-34584-2). Tytuł może zniechęcać, ale naprawdę jest to błyskotliwie napisana powiastka filozoficzna, w formie dialogu Śmiertelnika z Bogiem. Śmiertelnik prosi Boga, aby ten pozbawił go daru wolnej woli. Bóg zaś wyjaśnia mu metodą sokratyczną błędy w jego rozumowaniu.

[4] Dygresja: Dobrym przykładem może tu być pojęcie „pola”. Ludzie rozpoczynający naukę fizyki często zadają pytanie „Czym właściwie jest to pole w którym działają siły?”. Otóż jest to nazwa tradycyjna, która właściwie może zostać zastąpiona przez „rozkład”, „układ”, czy „organizacja”. Nazwa ta została wprowadzona przez Michaela Faradaya (w sposób bardzo piękny i poetycki zresztą, choć może nieco mylący), jako że strzałki oznaczające kierunki działania sił w obrębie pola rzeczywiście przypominają nieco kłosy zboża położonego wiatrem lub deszczem. Wracając jednak do samego pojęcia – pole jest po prostu pewnym sposobem „zaksięgowania” sił działających w danym obszarze. A idąc dalej – siły, jako takiej, rónież nie da się zaobserwować; możemy jedynie zauważyć zmiany stanu przedmiotów poddanych działaniu sił, z czego wnioskujemy o ich istnieniu. Zatrzymam się jednak w tym miejscu, aby dygresja za bardzo się nie rozrosła. Koniec dygresji.

[5] R. Feynmann – „Charakter praw fizycznych” (ISBN 83-7180-876-3).

[6] Dodatek o entropii:

Entropia w ujęciu fizycznym (termodynamicznym).

Pojęcie entropii wprowadził w roku 1865 austriacki fizyk R. Clausius. Definiujemy ją następująco:

• Jeżeli ciepło dQ [J] jest dostarczone w procesie odwracalnym do układu w temperaturze T [°K], to przyrost entropii (dS) wynosi:

dS = dQ / T [J/°K];

• W temperaturze T=0[°K] – entropia S = 0, (trzecia zasada termodynamiki Nernsta).

Alternatywną definicję entropii podał w roku 1880 L. Boltzmann. Jest ona o tyle cenną, że wiąże makroskopową definicję entropii z pojęciem prawdopodobieństwa oraz zjawiska makroskopowe z cząsteczkowymi. Entropię określa się tu jako miarę nieuporządkowania cząstek, oraz nieodwracalności procesów (im większa entropia tym większe nieuporządkowanie). Ściślej zaś entropia układu (według Boltzmanna) określona jest jako:

S = k*ln(W);

gdzie; S-entropia, k – stała Boltzmanna (1,381*1023[J/K]), ln(W) – logarytm liczby możliwych stanów, jakie mogą przyjąć cząsteczki w układzie (W może przyjmować gigantyczne wartości – stąd logarytm).

Entropia w teorii informacji.

Jest to średnia ilość informacji, przypadająca na znak symbolizujący zajście zdarzenia z pewnego zbioru (zwanego czasem „alfabetem”). Zdarzenia w tym zbiorze mają przypisane prawdopodobieństwa wystąpienia. Wzór na entropię (podany przez C. Shannona):

gdzie p(i) - prawdopodobieństwo zajścia zdarzenia i, n – długość „alfabetu” r – podstawa logarytmu (wybierana dowolnie). W teorii informacji najczęściej stosuje się logarytm o podstawie r = 2, wówczas jednostką entropii jest bit. Dla r = e jednostką jest nat, zaś dla r = 10 - Hartley.

Entropię interpretujemy jako niepewność wystąpienia danego zdarzenia elementarnego w następnej chwili. Jeżeli prawdopodobieństwo zdarzenia równe jest 1 (lub 0), to entropia wynosi 0, gdyż z góry wiadomo co się stanie - nie ma niepewności.

Własności entropii:

Pojęcie entropii jest bardzo przydatne w dziedzinie kompresji informacji (sam Shannon był także inżynierem łączności).

Definicja entropii podana przez Shannona, jakkolwiek użyteczna, posiada pewne ograniczenia. Dla przykładu entropia obliczona wg, powyższego wzoru dla ciągu 10101010101010101010 oraz ciągu 11001101000101010011 jest identyczna, choć już intuicyjnie widać, że drugi ciąg jest „bardziej losowy” niż pierwszy. Dlatego też zaproponowano inne, alternatywne definicje (do znalezienia w podanej poniżej literaturze).

Tam też są dalsze odsyłacze, zarówno do stron internetowych, jak i do literatury. Przypominam jednak, że informacje z Wikipedii dobre są może na początek. W ogóle nie jest to źródło godne najwyższego zaufania (pominąwszy już nawet litościwie potworne błędy ortograficzne, typu „bierze” przez „ż”).





[mc]