Komerční prezentace
Registrace uživatele

Přihlašte se k odběru informací, novinek, získejte přístup do diskuzního fóra.

Vesmír č. 10
Vesmír č. 10
Toto číslo vychází
2. 10. 2017
Novinky
Zdarma jedno celé číslo Vesmíru v pdf.
• Říjnové číslo Vesmíru
reklama

Patří neurčitost do vědy?

Z nutného zla užitečná vlastnost
Publikováno: Vesmír 87, 696, 2008/10
Obor: Různé

S vývojem vědy se pochopitelně vždy vyvíjel, a tedy i postupně měnil převládající celkový názor vědecké komunity na podstatu vědy samotné. Měnil se například názor na to, co do vědy patří, co se od ní očekává, co do ní nepatří a podobně. Pokusím se stručně popsat, jak se během 20. století začal podstatně měnit názor vědecké komunity na roli neurčitosti ve vědě. Tato změna dosud probíhá a má, podle mého mínění, povahu velkého paradigmatického posunu.

Tradičně, po celou dobu před 20. stoletím, byla neurčitost všeobecně pokládána za nevědeckou. Byla odsouvána do pozadí jako výsledek nepřesného myšlení, které do vědy nepatří. Obecně se soudilo, že cílem vědy je nikdy nekončící hledání jistoty, hledání přesných matematických modelů reálného světa v duchu Newtonovy mechaniky, hledání plného porozumění a dokonalých předpovědí. Neurčitost byla prostě pokládána za něco, čemu je třeba se ve vědě vyhnout, a její postupné odstraňování z vědy bylo považován o za jeden z ukazatelů vědeckého pokroku.

Odmítavý pohled na neurčitost poprvé zviklán
Tento odmítavý pohled na neurčitost ve vědě byl poprvé otřesen myšlenkou a následným vývojem statistické mechaniky, která již na začátku 20. století začala být překvapivě úspěšná. Myšlenka statistické mechaniky vzešla z úsilí některých fyziků, kteří se v druhé polovině 19. století pokoušeli studovat mechanické procesy na molekulární úrovni. I když přesné zákony Newtonovy mechaniky v principu mohly být použity, v praxi byly pro tak nesmírně složité procesy nepoužitelné. Potřeba zcela odlišného přístupu ke studiu těchto procesů vedla nakonec k použití vhodných statistických metod. Polohy a rychlosti jednotlivých molekul byly ve statistické mechanice nahrazeny statistickými průměry založenými na rozumném předpokladu, že pravděpodobnosti všech mikrostavů jsou stejné. Statistické metody založené na pravděpodobnosti nahradily tak ve statistické mechanice analytické metody používané v Newtonově mechanice.

Úspěch statistické mechaniky způsobil, že tradiční pohled na neurčitost ve vědě byl poprvé revidován. Ukázalo se, že neurčitost je nejen užitečná, ale v některých oblastech vědy i nutná. Je však nutno poznamenat, že neurčitost použitá ve statistické mechanice je pouze jedním druhem neurčitosti. Je to neurčitost způsobená nahodilostí jevů, se kterou se dá vhodně pracovat pomocí teorie pravděpodobnosti. Statistická mechanika se ve své první podobě neopírala o rigorózní axiomatickou teorii pravděpodobnosti, která v té době neexistovala. Přijetí pravděpodobnosti do vědy díky úspěchu statistické mechaniky bylo však důležitou motivací pro její hlubší studium, jehož výsledkem byla nakonec moderní axiomatická teorie pravděpodobnosti, jak ji ve třicátých letech formuloval A. N. Kolmogorov.

Další zpochybňování tradičního pohledu
Tradiční pohled, že věda se má neurčitosti vyhýbat, byl dále zpochybněn známým principem neurčitosti v kvantové mechanice, který odvodil v roce 1927 W. K. Heisenberg. Tento princip v jedné ze svých podob říká v podstatě toto: Měříme-li současně pozici a hybnost nějaké kvantové částice (např. elektronu), pak součin nepřesností těchto dvou měření je vždy větší nebo nanejvýš roven Planckově konstantě. To znamená, že pozice a hybnost dané částice nemohou být současně měřeny s libovolnou přesností. Když zvýšíme přesnost měření pozice, sníží se přesnost měření hybnosti, a naopak. Heisenberg tuto nerovnost odvodil formálně z kvantové teorie a na řadě myšlenkových experimentů ukázal, že se nedá obejít, tedy že přesnost měření má bariéru, kterou nemůžeme překonat. Jinými slovy: pokud jde o měření, věda se neurčitosti z principu nemůže vyhnout.

Čtyři roky potom, co Heisenberg formuloval princip neurčitosti v kvantové mechanice, vyšlo díky práci Kurta Gödela nečekaně najevo, že ani matematika se neurčitosti nemůže vyhnout. Gödel v roce 1931 formálně dokázal, že konzistenci některých axiomatických formálních systémů, včetně systémů určených pro formalizaci teorie čísel, není možno dokázat uvnitř těchto systémů samých. Je ji sice možno dokázat v rámci nadřazeného systému, pak ale musíme dokázat, že tento nadřazený systém je konzistentní. K tomu ovšem potřebujeme další nadřazený systém a tak dále. Výsledkem je, že konzistence některých formálních systémů nemůže být zaručena – je nerozhodnutelná. Gödel také dokázal, a to je ještě důležitější, že existují formální systémy, které jsou buď nekonzistentní, nebo neúplné (nelze v nich odvodit všechna pravdivá tvrzení v oblasti, kterou má daný systém formalizovat) a není možno rozhodnout, která z těchto dvou možností je správná.

Gödelovy výsledky mají hluboké filozofické důsledky pro vztah mezi matematikou a vědou. Věda se tradičně obracela k matematice, aby popsala vědecké poznání přesně, úplně a konzistentně. Gödel ukázal, že tento ideál není plně dosažitelný, že v některých formálních systémech existují mezery mezi tím, co je v těchto systémech pravdivé a co je v nich dokazatelné, a že tyto mezery nelze překlenout. Jeho výsledky ukázaly, že ani s pomocí matematiky se věda neurčitosti nevyhne.

O tom, že je neurčitost ve vědě nevyhnutelná, tedy už nebyly žádné pochybnosti. Mlčky se ale předpokládalo, že jediný správný a plně postačující nástroj pro práci s neurčitostí je teorie pravděpodobnosti. Není divu, že tento postoj o mnoho let zpozdil širší studium neurčitosti ve všech jejích podobách.

Možnosti a meze počítačové techniky
Studium neurčitosti z nového, obecnějšího pohledu, oproštěného od úzkého rámce teorie pravděpodobnosti, začalo až v druhé polovině 20. století. Jeho počátky jsou spojeny s počátky počítačové technologie v padesátých letech. Tato technologie poskytla nové metodologické možnosti, a ty zase probudily zájem o práci na některých důležitých problémech, které pro svou enormní složitost byly předtím opomíjeny. Počítačová technika skutečně brzy po svém vzniku umožnila v řešení některých z těchto problémů pokročit dále. Pod dojmem těchto výsledků, mnohdy impozantních, začalo mnoho vědců věřit, že nám rostoucí síla počítačové technologie dlouhodobě umožní vyrovnat se prakticky se všemi problémy našeho zájmu. Tato naivní víra byla však brzy nahrazena realističtějším pohledem. Již v roce 1962 Hans Bremermann s použitím Heisenbergova principu neurčitosti ukázal, že žádný počítačový systém není schopen zpracovat více než 2 × 1047 bitů za vteřinu na jeden gram své váhy. To znamená, že pro zpracování informací existuje nepřekonatelný limit. I kdybychom na příklad použili všechnu hmotu a odhadované stáří Země jen ke zpracování informací, nebyli bychom schopni zpracovat více než asi 1093 bitů. Přitom není obtížné nalézt praktické problémy, jejichž výpočetní nároky tento limit bohatě přesahují, nemluvě o daleko nižším limitu skutečné počítačové technologie.

Jak se s takovými problémy vyrovnat? Jediná rozumná odpověď je, že je musíme vhodným způsobem zjednodušit tak, aby byly zvládnutelné počítačovou technologií, kterou máme v dané době k dispozici. Jedním z obecných a velice efektivních způsobů zjednodušování problémů je snížit nároky kladené na jejich výsledné řešení. Namísto přesného řešení se můžeme spokojit s řešením nepřesným, přibližným. Nepřesnost je jedním z projevů neurčitosti. Tím, že ji při řešení problémů tolerujeme, nám umožňuje dosáhnout řešitelnosti, nebo alespoň snížit výpočetní náklady. Můžeme říci, že neurčitost je zde využita jako měna, kterou platíme za snížení počítačové komplexity. Je tedy užitečná. V té souvislosti je zajímavé si všimnout, že takové využívání neurčitosti je jednou z pozoruhodných schopností lidské mysli. Jako příklad uveďme schopnost lidí používat vjemy (percepce) se všemi jejich neurčitostmi pro běžné každodenní úkoly. Zda této lidské schopnosti porozumíme a zavedeme ji do strojů, bude nepochybně záviset na tom, jak dobře porozumíme různým neurčitostem v percepcích a jak je budeme schopni použít pro konstrukci strojů napodobujících (emulujících) tuto schopnost.

Zobecnění teorie množin a teorie míry
Rozpoznání, že neurčitost není ve vědě jen nevyhnutelná, ale i užitečná, vzbudilo konečně zájem části vědecké komunity o její hlubší a obecnější studium. Pro tento účel se ukázala vhodná dvě významná zobecnění v matematice, která se v té době objevila v literatuře a otevřela mnoho nových možností. Byla to zobecnění dvou matematických teorií – teorie množin a teorie míry – která se stala základem pro formulaci Kolmogorovovy teorie pravděpodobnosti.

Klasickou teorii množin zobecnil r. 1965 Lotfi Zadeh v teorii fuzzy množin, která nevyžaduje, aby množiny měly přesné hranice oddělující jejich členy od ostatních objektů. Fuzzy množiny jsou definovány funkcemi příslušnosti, které ke každému uvažovanému objektu přiřadí stupeň příslušnosti tohoto objektu v daných množinách. Stupně příslušnosti jsou zpravidla vyjádřeny (u standardních fuzzy množin) reálnými čísly v jednotkovém intervalu (0, 1), ale mohou být vyjádřeny i mnoha jinými způsoby. Různé způsoby jejich vyjádření definují jednotlivé typy fuzzy množin.

Zobecnění klasické teorie míry navrhli v padesátých a šedesátých létech různí autoři 1) v různých podobách. Základní myšlenkou těchto zobecnění je odmítnout jeden z požadavků klasické teorie míry – aditivitu. Ve své nejjednodušší formě aditivita znamená, že míra 2) splňuje následující požadavek: Označíme-li míru symbolem p (může to být např. pravděpodobnost), pak pro každou dvojici daných množin, řekněme A a B, takových, že A ∩ B = ∅ (tj. disjunktních, nema jících nic společného), musí platit, že p(A ∪ B) = p(A) + p(B). Zobecněná teorie míry tuto vlastnost nevyžaduje, a tak rozšiřuje klasickou teorii o různé typy neaditivních měr.

Všimněme si, že požadavek aditivity vylučuje jakoukoli možnou interakci mezi množinami A a B vzhledem k měřené vlastnosti. To je velmi silné omezení. Můžeme si jistě představit situace, kde interakce mezi množinami existují. Jsou-li tyto interakce pro měřenou vlastnost na daných množinách pozitivní (synergetické), pak p(A ∪ B) > p(A) + p(B). Jsou-li naopak negativní (inhibující), pak p(A ∪ B) < p(A) + p(B). Klasická teorie míry není schopna tyto situace popsat.

Rostoucí rozmanitost teorií neurčitosti
Teorie fuzzy množin spolu se zobecněnou teorií míry poskytly přirozený rámec pro studium a formalizaci konceptu neurčitosti ve všech možných podobách. Rozsah tohoto rámce se postupně rozrůstá tím, že se stále nalézají jak nové typy neaditivních měr, tak nové typy fuzzy množin. Každá formální teorie neurčitosti v tomto rámci je určena výběrem některé teorie množin, klasické nebo fuzzy, a výběrem míry určitého typu, aditivní nebo neaditivní, která měří neurčitost na daných množinách. Stále rostoucí rozmanitost teorií neurčitosti, které jsou rozpoznatelné v tomto rámci, je v jistém smyslu žádoucí. Ukazuje nám, které teorie jsou možné, a umožňuje nám zaměřit se na hlubší studium těch teorií, které jsou atraktivní z hlediska různých aplikací. Tato rozmanitost je ale také nežádoucí v tom smyslu, že je stále obtížnější se v těchto mnoha teoriích orientovat. Naštěstí se ukazuje, že všechny rozpoznatelné teorie neurčitosti je možno účelově klasifikovat do tříd, ve kterých všechny teorie sdílejí některé společné vlastnosti.

Jedním příkladem takové třídy jsou různé teorie nepřesných pravděpodobností. Tyto teorie jsou od začátku devadesátých let 20. století předmětem rostoucího zájmu a intenzivního výzkumu. Výsledky vycházející z tohoto výzkumu se týkají jak specifických vlastností jednotlivých teorií, tak společných vlastností celé třídy. Společné vlastnosti nám umožňují pracovat s celou třídou těchto teorií jako s celkem. Můžeme například přecházet z jedné teorie do druhé podle potřeby vyplývající z dané aplikace. Ve většině teorií neurčitosti se vyskytuje zároveň několik typů neurčitosti. Některé z nich jsou důsledkem nedostatku relevantních informací, jiné jsou způsobeny jazykovou nepřesností, 3) kterou je možno vhodně reprezentovat fuzzy množinami. Jedním z nejobtížnějších úkolů při studiu neurčitosti je identifikovat jednotlivé typy neurčitosti a najít, jak správně změříme množství neurčitosti každého typu v jednotlivých teoriích neurčitosti.

Je nesporné, že výzkum teorií neurčitosti rozpoznatelných ve výše popsaném rámci produkoval již řadu významných výsledků, ale zároveň i řadu nových a často překvapujících otázek. Domnívám se proto, že k plnému porozumění konceptu neurčitosti zbývá ještě dlouhá cesta. Není však pochybnosti o tom – a to jsem chtěl v tomto příspěvku ukázat – že pohled na roli neurčitosti ve vědě se radikálně změnil během 20. století. Neurčitost není už pokládána za nutné zlo, ale za užitečnou součást vědy.

Poznámky

1) Mezi nimi Gustave Choquet a Michio Sugeno.
2) Tj. reálná funkce definovaná na daných množinách, která měří určitou vlastnost těchto množin, např. jejich pravděpodobnost.
3) Vágností typickou pro přirozené jazyky.

Soubory

článek ve formátu pdf: 200810_V696-699.pdf (1 MB)

Diskuse

Žádné příspěvky