Již před nějakou dobou jsem psal příspěvek, který měl shrnout existující modely pro cestování časem. Zatímco vědecké články vycházející z obecné relativity, které zkoumají různé efekty v časoprostorech, které implicitně obsahují stroj času lze najít, cestování v čase z pohledu kvantové mechaniky se jich příliš nevěnuje. Pravděpodobně proto, že pro ně chybí seriózní model a tedy jde přinejmenším o spekulaci na úrovni nedostačující pro seriózní vědu. Přesto jsem se rozhodl si na toto téma udělat alespoň nějaký názor, který shrnu v tomto příspěvku. Co se týká vědecké serióznosti .. byli jste varováni.
Hlavní problém s cestováním v čase se zohledněním kvantové mechaniky je, že narozdíl od mechaniky klasické nemůžeme předpokládat, že minulá i budoucí historie jsou dány aktuálním stavem vesmíru. Tvrzení, že platí Novikovův princip selfkonzistence tedy není zdaleka samozřejmé. Místo toho propagujeme vlnovou funkci celého vesmíru. Pokud tento pojem vezmeme doslova ve smyslu interpretace mnoha světů, pak tato vlnová funkce bude obsahovat superpozici mnoha stavů, ke kterým by došlo různými možnostmi náhodných kvantových rozhodnutí v průběhu historie. Pokud naopak vyjdeme z interpretace objektivního kolapsu, pak náš aktuální svět je tím jediným, který byl ze všech možností vybrán náhodně v důsledku kolapsu vlnové funkce. Předpovědi těchto interpretací jsou stejné, pokud ovšem nemáme k dispozici stroj času - zda jsou stejné i v tomto případě není vůbec jasné. Nový jev, který by se u kvantového stroje času v principu mohl vyskytnout je např. že cestovatel z budoucnosti bude pocházet z jiné kvantové historie, než jaká se odehraje po jeho návratu a tedy že jeho schopnost sdělit nám něco o naší budoucnosti bude velmi omezená. Pak je tu samozřejmě další problém - pokud možných světů existuje mnoho, pak to, co v minulosti opustí stroj času může být výsledkem superpozice mnoha různých možných budoucností .. anebo by šlo o stav, do kterého náhodně zkolabovala vlnová funkce v „předešlé budoucnosti“ - to v případě interpretace objektivního kolapsu. Ze které kvantové historie by temponaut přišel by pak bylo dáno výsledkem předchozího kolapsu vlnové funkce.
Dráhový integrál a mnohasvětová interpretace
Protože předpověď interpretace objektivního kolapsu je poměrně zřejmá, dále jsem se zabýval tím, jak by cestování časem mělo fungovat v interpretaci mnoha světů. Jako možný výchozí bod mi připadá použití Feynmanova dráhového integrálu - ten totiž dává poměrně intuitivní vhled i pokud neprovedeme příliš mnoho matematiky. (I když se tím pádem můžeme také snadno splést.) Základní myšlenka dráhového integrálu spočívá v tom, že systém z daného klasického uspořádání necháme propagovat po všech přípustných klasických trajektoriích, a to i takových, kde se hybnost a poloha mění nezávisle*. Každé takové klasické trajektorii přisoudíme jistou komplexní váhu, která odpovídá amplitudě pravděpodobnosti (A ~ eiS/ħ, kde S je akce dané trajektorie). Nakonec po čase T spočítáme celkové amplitudy možných klasických stavů od všech drah, které v těchto stavech končí. Jejich čtverce potom budou pravděpodobnosti nalezení těchto stavů, pokud provedeme měření. Čtverec komplexní amplitudy tedy udává míru na prostoru všech možných klasických trajektorií.
V praxi se tento přístup používá tak, že makroskopické objekty uvažujeme jako dané uspořádáním experimentu a po všech drahách propagujeme jen mikrosystém+. Ve skutečnosti se ale na celou mnohasvětovou interpretaci můžeme podívat očima dráhového integrálu. Představme si, že svět je v počátečním čase t popsán množinou klasických uspořádání, které mají přiřazenu aktuální amplitudu pravděpodobnosti. Každé z těchto uspořádání budeme propagovat po všech možných klasických drahách, které opět budou přispívat do stavu v čase T váženy amplitudou spočtenou z jejich akce a tak zjistíme množinu klasických stavů v čase T.
Kde se tento přístup potkává s teorií mnoha světů? Především stejně jako v ní, k žádnému kolapsu vlnové funkce nedochází. (Pojem vlnové funkce vlastně přímo ani nezavádíme.) Co zde jsou tedy ty jiné světy? Jak víme, pokud je systém dostatečně velký, nebo těžký, stává se postupně klasickým. To odpovídá tomu, že pro velké systémy mají zdaleka největší váhu klasické trajektorie, tedy trajektorie, jejichž akce se pohybuje kolem akce minimální. (Odtud také pochází princip nejmenší akce.) Při vývoji množiny klasických stavů vážených amplitudou pravděpodobnosti tedy budou dominovat trajektorie klasické.++ Zkusím v tomto modelu popsat, proč dochází vlivem pozorování k rozdělení stavu
|pozorovatel>(|spin ↑> + |spin ↓>)
na stav
|pozorovatel vidí stav ↑>|spin ↑> + |pozorovatel vidí stav ↓>|spin ↓>
a tedy ke vzniku dvou světů, které spolu v budoucnu dále neinteragují. V počátečním stavu je stav spinu elektronu nekorelován se stavem zbytku vesmíru a tedy příspěvky klasických trajektorií elektronu v dráhovém integrálu mohou navzájem interferovat a my „pozorujeme kvantové chování elektronu, dokud se na něj nedíváme“. Jakmile začneme o elektronu něco zjišťovat, přenese se tato informace do zbytku vesmíru prostřednictvím jejich vzájemné interakce. A protože do výsledné amplitudy klasické konfigurace mohou přispívat jen dráhy, které v ní končí, vzniknou dvě klasické větve, kdy v každé z nich bude informace o jiném změřeném spinu elektronu. Protože uložení této informace je v každé větvi makroskopické, nemohou se tyto konfigurace snadno dostat do konfigurace navzájem totožné (díky termodynamice) a tedy dochází k rozdělení na „dva světy“. Teorie dráhového integrálu by tady měla dávat stejný výsledek, jako mnohasvětová teorie.
Mnoho světů a vědomí
Aby mnohasvětová teorie mohla přejít k předpovědím, potřebuje specifikovat, kdo je vlastně pozorovatelem. V běžném chápání této interpretace se zkrátka řekne, že pozorovatel nemůže vědomě vnímat superpozici stavů (s odůvodněním přes teorii dekoherence a robustní stavy neuronů v mozku) a tedy že kolaps vlnové funkce není vlastně skokovou změnou stavu vesmíru, ale skokovým rozdělením pozorovatelů do jednotlivých větví vlnové funkce. To, že vnímám, že došlo k pravděpodobnostnímu měření tedy znamená, že se svět rozdělil na množinu světů a já jako pozorovatel jsem jen v jednom z nich - a ve kterém určí právě čtverec jejich amplitudy pravděpodobnosti jako míra. Toto východisko budeme dále potřebovat.
Co nám to tedy říká o cestování časem?
Celou předchozí stať jsem psal proto, že množinu klasických stavů si člověk poměrně snadno představí a lze snad získat jakousi intuici. Zkusme tedy odpovědět na otázku, co se stane, pokud bude možno v rámci nějaké makroskopické konfigurace postavit stroj času. Co se mění oproti předchozí stati je jen pojem klasické trajektorie, které jsme se věnovali již při zkoumání strojů času v klasické fyzice. Tam jsme dospěli k tomu, že jelikož existuje jen jeden časoprostor a do daného diagramu musí jít světočára daného bodu nakreslit, musí být historie selfkonzistentní. Pokud jednou učiníme nějaké pozorování (nebo nám je jeho výsledek pravdivě poslán z budoucnosti), nelze výsledek tohoto pozorování cestováním časem změnit. (Což je přesně Novikovův princip selfkonzistence.) To by nám mělo říci, jakou třídu klasických trajektorií bychom měli uvažovat, pokud chceme aplikovat metodu dráhového integrálu vesmír se strojem času. Měli bychom uvažovat jen klasické trajektorie, které jsou konzistentní samy se sebou.
Mám silný pocit (nic silnějšího si netroufnu tvrdit ), že předpověď, která z toho plyne je, že princip selfkonzistence musí platit i při cestování časem v rámci mnohasvětové teorie. Kvantová měření by měla pořád pravděpodobnostní povahu, ale pokud by nám někdo z budoucnosti poslal informaci o tom, jak měření dopadlo, výsledek by musel sedět s poslanou informací, protože cestovatel z budoucnosti je, stejně jako já, součástí jedné makroskopické klasické trajektorie, která tuto informaci obsahuje. S klasickými trajektoriemi, které obsahují jinou informaci o výsledku měření tato interferovat nemůže, takže z budoucnosti nemůže přijít nic, co by obsahovalo informaci jinou, než tu, kterou jsme naměřili. Pokud je to pravda, pak je mnohasvětová interpretace v přítomnosti stroje času odlišitelná od interpretace objektivního kolapsu a navíc je kauzálně deterministická nejen pro celou vlnovou funkci, ale i pro pozorovatele uvnitř ní. Ze samotné teorie nelze získat jiné než pravděpodobnostní předpovědi - přesto lze získat definitivní informaci o budoucnosti, prostřednictvím stroje času. Někdy, až bude více času, bych se rád pokusil o matematičtější formulaci předchozí úvahy, ale tato možnost je zatím jenom hodně hypotetická .
* Tj. hybnost není nutné volit tak, aby se splnil zákon zachování energie - jeho splnění vyplyne z přechodu k variačnímu principu nejmenší akce.
+ S tím dodatkem, že pokud se dráha potká s detektorem, výpočet se provádí místo součtem amplitud přímo součtem pravděpodobností. To ovšem nebudeme potřebovat, protože pokud bychom kvantově popisovali celý vesmír, žádné externí detektory v něm samozřejmě nebudou.
++ Tady je potřeba dát pozor na jednu nuanci. Pokud chceme dát do souvislosti dráhový integrál a oddělování kvantových historií ve formalismu vlnové funkce, pak musíme jako fyzikální brát jen výsledné množiny klasických stavů, protože ty odpovídají vlnové funkci, ne trajektorie, po kterých integrujeme. Například v dvouštěrbinovém əxperimentu budeme integrovat přes mnoho trajektorií, které se navzájem vyruší. Ve formalismu vlnové funkce ve výsledném stavu bude nulová hustota amplitudy pravděpodobnosti, takže se tento stav zkrátka nerealizuje. Klasické trajektorie, které budou představovat kvantové historie tedy nejsou dráhy přes které se integruje, ale sledy často zastoupených klasických stavů.
pondělí 20. prosince 2010
středa 15. prosince 2010
Kvantové vědomí
Kvantové vědomí je poměrně odvážná myšlenka známá pravděpodobně díky slavnému jménu jejího propadátora, kterým není nikdo menší než Roger Penrose. Raději nezkoumám, co Penrose k její formulaci vedlo, protože bych asi nabyl dojmu, že nebyl ochoten překousnout myšlenku, že náš mozek a naše vědomí stejně jako zbytek světa podléhají determinaci přírodními zákony a že je tedy svobodnou vůli hledat někde v kvantové mechanice, nebo že mu přišlo nepřípustné, aby náš mozek byl vypočitatelný něčím „tak prostým“, jako je klasický algoritmus. První část takové motivace by, jak např. píše M. Schlosshauer v knize Decoherence and the Quantum-to-Classical Transition, byla samozřejmě chybná - fakt, že kvantová mechanika poskytuje fundamentální zdroj náhody neznamená, že náhodné chování je to, co bychom označili za svobodnou vůli. Naše rozhodnutí sice, narozdíl od klasické fyziky, nebude pevně předpověditelné z výchozího stavu mozku na základě přírodních zákonů, ale to rozhodně neznamená, že by náhodné volby pocházející z kvantové mechaniky byly nějakým způsobem „naší vůlí“ - šlo by jen doslova o zesílený šum náhodného generátoru. Druhá část takové motivace by také neprošla, protože ani fakt, že by vědomí bylo ryze kvantovým jevem by neznamenal, že nejde algoritmicky předpovídat - kvantová mechanika je algoritmizovatelná, jen její předpovědi mají pravděpodobnostní povahu. Jen by takový model byl podstatně náročnější na výkon.
Budu pro svůj klid předpokládat, že autoři si obou těchto skutečností byli vědomi a že šlo zkrátka jen o seriózní vědecký návrh. V čem teorie tedy spočívá? V zásadě se tvrdí, že v mozku, konkrétně v axonech spojujících neurony, mohou vzniknout podmínky, které způsobí, že kvantově koherentní chování vydrží dostatečně dlouhou dobu, aby mozek fungoval jako kvantový počítač. To by umožnilo odsunout „problém vědomí“ někam do kvantové fyziky, popř. bychom pak mohli očekávat, že lidský mozek by v principu byl schopen louskat dnešní vojenské šifry v polynomiálním čase. Dlouho jsem byl na vážkách, protože koneckonců s hypotézou přišel Penrose a bylo těžké rozlišit seriózní kritiku od pouhého napadání. Teprve ve Schlosshauerově knize jsem našel seriózní odkazy na výpočty provedené Tegmarkem, které z teorie dekoherence poměrně dobře odhadují maximální délku kvantové koherence přítomné v axonech. Axon je v zásadě dlouhá velmi tenká trubička, která přenáší signály tak, že na vnějšku a vnitřku má velký rozdíl koncentrací sodíkových iontů. Jakmile má dojít k přenosu, jeho membrána na jednom kraji začne být pro ionty průchozí - tento vzruch se pak šíří velmi rychle podél axonu. Systém, který by tedu musel být koherentní, je dekoherován samotnými srážkami sodíkových iontů pro které lze udělat seriózní model. Typický čas dekoherence vychází na 10-19-10-20 s. Když si uvědomíme, že typický čas našich rozhodnutí je 10-2-100 s, je vidět, že o nějakém kvantovém rozhodování nemůže být řeč. Podobným způsobem je v knize čas dekoherence počítán i pro některé, ještě jemnější, struktury - konkrétně pro mikrotubuly. Pro ty vychází odhad dekoherence na 10-13 s - opět na beznadějně krátké časové škále.
Schlosshauer dodává, že není ani možné, že by vědomí bylo tvořeno nějakým dosud neznámým orgánem, který kvantovou koherenci udrží déle, protože abychom mohli hovořit o vědomí, musel by tento orgán být schopen získávat informace z našich smyslů, popř. z aktivity axonů spojujících neurony, a pak tyto informace přenášet zpět na neurony. Takový přenos informace by ale nutně vedl i k dekoherenci v tomto orgánu. V tomto okamžiku myslím lze seriózně tvrdit, že lidský mozek je jako celek spolehlivě klasické zařízení a tím pádem by měl být v principu modelovatelný v rámci klasických modelů, jako jsou např. neuronové sítě.
Odkazy:
Budu pro svůj klid předpokládat, že autoři si obou těchto skutečností byli vědomi a že šlo zkrátka jen o seriózní vědecký návrh. V čem teorie tedy spočívá? V zásadě se tvrdí, že v mozku, konkrétně v axonech spojujících neurony, mohou vzniknout podmínky, které způsobí, že kvantově koherentní chování vydrží dostatečně dlouhou dobu, aby mozek fungoval jako kvantový počítač. To by umožnilo odsunout „problém vědomí“ někam do kvantové fyziky, popř. bychom pak mohli očekávat, že lidský mozek by v principu byl schopen louskat dnešní vojenské šifry v polynomiálním čase. Dlouho jsem byl na vážkách, protože koneckonců s hypotézou přišel Penrose a bylo těžké rozlišit seriózní kritiku od pouhého napadání. Teprve ve Schlosshauerově knize jsem našel seriózní odkazy na výpočty provedené Tegmarkem, které z teorie dekoherence poměrně dobře odhadují maximální délku kvantové koherence přítomné v axonech. Axon je v zásadě dlouhá velmi tenká trubička, která přenáší signály tak, že na vnějšku a vnitřku má velký rozdíl koncentrací sodíkových iontů. Jakmile má dojít k přenosu, jeho membrána na jednom kraji začne být pro ionty průchozí - tento vzruch se pak šíří velmi rychle podél axonu. Systém, který by tedu musel být koherentní, je dekoherován samotnými srážkami sodíkových iontů pro které lze udělat seriózní model. Typický čas dekoherence vychází na 10-19-10-20 s. Když si uvědomíme, že typický čas našich rozhodnutí je 10-2-100 s, je vidět, že o nějakém kvantovém rozhodování nemůže být řeč. Podobným způsobem je v knize čas dekoherence počítán i pro některé, ještě jemnější, struktury - konkrétně pro mikrotubuly. Pro ty vychází odhad dekoherence na 10-13 s - opět na beznadějně krátké časové škále.
Schlosshauer dodává, že není ani možné, že by vědomí bylo tvořeno nějakým dosud neznámým orgánem, který kvantovou koherenci udrží déle, protože abychom mohli hovořit o vědomí, musel by tento orgán být schopen získávat informace z našich smyslů, popř. z aktivity axonů spojujících neurony, a pak tyto informace přenášet zpět na neurony. Takový přenos informace by ale nutně vedl i k dekoherenci v tomto orgánu. V tomto okamžiku myslím lze seriózně tvrdit, že lidský mozek je jako celek spolehlivě klasické zařízení a tím pádem by měl být v principu modelovatelný v rámci klasických modelů, jako jsou např. neuronové sítě.
Odkazy:
- www.quantumconsciousness.org - zmíněná skupina propagátorů kvantového vědomí
čtvrtek 9. prosince 2010
Dekoherence
Většinou když píšu něco o fyzice, hned v úvodu se snažím upozornit na to, zda jde jenom o moji vlastní fyzikální hračku nebo úvahu a je tedy potřeba na ni nahlížet s patřičným odstupem, nebo zda se snažím psát seriózně. Aktuálně jsem se začetl do teorie dekoherence, která pokud přímo neřeší problém měření v kvantové mechanice, který byl tak dlouho považován za zásadní problém této teorie, k tomu má minimálně velmi blízko. Následující text se tedy snaží být relativně seriózním shrnutím. Hlavní zdroje uvádím na konci.
Pozn.: superpozice jsou v článku neúplně normované, abych se vyhnul spoustě odmocnin ze dvou. Laskavý čtenář si je buď domyslí, nebo dohledá, kam patří. Z hlediska argumentace nejsou důležité.
Problém měření, superselekční zákony
Problém měření v kvantové mechanice úzce souvisí s kolapsem vlnové funkce. Kvantová mechanika popisuje stav objektů pomocí vlnových vektorů. Ty splňují princip superpozice, tedy pokud máme fyzikální stavy |a> a |b>, pak je legitimním fyzikálním stavem také stav α|a> + β|b>. Pro malé systémy na úrovni molekul je to dobře známým a ověřeným faktem. Jedním z problémů je, proč takové stavy nevidíme makroskopicky, tedy proč když zavřeme (tzv. Schrödingerovu) kočku do krabice ve které je ampulka s jedem napojená na kvantový proces, který se zvolna dostává do superpozice |spuštěn> + |nespuštěn>, proč se následně jed nedostává do stavu |rozlil se> + |nerozlil se> a kočka do stavu |mrtvá> + |živá>. Co zásadního se děje při přechodu z velmi malých měřítek na velká? Má kvantová mechanika omezenou platnost na malé systémy, nebo zmíněné chování dá nějak vysvětlit zevnitř ní?
Přesnější formulací tohoto problému je, proč při měření nevidíme superpozice stavů, ale jen konkrétní stavy. (Jde o tzv. problém určitých výsledků.) Druhou částí problému měření je pak, proč si příroda vybere pro tyto pozorované stavy jednu konkrétní bázi. (Tzv. problém preferované báze.) Tato druhá část se hůř vysvětluje „obrazně“, ale pěkným příkladem může být třeba molekula glukózy. Obecně je popsaná vlnovou funkcí Ψ(x1,..., xn), kde x1,..., xn jsou polohy elektronů a jader. Teď bychom se mohli zeptat, proč se typicky v roztoku glukózových molekul nachází ve vlastním stavu chirality (tj. molekula, jelikož je chirální, bude buď levotočivá a nebo pravotočivá) a ne třeba ve vlastním stavu parity (tj. molekula je symetrická nebo nesymetrická při zrcadlení). Z pohledu kvantové mechaniky by to přitom bylo zcela legitimní - vlastní stav parity je superpozicí vlastních stavů chirality a naopak. Komu se to zdá divné a ptá se správně, jak by glukóza mohla nebýt být ve vlastním stavu chirality, když je to přece chirální molekula - uvědomme si, že to, že v molekule jsou nějaké typické polohy atomů nebo vazby, je už důsledek toho, v jaké bázi molekulu příroda „nejradši měří“ a tedy součást problému, na který se ptáme.)
Na úvod ještě zmíním tzv. superselekční zákony, které teorie dekoherence údajně také dobře vysvětluje. Ve zkratce jde o to, že některé stavy se do superpozic nikdy nedostávají. Můžete např vidět elektron v superpozici několika poloh, nebo vidět superpozici jednoho fotonu se stavem, kde jsou fotony dva, ale nikdy neuvidíte superpozici protonu s neutronem, nebo elektronu se dvěma elektrony. Tento fakt fyzici nazvali superselekční zákon pro náboj (neexistují superpozice stavů s různým nábojem) a do teorie byl zaveden jako dodatečný empirický fakt. Podobných superselekčních zákonů je více.
Co je dekoherence
Poměrně nedávno (konec 80. let) vznikl tzv. program dekoherence, který z větší části vysvětluje otázky z předchozích odstavců. Základní myšlenkou je vysvětlení ztráty kvantového chování pomocí jevu zvaného entanglement (česky provázání). To je čistě kvantově mechanické chování, které nejdříve lidem zabývajícím se kvantovou mechanikou přišlo paradoxní, odtud např. Einstein-Podolsky-Rosenův paradox, který entanglement pěkně ilustruje. Představte si, že mám zařízení, které posílá dvojice fotonů - každý na jednu stranu. Navíc pro každou dvojici je celkový spin fotonů 0*. Pokud bych spin měřil, naměřím vždy pro každý foton spin nahoru nebo dolů - co je nahoru a dolů ale samozřejmě volím tím, do jakého směru spin hodlám měřit. Vždy můžu zvolit takovou soustavu, že stav jednoho fotonu bude |↑> + |↓> a druhého |↑> - |↓>; tedy že bude v superpozici a teprve mé měření vybere jeden z těchto stavů. (Pozn. - nevíme ovšem, kterou superpozici dostaneme my - buď první, nebo druhou.) Pak ovšem nastává podivná situace - pokud jeden foton zachytím a druhý pošlu mimozemšťanovi k Proximě Centauri vzdálené několik světelných let od Země, měřením na svém fotonu okamžitě změním i stav fotonu, který měří kolega mimozemšťan, byť je ode mne třeba i velmi daleko. Pokud jsem totiž naměřil stav |↑>, on nutně dostane stav |↓> a naopak a jeho stav se tedy v okamžik mého měření změnil z původní superpozice na stav ostrý. Fotony jsou takzvaně provázané, čili entanglované. Z toho lze vyvodit, že proces měření je buď nelokální (ovlivňuje okamžitě i velmi vzdálená místa), nebo je popis vlnovou funkcí neúplný. Původně sice šlo o argument proti úplnosti kvantové mechaniky, postupně se však dospělo k závěru, že o žádný paradox nejde, že jde zkrátka jen o podivnou vlastnost kvantové mechaniky. Slovy R. P. Feynmana - paradox je jen rozpor mezi tím, jaká realita je a jaká si myslíte, že by měla být.
Jak zapíšeme provázání fotonů matematicky? Počáteční stav je až na normalizaci
|Ψ> = (|1↑> + |1↓>)(|2↑> - |2↓>)/2 + (|1↑> - |1↓>)(|2↑> + |2↓>)/2.
První foton mohu dostat v jedné nebo druhé superpozici, druhý ale potom vždy bude v opačné. První člen součtu představuje případ, kdy je foton 1 v první superpozici a foton 2 ve druhé, u druhého členu je to naopak. Pokud jej rozepíšeme, dostaneme
|Ψ> = |1 ↑>|2 ↓> - |1 ↓>|2 ↑>.
Vidíme, že si nemůžeme vybrat stav, kdy bychom dostali oba spiny nahoru - pokud změříme jeden foton, automaticky tím určíme stav druhého. Podobný případ je emise fotonů atomem. Pokud jeden atom vyzáří foton, nebo dva fotony, budou spolu tyto interferovat. Dokonce jsem schopen připravit superpozici dvoufotonového a jednofotonového stavu. Pokud budu mít ale fotony vyzářené různými atomy, interferovat spolu nebudou, přestože jsou to navzájem nerozlišitelné částice. Je tomu tak proto, že atomy, které je vyzářily, si „pamatují“ vyzáření fotonů. Jsou s nimi entanglované stejně, jako byly spolu fotony z EPR paradoxu.
Zásadní myšlenka dekoherence spočívá ve vysvětlení kolapsu vlnové funkce provázáním jednotlivých superponovaných stavů s okolním světem. Dokud je systém v superpozici popsán stavem |okolí 0>(|systém 1>+|systém 2>), stavy mezi sebou interferují a pozorujeme kvantově mechanické chování. Jak ale různé varianty stavů ovlivňují okolí jiným způsobem, postupně se svět dostává do superpozice |okolí 1>|systém 1>+|okolí 2>|systém 2>. Jakmile od sebe začnou být stavy |okolí 1> a |okolí 2> dost odlišné, začnou na sebe být kolmé a přestaneme pozorovat interferenci, protože měřící přístroj je, aniž bychom to věděli, provázán se systémem. Měří tak větev 1, nebo větev 2. Pokud na počátku bylo molekul ve stejném stavu více, část z nich se prováže s přístrojem tak, že skončí ve stavu 1 a část ve stavu 2. Nadále pozorujeme už jenom směs takových molekul, ne superpozici stavů**. Jednoduše by tuto myšlenku šlo vyjádřit i tak, že jakmile je informace o tom, v jakém stavu se systém nachází reprezentována v okolním světě dostatečně robustně, superpozice na něm přestane být pozorovatelná. (Přestože globální superpozice celého vesmíru může stále existovat - jednotlivé globální větve jsou pak právě světy o kterých mluví Everettova mnohasvětová interpretace nebo velmi podobná interpretace mnoha myslí.)
Robustní stavy
Teorii dekoherence silně podporují měření na mezoskopických systémech, kde lze přímo pozorovat spojitý přechod mezi klasickým a kvantovým chováním a přímou souvislost kolapsu s odnesením informace ze systému do okolí. Jistě ale budete souhlasit, že samotné provázání ještě pořád nevysvětluje hlavní problémy spojené s měřením - tedy proč nevidíme superpozice a podle čeho se tedy vlastně bude měřit? Na to lze ovšem najít odpověď také. Stačí si uvědomit, že provázání s okolním světem se děje typicky tehdy, když spolu svět a systém silně interagují. Vezměme si třeba vlnový balík, který se, jak známo rozplývá. Pokud je tento balík např. v řídkém plynu ostatních částic, může se rozpínat jen dokud se nezačne významně překrývat s balíkem jiné částice. Jakmile se tak stane, velmi rychle se prováží. Toto provázání se rozšíří do okolí tím rychleji, čím více částic již provázáno je, protože oblast se zvětšuje a pravděpodobnost, že tato oblast interaguje s dalšími částicemi je téměř totožná s jistotou. Rychlost dekoherence exponencielně závisí na velikosti systému (což je také hlavní překážkou při tvorbě kvantových počítačů) a pro makroskopické objekty je téměř okamžitá. Dekoherence tedy dává na otázku z úvodu, proč jsou molekuly glukózy měřeny do vlastního stavu chirality a ne třeba parity odpověď: Proto, že na chiralitu je citlivé např. záření, které podle ní mění svou polarizaci. Každý foton tepelného záření procházející skrz molekulu glukózy tedy rychle odnese do okolí informaci o chiralitě, zatímco pro paritu to neplatí. (Alespoň takto to píše H. D. Zeh v knize The Physical Basis of the Direction of Time.) Tuto robustnost lze kvantifikovat nezávisle na bázi a z jejího konceptu lze pak odvodit Bornovo pravidlo (že čtverec vlnové funkce odpovídá hustotě pravděpodobnosti měření) aniž by ho bylo třeba postulovat.
Na stejném principu se dají vysvětlit i výše zmíněné superselekční zákony. Zeh ve své knize píše, že důvodem, proč nevznikají superpozice stavů s různým nábojem je, že pole, které kolem sebe nabitá částice tvoří (tedy jeho monopólový příspěvek) v dostatečné vzdálenosti hraje roli okolí, které nepřetržitě měří náboj částice. Navíc ukazuje krásný příklad kvalitativního odhadu rychlosti dekoherence přes dipólový člen. Představte si, že elektron prochází dvojštěrbinou. Při jakém uspořádání experimentu by již byl elektron změřen svým vlastním elektrickým polem? To, v čem se liší obě trajektorie, je dipólový člen, na kterém mj. také závisí vyzařování elektronu. Pokud jsou trajektorie vzdáleny o typickou vzdálenost d, kterou elektron projde za čas t, musel při tom dosahovat typických zrychlení d/t2. K odhadu středního vyzářeného výkonu můžeme použít klasickou Larmorovu formuli, tedy
P = e2a2/6πε0c3.
Pokud je dráha elektronu zakřivená na měřítku celkové vzdálenosti d (např. je kruhová), pak typický foton, který má být vyzářen, bude mít vlnovou délku řádově d, a tedy energii hc/d. Pokud dáme tyto vzorečky dohromady, můžeme získat počet fotonů za sekundu, který vyjde pro makroskopický experiment zcela zanedbatelně - jak jsme očekávali. Informace o poloze elektronu tedy není odnášena jeho polem.
Zeh zároveň upozorňuje na to, že pokud platí superselekční pravidlo pro náboj, měli bychom to samé očekávat pro energii, protože ta má podle teorie relativity hmotnost a hmotnost rovněž budí gravitační pole v nekonečnu.. a tedy že se této problematice nejspíš ještě dost dobře nerozumí. Nějakou dobu jsem nad tímto argumentem přemýšlel a dospěl jsem k závěru, že Zehova formulace je poněkud nešťastná. Co částici nemůže být jen její vlastní pole v nekonečnu, protože celkový monopólový příspěvek v nekonečnu se odvíjí i od jejího vzdálenějšího okolí. (Pokud mám kladný náboj, typicky je příslušný záporný někde blízko.) Co tedy musí být příčinou superselekčního pravidla je spíš téměř okamžitý coupling náboje částice s okolím - okolí na náboj musí být velmi citlivé. Energie se tedy může nacházet v superpozici, protože její gravitační příspěvek je tak malý, že si ho okolí na dané časové škále zdaleka nestačí „všimnout“. Typický rozdíl jeho velikosti oproti poli elektrickému je 25 řádů - pokud by tedy dekoherence nábojem probíhala na řádu attosekund (10-18 s), gravitační dekoherence by pořád mohla trvat řádově roky.
Teorie dekoherence sice vypadá skoro jako šitá pro mnohasvětovou interpretaci, protože právě mechanismus entanglementu představuje důvod k vzniku mnoha pseudoklasických větví vlnové funkce - mnoha světů. Stačí jen postulovat, že vědomí se odvíjí od reprezentace informace v mozku v pseudoklasickém stavu. Ale ve skutečnosti je dekoherence v pořádku začlenitelná i do jiných interpretací. Ale o tom až někdy příště.
Zdroje
Poznámky
* Pokud vám je proti srsti mluvit o spinu fotonů, který odpovídá kruhové polarizaci světla, nahraďte v celém článku pojem spin pojmem polarizace - neřešil jsem onu technikalitu, že polarizace se měří lépe než spin, experimentátoři jistě pochopí.
** Pokud se ptáte, jak je od sebe poznáme - měřením v jiné bázi. Pokud měříme jenom stav 1 nebo stav 2, superpozici nepoznáme.
Pozn.: superpozice jsou v článku neúplně normované, abych se vyhnul spoustě odmocnin ze dvou. Laskavý čtenář si je buď domyslí, nebo dohledá, kam patří. Z hlediska argumentace nejsou důležité.
Problém měření, superselekční zákony
Problém měření v kvantové mechanice úzce souvisí s kolapsem vlnové funkce. Kvantová mechanika popisuje stav objektů pomocí vlnových vektorů. Ty splňují princip superpozice, tedy pokud máme fyzikální stavy |a> a |b>, pak je legitimním fyzikálním stavem také stav α|a> + β|b>. Pro malé systémy na úrovni molekul je to dobře známým a ověřeným faktem. Jedním z problémů je, proč takové stavy nevidíme makroskopicky, tedy proč když zavřeme (tzv. Schrödingerovu) kočku do krabice ve které je ampulka s jedem napojená na kvantový proces, který se zvolna dostává do superpozice |spuštěn> + |nespuštěn>, proč se následně jed nedostává do stavu |rozlil se> + |nerozlil se> a kočka do stavu |mrtvá> + |živá>. Co zásadního se děje při přechodu z velmi malých měřítek na velká? Má kvantová mechanika omezenou platnost na malé systémy, nebo zmíněné chování dá nějak vysvětlit zevnitř ní?
Přesnější formulací tohoto problému je, proč při měření nevidíme superpozice stavů, ale jen konkrétní stavy. (Jde o tzv. problém určitých výsledků.) Druhou částí problému měření je pak, proč si příroda vybere pro tyto pozorované stavy jednu konkrétní bázi. (Tzv. problém preferované báze.) Tato druhá část se hůř vysvětluje „obrazně“, ale pěkným příkladem může být třeba molekula glukózy. Obecně je popsaná vlnovou funkcí Ψ(x1,..., xn), kde x1,..., xn jsou polohy elektronů a jader. Teď bychom se mohli zeptat, proč se typicky v roztoku glukózových molekul nachází ve vlastním stavu chirality (tj. molekula, jelikož je chirální, bude buď levotočivá a nebo pravotočivá) a ne třeba ve vlastním stavu parity (tj. molekula je symetrická nebo nesymetrická při zrcadlení). Z pohledu kvantové mechaniky by to přitom bylo zcela legitimní - vlastní stav parity je superpozicí vlastních stavů chirality a naopak. Komu se to zdá divné a ptá se správně, jak by glukóza mohla nebýt být ve vlastním stavu chirality, když je to přece chirální molekula - uvědomme si, že to, že v molekule jsou nějaké typické polohy atomů nebo vazby, je už důsledek toho, v jaké bázi molekulu příroda „nejradši měří“ a tedy součást problému, na který se ptáme.)
Na úvod ještě zmíním tzv. superselekční zákony, které teorie dekoherence údajně také dobře vysvětluje. Ve zkratce jde o to, že některé stavy se do superpozic nikdy nedostávají. Můžete např vidět elektron v superpozici několika poloh, nebo vidět superpozici jednoho fotonu se stavem, kde jsou fotony dva, ale nikdy neuvidíte superpozici protonu s neutronem, nebo elektronu se dvěma elektrony. Tento fakt fyzici nazvali superselekční zákon pro náboj (neexistují superpozice stavů s různým nábojem) a do teorie byl zaveden jako dodatečný empirický fakt. Podobných superselekčních zákonů je více.
Co je dekoherence
Poměrně nedávno (konec 80. let) vznikl tzv. program dekoherence, který z větší části vysvětluje otázky z předchozích odstavců. Základní myšlenkou je vysvětlení ztráty kvantového chování pomocí jevu zvaného entanglement (česky provázání). To je čistě kvantově mechanické chování, které nejdříve lidem zabývajícím se kvantovou mechanikou přišlo paradoxní, odtud např. Einstein-Podolsky-Rosenův paradox, který entanglement pěkně ilustruje. Představte si, že mám zařízení, které posílá dvojice fotonů - každý na jednu stranu. Navíc pro každou dvojici je celkový spin fotonů 0*. Pokud bych spin měřil, naměřím vždy pro každý foton spin nahoru nebo dolů - co je nahoru a dolů ale samozřejmě volím tím, do jakého směru spin hodlám měřit. Vždy můžu zvolit takovou soustavu, že stav jednoho fotonu bude |↑> + |↓> a druhého |↑> - |↓>; tedy že bude v superpozici a teprve mé měření vybere jeden z těchto stavů. (Pozn. - nevíme ovšem, kterou superpozici dostaneme my - buď první, nebo druhou.) Pak ovšem nastává podivná situace - pokud jeden foton zachytím a druhý pošlu mimozemšťanovi k Proximě Centauri vzdálené několik světelných let od Země, měřením na svém fotonu okamžitě změním i stav fotonu, který měří kolega mimozemšťan, byť je ode mne třeba i velmi daleko. Pokud jsem totiž naměřil stav |↑>, on nutně dostane stav |↓> a naopak a jeho stav se tedy v okamžik mého měření změnil z původní superpozice na stav ostrý. Fotony jsou takzvaně provázané, čili entanglované. Z toho lze vyvodit, že proces měření je buď nelokální (ovlivňuje okamžitě i velmi vzdálená místa), nebo je popis vlnovou funkcí neúplný. Původně sice šlo o argument proti úplnosti kvantové mechaniky, postupně se však dospělo k závěru, že o žádný paradox nejde, že jde zkrátka jen o podivnou vlastnost kvantové mechaniky. Slovy R. P. Feynmana - paradox je jen rozpor mezi tím, jaká realita je a jaká si myslíte, že by měla být.
Jak zapíšeme provázání fotonů matematicky? Počáteční stav je až na normalizaci
|Ψ> = (|1↑> + |1↓>)(|2↑> - |2↓>)/2 + (|1↑> - |1↓>)(|2↑> + |2↓>)/2.
První foton mohu dostat v jedné nebo druhé superpozici, druhý ale potom vždy bude v opačné. První člen součtu představuje případ, kdy je foton 1 v první superpozici a foton 2 ve druhé, u druhého členu je to naopak. Pokud jej rozepíšeme, dostaneme
|Ψ> = |1 ↑>|2 ↓> - |1 ↓>|2 ↑>.
Vidíme, že si nemůžeme vybrat stav, kdy bychom dostali oba spiny nahoru - pokud změříme jeden foton, automaticky tím určíme stav druhého. Podobný případ je emise fotonů atomem. Pokud jeden atom vyzáří foton, nebo dva fotony, budou spolu tyto interferovat. Dokonce jsem schopen připravit superpozici dvoufotonového a jednofotonového stavu. Pokud budu mít ale fotony vyzářené různými atomy, interferovat spolu nebudou, přestože jsou to navzájem nerozlišitelné částice. Je tomu tak proto, že atomy, které je vyzářily, si „pamatují“ vyzáření fotonů. Jsou s nimi entanglované stejně, jako byly spolu fotony z EPR paradoxu.
Zásadní myšlenka dekoherence spočívá ve vysvětlení kolapsu vlnové funkce provázáním jednotlivých superponovaných stavů s okolním světem. Dokud je systém v superpozici popsán stavem |okolí 0>(|systém 1>+|systém 2>), stavy mezi sebou interferují a pozorujeme kvantově mechanické chování. Jak ale různé varianty stavů ovlivňují okolí jiným způsobem, postupně se svět dostává do superpozice |okolí 1>|systém 1>+|okolí 2>|systém 2>. Jakmile od sebe začnou být stavy |okolí 1> a |okolí 2> dost odlišné, začnou na sebe být kolmé a přestaneme pozorovat interferenci, protože měřící přístroj je, aniž bychom to věděli, provázán se systémem. Měří tak větev 1, nebo větev 2. Pokud na počátku bylo molekul ve stejném stavu více, část z nich se prováže s přístrojem tak, že skončí ve stavu 1 a část ve stavu 2. Nadále pozorujeme už jenom směs takových molekul, ne superpozici stavů**. Jednoduše by tuto myšlenku šlo vyjádřit i tak, že jakmile je informace o tom, v jakém stavu se systém nachází reprezentována v okolním světě dostatečně robustně, superpozice na něm přestane být pozorovatelná. (Přestože globální superpozice celého vesmíru může stále existovat - jednotlivé globální větve jsou pak právě světy o kterých mluví Everettova mnohasvětová interpretace nebo velmi podobná interpretace mnoha myslí.)
Robustní stavy
Teorii dekoherence silně podporují měření na mezoskopických systémech, kde lze přímo pozorovat spojitý přechod mezi klasickým a kvantovým chováním a přímou souvislost kolapsu s odnesením informace ze systému do okolí. Jistě ale budete souhlasit, že samotné provázání ještě pořád nevysvětluje hlavní problémy spojené s měřením - tedy proč nevidíme superpozice a podle čeho se tedy vlastně bude měřit? Na to lze ovšem najít odpověď také. Stačí si uvědomit, že provázání s okolním světem se děje typicky tehdy, když spolu svět a systém silně interagují. Vezměme si třeba vlnový balík, který se, jak známo rozplývá. Pokud je tento balík např. v řídkém plynu ostatních částic, může se rozpínat jen dokud se nezačne významně překrývat s balíkem jiné částice. Jakmile se tak stane, velmi rychle se prováží. Toto provázání se rozšíří do okolí tím rychleji, čím více částic již provázáno je, protože oblast se zvětšuje a pravděpodobnost, že tato oblast interaguje s dalšími částicemi je téměř totožná s jistotou. Rychlost dekoherence exponencielně závisí na velikosti systému (což je také hlavní překážkou při tvorbě kvantových počítačů) a pro makroskopické objekty je téměř okamžitá. Dekoherence tedy dává na otázku z úvodu, proč jsou molekuly glukózy měřeny do vlastního stavu chirality a ne třeba parity odpověď: Proto, že na chiralitu je citlivé např. záření, které podle ní mění svou polarizaci. Každý foton tepelného záření procházející skrz molekulu glukózy tedy rychle odnese do okolí informaci o chiralitě, zatímco pro paritu to neplatí. (Alespoň takto to píše H. D. Zeh v knize The Physical Basis of the Direction of Time.) Tuto robustnost lze kvantifikovat nezávisle na bázi a z jejího konceptu lze pak odvodit Bornovo pravidlo (že čtverec vlnové funkce odpovídá hustotě pravděpodobnosti měření) aniž by ho bylo třeba postulovat.
Na stejném principu se dají vysvětlit i výše zmíněné superselekční zákony. Zeh ve své knize píše, že důvodem, proč nevznikají superpozice stavů s různým nábojem je, že pole, které kolem sebe nabitá částice tvoří (tedy jeho monopólový příspěvek) v dostatečné vzdálenosti hraje roli okolí, které nepřetržitě měří náboj částice. Navíc ukazuje krásný příklad kvalitativního odhadu rychlosti dekoherence přes dipólový člen. Představte si, že elektron prochází dvojštěrbinou. Při jakém uspořádání experimentu by již byl elektron změřen svým vlastním elektrickým polem? To, v čem se liší obě trajektorie, je dipólový člen, na kterém mj. také závisí vyzařování elektronu. Pokud jsou trajektorie vzdáleny o typickou vzdálenost d, kterou elektron projde za čas t, musel při tom dosahovat typických zrychlení d/t2. K odhadu středního vyzářeného výkonu můžeme použít klasickou Larmorovu formuli, tedy
P = e2a2/6πε0c3.
Pokud je dráha elektronu zakřivená na měřítku celkové vzdálenosti d (např. je kruhová), pak typický foton, který má být vyzářen, bude mít vlnovou délku řádově d, a tedy energii hc/d. Pokud dáme tyto vzorečky dohromady, můžeme získat počet fotonů za sekundu, který vyjde pro makroskopický experiment zcela zanedbatelně - jak jsme očekávali. Informace o poloze elektronu tedy není odnášena jeho polem.
Zeh zároveň upozorňuje na to, že pokud platí superselekční pravidlo pro náboj, měli bychom to samé očekávat pro energii, protože ta má podle teorie relativity hmotnost a hmotnost rovněž budí gravitační pole v nekonečnu.. a tedy že se této problematice nejspíš ještě dost dobře nerozumí. Nějakou dobu jsem nad tímto argumentem přemýšlel a dospěl jsem k závěru, že Zehova formulace je poněkud nešťastná. Co částici nemůže být jen její vlastní pole v nekonečnu, protože celkový monopólový příspěvek v nekonečnu se odvíjí i od jejího vzdálenějšího okolí. (Pokud mám kladný náboj, typicky je příslušný záporný někde blízko.) Co tedy musí být příčinou superselekčního pravidla je spíš téměř okamžitý coupling náboje částice s okolím - okolí na náboj musí být velmi citlivé. Energie se tedy může nacházet v superpozici, protože její gravitační příspěvek je tak malý, že si ho okolí na dané časové škále zdaleka nestačí „všimnout“. Typický rozdíl jeho velikosti oproti poli elektrickému je 25 řádů - pokud by tedy dekoherence nábojem probíhala na řádu attosekund (10-18 s), gravitační dekoherence by pořád mohla trvat řádově roky.
Teorie dekoherence sice vypadá skoro jako šitá pro mnohasvětovou interpretaci, protože právě mechanismus entanglementu představuje důvod k vzniku mnoha pseudoklasických větví vlnové funkce - mnoha světů. Stačí jen postulovat, že vědomí se odvíjí od reprezentace informace v mozku v pseudoklasickém stavu. Ale ve skutečnosti je dekoherence v pořádku začlenitelná i do jiných interpretací. Ale o tom až někdy příště.
Zdroje
- M. Schlosshauer: Původní článek
- H. D. Zeh: The Physical Basis of the Direction of Time
- M. Schlosshauer: Decoherence and the Quantum-to-Classical Transition
Poznámky
* Pokud vám je proti srsti mluvit o spinu fotonů, který odpovídá kruhové polarizaci světla, nahraďte v celém článku pojem spin pojmem polarizace - neřešil jsem onu technikalitu, že polarizace se měří lépe než spin, experimentátoři jistě pochopí.
** Pokud se ptáte, jak je od sebe poznáme - měřením v jiné bázi. Pokud měříme jenom stav 1 nebo stav 2, superpozici nepoznáme.
neděle 28. listopadu 2010
Toroidal World
Problem of gravity
Could there, or could there be not a stable toroidal planet? Before I start trying to answer this question, I must accent that I would probably never come with this idea myself. The question was, in fact, raised during solving of a miniproject "Describe Any Fictional Universe and Tell Something Interesting About Its Physics" on scientific camp of correspondence seminar M&M. So authoresses are, in fact, Martina B., Alča B. and Míša K. - I only helped them to resolve some technical details. But later on, I was so much drawn-in by the idea of toroidal planet, I couldn't stop until I calculated the details a bit deeper that was possible on M&M.
It wouldn't be very wise to try to calculate the result analytically, for just a potential field of massive circle requires working with elliptic integral functions - whole toroid is unlikely to be more simple that that, probably completely out of reach. Let us approximate the toroidal planet by set of massive points instead. I was very surprised by the fact that a mere ring of massive points gives a qualitatively good result. However, for better precision, we will use set of circles of massive points and decompose the planet into such slices, as shown on Fig. 1. The planet is hardly a rigid body on the planetary scale of sizes - it would be much closer to truth imagining it's out of water! The mass of the planet always fills the inside of the surface of constant potential. Therefore, after first calculation of newtonian potential V(r), we take a surface V(r) = const., we fill it by mass by changing the positions of massive points accordingly and repeat the calculation. I performed this for a torus of R = 3 r proposed by original authoresses.
It is immediately clear that inner radius of the toroid has always smaller potential than the outer one and that the mass will flow to the center eventually forming a sphere after some time. The only way out of this trouble is to suppose that the planet rotates at high pace, so the centrifugal force is pulling the mass out of the center. We introduce potential of the centrifugal force v(r) = -1/2 ω2r2 and we choose the angular velocity ω to be of such value that points on inner and outer radius will have the same potential. In combined gravitational and centrifugal potential, equipotentials indeed converge to oblate toroid. It is not a circle that rotates about the axis of symmetry, but an ellipse is a very good approximation. It seems from the performed numerical experiments that it is not a metastable equillibrium. If we increase angular velocity a bit, toroid will became more oblate and of higher main radius, but remains stable.
When we have a stable toroidal planet, we can harvest the fruit of our work and calculate some interesting properties of the planet. We will start with gravitational force, which is simply a gradient of the potential. You can see resulting field on Fig 2. It always points to the surface, so there is no lateral pull, but its magnitude changes according to observer's position. If we choose the major axis of rotating ellipse to be the Earth's radius and density 5500 kg/m3, it varies from 3.64 m s-2 for the outer radius, to 9.78 m s-2 on the inner radius.
Days and nights
For the last image of this article, I used our planet Earth changed into toroidal shape, but it would be very naive to think climatic conditions would be preserved. First major change (not mentioning the changing gravity) is a length of days nights. If we put a sun very close to the plane of rotation (inclination to the ecliptic 6°), we can see from the Fig. 3., that in the region of former Earth equator (torus' "outer equator"), the days and nights would look very similarly to that we know from Earth. Only the day length would be changed to 2.6 hours instead of slow 24 hours days of Earth. As we go to the "north", e.g. to Europe, we soon reach area, where the light intensity is the same all the time, so there is almost no change of day and night at all! (The sun appears to be always near horizon spinning around at high pace.) Going yet further to the north, we get to area, where is constant night during "winter" (we are in shadow of the rest of torus), but during "summer" the day and night cycle would look exactly like near equator. The angle between sun rays and the surface normal is almost 0° and sun is almost at nadir at noon, making the days very hot. There is also an area, where sun never shines. This, of course, depends very wildly on the inclination of the axis - if it was bigger, both inner and outer equators would be illuminated by the same way in both "summer" and "winter" - the shadow of torus would not shade the inner radius. During "spring" and "autumn", the inner radius would be always shadowed.
Of course, to investigate where will be rich vegetation and where deserts, or how would the global circulation of atmosphere look like, one would have to run pretty sophisticated climatic model. This is, unfortunately, beyond my time possibilities - it would be serious work for few years to do that properly. :-) (Unless you are a climatologist with rich experience with already present global models of climate, of course..) However, we may try to guess some things. One of basic principles according to which the air flow establishes in the atmosphere is transfer of heat. On Earth, most of heat is produced around equator. Hot air raises to upper atmosphere, where it starts flowing to the north, where it eventualy turns downwards. This convection cell is called Hadley cell and there is not only one - in fact, there are three major ones. Places where hot air raises up are characteristic by rich precipitation and the land is usually covered by vegetation there (rain forests and temperate forests), the other end of the cell is usually arid and major deserts forms in these places.
On a toroidal planet, most of heat is produced on the outer equator, so air would probably flow in Hadley cells raising up on the outer equator and heading to the inner equator. In fact, with the map of the Earth maped on the torus in the way it is depicted on the figures in this article, the basic vegetation distribution might be quite similar. The main difference would be in magnitude of the Coriolis force, which makes north/southwards-flowing air to turn east/westwards forming jets. These jets would be much stronger and would probably form in shorted distance from outer equator, which might force the Hadley cells to be smaller and make, in fact, Sahara a rain-forest. (I'm just guessing, of course.)
Other relevant questions
From spherical planets we know that the magnitude of precession of their rotational axes is very small. It would be natural to think it is because of their spherical symmetry - all the principal moments of inertia are almost the same. For torus, however, one might expect a typical precession to be much larger. It would be, indeed, true if the torus would be a rigid body. However, as we said in the beginning, on planetary scales the mass behaves much more like a liquid than solid. It is therefore probable that if there was some initial precession, it would be reduced by the tidal forces. By other words, either the torus would eventually form around the principal axes of inertia and resulting precession would be small, or it would be torn apart by them.
Another interesting physical question is whether there are stable orbits around the planet. I also investigated this and it seems from the numerical simulations, that there are stable distant orbits, which are elliptical (as expected), with some perturbations caused by non-spherical shape of the central body. All orbits in the vicinity of the planet (like those, which would go through the center of the torus) are in principle possible, but unstable, maybe except of pendulum-like periodical movement up and down through the hole inside the torus.
If we imagine a Earth-like biosphere on the torus, probably the most interesting question is, how would the sleep cycles of the animals be affected. (Provided the sleep is univerzal feature of complex neural networks, which is not necessarily true.) From experiences with planet Earth, we somehow relate sleep with day-night cycle. But if the days were too short, it might be more preferable to completely ignore them and evolve sleep not directly connected from day-night cycles. However, if you take for example giraffes, which sleep only 2 hours a day, we might deduce that sleeping during night lasting 2 hours is possible even for animals with brains developed in circumstances of 24-hour rotation of the Earth.
At the very end, I put here some physical properties of the torus. Enjoy!
Physical parameters:
Could there, or could there be not a stable toroidal planet? Before I start trying to answer this question, I must accent that I would probably never come with this idea myself. The question was, in fact, raised during solving of a miniproject "Describe Any Fictional Universe and Tell Something Interesting About Its Physics" on scientific camp of correspondence seminar M&M. So authoresses are, in fact, Martina B., Alča B. and Míša K. - I only helped them to resolve some technical details. But later on, I was so much drawn-in by the idea of toroidal planet, I couldn't stop until I calculated the details a bit deeper that was possible on M&M.
It wouldn't be very wise to try to calculate the result analytically, for just a potential field of massive circle requires working with elliptic integral functions - whole toroid is unlikely to be more simple that that, probably completely out of reach. Let us approximate the toroidal planet by set of massive points instead. I was very surprised by the fact that a mere ring of massive points gives a qualitatively good result. However, for better precision, we will use set of circles of massive points and decompose the planet into such slices, as shown on Fig. 1. The planet is hardly a rigid body on the planetary scale of sizes - it would be much closer to truth imagining it's out of water! The mass of the planet always fills the inside of the surface of constant potential. Therefore, after first calculation of newtonian potential V(r), we take a surface V(r) = const., we fill it by mass by changing the positions of massive points accordingly and repeat the calculation. I performed this for a torus of R = 3 r proposed by original authoresses.
Fig. 1 - massive points used as an approximation of self-gravitating torus.
It is immediately clear that inner radius of the toroid has always smaller potential than the outer one and that the mass will flow to the center eventually forming a sphere after some time. The only way out of this trouble is to suppose that the planet rotates at high pace, so the centrifugal force is pulling the mass out of the center. We introduce potential of the centrifugal force v(r) = -1/2 ω2r2 and we choose the angular velocity ω to be of such value that points on inner and outer radius will have the same potential. In combined gravitational and centrifugal potential, equipotentials indeed converge to oblate toroid. It is not a circle that rotates about the axis of symmetry, but an ellipse is a very good approximation. It seems from the performed numerical experiments that it is not a metastable equillibrium. If we increase angular velocity a bit, toroid will became more oblate and of higher main radius, but remains stable.
Fig. 2 - gravity field of the toroidal planet. The right side of the picture belongs to the inner side of the torus, the left is outer.
When we have a stable toroidal planet, we can harvest the fruit of our work and calculate some interesting properties of the planet. We will start with gravitational force, which is simply a gradient of the potential. You can see resulting field on Fig 2. It always points to the surface, so there is no lateral pull, but its magnitude changes according to observer's position. If we choose the major axis of rotating ellipse to be the Earth's radius and density 5500 kg/m3, it varies from 3.64 m s-2 for the outer radius, to 9.78 m s-2 on the inner radius.
Days and nights
For the last image of this article, I used our planet Earth changed into toroidal shape, but it would be very naive to think climatic conditions would be preserved. First major change (not mentioning the changing gravity) is a length of days nights. If we put a sun very close to the plane of rotation (inclination to the ecliptic 6°), we can see from the Fig. 3., that in the region of former Earth equator (torus' "outer equator"), the days and nights would look very similarly to that we know from Earth. Only the day length would be changed to 2.6 hours instead of slow 24 hours days of Earth. As we go to the "north", e.g. to Europe, we soon reach area, where the light intensity is the same all the time, so there is almost no change of day and night at all! (The sun appears to be always near horizon spinning around at high pace.) Going yet further to the north, we get to area, where is constant night during "winter" (we are in shadow of the rest of torus), but during "summer" the day and night cycle would look exactly like near equator. The angle between sun rays and the surface normal is almost 0° and sun is almost at nadir at noon, making the days very hot. There is also an area, where sun never shines. This, of course, depends very wildly on the inclination of the axis - if it was bigger, both inner and outer equators would be illuminated by the same way in both "summer" and "winter" - the shadow of torus would not shade the inner radius. During "spring" and "autumn", the inner radius would be always shadowed.
Of course, to investigate where will be rich vegetation and where deserts, or how would the global circulation of atmosphere look like, one would have to run pretty sophisticated climatic model. This is, unfortunately, beyond my time possibilities - it would be serious work for few years to do that properly. :-) (Unless you are a climatologist with rich experience with already present global models of climate, of course..) However, we may try to guess some things. One of basic principles according to which the air flow establishes in the atmosphere is transfer of heat. On Earth, most of heat is produced around equator. Hot air raises to upper atmosphere, where it starts flowing to the north, where it eventualy turns downwards. This convection cell is called Hadley cell and there is not only one - in fact, there are three major ones. Places where hot air raises up are characteristic by rich precipitation and the land is usually covered by vegetation there (rain forests and temperate forests), the other end of the cell is usually arid and major deserts forms in these places.
On a toroidal planet, most of heat is produced on the outer equator, so air would probably flow in Hadley cells raising up on the outer equator and heading to the inner equator. In fact, with the map of the Earth maped on the torus in the way it is depicted on the figures in this article, the basic vegetation distribution might be quite similar. The main difference would be in magnitude of the Coriolis force, which makes north/southwards-flowing air to turn east/westwards forming jets. These jets would be much stronger and would probably form in shorted distance from outer equator, which might force the Hadley cells to be smaller and make, in fact, Sahara a rain-forest. (I'm just guessing, of course.)
Fig. 3 - daylight in "spring" (left) and "summer" (right).
Other relevant questions
From spherical planets we know that the magnitude of precession of their rotational axes is very small. It would be natural to think it is because of their spherical symmetry - all the principal moments of inertia are almost the same. For torus, however, one might expect a typical precession to be much larger. It would be, indeed, true if the torus would be a rigid body. However, as we said in the beginning, on planetary scales the mass behaves much more like a liquid than solid. It is therefore probable that if there was some initial precession, it would be reduced by the tidal forces. By other words, either the torus would eventually form around the principal axes of inertia and resulting precession would be small, or it would be torn apart by them.
Another interesting physical question is whether there are stable orbits around the planet. I also investigated this and it seems from the numerical simulations, that there are stable distant orbits, which are elliptical (as expected), with some perturbations caused by non-spherical shape of the central body. All orbits in the vicinity of the planet (like those, which would go through the center of the torus) are in principle possible, but unstable, maybe except of pendulum-like periodical movement up and down through the hole inside the torus.
If we imagine a Earth-like biosphere on the torus, probably the most interesting question is, how would the sleep cycles of the animals be affected. (Provided the sleep is univerzal feature of complex neural networks, which is not necessarily true.) From experiences with planet Earth, we somehow relate sleep with day-night cycle. But if the days were too short, it might be more preferable to completely ignore them and evolve sleep not directly connected from day-night cycles. However, if you take for example giraffes, which sleep only 2 hours a day, we might deduce that sleeping during night lasting 2 hours is possible even for animals with brains developed in circumstances of 24-hour rotation of the Earth.
At the very end, I put here some physical properties of the torus. Enjoy!
Physical parameters:
- Mass: 6.6 Earth masses
- Volume: 6.6 Earth volumes
- Outer radius: 19 134 km
- Inner radius: 6378 km
- Major axis: 6378 km
- Minor axis: 4464 km
- Outer g. acceleration: 3.64 m s-2
- Top/bottom g. acceleration: 7.36 m s-2
- Inner g. acceleration: 9.78 m s-2
- Length of day: 2.65 hours
- Inclination to the Ecliptic: 6°
neděle 1. srpna 2010
Kolapsy složitých společností
Nedávno jsem si pořídil několik knih z nakladatelství Dokořán, abych si trochu rozšířil obzory mimo fyziku. Skutečně povedeným úlovkem byla kniha Kolapsy složitých společností od J. A. Taintera. Kniha si klade za cíl odpovědět na otázku proč se společnosti někdy rychle rozpadají a někdy naopak trvají dlouze a přestojí i poměrně významné krize. Představuje teorii, která je dostatečně obecná, aby se dala použít téměř na každou společnost (což je mj. důvod, proč je zajímavá i pro mne - odhaluje, jak některé věci fungují, nepředkládá jen pouhou faktografii.) Většina tvrzení článku přímo cituje knihu, nebo z ní vychází. A prosím taky nezapomeňte, že tomu vůbec nerozumím a jenom sepisuji dojem z knihy :-).
Jak společnosti fungují?
Aby se Tainterovi dobře postupovalo, zavádí několik užitečných modelů a pojmů. (nebo častěji představuje modely a pojmy jiných autorů - cituje skutečně často a důkladně.) Pro začátek uvádí, že existují v zásadě dva globální názory na to, proč se složité společnosti utvářejí. Teorie konfliktu a teorie strukturální. Zastánci té první (původně např. Marx, Engels) tvrdí, že stát představuje nástroj, pomocí kterého vládnoucí vrstva (která je vždy přítomná v podobě těch nejschopnějších, ať už to znamená, že jsou v primitivní společnosti dobří lovci, nebo že umí pohotově intrikovat ve vysoké politice a zajistí si prostředky ve společnosti složité) nutí ovládanou vrstvu produkovat komodity, ze kterých potom oni žijí v blahobytu, zatímco ovládaná vrstva zůstává permanentně chudá. Zastánci teorie strukturální naopak tvrdí, že společnosti se organizují proto, že taková organizace je pro lidi výhodná - umožňuje jim stavět zavlažovací kanály tam, kde by to jednotlivci nezvládli a obecně produkovat vyšší výnosy. Lidé se tedy uspořádávají, protože to má pro ně výhody. Obě teorie samy o sobě mají některé problémy. Např. teorie konfliktu předpokládá, že lidé, kteří v daném prostředí budou tvořit vládnoucí vrstvu, se vždy najdou - je to zkrátka přirozený a obecný důsledek lidské psychiky. Pokud je to ale pravda a zároveň společnost nehraje žádnou strukturální roli, neumí např. vysvětlit, proč se složité společnosti nevyvinuly už někdy v Pleistocénu. Teorie strukturální zase poněkud optimisticky pomíjí skutečnost, že vládnoucí třída skutečně nejedná efektivně a obohacuje se na úkor ovládané složky typicky daleko více, než by musela. Tainter nakonec pro své vývody volí syntézu obou tezí, že
Mezi úkoly, které společnost typicky plní je pak
Posledním pojmem, který se v knize často používá je složitost, nebo investice do složitosti. Složitost je poněkud těžko přesně definovatelná (jak to tak v humanitních oborech bývá). Zhruba se však dá rozpoznat podle počtu jednotlivých profesí, které lidé společnosti vykonávají (které jdou od desetitisíců až k miliónům), počtu strukturálních jednotek a typickou vzdáleností, na kterou komunikují, počtem výrobků, které se vytváří a obchodují, apod.
Proč společnosti kolabují?
Kolaps společnosti znamená rychlý pokles složitosti a rozpad společnosti na menší strukturální celky, ze kterých byla tvořena. Tzn. i když kulturní odkaz dané civilizace může přetrvat a dále se rozvíjet, stejně společnost, jejíž správní instituce se zhroutili, označíme jako prošlou kolapsem. Naopak samotná změna režimu kolapsem není - to je jen transformace společnosti.
Kdyby složité společnosti kolabovaly pravidelně pod některými typickými tlaky, nebylo by co řešit. Jak říká Tainter, problémem není, že společnosti kolabují, ale že některé společnosti se kolapsu stovky let úspěšně vyhýbají a odolají mnoha nepříznivým okolnostem. Na začátek uvádí mnoho dnes používaných teorií kolapsů s patřičným vysvětlením, proč nejsou dostatečné:
Nárůst složitosti a pokles mezního výnosu je demonstrován v celé řadě oblastí. Administrativě na příkladě námořnictva Britského kolonálního impéria, zdravotnictví v USA, zemědělství v Nigérii, Gambii, Jugoslávii na případě plodin, které se neexportovaly (což by výsledek ovlivnilo), apod. Společnosti zkrátka obecně do složitosti investují a mezní výnosy klesají. Teorie pak ve zkratce říká, že společnosti se dostanou do bodu, kdy už složitost nezvyšuje dále produktivitu, ale investice do ní musí pokračovat, aby se udržela v chodu. Pro jednotlivé podčásti, které musí na drahou složitost doplácet, se stane výhodnější se odtrhnout (pokud to jde), nebo alespoň nechat bez odporu zabrat jinou, byť třeba méně složitou (a tím typicky normálně slabší) společností. Jakmile začne být výhodnost snížení složitosti společnosti zjevná, vládnoucí třída musí investovat do zvyšování legitimity a do zvyšování stavů armády nebo policie. To jsou další investice do složitosti, která již téměř nic neprodukuje. Společnost se nakonec hroutí.
Princip je důkladně rozebrán na příkladě Mayů, pádu Říma a dalších - pokud vás zajímaví detaily, budete si muset knihu přečíst.
Co z toho plyne pro naši společnost?
Dobrou otázkou, které se IMHO Tainter nevěnuje tolik, jak by možná mohl, proč (a zda) společnost musí stále svou složitost zvyšovat a zda ji může nějak nedestruktivně redukovat. Obecná (otázkou zda dostatečně obecná) odpověď by pravděpodobně byla, že jakmile společnost produkuje přebytky do jisté míry, nějakým způsobem je investuje do složitosti - nebude je jen tak hromadit. V době, kdy Řím vedl úspěšnou expanzivní politiku, zbavil své obyvatele daní, protože si to mohl dovolit. Obyvatelé si ale na danou míru přebytku zvykly a poté byl problém zavést byť jen nějakou daň a vyžadovalo to další investice do legitimity, nebo armády. Tím, že potenciál zdrojů k tvorbě složitosti plně využijeme, nebudeme mít už rezervu k vytváření složitosti např. za účelem překonání katastrofy, nebo jiného tlaku.
Jakmile jednou vytvoříme sítě mobilních operátorů, nejsme je ochotni znovu opustit - a nemohou to udělat ani firmy, protože je to lokálně nevýhodné. (I kdyby vznikla významná úspora tím, že by tyto prostředky nikdo nepoužíval (jako že v tomto ilustrativním případě by asi nevznikla), ten, kdo je používá je v lokální výhodě a vydělá vždy víc.) Jakmile jsme schopni vytvořit vyspělé zdravotnictví, kterým velmi draze léčíme některé jinak smrtelné nemoci, nejsme schopni jej zredukovat, protože je to společensky nepřijatelné. To s sebou navíc nese i drahé školení pracovníků (tj. nárůst nákladů na vysoké školství), vytvoření správních celků (v tomto případě pojišťoven, které distribuují finance) a v neposlední řadě údržbu počítačů, které na jednu stranu usnadňují administrativě třídění informací (a umožňují tak další růst složitosti a administrativy), na stranu druhou vyžadují celý zástup drahých školených techniků, kteří je vyvíjejí a starají se o ně. Celý systém zjevně směřuje k vyšší složitosti.
Tainter ovšem zdaleka netvrdí, že složitost je drahá vždy, jen že je příliš drahá (už neproduktivní) jakmile je příliš velká v porovnání s technologiemi a zdroji, které ji umožňují. Pokud se objeví nová technologie (parní stroj, spalovací motor, mobilní telekomunikace, počítače), z počátku usnadňuje produkci statků a tím vede k vytváření přebytků. Ty umožní další růst složitosti, atd. Moderní industriální společnosti dostávali pravidelný odklad ze popisovaného procesu díky stále se nově objevujícím technologiím, které posouvali hranici, kdy se složitost už nevyplácí. Dá se vysledovat, že (Tainter) náklady na vědu rostou exponencielně, což je jen cena za to, aby pokrok probíhal stále stejným tempem. (Protože i vědě klesá mezní výnos - jednodušší otázky jsou logicky zodpovězeny nejdříve a odpověď na další vyžadují více úsilí.)
Navzdory některým optimistickým ekonomům, kteří jsou ochotni tvrdit, že zdroje nikdy nedojdou, protože věda je vždy schopna vytvořit další alternativu, je jasné, že tomu tak není a odklady pro naši společnost se nebudou objevovat věčně. Jak se také v Kolapsech píše, dnešní svět je na rozdíl od starověku podobně složitými civilizacemi vyplněn, proto není možné, aby se tyto zhroutily samostatně. Větší celek bude vždy intervenovat v jejich prospěch (nemůžu než si vybavit poslední krize v Lotyšsku, Maďarsku nebo Řecku), nebo dojde k pohlcení jednoho celku druhým. Takto se buďto nakonec zhroutí systém celý, až klesne schopnost velkého celku výkyvy tlumit, anebo k tomu nedojde vůbec.
Společnost typu kapitalistické demokracie zatím (pokud vím) žádným velkým kolapsem neprošla. Otázkou je, zda jsou skutečně lidé schopni se luxusu plynoucího ze složitosti vzdát, jakmile začne být neúnosně drahý, nebo zda krácení luxusu povede k sociálním tlakům, které kolaps jen urychlí, jak to zatím bylo typicky v minulosti u jiných společností. Jistou naději vidím v kapitalismu, protože skutečné rozpočítání nákladů napříč společností může umožnit zbavit se některých typů složitosti, jakmile je zjevné, že jsou příliš drahé. (Protože v kapitalismu jsou skutečné náklady zjevnější než v jiných systémech.) Ani zde se to ale netýká státního aparátu a sociálního státu, jejichž schopnost redukce zůstává sporná. Je také otázkou, jestli současná vlna ekonomických krizí představuje jen periodicky se opakující proces, díky kterému se složitost na mnoha úrovních snižuje a drží se tak na únosné míře, anebo zda představují skutečnou krizi kvalitativně odlišnou od krize z nadvýroby a zda investice do zeslabení krize nepředstavují právě ty další investice do složitosti, které celý problém jen zhoršují.
Rozhodně zajímavou laboratoří budou výše jmenované země, které právě krizí procházejí - uvidíme, zda je v demokracii možné zredukovat sociální stát a celkové náklady - a i pokud se do v těchto případech povede, nebudeme si jistí, jestli to bylo proto, že větší celky podržely stabilitu tohoto procesu (demokracie neztratila legitimitu) a že je to možné globálně. A tlak na redukci složitosti bude .. i kdybychom si mysleli, že není samotným důsledkem vnitřní dynamiky společností, nezapomeňme, že nežijeme trvale udržitelným způsobem a že zdroje, které využíváme, jednou dojdou.
P.S. (napadlo mne po dopsání článku): Další naději pro západní industriální společnost vidím v tom, že pokud platí druhá verze Tainterovy hypotézy, že totiž složitost nemusí nutně růst, ale roste jen dokud jsou pro to rezervy, čímž se ovšem vytratí rezervy pro překonávání krizí. Potom bychom mohli (možná trochu optimisticky) tvrdit, že současné celosvětové společnosti jsou tak velké, že rezervy pro budování složitosti nejsou vlastně potřeba, protože na společnosti nemají jak vzniknout tlaky dostatečného měřítka. Proto je, narozdíl od starých civilizací možné, aby dostatečně velká civilizace přežívala za konstantní složitosti, aniž by se objevily skutečné tlaky na její další zvýšení. (Což přestává být samozřejmě relevantní jakmile dochází zdroje. Ale může to představovat odklad.)
Jak společnosti fungují?
Aby se Tainterovi dobře postupovalo, zavádí několik užitečných modelů a pojmů. (nebo častěji představuje modely a pojmy jiných autorů - cituje skutečně často a důkladně.) Pro začátek uvádí, že existují v zásadě dva globální názory na to, proč se složité společnosti utvářejí. Teorie konfliktu a teorie strukturální. Zastánci té první (původně např. Marx, Engels) tvrdí, že stát představuje nástroj, pomocí kterého vládnoucí vrstva (která je vždy přítomná v podobě těch nejschopnějších, ať už to znamená, že jsou v primitivní společnosti dobří lovci, nebo že umí pohotově intrikovat ve vysoké politice a zajistí si prostředky ve společnosti složité) nutí ovládanou vrstvu produkovat komodity, ze kterých potom oni žijí v blahobytu, zatímco ovládaná vrstva zůstává permanentně chudá. Zastánci teorie strukturální naopak tvrdí, že společnosti se organizují proto, že taková organizace je pro lidi výhodná - umožňuje jim stavět zavlažovací kanály tam, kde by to jednotlivci nezvládli a obecně produkovat vyšší výnosy. Lidé se tedy uspořádávají, protože to má pro ně výhody. Obě teorie samy o sobě mají některé problémy. Např. teorie konfliktu předpokládá, že lidé, kteří v daném prostředí budou tvořit vládnoucí vrstvu, se vždy najdou - je to zkrátka přirozený a obecný důsledek lidské psychiky. Pokud je to ale pravda a zároveň společnost nehraje žádnou strukturální roli, neumí např. vysvětlit, proč se složité společnosti nevyvinuly už někdy v Pleistocénu. Teorie strukturální zase poněkud optimisticky pomíjí skutečnost, že vládnoucí třída skutečně nejedná efektivně a obohacuje se na úkor ovládané složky typicky daleko více, než by musela. Tainter nakonec pro své vývody volí syntézu obou tezí, že
- vykořisťování je normální cenou za sociální stratifikaci,
- špatná vláda je normální cenou za vládu.
Mezi úkoly, které společnost typicky plní je pak
- Správa (zajištění toho, aby vůbec fungovala, budování veřejně prospěšných staveb.)
- Boj s vnitřním nepřítelem (tedy vlastně policie.)
- Boj s vnějším nepřítelem (tedy vlastně armáda.)
- Udržování legitimity.
Posledním pojmem, který se v knize často používá je složitost, nebo investice do složitosti. Složitost je poněkud těžko přesně definovatelná (jak to tak v humanitních oborech bývá). Zhruba se však dá rozpoznat podle počtu jednotlivých profesí, které lidé společnosti vykonávají (které jdou od desetitisíců až k miliónům), počtu strukturálních jednotek a typickou vzdáleností, na kterou komunikují, počtem výrobků, které se vytváří a obchodují, apod.
Proč společnosti kolabují?
Kolaps společnosti znamená rychlý pokles složitosti a rozpad společnosti na menší strukturální celky, ze kterých byla tvořena. Tzn. i když kulturní odkaz dané civilizace může přetrvat a dále se rozvíjet, stejně společnost, jejíž správní instituce se zhroutili, označíme jako prošlou kolapsem. Naopak samotná změna režimu kolapsem není - to je jen transformace společnosti.
Kdyby složité společnosti kolabovaly pravidelně pod některými typickými tlaky, nebylo by co řešit. Jak říká Tainter, problémem není, že společnosti kolabují, ale že některé společnosti se kolapsu stovky let úspěšně vyhýbají a odolají mnoha nepříznivým okolnostem. Na začátek uvádí mnoho dnes používaných teorií kolapsů s patřičným vysvětlením, proč nejsou dostatečné:
- Katastrofy - problémem je, že takto jednak nelze vysvětlit kolapsy obecně, druhak je známo mnoho příkladů, kdy civilizace katastrofám naopak odolávají - teorie nedokáže odpovědět na to, proč společnosti následkem katastrof kolabují jen někdy.
- Nájezdníci - stejný problém, jako teorie katastrof.
- Konkurující jiných složitých společností - je málo obecná, např. pád Říma a některých jiných takto vysvětlit nejde.
- Vyčerpání zdrojů - problém je vysvětlit, proč společnost typická centrálním řízením neučinila dopředu dostatečná protiopatření. Tyto teorie většinou dopředu předpokládají
- Třídní konflikt, špatné řízení ze strany elity, sociální konflikt - nevysvětluje, proč se elity někdy začnou chovat nezodpovědně a vykořisťovat populaci, když v mnoha jiných případech, třeba i ve stejném zřízení, tak činí jen v únosné míře.
- Náhodné zřetězení událostí - Tainter především uvádí, že toho příliš nevysvětlují. Věrohodně ji však podle mého ze hry nevyřadil.
- Ekonomické faktory - u těch nakonec Tainter skončil, jeho teorie je jednou z těchto.
Nárůst složitosti a pokles mezního výnosu je demonstrován v celé řadě oblastí. Administrativě na příkladě námořnictva Britského kolonálního impéria, zdravotnictví v USA, zemědělství v Nigérii, Gambii, Jugoslávii na případě plodin, které se neexportovaly (což by výsledek ovlivnilo), apod. Společnosti zkrátka obecně do složitosti investují a mezní výnosy klesají. Teorie pak ve zkratce říká, že společnosti se dostanou do bodu, kdy už složitost nezvyšuje dále produktivitu, ale investice do ní musí pokračovat, aby se udržela v chodu. Pro jednotlivé podčásti, které musí na drahou složitost doplácet, se stane výhodnější se odtrhnout (pokud to jde), nebo alespoň nechat bez odporu zabrat jinou, byť třeba méně složitou (a tím typicky normálně slabší) společností. Jakmile začne být výhodnost snížení složitosti společnosti zjevná, vládnoucí třída musí investovat do zvyšování legitimity a do zvyšování stavů armády nebo policie. To jsou další investice do složitosti, která již téměř nic neprodukuje. Společnost se nakonec hroutí.
Princip je důkladně rozebrán na příkladě Mayů, pádu Říma a dalších - pokud vás zajímaví detaily, budete si muset knihu přečíst.
Co z toho plyne pro naši společnost?
Dobrou otázkou, které se IMHO Tainter nevěnuje tolik, jak by možná mohl, proč (a zda) společnost musí stále svou složitost zvyšovat a zda ji může nějak nedestruktivně redukovat. Obecná (otázkou zda dostatečně obecná) odpověď by pravděpodobně byla, že jakmile společnost produkuje přebytky do jisté míry, nějakým způsobem je investuje do složitosti - nebude je jen tak hromadit. V době, kdy Řím vedl úspěšnou expanzivní politiku, zbavil své obyvatele daní, protože si to mohl dovolit. Obyvatelé si ale na danou míru přebytku zvykly a poté byl problém zavést byť jen nějakou daň a vyžadovalo to další investice do legitimity, nebo armády. Tím, že potenciál zdrojů k tvorbě složitosti plně využijeme, nebudeme mít už rezervu k vytváření složitosti např. za účelem překonání katastrofy, nebo jiného tlaku.
Jakmile jednou vytvoříme sítě mobilních operátorů, nejsme je ochotni znovu opustit - a nemohou to udělat ani firmy, protože je to lokálně nevýhodné. (I kdyby vznikla významná úspora tím, že by tyto prostředky nikdo nepoužíval (jako že v tomto ilustrativním případě by asi nevznikla), ten, kdo je používá je v lokální výhodě a vydělá vždy víc.) Jakmile jsme schopni vytvořit vyspělé zdravotnictví, kterým velmi draze léčíme některé jinak smrtelné nemoci, nejsme schopni jej zredukovat, protože je to společensky nepřijatelné. To s sebou navíc nese i drahé školení pracovníků (tj. nárůst nákladů na vysoké školství), vytvoření správních celků (v tomto případě pojišťoven, které distribuují finance) a v neposlední řadě údržbu počítačů, které na jednu stranu usnadňují administrativě třídění informací (a umožňují tak další růst složitosti a administrativy), na stranu druhou vyžadují celý zástup drahých školených techniků, kteří je vyvíjejí a starají se o ně. Celý systém zjevně směřuje k vyšší složitosti.
Tainter ovšem zdaleka netvrdí, že složitost je drahá vždy, jen že je příliš drahá (už neproduktivní) jakmile je příliš velká v porovnání s technologiemi a zdroji, které ji umožňují. Pokud se objeví nová technologie (parní stroj, spalovací motor, mobilní telekomunikace, počítače), z počátku usnadňuje produkci statků a tím vede k vytváření přebytků. Ty umožní další růst složitosti, atd. Moderní industriální společnosti dostávali pravidelný odklad ze popisovaného procesu díky stále se nově objevujícím technologiím, které posouvali hranici, kdy se složitost už nevyplácí. Dá se vysledovat, že (Tainter) náklady na vědu rostou exponencielně, což je jen cena za to, aby pokrok probíhal stále stejným tempem. (Protože i vědě klesá mezní výnos - jednodušší otázky jsou logicky zodpovězeny nejdříve a odpověď na další vyžadují více úsilí.)
Navzdory některým optimistickým ekonomům, kteří jsou ochotni tvrdit, že zdroje nikdy nedojdou, protože věda je vždy schopna vytvořit další alternativu, je jasné, že tomu tak není a odklady pro naši společnost se nebudou objevovat věčně. Jak se také v Kolapsech píše, dnešní svět je na rozdíl od starověku podobně složitými civilizacemi vyplněn, proto není možné, aby se tyto zhroutily samostatně. Větší celek bude vždy intervenovat v jejich prospěch (nemůžu než si vybavit poslední krize v Lotyšsku, Maďarsku nebo Řecku), nebo dojde k pohlcení jednoho celku druhým. Takto se buďto nakonec zhroutí systém celý, až klesne schopnost velkého celku výkyvy tlumit, anebo k tomu nedojde vůbec.
Společnost typu kapitalistické demokracie zatím (pokud vím) žádným velkým kolapsem neprošla. Otázkou je, zda jsou skutečně lidé schopni se luxusu plynoucího ze složitosti vzdát, jakmile začne být neúnosně drahý, nebo zda krácení luxusu povede k sociálním tlakům, které kolaps jen urychlí, jak to zatím bylo typicky v minulosti u jiných společností. Jistou naději vidím v kapitalismu, protože skutečné rozpočítání nákladů napříč společností může umožnit zbavit se některých typů složitosti, jakmile je zjevné, že jsou příliš drahé. (Protože v kapitalismu jsou skutečné náklady zjevnější než v jiných systémech.) Ani zde se to ale netýká státního aparátu a sociálního státu, jejichž schopnost redukce zůstává sporná. Je také otázkou, jestli současná vlna ekonomických krizí představuje jen periodicky se opakující proces, díky kterému se složitost na mnoha úrovních snižuje a drží se tak na únosné míře, anebo zda představují skutečnou krizi kvalitativně odlišnou od krize z nadvýroby a zda investice do zeslabení krize nepředstavují právě ty další investice do složitosti, které celý problém jen zhoršují.
Rozhodně zajímavou laboratoří budou výše jmenované země, které právě krizí procházejí - uvidíme, zda je v demokracii možné zredukovat sociální stát a celkové náklady - a i pokud se do v těchto případech povede, nebudeme si jistí, jestli to bylo proto, že větší celky podržely stabilitu tohoto procesu (demokracie neztratila legitimitu) a že je to možné globálně. A tlak na redukci složitosti bude .. i kdybychom si mysleli, že není samotným důsledkem vnitřní dynamiky společností, nezapomeňme, že nežijeme trvale udržitelným způsobem a že zdroje, které využíváme, jednou dojdou.
P.S. (napadlo mne po dopsání článku): Další naději pro západní industriální společnost vidím v tom, že pokud platí druhá verze Tainterovy hypotézy, že totiž složitost nemusí nutně růst, ale roste jen dokud jsou pro to rezervy, čímž se ovšem vytratí rezervy pro překonávání krizí. Potom bychom mohli (možná trochu optimisticky) tvrdit, že současné celosvětové společnosti jsou tak velké, že rezervy pro budování složitosti nejsou vlastně potřeba, protože na společnosti nemají jak vzniknout tlaky dostatečného měřítka. Proto je, narozdíl od starých civilizací možné, aby dostatečně velká civilizace přežívala za konstantní složitosti, aniž by se objevily skutečné tlaky na její další zvýšení. (Což přestává být samozřejmě relevantní jakmile dochází zdroje. Ale může to představovat odklad.)
sobota 15. května 2010
Přednášky z astrobiologie II
Po absolvování posledního bloku přednášek z astrobiologie jsem se rozhodl zapsat ještě několik dalších perliček, o které se rozdělím. (Mj. abych je sám nezapomněl.) Samozřejmě si uvědomuji, že molekulární biologii vůbec nerozumím, takže budu vděčný za opravy nepřesností, které mi unikly.. Takže směle do toho!
Univerzalita genetického kódu
Možná jste se zamýšleli nad tím, nakolik by bylo odlišné genetické kódování potenciálního mimozemského života. V minulém příspěvku jsem psal, že je představitelných několik koster nukleových kyselin. Nemusí ji tvořit ribosa nebo deoxyribosa, ale třeba i peptidy, nebo jiné látky. V následující přednášce jsme zkoumali, nakolik jsou univerzální báze a kód, na základě kterého se podle nich kóduje tvorba proteinů. Velice zajímavou souvislostí je, že ačkoliv je dnes namodelováno, nebo i experimentálně připraveno mnoho bazí, které by mohly nahradit ty používané námi, cytosin, adenin, guanin a uracil (potažmo thymin) jsou něčím vyjímečné. A to sice tím, že jsou-li excitovány UV zářením, oproti většině alternativních bazí se velmi rychle vracejí do základního stavu - rozdíl je přitom značný [1] (z 10-8 s na 10-12 s). To je klíčové pro stabilitu nukleových kyselin proti UV záření. To totiž molekulu nerozbíjí tak, že by přiletěl foton, který ji prostě rozštípne. Jen ji excituje - a excitovaná molekula je chemicky vysoce nestabilní. Čím dříve se na základní stav vrátí, tím větší je šance, že se molekula nerozštípne. Pokud by se tedy život vyvíjel v prostředí s UV zářením, je velmi pravděpodobné, že by zvolil tytéž báze. Oproti nim však např. ještě existuje varianta, kde je každá z bazí rozšířena o aromatický kruh [2]. Jejich vlastnosti se zdají být podobné (čili tato varianta by asi byla rovněž přípustná) a navíc jsou odolnější vůči teplotě. Je tedy jakási šance, že by je mohly používat organismy, které se již od začátku musely vyrovnat s vyššími teplotami.
Genetický kód je však něco docela jiného. Pro ty, kteří nejsou příliš biologicky zdatní, stejně jako já, napíši, že proteiny se v živých organismech staví tak, že molekula tRNA tvoří jakousi čtecí hlavu, která se přes slabé vazby váže na „datovou pásku“ - mRNA. Z prostorových důvodů, které vypadají v případě nukleových kyselin poměrně univerzálně, se kontakt uskutečňuje vždy přes tři báze (druhá je v nejsilnějším kontaktu, třetí v nejslabším). Podle trojice bází a podle tvaru tRNA se na řetízek proteinů tRNA již tažený, připojí další aminokyselina, nebo se řetízek přeruší. V něm obecně platí, že co nejvíce informace nese druhá pozice (je nejpevnější, tedy i nejméně chybová) a že složitější aminokyseliny jsou kódovány méně redundantně, protože tRNA nemusí zaujmout tolik speciální tvar, aby je připojila. Genetický kód však není univerzální a pro některé živočichy se liší. V průběhu evoluce života se pravděpodobně výrazně měnil. Předpokládá se, že původní přiřazení bylo vesměs náhodné (tRNA není ničím speciální - už dnešní biotechnologie ji umí modifikovat tak, aby kódovací tabulku změnila - a to dokonce přímo uvnitř živých buněk). Případný mimozemský virus (pokud se nevyvinul na místě, odkud byl život ze Země nebo naopak zavlečen - viz teorie panspermie) by tedy byl pro nás zcela neškodný - při syntéze by totiž dostal úplně jiné proteiny, než na jaké je zvyklý.
Masová vymírání
Pokud bychom chtěli vyšetřit, jak stabilní podmínky mnohobuněčný život potřebuje, nejlepší je pravděpodobně podívat se na to, za jakých podmínek na Zemi došlo k velkým vymíráním. Asi nejznámějším z nich je vyhubení dinosaurů před 65 milióny let, které dlouho bylo nevyřešenou záhadou. Dnes již panuje všeobecná shoda, že za jejich vyhubení je zodpovědný impakt planetky o rozměru cca 10 km, který způsobil nejprve horkou rázovou vlnu, která spálila většinu lesů na planětě a poté dlouhé období zimy, které zahubilo plankton a velkou část rostlinstva a tak přerušilo potravní řetězce na planetě. (Jako jeden z hlavních důkazů se uvádí vrstvička iridia - prvku jinak na Zemi vzácného - nacházející se v příslušné geologické vrstvě všude na planetě. Pod ní je vždy vrstva utvořená ze schránek živočichů a těsně nad ní už jen vrstva sedimentů.. Vcelku přesvědčivý argument.)
Co je ovšem zajímavé je, že se zdá, že bylo nějméně několik ještě fatálnějších vymírání, kdy žádné náznaky kosmických impaktů nejsou, nebo jsou přímo vyloučeny. (Před 199-214 mil. lety, před 251 mil. lety před 364 mil. lety, ..) Jako pravděpodobný mechanismus se jeví masivní výlev lávy, který se tou dobou odehrál. Tyto události jsou totiž spojené s výlevy lávy při rozpadu kontinentu Pangey a při vzniku tzv. Sibiřského a Dekanského trapu. Oba trapy jsou masivní vrstvy lávy rozkládající se na značném území Sibiře a Indie. Tak velký výlev měl mnoho neblahých důsledků - výrazné zvýšení koncentrace SO2, CO2 a CH4 v atmosféře vedlo jednak k mohutnému skleníkovému efektu a rychlé změně klimatu, ale i k redukci atmosféry a poklesu hladiny kyslíku. Podle poměrně nové teorie z r. 2005 [6] tyto podmínky svědčí anaerobním mikroorganismům žijícím na dně moře a produkujícím H2S. Právě jejich biologické markery byly nalezeny ve vrstvách z epizod některých významných vymírání. (Tuto informaci nemám z Kopeckého přednášky, takže snad jsem to nemisinterpretoval..) Zdá se, že prudký nárůst teploty a redukce atmosféry způsobí jejich rozšíření, které se projeví zrůžověním části moří, ve kterých se vyskytují. Nakonec to tedy možná není nedostatek kyslíku nebo teplo, ale nadprodukce sulfanu, který mnohobuněčný život zkrátka otráví. Peter Ward o této teorii mluví v následujícím TEDTalku [7]. (Ward rovněž uvádí, že při 1000 ppm oxidu uhličitého v atmosféře kompletně roztají polární čepičky a při asi dvakrát vyšší koncentraci začíná „efekt růžových moří“ - CO2 však není jediný plyn, jehož koncentrace se měnila.)
Na konci Permu, před příchodem éry dinosaurů, bylo množství kyslíku v atmosféře tak velké, že hořelo skoro i mokré dřevo. Toto množství kyslíku začátkem Triasu rapidně pokleslo. Tehdy souši vládla zvířata ne nepodobná dnešním savcům. Přestože mohla být životaschopnější za běžných podmínek - byla chytřejší a teplokrevná, měla větší nároky na kyslík, díky čemuž pravděpodobně během období redukce atmosféry a jejího zamoření sulfanem podlehla plazům. Z toho, jak může být zemská tektonika fatální lze nepřímo usuzovat, že planety těžší než Země s větší tektonickou činností, mohou svůj mnohobuněčný život pravidelně hubit - to by ještě zúžilo aktuální rozmezí hmotností planet, na kterých se život může vyvinout.
Dobrou příležitost k výzkumu vymírání představuje kompendium asi 36 000 druhů mořských měkkýšů, kteří mají relativně stabilní podmínky v podstatě celou dobu své historie. Podle vývoje počtu jejich druhů můžeme datovat vymírání poměrně podrobně. Ukazuje se, že impakty planetek na Zemský povrch pravděpodobně nejsou tak fatální, jako velké výlevy lávy (co do počtu vyhynutí), ale zato jsou častější. Ve vymíráních lze vypozorovat dvě významné frekvence. ~ 63 milionů let a ~ 140 milionů let. (První je jistá, druhá je těsně na hranici chyby.) Není bez zajímavosti, že právě toto jsou periody, se kterými Slunce prochází spirálními rameny Mléčné dráhy a galaktickou rovinou - tedy místy s větší hustotou hvězd. Pravděpodobný scénář těchto periodických vymírání tedy je, že blízké hvězdy naruší dráhy těles na vnějšku Sluneční soustavy a tím se zvýší množství dopadů na vnitřní planety. (Zda dopad planetky nastartuje „efekt růžových moří“ nebo ne nevím. Pravděpodobně však není vyhrazen jen pro výlevy lávy.)
Jak je Země vzácná?
Téměř pokaždé, když Vám někdo něco povídá o mimozemnském životě, přijde ke slovu Drakeova rovnice pro výpočet četnosti mimozemských civilizací. Ta je sice z definice správná, ale obsahuje spoustu pravděpodobnostních koeficientů, které většinou nejsme schopni nijak blíže odhadnout. Přesto mi přišlo zajímavé se zamyslet nad jednotlivými členy. Hlavní slovo bude mít člen zodpovědný za výskyt planet podobných Zemi. Ten dnes můžeme odhadovat jednak z pozorování exoplanet a z modelování vzniku slunečních soustav. Předevěším se ukazuje, že se poměrně velmi často stává, že dráhy plynných obrů jsou nestabilní a během vývoje migrují. Nezanedbatelné procento soustav skončí s „horkým Jupiterem“ někde kolem vzdálenosti Merkura, který skrz gravitační rezonance vymete všechny menší planety z obyvatelné zóny. Toto vymetení se může udát i během procesu migrace planet, aniž by se plynní obři přímo dostali do blízkosti hvězdy. (Bohatě stačí jedna, která má výstřední dráhu a jednou za čas prolétne dostatečně blízko.) Navíc je ovšem vhodné mít tyto planety vně, protože třeba Jupiter odvrací velké množství impaktů svou přítomností. (Jak jsem psal minule - tento fakt by znamenal, že život na měsíci takové planety by měl sice zaručenou stabilní dráhu, ale musel by si poradit s častými impakty a vysokou radiací plynného obra - a jak mohou být impakty fatální víme díky vymíráním.)
Další nepravděpodobnou věcí je velký měsíc, který má poměrně důležitou funkci, neboť stabilizuje rotační osu Země. Zachycení takové oběžnice v podstatě není možné - soudí se, že Měsíc vznikl srážkou s tělesem velikosti Marsu a vyvržením části hmoty na oběžnou dráhu. Taková událost je poměrně málo pravděpodobná. Kromě toho, že Měsíc stabilizuje osu, podporuje slapovým působením deskovou tektoniku, která je v jisté míře důležitá, aby všechny biogenní sloučeniny neskončily pasivně v usazeninách a údajně snad mohl hrát jím způsobený přiliv a odliv roli při vzniku života pravidelným zavlažováním a následně odpařováním zahušťováných pobřežních jezírek, kde se život mohl vyvíjet, nejsem tak úplně přesvědčený, že bez něj by to nešlo. To už je ale velmi spekulativní závěr.
Pak je tu ještě omezení na velikost. Planety menší než je Země budou ztrácet poměrně rychle vodu do kosmického prostoru (permanentně uniká i ze Země) a rychle zchladnou a ztratí tenktonickou činnost, důležitou pro aktivní biosféru. Jak jsem psal výše, větší planety zase mohou mnohobuněčný život nadměrnou tektonikou hubit.
Hypotézou, která by už tak nízkou pravděpodobnost výskytu Země znížila na naprosté minimum je hypotéza vzplanutí jádra galaxie. (Také dosti spekulativní, přesto zajímavá.) Astronomové pravidelně pozorují tzv. Seyfertovy galaxie. Jsou to spirální galaxie, kde černá díra uprostřed nesedí pasivně, jako v té naší, ale polyká velké množství hmoty, které se dostalo do jejího okolí. Jádro takové galaxie je pak až stokrát zářivější, což má za následek sterilizaci všeho živého v celé galaxii vlivem gama záření, je-li jádro na dohled (to naše není), popř. intenzivním částicovým bombardováním, i pokud viditelné není. Četnost vzplanutí jádra spirálních galaxií se odhaduje na jednou za milion až miliardu let. Hypotéza říká, že i Mléčná dráha byla několikrát Seyfertovou galaxií - oběžná dráha Slunce je však natolik speciální, že se Slunce opakovaně nacházelo ve spirálním rameni, když ke vzplanutí došlo. (Slunce skutečně má jinou rychlost než okolní hvězdy.) Tamní vyšší hustota plasmy by částicové bombardování odstínila a tím by se život na Zemi zachránil. Tato teorie je sice značně spekulativní, nicméně pokud by byla pravdivá, pak nejen, že jsme v naší galaxii skoro jistě sami, ale i pravděpodobnost vzniku inteligentního života v jiných spirálních galaxiích bude mizivá. (Ward v knize Vzácná Země uvádí, že eliptické a nepravidelné galaxie mají pro život příliš nízkou metalicitu, takže možná mnohobuněčný život vůbec bude velmi vzácný, zdroj jsem ale ještě neověřil.
I když pomineme Seyfertovy galaxie, zdá se, že ačkoliv může být vznik mikrobiálního života poměrně pravděpodobný a hojný, podmínky potřebné pro mnohobuněčný život budou daleko více speciální.
Citace:
Univerzalita genetického kódu
Možná jste se zamýšleli nad tím, nakolik by bylo odlišné genetické kódování potenciálního mimozemského života. V minulém příspěvku jsem psal, že je představitelných několik koster nukleových kyselin. Nemusí ji tvořit ribosa nebo deoxyribosa, ale třeba i peptidy, nebo jiné látky. V následující přednášce jsme zkoumali, nakolik jsou univerzální báze a kód, na základě kterého se podle nich kóduje tvorba proteinů. Velice zajímavou souvislostí je, že ačkoliv je dnes namodelováno, nebo i experimentálně připraveno mnoho bazí, které by mohly nahradit ty používané námi, cytosin, adenin, guanin a uracil (potažmo thymin) jsou něčím vyjímečné. A to sice tím, že jsou-li excitovány UV zářením, oproti většině alternativních bazí se velmi rychle vracejí do základního stavu - rozdíl je přitom značný [1] (z 10-8 s na 10-12 s). To je klíčové pro stabilitu nukleových kyselin proti UV záření. To totiž molekulu nerozbíjí tak, že by přiletěl foton, který ji prostě rozštípne. Jen ji excituje - a excitovaná molekula je chemicky vysoce nestabilní. Čím dříve se na základní stav vrátí, tím větší je šance, že se molekula nerozštípne. Pokud by se tedy život vyvíjel v prostředí s UV zářením, je velmi pravděpodobné, že by zvolil tytéž báze. Oproti nim však např. ještě existuje varianta, kde je každá z bazí rozšířena o aromatický kruh [2]. Jejich vlastnosti se zdají být podobné (čili tato varianta by asi byla rovněž přípustná) a navíc jsou odolnější vůči teplotě. Je tedy jakási šance, že by je mohly používat organismy, které se již od začátku musely vyrovnat s vyššími teplotami.
Modifikované báze DNA, a vzhled alternativní šroubovice. [2]
Genetický kód je však něco docela jiného. Pro ty, kteří nejsou příliš biologicky zdatní, stejně jako já, napíši, že proteiny se v živých organismech staví tak, že molekula tRNA tvoří jakousi čtecí hlavu, která se přes slabé vazby váže na „datovou pásku“ - mRNA. Z prostorových důvodů, které vypadají v případě nukleových kyselin poměrně univerzálně, se kontakt uskutečňuje vždy přes tři báze (druhá je v nejsilnějším kontaktu, třetí v nejslabším). Podle trojice bází a podle tvaru tRNA se na řetízek proteinů tRNA již tažený, připojí další aminokyselina, nebo se řetízek přeruší. V něm obecně platí, že co nejvíce informace nese druhá pozice (je nejpevnější, tedy i nejméně chybová) a že složitější aminokyseliny jsou kódovány méně redundantně, protože tRNA nemusí zaujmout tolik speciální tvar, aby je připojila. Genetický kód však není univerzální a pro některé živočichy se liší. V průběhu evoluce života se pravděpodobně výrazně měnil. Předpokládá se, že původní přiřazení bylo vesměs náhodné (tRNA není ničím speciální - už dnešní biotechnologie ji umí modifikovat tak, aby kódovací tabulku změnila - a to dokonce přímo uvnitř živých buněk). Případný mimozemský virus (pokud se nevyvinul na místě, odkud byl život ze Země nebo naopak zavlečen - viz teorie panspermie) by tedy byl pro nás zcela neškodný - při syntéze by totiž dostal úplně jiné proteiny, než na jaké je zvyklý.
Alternativní postranní řetězce k RNA - threosová, peptidová, odvozená z glycorelu a z pyranosylu. B značí bazi.
Masová vymírání
Pokud bychom chtěli vyšetřit, jak stabilní podmínky mnohobuněčný život potřebuje, nejlepší je pravděpodobně podívat se na to, za jakých podmínek na Zemi došlo k velkým vymíráním. Asi nejznámějším z nich je vyhubení dinosaurů před 65 milióny let, které dlouho bylo nevyřešenou záhadou. Dnes již panuje všeobecná shoda, že za jejich vyhubení je zodpovědný impakt planetky o rozměru cca 10 km, který způsobil nejprve horkou rázovou vlnu, která spálila většinu lesů na planětě a poté dlouhé období zimy, které zahubilo plankton a velkou část rostlinstva a tak přerušilo potravní řetězce na planetě. (Jako jeden z hlavních důkazů se uvádí vrstvička iridia - prvku jinak na Zemi vzácného - nacházející se v příslušné geologické vrstvě všude na planetě. Pod ní je vždy vrstva utvořená ze schránek živočichů a těsně nad ní už jen vrstva sedimentů.. Vcelku přesvědčivý argument.)
Co je ovšem zajímavé je, že se zdá, že bylo nějméně několik ještě fatálnějších vymírání, kdy žádné náznaky kosmických impaktů nejsou, nebo jsou přímo vyloučeny. (Před 199-214 mil. lety, před 251 mil. lety před 364 mil. lety, ..) Jako pravděpodobný mechanismus se jeví masivní výlev lávy, který se tou dobou odehrál. Tyto události jsou totiž spojené s výlevy lávy při rozpadu kontinentu Pangey a při vzniku tzv. Sibiřského a Dekanského trapu. Oba trapy jsou masivní vrstvy lávy rozkládající se na značném území Sibiře a Indie. Tak velký výlev měl mnoho neblahých důsledků - výrazné zvýšení koncentrace SO2, CO2 a CH4 v atmosféře vedlo jednak k mohutnému skleníkovému efektu a rychlé změně klimatu, ale i k redukci atmosféry a poklesu hladiny kyslíku. Podle poměrně nové teorie z r. 2005 [6] tyto podmínky svědčí anaerobním mikroorganismům žijícím na dně moře a produkujícím H2S. Právě jejich biologické markery byly nalezeny ve vrstvách z epizod některých významných vymírání. (Tuto informaci nemám z Kopeckého přednášky, takže snad jsem to nemisinterpretoval..) Zdá se, že prudký nárůst teploty a redukce atmosféry způsobí jejich rozšíření, které se projeví zrůžověním části moří, ve kterých se vyskytují. Nakonec to tedy možná není nedostatek kyslíku nebo teplo, ale nadprodukce sulfanu, který mnohobuněčný život zkrátka otráví. Peter Ward o této teorii mluví v následujícím TEDTalku [7]. (Ward rovněž uvádí, že při 1000 ppm oxidu uhličitého v atmosféře kompletně roztají polární čepičky a při asi dvakrát vyšší koncentraci začíná „efekt růžových moří“ - CO2 však není jediný plyn, jehož koncentrace se měnila.)
Bezkyslíkaté prostředí v mělkých mořích může způsobit rozšíření bakterií produkujících sulfan - při masovém rozšíření vede k vymíráním [7], [9].
Na konci Permu, před příchodem éry dinosaurů, bylo množství kyslíku v atmosféře tak velké, že hořelo skoro i mokré dřevo. Toto množství kyslíku začátkem Triasu rapidně pokleslo. Tehdy souši vládla zvířata ne nepodobná dnešním savcům. Přestože mohla být životaschopnější za běžných podmínek - byla chytřejší a teplokrevná, měla větší nároky na kyslík, díky čemuž pravděpodobně během období redukce atmosféry a jejího zamoření sulfanem podlehla plazům. Z toho, jak může být zemská tektonika fatální lze nepřímo usuzovat, že planety těžší než Země s větší tektonickou činností, mohou svůj mnohobuněčný život pravidelně hubit - to by ještě zúžilo aktuální rozmezí hmotností planet, na kterých se život může vyvinout.
Dobrou příležitost k výzkumu vymírání představuje kompendium asi 36 000 druhů mořských měkkýšů, kteří mají relativně stabilní podmínky v podstatě celou dobu své historie. Podle vývoje počtu jejich druhů můžeme datovat vymírání poměrně podrobně. Ukazuje se, že impakty planetek na Zemský povrch pravděpodobně nejsou tak fatální, jako velké výlevy lávy (co do počtu vyhynutí), ale zato jsou častější. Ve vymíráních lze vypozorovat dvě významné frekvence. ~ 63 milionů let a ~ 140 milionů let. (První je jistá, druhá je těsně na hranici chyby.) Není bez zajímavosti, že právě toto jsou periody, se kterými Slunce prochází spirálními rameny Mléčné dráhy a galaktickou rovinou - tedy místy s větší hustotou hvězd. Pravděpodobný scénář těchto periodických vymírání tedy je, že blízké hvězdy naruší dráhy těles na vnějšku Sluneční soustavy a tím se zvýší množství dopadů na vnitřní planety. (Zda dopad planetky nastartuje „efekt růžových moří“ nebo ne nevím. Pravděpodobně však není vyhrazen jen pro výlevy lávy.)
Efekt růžových moří zjištěný pomocí biomarkerů anaerobních bakterií vyžadujících sulfan - [9].
Téměř pokaždé, když Vám někdo něco povídá o mimozemnském životě, přijde ke slovu Drakeova rovnice pro výpočet četnosti mimozemských civilizací. Ta je sice z definice správná, ale obsahuje spoustu pravděpodobnostních koeficientů, které většinou nejsme schopni nijak blíže odhadnout. Přesto mi přišlo zajímavé se zamyslet nad jednotlivými členy. Hlavní slovo bude mít člen zodpovědný za výskyt planet podobných Zemi. Ten dnes můžeme odhadovat jednak z pozorování exoplanet a z modelování vzniku slunečních soustav. Předevěším se ukazuje, že se poměrně velmi často stává, že dráhy plynných obrů jsou nestabilní a během vývoje migrují. Nezanedbatelné procento soustav skončí s „horkým Jupiterem“ někde kolem vzdálenosti Merkura, který skrz gravitační rezonance vymete všechny menší planety z obyvatelné zóny. Toto vymetení se může udát i během procesu migrace planet, aniž by se plynní obři přímo dostali do blízkosti hvězdy. (Bohatě stačí jedna, která má výstřední dráhu a jednou za čas prolétne dostatečně blízko.) Navíc je ovšem vhodné mít tyto planety vně, protože třeba Jupiter odvrací velké množství impaktů svou přítomností. (Jak jsem psal minule - tento fakt by znamenal, že život na měsíci takové planety by měl sice zaručenou stabilní dráhu, ale musel by si poradit s častými impakty a vysokou radiací plynného obra - a jak mohou být impakty fatální víme díky vymíráním.)
Další nepravděpodobnou věcí je velký měsíc, který má poměrně důležitou funkci, neboť stabilizuje rotační osu Země. Zachycení takové oběžnice v podstatě není možné - soudí se, že Měsíc vznikl srážkou s tělesem velikosti Marsu a vyvržením části hmoty na oběžnou dráhu. Taková událost je poměrně málo pravděpodobná. Kromě toho, že Měsíc stabilizuje osu, podporuje slapovým působením deskovou tektoniku, která je v jisté míře důležitá, aby všechny biogenní sloučeniny neskončily pasivně v usazeninách a údajně snad mohl hrát jím způsobený přiliv a odliv roli při vzniku života pravidelným zavlažováním a následně odpařováním zahušťováných pobřežních jezírek, kde se život mohl vyvíjet, nejsem tak úplně přesvědčený, že bez něj by to nešlo. To už je ale velmi spekulativní závěr.
Pak je tu ještě omezení na velikost. Planety menší než je Země budou ztrácet poměrně rychle vodu do kosmického prostoru (permanentně uniká i ze Země) a rychle zchladnou a ztratí tenktonickou činnost, důležitou pro aktivní biosféru. Jak jsem psal výše, větší planety zase mohou mnohobuněčný život nadměrnou tektonikou hubit.
Hypotézou, která by už tak nízkou pravděpodobnost výskytu Země znížila na naprosté minimum je hypotéza vzplanutí jádra galaxie. (Také dosti spekulativní, přesto zajímavá.) Astronomové pravidelně pozorují tzv. Seyfertovy galaxie. Jsou to spirální galaxie, kde černá díra uprostřed nesedí pasivně, jako v té naší, ale polyká velké množství hmoty, které se dostalo do jejího okolí. Jádro takové galaxie je pak až stokrát zářivější, což má za následek sterilizaci všeho živého v celé galaxii vlivem gama záření, je-li jádro na dohled (to naše není), popř. intenzivním částicovým bombardováním, i pokud viditelné není. Četnost vzplanutí jádra spirálních galaxií se odhaduje na jednou za milion až miliardu let. Hypotéza říká, že i Mléčná dráha byla několikrát Seyfertovou galaxií - oběžná dráha Slunce je však natolik speciální, že se Slunce opakovaně nacházelo ve spirálním rameni, když ke vzplanutí došlo. (Slunce skutečně má jinou rychlost než okolní hvězdy.) Tamní vyšší hustota plasmy by částicové bombardování odstínila a tím by se život na Zemi zachránil. Tato teorie je sice značně spekulativní, nicméně pokud by byla pravdivá, pak nejen, že jsme v naší galaxii skoro jistě sami, ale i pravděpodobnost vzniku inteligentního života v jiných spirálních galaxiích bude mizivá. (Ward v knize Vzácná Země uvádí, že eliptické a nepravidelné galaxie mají pro život příliš nízkou metalicitu, takže možná mnohobuněčný život vůbec bude velmi vzácný, zdroj jsem ale ještě neověřil.
I když pomineme Seyfertovy galaxie, zdá se, že ačkoliv může být vznik mikrobiálního života poměrně pravděpodobný a hojný, podmínky potřebné pro mnohobuněčný život budou daleko více speciální.
Citace:
- [1] - PNAS 103, 8691-8696 (2006)
- [2] - Science 302, 868 (2003)
- [3] - Mal’nev: The dynamical evolution of stellar-planetary systems, SpringerLink (2006)
- [4] - Thommes: Gas Disks to Gas Giants: Simulating the Birth of Planetary systems, Science 321, pp. 814
- [5] - MJ Health: Springerlink 29, 405 (1999)
- [6] - Kump et. al., doi: 10.1130/G21295.1 - přístup nemám
- [7] - Ward, TEDTalk
- [8] - Danovaro, The first metazoa living in permanently anoxic conditions
- [9] - ad Purple bacteria, presentation
neděle 18. dubna 2010
Přednášky z astrobiologie
Nejsou zase až tak daleko doby, kdy zkoušet vůbec odhadnout, jak vypadal začátek našeho vesmíru vyvolalo spíše úsměv fyziků, než seriózní zájem. Mám dojem, že pojem astrobiologie, tedy věda zkoumající, kde všude bychom měli ve vesmíru hledat život a jak by mohl vypadat, bude u mnohých dnes také vzbuzovat přinejmenším podezření. Přesto se spojením znalostí astronomie, chemie, biologie, geologie a fyziky dá o životě ve vesmíru říci už poměrně hodně. Tento příspěvek jsem se rozhodl napsat v reakci na výbornou přednášku RNDr. Vladimíra Kopeckého, Ph.D., kterou letos navštěvuji, abych se podělil alespoň o to nejzajímavější.
Jak může život vypadat?
První zajímavá otázka je, jak obecně může život vypadat? (Ponechávám stranou otázku, co život je - vesměs ale hledáme něco, co funguje si udržuje nízkou entropii za vysokých teplot (je dlouhodobě mimo termodynamickou rovnováhu) a je schopno se rozmnožovat, i když definice se liší.) I když v principu není vyloučené, že by život nefungoval na chemickém principu (zvířátka uplácaná z neutronového degenerovaného plynu na neutronových hvězdách, jako to píše Forward v Dračím vejci), jen o běžné hmotě založené na atomech víme dost, abychom ji mohli nějak seriózně vyšetřovat. Nejprve jsme se zaměřili na otázku, zda může být život postaven na jiných sloučeninách, než na sloučeninách uhlíku. Tvorby delších řetězců jsou schony v zásadě jen bor, dusík, uhlík, křemík a fosfor. Sloučeniny boru, dusíku a fosforu jsou však velmi nestabilní, takže jsme je rovnou vyloučili.
Křemík vyžaduje delší vyšetřování. Ten má však oproti uhlíku několik nevýhod - především nemá vazby s kyslíkem vodíkem a sám sebou na stejné, přijatelné energii. Vazba s kyslíkem je příliš pevná, takže spolu s kyslíkem velmi ochotně oxiduje (a to dokonce i ve vodě) a výsledné sloučeniny jsou inertní za teplot nižších než několik stovek °C. Vysoké teploty a tlaky omezením nejsou, ale pro takové sloučeniny je těžké najít rozpouštědlo. Pokud by v daném prostředí nebyl přítomný kyslík, samotná chemie silanů, polymerů křemíku a vodíku, je poměrně bohatá. Jen funguje za nízkých teplot a vysokých tlaků. Voda pro ně není vhodným rozpouštědlem kvůli reakci s kyslíkem, ve hře však zůstáván třeba metan. Další nevýhodou křemíkové chemie je tzv. stínící efekt, který narušuje aromaticitu případných benzenu-podobných jader, což dělá Si-chemii chudší. Dalším zajímavým kandidátem by mohly být zeolity postavené z Si-O tetraedrů fungující za teplot kolem tisíců stupňů. Takové podmínky jsou např. v zemském plášti, nic zajímavého zde však nepozorujeme.
Pokud se smíříme s tím, že uhlík je díky svým speciálním vlastnostem (které samy o sobě mohou být docela dobře vyladěné pro život, vezmeme-li do úvahy, jak málo by bylo možno pohnout třeba hmotností elektronu, aby jeho vlastnosti zůstaly stejné, nebo poměru protonu k neutronu, aby vůbec ve hvězdách uhlík vznikl) opravdu nejlepším kandidátem pro vznik života, můžeme se zaměřit na skupenství, v jakém by typicky měl život vznikat. Vybudovat život pouze v plynné fázi je velmi těžko představitelné, protože jelikož plynných termodynamických fází nemůže existovat vedle sebe více a nemáme tak ekvivalent hydrofilního-hydrofóbního chování, které skrz lipidové dvojvrstvy odděluje biogenní látky od okolí. Zkrátka by bylo pro takový život příliš těžké bojovat s difuzí a s výkyvy hustoty. Kapalné skupenství pomáhá udržovat stabilní koncentrace látek a zároveň umožňuje, narozdíl od pevných látek, jejich rychlý transport mezi jednotlivými reakčními místy. Proto jsme v další fázi přednášky hledali možná vhodná rozpouštědla, na kterých by se dal uhlíkatý život postavit. (Podle [1].)
NH3 - menší povrchové napětí než voda (ne tak dobře koncentruje molekuly, snáz se vypařuje), rozklad N-H vazby nechrání před UV zářením
HCN, H2S, CH3OH - problematické z různých podobných důvodů.
HF - velmi podobná vodě co do vlastností, ale fluoru je ve vesmíru 1000x méně než C,N,O
N2H4 - vhodný, ale reaguje prudce s kyslíkem, prostředí bez něj těžko je těžko představitelné.
CH4, C2H6 - jsou možné a podporují i vznik aminokyselin, jen narozdíl od předchozích jsou nepolární, takže by všechny membrány musely být postaveny naopak. To je možné, ale nemáme s tím příliš zkušeností.
Přesto najít něco schopné nahradit vodu nemusí být snadné, protože má mnoho anomálií:
Z naší biosféry známe mnoho způsobů příjmu energie. Především fototrofii (zisk ze světla fotosyntézou) a chemotrofii (zisk rozkladem látek získaných z jiných živočichů). Lze si však představit i mnoho jiných a mnohdy je překvapivé, že je náš život nerealizuje. Fototrofie je např. možná i na nižších vlnových délkách - od infračervené až k mikrovlnám. Jen by bylo potřeba stavět daleko větší "antény", takže se taková investice nevyplácí. Zisk z UV záření příliš pravděpodobný není, protože UV rozkládá téměř všechny organické biomolekuly. Pak je ale ještě mnoho dalších možností - např. kinetotrofie, kdy živočich získává energii z okolo proudící vody, např. pomocí pohyblivých brv. Další možností je termotrofie - takový živočich by fungoval podobně jako parní stroj. Seděl by u nějakého horkého zřídla, nahřál by se a potom by odešel do chladnější oblasti - tak by vlastně konal Carnotův cyklus. Takový způsob zisku energie by mohl být klíčový např. pro případný život na Europě - Jupiterově měsíci, kde by mohl být díky slapovým silám pod zmrzlým povrchem velký oceán vody - tedy v prostředí, kde žádné světlo není. Podobnou věc by šlo provádět i na úkor osmotického nebo iontového gradientu, pokud by se v daném prostředí vyskytoval. (Gradient koncentrace soli v našem moři ale dostatečný není.) Naproti tomu gravotrofii nebo magnetotrofii (zisk energie z gravitačního nebo magnetického pole) můžeme v podstatě vyloučit - jsou příliš neefektivní, snad jen kromě jinak letálního okolí neutronových hvězd.
Obyvatelné zóny kolem hvězd
Poměrně hodně článků se věnuje tomu, jaká oblast kolem hvězd jakého typu je vhodná pro terrestické planety hostící život. (Např. [2], odkud jsem si i půjčil některé obrázky.) Především se většinou předpokládá život založený na uhlíku a vodě. Příliš hmotné hvězdy se předem vyloučí, protože jejich životnost je jen stovky milionů let, což nestačí pro stabilizaci podmínek na planetách. Obyvatelná zóna se pak počítá podle výkonu hvězdy se zohledněním atmosféry a jejího spektra co do skleníkového efektu. Vnitřní okraj je dán bodem, kdy se odpaří dost vody na vyvolání sebepodporujícího skleníkového efektu, při kterém se vypaří oceán. (Kupodivu nejsme této hranici zase tak moc daleko - jen pět procent vzdálenosti.) Za horní hranici se často bere teplota, kdy už ani skleníkový efekt neudrží oxid uhličitý před zmrznutím - pak totiž již nebude žádný skleníkový plyn, který by se mohl hromadit ze sopečné činnosti který by stav zmrzlosti mohl zvrátit. Na grafu je takto vyhraničený pás značen písmeny HZ (habitable zone). Také se musíme dívat do průniku s oblastí, kde se typicky tvoří zemi-podobné kamenné planety. Z toho, že menší hvězdy žijí déle a je jich více by se dalo soudit, že by měly být pro život nejvhodnější. To je asi pravda, ale jen do jisté míry. Jakmile je hvězda příliš malá, září tak slabě, že planety musíme přistrčit velmi blízko k ní. Pak ale daleko rychleji vznikne vázaná rotace (čára "tidal lock radius" a oblast vlevo od ní na grafu), takže planeta na tom bude jako náš Měsíc vzhledem k Zemi - bude hledět neustále jednou stranou ke hvězdě a opačnou od ní. Takový stav je pro život udržitelný jen asi s 1,5 krát hustší atmosférou, která by teplo rozváděla. (Když ponecháme otázky, jaké vichry by asi na takové planetě panovaly.) Protože je však taková planeta příliš blízko atmosféry hvězdy, je docela pravděpodobné, že by byla atmosféra odfouknuta - červení trpaslíci tedy nejsou asi tím nejlepším kandidátem.
Měsíce velkých planet
Zajímavou myšlenkou je rovněž zkoumat měsíce velkých planet Jupiterova typu v obyvatelné zóně, jako byla třeba Pandora ve známém Avatarovi. Pak odpadá starost o to, zda se tvoří terrestické planety ve vhodné vzdálenosti. Ačkoliv se plynní obři v obyvatelné zóně typicky nezrodí (sluneční vítr je tak silný, že vodík a helium odfoukne), jak se ukazuje z modelů i pozorování exoplanet, plynní obři mohou do vnitřního pásu doputovat a nevypařit se. Neměli bychom však zapomínat, že plynní obři mají velmi silné magnetické pole, které je provázeno silnou částicovou radiací (plazma zamrzlé v magnetickém poli) - měsíc by tak musel být geologicky aktivní a mít silné magnetické pole, které by jej chránilo. To by neměl být problém - i u těles mnohem menších než Země (vyžadována je alespoň pětina hmoty, kvůli udržení atmosféry) slapové síly centrální planety geologickou aktivitu zaručují. (Jen tak bokem - ta je údajně důležitá i proto, aby se všechny stavební prvky neusadily v usazeninách, čímž by byly vyňaty z koloběhu života - geologická aktivita je vrací skrz sopečnou činnost zpět do oběhu.)
Druhý problém spočívá v tom, že obří planety velmi často zachycují asteroidy a komety. Takže zatímco nás před nimi vhodně postavený Jupiter vlastně chrání, případná Pandora by čelila daleko větší frekvenci srážek. Otázka je, jestli za takovýchto podmínek mohou složitější živočichové úspěšně fungovat.
Obyvatelná zóna galaxií
Obdobně, jako se dá stanovit obyvatelná zóna kolem hvězd, dá se na základě jistých úvah odhadnout, které oblasti v galaxii budou pro vznik života vhodné. Tyto úvahy, čerpané z článku [3], vychází ze dvou poměrně dobře modelovatelných parametrů - v četnosti supernov, které život cca do 30 světelných let spolehlivě hubí, a tzv. metalicity, tedy zastoupení prvků těžších než helium, ze kterých je život postaven. (Název metalicita plyne z toho, že pro astrofyziky je cokoliv těžšího než helium "kov".) Zatímco ve středu spirální galaxie je mnoho těžkých hvězd, které okolí obohacují o stavební prvky, supernovy jsou zde tak časté, že každých pár set milionů let je život smeten. Na okraji galaxie se zase předpovídá tak nízká metalicita, že není z čeho stavět. (Některá novější pzorování však údajně i v těchto oblastech zjistila formaldehyd v molekulárních mračnech, takže i zde stavební prvky jsou - to se přičítá pohlcení menších galaxií tou naší, takže graf je třeba brát trochu s rezervou.) Autoři mj. také vyřazují oblast s příliš vysokou metalicitou, protože pak se očekává, že se budou tvořit místo terrestických planet především plynní obři, jejichž satelity pro vznik života autoři neuvažují. A v neposlední řadě předpokládají jakési rozdělení pravděpodobnosti, že se život za jistou dobu stihne vyvinout, čímž se diskvalifikují příliš mladé hvězdy - takový parametr je ovšem vysloveně spekulativní - horní oblast grafu tedy úplně vyřadit nelze.
Chemie počátků života
Dalším velkým tématem je, kde se vlastně vzaly organické látky, ze kterých původní život pravděpodobně vznikl. Zde se již nebudu pouštět do takových detailů - nejlépe, když si na přednášku z astrobiologie zajdete sami. Velice zajímavé ovšem je např. to, že už v samotných mračnech mezihvězdného plynu se najde hodně složitých organických látek. Hustota v těchto mračnech je taková, že zde se zde dvě vybrané molekuly srazí asi jednou za jeden a půl roku, takže téměř všechny reakce musí probíhat buď díky záchytu molekul na prachových zrnkách, kde se koncentrují do poměrně složité vrstevnaté struktury, nebo v rázových vlnách, kde je hustota vyšší. Ukazuje se, že kromě bohatého spektra jednodušších látek (HCN, formaldehyd, ..) se v pračnech nachází fullereny a především polycyklické aromatické uhlovodíky, které mají poměrně slušný potenciál představovat základ organické chemie v rodících se planetách. V drobném množství se vyskytují i aminokyseliny. Většina těchto látek je však, jakmile se hvězda zažehne, rozbita UV zářením - dokonce ani v kometárním materiálu se ve Sluneční soustavě již polycyklické aromatické uhlovodíky nenašly.
Aminokyseliny a další stavební bloky však není, jak se ukazuje, žádný problém v redukční atmosféře připravit abioticky (viz Millerův experiment), dokonce ani báze nukleových kyselin (Oró experiment). Jediný problém je s výrobou a především udržením cukrů, které se velmi rychle rozpadají. Pokud se soudí, že na zrodu života musela být molekula, která byla schopná se replikovat, čímž by se nastartoval mechanismus evoluce, a pokud by hlavním kandidátem byla molekula založená na nukleových kyselinách (nejspíše forma RNA, protože DNA nemá řadu jejích funkcí, z čehož se dá soudit, že se vyvinula později účelově), hledá se její obdoba, která by neobsahovala ribosu, která byla v raných podmínkách patrně velmi vzácná. Skutečně se ukazuje, že existují peptidové nukleové kyseliny (PNA), které fungují a ribosu k tomu nepotřebují - ty mohly být prekurzorem života založeného na RNA. Další variantu do hry vnesl článek D. H. Lee et al., Nature 382 (1996) 525–528. Bylo zjištěno, že za jistých podmínek existují proteiny, které se samy dokáží replikovat, není tedy nutné, aby tuto funkci hned od začátku zastávaly nukleové kyseliny. Která z variant se v přírodě nakonec realizovala se zatím neví.
Myslím, že biochemici a biofyzici by ocenili daleko víc chemických detailů, které se na přednášce rozebírají. (Alternativní báze jiných forem nukleových kyselin, alternativa k proteinům jako takovým, kde není vše vázáno striktně přes peptidickou vazbu, ale přesto je potřeba střídání kladných a záporných bloků kvůli foldingu (př. amidy, sulfoamidy, fosfoamidy, ale ne estery), apod. [4]) Já se však na ně dívám spíš jako na obrázky. Rozhodně přednášku doporučuji všem, kteří nejdou ve fyzice jen po aplikacích a rádi se zamýšlí i nad možnými jinými způsoby fungování světa, nebo jeho fungování v dobách, ze kterých nemáme příliš mnoho informací k bádání.
Shrnutí zdrojů, které by mohly stát za pozornost:
Jak může život vypadat?
První zajímavá otázka je, jak obecně může život vypadat? (Ponechávám stranou otázku, co život je - vesměs ale hledáme něco, co funguje si udržuje nízkou entropii za vysokých teplot (je dlouhodobě mimo termodynamickou rovnováhu) a je schopno se rozmnožovat, i když definice se liší.) I když v principu není vyloučené, že by život nefungoval na chemickém principu (zvířátka uplácaná z neutronového degenerovaného plynu na neutronových hvězdách, jako to píše Forward v Dračím vejci), jen o běžné hmotě založené na atomech víme dost, abychom ji mohli nějak seriózně vyšetřovat. Nejprve jsme se zaměřili na otázku, zda může být život postaven na jiných sloučeninách, než na sloučeninách uhlíku. Tvorby delších řetězců jsou schony v zásadě jen bor, dusík, uhlík, křemík a fosfor. Sloučeniny boru, dusíku a fosforu jsou však velmi nestabilní, takže jsme je rovnou vyloučili.
Křemík vyžaduje delší vyšetřování. Ten má však oproti uhlíku několik nevýhod - především nemá vazby s kyslíkem vodíkem a sám sebou na stejné, přijatelné energii. Vazba s kyslíkem je příliš pevná, takže spolu s kyslíkem velmi ochotně oxiduje (a to dokonce i ve vodě) a výsledné sloučeniny jsou inertní za teplot nižších než několik stovek °C. Vysoké teploty a tlaky omezením nejsou, ale pro takové sloučeniny je těžké najít rozpouštědlo. Pokud by v daném prostředí nebyl přítomný kyslík, samotná chemie silanů, polymerů křemíku a vodíku, je poměrně bohatá. Jen funguje za nízkých teplot a vysokých tlaků. Voda pro ně není vhodným rozpouštědlem kvůli reakci s kyslíkem, ve hře však zůstáván třeba metan. Další nevýhodou křemíkové chemie je tzv. stínící efekt, který narušuje aromaticitu případných benzenu-podobných jader, což dělá Si-chemii chudší. Dalším zajímavým kandidátem by mohly být zeolity postavené z Si-O tetraedrů fungující za teplot kolem tisíců stupňů. Takové podmínky jsou např. v zemském plášti, nic zajímavého zde však nepozorujeme.
Pokud se smíříme s tím, že uhlík je díky svým speciálním vlastnostem (které samy o sobě mohou být docela dobře vyladěné pro život, vezmeme-li do úvahy, jak málo by bylo možno pohnout třeba hmotností elektronu, aby jeho vlastnosti zůstaly stejné, nebo poměru protonu k neutronu, aby vůbec ve hvězdách uhlík vznikl) opravdu nejlepším kandidátem pro vznik života, můžeme se zaměřit na skupenství, v jakém by typicky měl život vznikat. Vybudovat život pouze v plynné fázi je velmi těžko představitelné, protože jelikož plynných termodynamických fází nemůže existovat vedle sebe více a nemáme tak ekvivalent hydrofilního-hydrofóbního chování, které skrz lipidové dvojvrstvy odděluje biogenní látky od okolí. Zkrátka by bylo pro takový život příliš těžké bojovat s difuzí a s výkyvy hustoty. Kapalné skupenství pomáhá udržovat stabilní koncentrace látek a zároveň umožňuje, narozdíl od pevných látek, jejich rychlý transport mezi jednotlivými reakčními místy. Proto jsme v další fázi přednášky hledali možná vhodná rozpouštědla, na kterých by se dal uhlíkatý život postavit. (Podle [1].)
NH3 - menší povrchové napětí než voda (ne tak dobře koncentruje molekuly, snáz se vypařuje), rozklad N-H vazby nechrání před UV zářením
HCN, H2S, CH3OH - problematické z různých podobných důvodů.
HF - velmi podobná vodě co do vlastností, ale fluoru je ve vesmíru 1000x méně než C,N,O
N2H4 - vhodný, ale reaguje prudce s kyslíkem, prostředí bez něj těžko je těžko představitelné.
CH4, C2H6 - jsou možné a podporují i vznik aminokyselin, jen narozdíl od předchozích jsou nepolární, takže by všechny membrány musely být postaveny naopak. To je možné, ale nemáme s tím příliš zkušeností.
Přesto najít něco schopné nahradit vodu nemusí být snadné, protože má mnoho anomálií:
- Vytváří vodíkové můstky - brání tak lépe výkyvům teploty (vyšší tepelná kapacita) a je tekutá za daleko většího rozmezí teplot a tlaků, než by měla tak malá molekula být.
- Má velký dipólový moment, je tedy značně polární a vytváří možnost hydrofilního/hydrofobního chování.
- Vytváří iontové formy (H3O+, ...) zvyšující rozpustnost.
- Má přes 40 anomálií, hodně z nich je důležitých pro život. (Např. maximum hustoty v kapalné fázi, vytváření pravidelných struktur kolem organických molekul skrz vodíkové můstky, apod.)
Z naší biosféry známe mnoho způsobů příjmu energie. Především fototrofii (zisk ze světla fotosyntézou) a chemotrofii (zisk rozkladem látek získaných z jiných živočichů). Lze si však představit i mnoho jiných a mnohdy je překvapivé, že je náš život nerealizuje. Fototrofie je např. možná i na nižších vlnových délkách - od infračervené až k mikrovlnám. Jen by bylo potřeba stavět daleko větší "antény", takže se taková investice nevyplácí. Zisk z UV záření příliš pravděpodobný není, protože UV rozkládá téměř všechny organické biomolekuly. Pak je ale ještě mnoho dalších možností - např. kinetotrofie, kdy živočich získává energii z okolo proudící vody, např. pomocí pohyblivých brv. Další možností je termotrofie - takový živočich by fungoval podobně jako parní stroj. Seděl by u nějakého horkého zřídla, nahřál by se a potom by odešel do chladnější oblasti - tak by vlastně konal Carnotův cyklus. Takový způsob zisku energie by mohl být klíčový např. pro případný život na Europě - Jupiterově měsíci, kde by mohl být díky slapovým silám pod zmrzlým povrchem velký oceán vody - tedy v prostředí, kde žádné světlo není. Podobnou věc by šlo provádět i na úkor osmotického nebo iontového gradientu, pokud by se v daném prostředí vyskytoval. (Gradient koncentrace soli v našem moři ale dostatečný není.) Naproti tomu gravotrofii nebo magnetotrofii (zisk energie z gravitačního nebo magnetického pole) můžeme v podstatě vyloučit - jsou příliš neefektivní, snad jen kromě jinak letálního okolí neutronových hvězd.
Obyvatelné zóny kolem hvězd
Poměrně hodně článků se věnuje tomu, jaká oblast kolem hvězd jakého typu je vhodná pro terrestické planety hostící život. (Např. [2], odkud jsem si i půjčil některé obrázky.) Především se většinou předpokládá život založený na uhlíku a vodě. Příliš hmotné hvězdy se předem vyloučí, protože jejich životnost je jen stovky milionů let, což nestačí pro stabilizaci podmínek na planetách. Obyvatelná zóna se pak počítá podle výkonu hvězdy se zohledněním atmosféry a jejího spektra co do skleníkového efektu. Vnitřní okraj je dán bodem, kdy se odpaří dost vody na vyvolání sebepodporujícího skleníkového efektu, při kterém se vypaří oceán. (Kupodivu nejsme této hranici zase tak moc daleko - jen pět procent vzdálenosti.) Za horní hranici se často bere teplota, kdy už ani skleníkový efekt neudrží oxid uhličitý před zmrznutím - pak totiž již nebude žádný skleníkový plyn, který by se mohl hromadit ze sopečné činnosti který by stav zmrzlosti mohl zvrátit. Na grafu je takto vyhraničený pás značen písmeny HZ (habitable zone). Také se musíme dívat do průniku s oblastí, kde se typicky tvoří zemi-podobné kamenné planety. Z toho, že menší hvězdy žijí déle a je jich více by se dalo soudit, že by měly být pro život nejvhodnější. To je asi pravda, ale jen do jisté míry. Jakmile je hvězda příliš malá, září tak slabě, že planety musíme přistrčit velmi blízko k ní. Pak ale daleko rychleji vznikne vázaná rotace (čára "tidal lock radius" a oblast vlevo od ní na grafu), takže planeta na tom bude jako náš Měsíc vzhledem k Zemi - bude hledět neustále jednou stranou ke hvězdě a opačnou od ní. Takový stav je pro život udržitelný jen asi s 1,5 krát hustší atmosférou, která by teplo rozváděla. (Když ponecháme otázky, jaké vichry by asi na takové planetě panovaly.) Protože je však taková planeta příliš blízko atmosféry hvězdy, je docela pravděpodobné, že by byla atmosféra odfouknuta - červení trpaslíci tedy nejsou asi tím nejlepším kandidátem.
Oblast obyvatelné zóny, zóny tvorby planet a zóny vázané rotace planet podle vzdálenosti od hvězdy a hmotnosti hvězdy.
Rozsah obyvatelné zóny hvězd daných spektrálních typů podle věku hvězdy. U jasných hvězd je obyvatelná zóna utnuta přeměnou v červeného obra (u Slunce už v grafu není). Zóna se posouvá, protože hvězda se stále ohřívá,
Měsíce velkých planet
Zajímavou myšlenkou je rovněž zkoumat měsíce velkých planet Jupiterova typu v obyvatelné zóně, jako byla třeba Pandora ve známém Avatarovi. Pak odpadá starost o to, zda se tvoří terrestické planety ve vhodné vzdálenosti. Ačkoliv se plynní obři v obyvatelné zóně typicky nezrodí (sluneční vítr je tak silný, že vodík a helium odfoukne), jak se ukazuje z modelů i pozorování exoplanet, plynní obři mohou do vnitřního pásu doputovat a nevypařit se. Neměli bychom však zapomínat, že plynní obři mají velmi silné magnetické pole, které je provázeno silnou částicovou radiací (plazma zamrzlé v magnetickém poli) - měsíc by tak musel být geologicky aktivní a mít silné magnetické pole, které by jej chránilo. To by neměl být problém - i u těles mnohem menších než Země (vyžadována je alespoň pětina hmoty, kvůli udržení atmosféry) slapové síly centrální planety geologickou aktivitu zaručují. (Jen tak bokem - ta je údajně důležitá i proto, aby se všechny stavební prvky neusadily v usazeninách, čímž by byly vyňaty z koloběhu života - geologická aktivita je vrací skrz sopečnou činnost zpět do oběhu.)
Druhý problém spočívá v tom, že obří planety velmi často zachycují asteroidy a komety. Takže zatímco nás před nimi vhodně postavený Jupiter vlastně chrání, případná Pandora by čelila daleko větší frekvenci srážek. Otázka je, jestli za takovýchto podmínek mohou složitější živočichové úspěšně fungovat.
Obyvatelná zóna galaxií
Obdobně, jako se dá stanovit obyvatelná zóna kolem hvězd, dá se na základě jistých úvah odhadnout, které oblasti v galaxii budou pro vznik života vhodné. Tyto úvahy, čerpané z článku [3], vychází ze dvou poměrně dobře modelovatelných parametrů - v četnosti supernov, které život cca do 30 světelných let spolehlivě hubí, a tzv. metalicity, tedy zastoupení prvků těžších než helium, ze kterých je život postaven. (Název metalicita plyne z toho, že pro astrofyziky je cokoliv těžšího než helium "kov".) Zatímco ve středu spirální galaxie je mnoho těžkých hvězd, které okolí obohacují o stavební prvky, supernovy jsou zde tak časté, že každých pár set milionů let je život smeten. Na okraji galaxie se zase předpovídá tak nízká metalicita, že není z čeho stavět. (Některá novější pzorování však údajně i v těchto oblastech zjistila formaldehyd v molekulárních mračnech, takže i zde stavební prvky jsou - to se přičítá pohlcení menších galaxií tou naší, takže graf je třeba brát trochu s rezervou.) Autoři mj. také vyřazují oblast s příliš vysokou metalicitou, protože pak se očekává, že se budou tvořit místo terrestických planet především plynní obři, jejichž satelity pro vznik života autoři neuvažují. A v neposlední řadě předpokládají jakési rozdělení pravděpodobnosti, že se život za jistou dobu stihne vyvinout, čímž se diskvalifikují příliš mladé hvězdy - takový parametr je ovšem vysloveně spekulativní - horní oblast grafu tedy úplně vyřadit nelze.
Obyvatelná zóna spirálních galaxií - pokud by naše galaxie nekanibalizovala galaxie menší, bude její okraj příliš chudý na prvky těžší než helium, aby mohl život vzniknout (světle modrá oblast). Poblíž centra naproti tomu zase bude příliš mnoho supernov (červená oblast), nebo bude těžkých prvků tolik, ze se místo terrestických planet utvoří jen plynní obři (tmavě modrá oblast). Vodorovná osa udává vzdálenost od jádra galaxie, svislá čas, kdy se hvězda tvořila.
Chemie počátků života
Dalším velkým tématem je, kde se vlastně vzaly organické látky, ze kterých původní život pravděpodobně vznikl. Zde se již nebudu pouštět do takových detailů - nejlépe, když si na přednášku z astrobiologie zajdete sami. Velice zajímavé ovšem je např. to, že už v samotných mračnech mezihvězdného plynu se najde hodně složitých organických látek. Hustota v těchto mračnech je taková, že zde se zde dvě vybrané molekuly srazí asi jednou za jeden a půl roku, takže téměř všechny reakce musí probíhat buď díky záchytu molekul na prachových zrnkách, kde se koncentrují do poměrně složité vrstevnaté struktury, nebo v rázových vlnách, kde je hustota vyšší. Ukazuje se, že kromě bohatého spektra jednodušších látek (HCN, formaldehyd, ..) se v pračnech nachází fullereny a především polycyklické aromatické uhlovodíky, které mají poměrně slušný potenciál představovat základ organické chemie v rodících se planetách. V drobném množství se vyskytují i aminokyseliny. Většina těchto látek je však, jakmile se hvězda zažehne, rozbita UV zářením - dokonce ani v kometárním materiálu se ve Sluneční soustavě již polycyklické aromatické uhlovodíky nenašly.
Aminokyseliny a další stavební bloky však není, jak se ukazuje, žádný problém v redukční atmosféře připravit abioticky (viz Millerův experiment), dokonce ani báze nukleových kyselin (Oró experiment). Jediný problém je s výrobou a především udržením cukrů, které se velmi rychle rozpadají. Pokud se soudí, že na zrodu života musela být molekula, která byla schopná se replikovat, čímž by se nastartoval mechanismus evoluce, a pokud by hlavním kandidátem byla molekula založená na nukleových kyselinách (nejspíše forma RNA, protože DNA nemá řadu jejích funkcí, z čehož se dá soudit, že se vyvinula později účelově), hledá se její obdoba, která by neobsahovala ribosu, která byla v raných podmínkách patrně velmi vzácná. Skutečně se ukazuje, že existují peptidové nukleové kyseliny (PNA), které fungují a ribosu k tomu nepotřebují - ty mohly být prekurzorem života založeného na RNA. Další variantu do hry vnesl článek D. H. Lee et al., Nature 382 (1996) 525–528. Bylo zjištěno, že za jistých podmínek existují proteiny, které se samy dokáží replikovat, není tedy nutné, aby tuto funkci hned od začátku zastávaly nukleové kyseliny. Která z variant se v přírodě nakonec realizovala se zatím neví.
Myslím, že biochemici a biofyzici by ocenili daleko víc chemických detailů, které se na přednášce rozebírají. (Alternativní báze jiných forem nukleových kyselin, alternativa k proteinům jako takovým, kde není vše vázáno striktně přes peptidickou vazbu, ale přesto je potřeba střídání kladných a záporných bloků kvůli foldingu (př. amidy, sulfoamidy, fosfoamidy, ale ne estery), apod. [4]) Já se však na ně dívám spíš jako na obrázky. Rozhodně přednášku doporučuji všem, kteří nejdou ve fyzice jen po aplikacích a rádi se zamýšlí i nad možnými jinými způsoby fungování světa, nebo jeho fungování v dobách, ze kterých nemáme příliš mnoho informací k bádání.
Shrnutí zdrojů, které by mohly stát za pozornost:
- [1] - Irwin: Life in the Universe, (2008)
- [2] - Kasting: Habitable Zones around Main Sequence Stars, Icarus (2002)
- [3] - Lineweaver: The Galactic Habitable Zone and the Age Distribution
of Complex Life in the Milky Way, Science (2004) - [4] - Benner: Is there a common chemical model for life in the universe? (2004)
- [5] - Gibson, Fenner, Kawata: Galactic Chemical Evolution, (2003)
- Ad stabilizace osy Měsícem: wiki, slabý zdroj
pátek 19. března 2010
Počet kvantových stavů ve spektru molekul
Zdá se, že poslední dobou jsem přešel už jen ke střídání článků fyzikálních a fantaskních, takže abych neporušil tradici, zde přichází serioznější zamyšlení fyzikální. Dnes jsem se již podruhé setkal s tvrzením, že Morseho potenciál, používaný často pro popis vibrací molekul, „má tu chybu“, že předpovídá pouze konečné množství diskrétních kvantových stavů ve svém spektru. Nikdo mi však zatím nedal odpověď na otázku, proč se vlastně v přírodě očekává, že by molekuly ve svém energetickém spektru měly mít nekonečno diskrétních stavů. Tedy kromě faktu, že to platí pro atom vodíku, který se umí vyřešit přesně a jehož energie poslušně sledují úměru 1/n2. U Morseho potenciálu nebo konečné potenciálové jámy je zase počet stavů konečný.
Vzpomněl jsem si na jeden trik, který se používá v běžném odvození Chandrasekharovy meze u bílých trpaslíků a plyne ze statistické fyziky. Jak všichni víme, princip neurčitosti zaručuje, že součin neurčitosti v poloze a hybnosti je vždy větší nebo roven určité mezi. To ale také mj. znamená, že kvantová částice zaujímá na fázovém prostoru jistý minimální objem - jakmile ji lokalizujeme v polohách, rozplizne se v hybnostech a naopak. A teď si stačí uvědomit, že každý potenciál vytyčuje nějaký objem fázového prostoru, kde je energie nižší než v nekonečnu. Například u konečné potenciálové jámy je to její šířka krát hybnost, kterou by částice potřebovala k překonání okraje. Počet „minimálních krychliček“ je tedy nutně konečný a tedy i počet stavů v jejím energetickém spektru. To samé platí, jak jsem si v hodině spočítal, i pro Morseho potenciál. Pro Coulombův potenciál je naopak takový fázový objem nekonečný , což odpovídá řešení atomu vodíku. Pro potenciály klesající s vyšší mocninou bude fázový objem kolem nekonečna konečný a v počátku nekonečný.
A jak je to tedy s molekulami? Mohlo by se zdát, že vyřešit mnohorozměrný problém pro všechny částice bude problém, ve skutečnosti ale není. Fázový objem totiž může být nekonečný jen když jsou si některé částice hodně blízko (mají velké hybnosti), nebo když jsou hodně daleko (mají velké polohy). Když jsou elektrony blízko jádrům, řídí se vždy Coulombickým potenciálem, což znamená, že nekonečno stavů se sem neschová. (Mj. proto, že žijeme v trojrozměrném světě, např. ve vícerozměrném světě je fázový objem v blízkosti jader nekonečný, takže elektrony padají na jádra.) Proto se situace rozhodne jenom v nekonečnu. Pokud se molekula dá rozdělit na neutrální podsystémy tak, že energie takovéto disociace je nižší než kdybychom utrhli libovolný nabitý kus a poslali jej do nekonečna, dostali jsme se do kontinua při konečném fázovém objemu a počet diskrétních kvantových stavů ve spektru bude tedy konečný. A naopak, pokud se energie začne blížit libovolné disociační energii, která postačuje k odtržení nabitého podsystému, uvidíme nekonečné diskrétní spektrum. Molekula vodíku by tak měla mít spektrum konečné a Morseho potenciál by měl být podezříván neprávem.
Vzpomněl jsem si na jeden trik, který se používá v běžném odvození Chandrasekharovy meze u bílých trpaslíků a plyne ze statistické fyziky. Jak všichni víme, princip neurčitosti zaručuje, že součin neurčitosti v poloze a hybnosti je vždy větší nebo roven určité mezi. To ale také mj. znamená, že kvantová částice zaujímá na fázovém prostoru jistý minimální objem - jakmile ji lokalizujeme v polohách, rozplizne se v hybnostech a naopak. A teď si stačí uvědomit, že každý potenciál vytyčuje nějaký objem fázového prostoru, kde je energie nižší než v nekonečnu. Například u konečné potenciálové jámy je to její šířka krát hybnost, kterou by částice potřebovala k překonání okraje. Počet „minimálních krychliček“ je tedy nutně konečný a tedy i počet stavů v jejím energetickém spektru. To samé platí, jak jsem si v hodině spočítal, i pro Morseho potenciál. Pro Coulombův potenciál je naopak takový fázový objem nekonečný , což odpovídá řešení atomu vodíku. Pro potenciály klesající s vyšší mocninou bude fázový objem kolem nekonečna konečný a v počátku nekonečný.
A jak je to tedy s molekulami? Mohlo by se zdát, že vyřešit mnohorozměrný problém pro všechny částice bude problém, ve skutečnosti ale není. Fázový objem totiž může být nekonečný jen když jsou si některé částice hodně blízko (mají velké hybnosti), nebo když jsou hodně daleko (mají velké polohy). Když jsou elektrony blízko jádrům, řídí se vždy Coulombickým potenciálem, což znamená, že nekonečno stavů se sem neschová. (Mj. proto, že žijeme v trojrozměrném světě, např. ve vícerozměrném světě je fázový objem v blízkosti jader nekonečný, takže elektrony padají na jádra.) Proto se situace rozhodne jenom v nekonečnu. Pokud se molekula dá rozdělit na neutrální podsystémy tak, že energie takovéto disociace je nižší než kdybychom utrhli libovolný nabitý kus a poslali jej do nekonečna, dostali jsme se do kontinua při konečném fázovém objemu a počet diskrétních kvantových stavů ve spektru bude tedy konečný. A naopak, pokud se energie začne blížit libovolné disociační energii, která postačuje k odtržení nabitého podsystému, uvidíme nekonečné diskrétní spektrum. Molekula vodíku by tak měla mít spektrum konečné a Morseho potenciál by měl být podezříván neprávem.
⚛⚛⚛
Přihlásit se k odběru:
Příspěvky (Atom)