pondělí 10. ledna 2011

Informatika a termodynamika

Nedávno jsem se opět setkal s velice zajímavým fyzikálním konceptem, o kterém jsem dřív neměl ani tušení. (Ano, taková věc mi vždy udělá radost a mám pak neodolatelnou touhu se o ni podělit..) Velmi zběžně jsem četl knihu Feynman Lectures on Computation a kromě základů informatiky, které jsou dnes poměrně široce známé, jsem zde narazil na popis výpočetního procesu z hlediska termodynamiky. Základní tvrzení říká, že pokud chci uložit nějakou informaci na pásku bitů, potřebuji k tomu zvednout entropii alespoň o jistou minimální hodnotu. Chvíli jsem četl související detaily a uvědomil jsem si, že vlastně v jistém smyslu špatně rozumím pojmu entropie. Co jsem se dozvěděl zkusím shrnout v tomto článku.

Když se člověk naučí klasickou termodynamiku, často se smíří s pojmem entropie a od té doby jej považuje za zcela fundamentální veličinu. Ze zákona maximalizace entropie při dané energii se dá odvodit celá termodynamika a v tomto smyslu ji pak dále používáme. Ve skutečnosti ale není zase tolik fundamentální a celý koncept entropie vyžaduje naši neznalost o systému - dohodu, že přesný stav systému neznáme a měříme jenom termodynamické veličiny (teplotu, tlak, objem..) Entropie je pak počet mikrostavů (v klasické fyzice míra ve fázovém prostoru), které realizují stejné termodynamické veličiny. Kdybychom znali stav systému dostatečně přesně, pak jeho entropie nemá úplně význam. Vybaveni takovou znalostí bychom mohli např. postavit stroj, který by libovolně snížil entropii daného systému. Jak? Jednoduše bychom ze znalosti jeho časového vývoje vypočetli, kdy nastane přesně taková fluktuace, že v daném objemu nebude žádná molekula a potom bychom tento objem oddělili od zbytku. To lze udělat limitně bez vynaložení energie. Opakováním této procedury bychom se dostali do stavu, kdy plyn (dejme tomu, že jde o ideální plyn) zaujímá daleko menší objem, než zaujímal před procesem a jeho entropii jsme tak snížili bez jejího zvýšení na své straně. Tento jednoduchý myšlenkový experiment nás přivádí k poznatku, že informace o systému nám umožňuje snižovat jeho entropii. Pokud má ale entropie ve světě vzrůstat, dojdeme k závěru, že ukládání informace naopak entropii nutně musí zvyšovat někde jinde. Např. slavný Maxwellův démon* nemůže fungovat právě kvůli tomu, že by informaci, kterou o molekulách získá musel někam ukládat, což vyžaduje zvýšení entropie o přiměřené množství**.

Jaká je entropie jednoho bitu? Představme si, že máme pásku krabiček, kde v každé je jedna částice a dvě potenciálové jámy - jedna představuje hodnotu 0 a druhá hodnotu 1. Pokud zacházíme se zprůměrovanou polohou částice, můžeme o jednotlivých krabičkách mluvit jako o ideálním plynu obsahujícím jednu částici. Představme si dále, že chceme pásku vynulovat, tj. ujistit se, že všechny částice jsou v potenciálové jámě příslušející hodnotě 0. Pokud nevíme+, kde se v krabici částice nachází, musíme vynaložit energii na to, abychom pístem zatlačili na částici a ta zaujala poloviční objem. Tím jsme mj. snížili entropii tohoto plynu o jedné molekule, podle vzorce pro změnu entropie ideálního plynu můžeme snadno říci, že o kB log 2++, což je přesně entropie zpracování jednoho bitu. Pokud bychom ale věděli, v jakém minimu potenciálu (a tedy v jakém stavu) se částice nachází, stačilo by krabici reverzibilně otočit a tím bychom ji uvedli do kýženého stavu bez vynaložení energie nebo manipulace s entropií. Argument lze i obrátit a říci, že pokud víme, v jakém stavu se páska nachází, můžeme ji zahřát (čímž práci konat nemusíme) a přiložením pístu na správnou stranu můžeme z pásky vyrobit energii, čímž se páska randomizuje. Z toho tedy (alespoň zhruba) vidíme, proč nakládání s informací nutně zvedá entropii a že existuje velmi přímý link mezi entropií a neznalostí/znalostí systému.

Pro zajímavost a úplně na okraj jsem si spočítal, že kdybychom vytěžili veškerou entropii produkovanou Sluncem, mohli bychom zpracovat 1,5·1046 bitů za sekundu. (Kdybych mluvil jen o záření dopadlém na Zem, bylo by to 7·1036 bitů za sekundu.)



* Maxwellův démon je zařízení obsluhující přepážku mezi dvěma komorami s plynem. Jakmile se blíží rychlá molekula z komory 1 do komory 2 nebo pomalá molekula z komory 2 do komory 1, démon ji změří a zaklapne záklopku. V opačném případě záklopku otevře. V klasické fyzice měření nepředstavuje problém, takže nakonec bude v komoře 2 vyšší teplota než v komoře 1 bez vynaložení energie. Jedná se o perpetuum mobile druhého druhu a v článku diskutovaná teorie je jedním z důvodů, proč Maxwellův démon nemůže fungovat.
** Problém není v samotném procesu měření, v klasické fyzice lze měřit libovolně přesně s libovolně malým narušením systému.
+ Ano, tady vstupuje do hry že pokud chceme mluvit o entropii, potřebujeme specifikovat naši míru neznalosti, resp. znalosti o systému - s plnou informací entropie nedává smysl!
++ Není úplně košér, že operujeme s ideálním plynem a přitom mlčky předpokládáme, že v krabici je potenciál, který částici nutí být typicky jen ve dvou stavech. Feynman to v oné knize dělá podobně a odvolává se na to, že podrobnější termodynamická teorie existuje - já ji příliš do detailů nezkoumal. Další věcí, ze které vidíte, že jde nejlépe o náhled je, že není důvod, abychom dvoustavový systém s kuličkou stlačovali zrovna na polovinu objemu. Zde bychom se asi mohli ohánět jen symetrií fázového prostoru. Argument tedy není správně, ale alespoň funguje jako náhled a vede na správný výsledek.

Žádné komentáře: