pátek 24. října 2025

Váha volebního hlasu

V českém systému parlamentních voleb má být hlas rovný, tj. pro každého člověka by měl mít stejnou váhu, ať už volí jakoukoliv stranu. V médiích se často mluví o tom, že díky systému přepočítávání hlasů mají větší váhu větší strany, což je pravda v tom smyslu, že mají větší poměr mandáty / obdržené hlasy. To je důležité pro politické strany, když posuzují, jestli budou kandidovat v koalicích nebo samostatně, ale ve skutečnosti to není příliš důležité pro voliče, kteří přemýšlí, jakou stranu volit.


Z pohledu voliče je zajímavá úplně jiná váha hlasu: střední hodnota křesel, kterou statisticky vytvořím, když k volbám přijdu, v porovnání s alternativou, že bych k volbám nešel. A to je úplně jiné číslo. Abych to ilustroval, dám extrémní příklad: Pokud bych přesně věděl, jak ostatní lidi budou volit pak můžu dopočítat, jestli můj hlas udělá rozdíl jednoho mandátu a nebo ne. Pokud ne, má můj hlas váhu 0, a pokud ano, má váhu 1. Vyplatilo by se mi tedy jít k volbám jenom pokud bych byl tím, kdo mandát přetočí.

Ve skutečnosti nevím, jestli mandát přetočím, ale mohu se pokusit to spočítat. Hlavní věc co potřebuji je co nejlepší model toho, jak lidi budou hlasovat. Bude mít formu nějakého pravděpodobnostního rozdělení a jak bude vypadat upřesníme později. Pak potřebuji vědět, jak se vypočítává rozdělení křesel. Algoritmus je poměrně složitý. Nebudu jej zde popisovat podrobně, ale vypíchnul bych některé zajímavosti. Například: v prvním kroku se určí, který kraj bude mít kolik křesel a až poté se určuje, kdo která křesla obsadí. Efekt, který může mít váš hlas, je tedy celkem komplikovaný, včetně toho, že vaší straně ublíží. Může totiž vytvořit křeslo ve vašem kraji, což automaticky znamená, že někde jinde zanikne. A pokud to křeslo, co zaniklo, patřilo vaší straně a křeslo, které jste vytvořili jí patřit nebude, pak jste své straně ve skutečnosti ublížili. Ve střední hodnotě ve skutečnosti skoro vždy pomáháte, ale chtěl jsem ilustrovat, že interakce, které je potřeba vzít v potaz, jsou komplikované.

Jak tedy můj model pro váhu hlasu funguje?
  • Ze zvoleného rozdělení vygeneruji kolik voličů přijde ve kterém kraji k volbám a pro koho budou hlasovat.
  • Spočítám křesla podle oficiálního algoritmu.
  • Spočítám verzi, kde v daném kraji dám hlas dané straně a znovu spočítám křesla. (Nejčastěji vyjde nula, ale někdy ne).
  • Udělám průměr přes stovky milionů realizací, abych spočítal průměrné množství získaných mandátů za hlas.
Zisk mandátů můžu počítat pro jednu stranu, nebo pro nějakou skupinu stran. Můžu to udělat i pro váženou skupinu stran, kde bych si např. řekl, že každá ze skupiny stran pro mě má nějakou hodnotu a pro každou z nich si mohu zvolit váhu. Mandáty pro skupinu se musí počítat zvlášť, protože strany se dost složitým a nelineárním způsobem o křesla obírají, takže co je dobré pro jednu stranu nemusí být dobré pro skupinu stran, do které patří.

Co jsou hlavní výsledky?
  • Strany mají v různých krajích a navzájem vůči sobě různou váhu hlasu. U sledovaných stran byl rozdíl maxima od průměru cca 16 %, minima od průměru cca 14 % a směrodatná odchylka vůči průměru byla 7,5 %. Čili jsou to rozdíly, které v některých případech mohou člověka motivovat přejet s voličským průkazem do jiného kraje, ale není to zdaleka tolik, kolik ukazovaly mé první modely před revizí parametrů.
  • Nejsilnější srozumitelný efekt je s velikostí strany. Pokud je strana hluboko pod hranicí 5%, je téměř jisté, že hlas propadne a velikost středního mandátu je malinká. Pokud je těšně kolem ní, nad i pod, střední počet získaných mandátů výrazně naroste. Vyplatí se zachraňovat strany, kterým hrozí propadnutí. Máte sice vyšší šanci, že váš hlas propadne, ale kdyby náhodou byl tím hlasem, který stranu zachrání od propadnutí, pak váš hlas nevytvoří jenom jeden mandát, ale cca 10 mandátů, což vydatně zvyšuje střední hodnotu.

Ilustrační graf spočítaný s hrubým modelem šumu a bez vyřazení lidí mladších 18 let z voličů. Relativní váhu hlasu ale myslím ilustruje celkem dobře.

Dá se tomu věřit?
Tento výpočet jsem dělal v reakci na parlamentní volby 2025. Model jsem nastavil podle posledních volebních průzkumů, které obsahovaly preference v jednotlivých krajích. Hodně se hraje o zbytky po dělení v jednotlivých krajích, takže tato úroveň granularity se zdá být hodně důležitá. Předpokládal jsem dvě náhodná rozdělení: log-normální rozdělení pro to, jak vysoká bude volební účast, a Dirichletovo rozdělení (Bayes posterior k multinomiálnímu) pro to, komu hlasy  dají. Hlavní parametr, který bylo potřeba nastavit odhadem, byl rozptyl jednotlivých rozdělení.

Hlavní slabinou určitě je, že volební průzkumy mají systematickou chybu. Na to, abych ji opravil, si netroufám. V minulosti ale volební průzkumy podceňovaly strany jako ANO, nebo naopak přeceňovaly extrémistické strany. Druhý efekt samozřejmě je, jak moc dobře člověk odhadnul rozptyl šumu. Přesvědčený bayesián by argumentoval, že je lepší nějak kvantifikovat svou neznalost jako pravděpodobností rozdělení, než nedělat nic - a že odhad šumu je zkrátka ten nejlepší, co máme, a tak bychom s ním měli pracovat. A třetí otázka je, jestli je moje implementace programu správně. Neříkám, že model je na úrovni vědecké publikace, ale osobně mu věřím alespoň natolik, že ho chci spíš použít než nepoužít. Konkrétní čísla najdete níže

pondělí 20. října 2025

Matematický vesmír a Solomonoffův prior

V tomto příspěvku bych chtěl komentovat Tegmarkovu knihu Matematický vesmír. Je to téma, které je úzce spojeno s antropickými úvahami, o kterých jsem psal výše. Pokud jste knihu nečetli, pak vězte, že hlavním tvrzením, které v knize autor vysvětluje je klasifikace mnohasvětových teorií. Tegmark začíná relativně dobře přijímanými teoriemi a postupně se dostává až k velmi spekulativnímu tvrzení, že žijeme v multiverzu všech myslitelných matematických struktur. A právě k tomu bych rád přidal několik technických poznámek, ale nejprve se pojďme podívat na Tegmarkovu klasifikaci multiverz:


Typ 1: Pokud je náš vesmír nekonečný (v prostorovém smyslu, nejen v tom smyslu, že se bude do nekonečna rozpínat), nebo pokud se bude expanze vesmíru urychlovat, jak aktuální měření kosmologické konstanty napovídají, pak jsou v něm regiony, kam se za dobu jeho existence nikdy nedostaneme. Objekty za kosmologickým horizontem. V případě prostorově nekonečného vesmíru se dokonce dá tvrdit, že všechno, co se tu dnes na Zemi děje, se někde v dálce za horizontem zopakuje s přesností na libovolně malé ε. Ale i pokud je vesmír na něco takového příliš malý, není asi důvod si myslet, že vzdálené části vesmíru za horizontem neexistují jenom proto, že je nemůžeme (a nikdy nebudeme moci) pozorovat. 

Typ 2: Pokud se vesmíry nějakým procesem rodí, pak multiverzum druhého typu jsou různé vesmíry, které jsou od sebe prostorově oddělené. Jedním konkrétním případem, který je mezi kosmology dobře přijímaný, jsou bubliny vzniklé rozpadem inflatonového pole. Má se za to, že v minulosti vesmír prošel tzv. inflací, což bylo časově extrémně krátké období, kdy se exponenciálně zvětšoval objem vesmíru díky tomu, že byl vyplněn hypotetickým polem, které při rozpínání neztrácí hustotu energie, a způsobuje kladnou hodnotu kosmologickou konstanty, která urychluje rozpínání vesmíru. Pole by se mělo rozpadat náhodným fázovým přechodem, který se nastartuje v nějakém konkrétním bodě a pak se šíří rychlostí světla. Jelikož se ale regiony, kde inflatonové pole rozpadlé není, rozšiřuje exponenciálně rychle, je podle této teorie vesmír tvořen téměř všude nerozpadlým inflatonovým polem a pak mnoha prostorově oddělenými bublinami s "normálním" prostorem, jako je ten náš. Byli bychom tedy jednou z mnoha takových bublin, což je Tegmarkovo multiverzum 2.

Typ 3: Kvantová mechanika má hodně interpretací. Zatímco některé buď předpokládají, že vlnová funkce objektivně prochází kolapsem, nebo že jenom představuje informaci pozorovatele o stavu světa, který se lépe poznat nedá, mnohosvětová interpretace nabízí vysvětlení, že žijeme v obrovské vlnové funkci, která popisuje všechny možné stavy vesmíru rozvětvené od jeho počátku, a kolaps vlnové funkce je jenom zdánlivý jev daný tím, že jako pozorovatelé uvnitř této vlnové funkce sami procházíme dělením na mnoho větví, a nakonec vždy vidíme jen tu jednu, ve které daná naše kopie skončí. Výhoda je, že teorie nepotřebuje přidané předpoklady o tom, jak kolaps probíhá, jenom základní rovnice kvantové mechaniky. Její existence by tedy podle Occamovy břitvy měla být jednodušší a proto pravděpodobnější. Kvantové světy jsou Tegmarkovým multiverzem 3.

Typ 4: Tegmark argumentuje, že nejobecnějším objektem, který je nějak správně formálně uchopený, jsou matematické struktury. Měli bychom tedy předpokládat, že v nějakém smyslu existují, a my se podle antropického principu nacházíme uvnitř těch, které jsou jednak v nějakém smyslu "hojné", a podporují struktury podobné našim mozkům, které zjevně generují zážitky.

Pokud znáte Tegmarkovu knihu, skočte sem!

Mezi fyziky jsou multiverza 1-3 poměrně často diskutována, byť ne vždycky nadšeně přijímána. Typ 4 ale působí tak exoticky a bez opory v experimentu, že jsem nepotkal příliš fyziků, kteří by se jím vůbec nějak zabývali. Zkusil jsem si představit nějaký model, který by byl dostatečně dobře technicky uchopený, aby alespoň mohl dávat nějaké empirické předpovědi (v návaznosti na antropický princip a self-sampling assumption).

Solomonoff prior a Kolmogorova komplexita
Jednou velmi nadějnou třídou matematických struktur jsou Turingovy stroje. Ať už je chceme použít jako samotné Tegmarkovy matematické struktury, nebo jenom jako struktury, které nějak formálně popisují Tegmarkovy matematické struktury, budou užitečné. A to proto, že umí plně popsat všechny problémy, pro které vůbec existuje algoritmus. Pokud máme nějaký Turingův stroj, který generuje řetězce znaků, mohli bychom chtít vědět, jaká je pravděpodobnost, že řetězec 1, 2, 3, 4, 5, 6 bude pokračovat číslem 7, a ne třeba 123. Někdo by mohl namítnout, že každá posloupnost je stejně pravděpodobná a proto nemá smysl očekávat, že by řada měla pokračovat sedmičkou a ne číslem 123. Intuitivně však cítíme, že sedmička je v nějakém smyslu přirozenějším pokračováním této sekvence. Tuto intuici formalizuje tzv. Solomonoffův prior: Každá sekvence má takovou apriorní pravděpodobnost, jako je 2^-K, kde K je velikost nejmenšího programu na Turingově stroji, který danou sekvenci generuje. (Kolmogorova složitost

K čemu je to dobré? Především teď můžeme porovnávat, jak složité jsou jednotlivé teorie. Asi znáte Occamovu břitvu, která říká, že nejjednodušší vysvětlení s co nejmenším počtem předpokladů je nejpravděpodobnější. Teď ale vidíme, že Occamova břitva řeže velmi ostře: každý bit v minimálním popisu teorie navíc činí teorii dvakrát méně pravděpodobnou. Zároveň, pokud se chceme nějak zabývat Tegmarkovým multiverzem, můžeme se podívat, jak by vypadalo pro tento konkrétní případ. Má to ale několik háčků. 

Mícháme popis objektu s objektem?
Jedna z námitek proti multiverzu 4 je, že zaměňuje popis za realitu. Konec konců je jasné, že mapa není území a že fyzikální teorie není vesmír. A už samotný Solomonoffův prior jako míra má jisté rysy, které na tento problém ukazují. Přesná váha 2^-K totiž záleží na Turingově stroji, který popis realizuje. Představme si, že bychom chtěli vědět, jaká je Kolmogorova komplexita čísla pí. Můžeme si zvolit nějakou typickou Turingovu mašinu v podobě např. holého jazyka C, jazyka Rust, nebo assembleru pro nějaký konkrétní procesor a dát lidem výzvu, aby napsali co nejkratší program, který bude pí na N míst generovat. Pokud pak vezmeme výsledný kód a komprimujeme jej, přibližně bychom mohli čekat, že dostaneme K, které ale bude záležet na přesně zvoleném jazyku. (Pokud vám z takto hrubého inženýrského odhadu vstávají vlasy hrůzou na hlavě, můžete místo toho napsat formální Turingův stroj a spočítat délku pásky, komprimovat zdrojové kódy asi může obsahovat nějaké systematické chyby proti přesnému formalismu).

Můžeme tedy multiverzum 4 shodit ze stolu? Myslím, že ještě ne. Na námitku, že mícháme popis a realitu se dá odpovědět tak, že nikdo přece neříká, že když matematické modely používáme k popisu naší reality, že stejný matematický popis v nějakém hlubším slova smyslu taky realitou není. Nezaměňujeme mapu a území, jenom říkáme, že jsou dobré důvody si myslet, že mapa i území jsou vybrané ze stejné množiny objektů.

Ale co s tím, že váha matematických struktur, kterou chceme použít (Solomonoffův prior) je zjevně závislá na Turingově stroji? Na to se dá odpovědět alespoň dvěma způsoby: Ten první je: co když je multiverzum 4 opravdu nějaký konkrétní Turingův stroj, jen nevíme přesně jaký? Pak můžeme těmito úvahami získat alespoň nějaký vhled do situace, i když identifikovat přesný stroj asi bude těžké (pokud vůbec teorie nějaké empirické předpovědi dává.) Ale vyloučit to nelze, byť by to pak teorie byla opravdu hodně specifická. 

Druhý způsob, kterým bychom mohli odpovědět je, že možná matematické struktury mají nějakou vlastní složitost, něco jako průměr mezi Turingovými stroji, pokud něco takového dává smysl. (Tady se už pouštím na docela tenký led). Na jednu stranu asi vždycky můžu postavit velmi speciální Turingovu mašinu tak, aby danou strukturu nějak obsahovala (kompilátor, který pro prázdný program vypíše hodnotu pí), nebo s ní naopak měla problémy, ale čekal bych, že velká třída Turingových strojů na tom bude tak nějak podobně.

Musím ukázat? A pokud ne, není to divné?

Číslo pí někde ve svém rozvoji obsahuje jakoukoliv sekvenci. Pokud bych chtěl ale tu sekvenci najít a identifikovat, musím popsat od jakého desetinného místa začíná. Typicky bude ukazatel stejně dlouhý, jako sekvence samotná. Pí má možná Kolmogorovu komplexitu malou, ale pokud bych chtěl popsat nějaký složitý objekt, pokud na něj musím ukázat, nepomůžu si.

Jak chápu Tegmarkovu vizi já, ukázat bych nemusel. To je nutné pro premisu, že "jednoduché světy mají větší váhu". A že jednoduché světy mají vyšší váhu je zase nutné, abychom mohli tvrdit, že vesmíry s jednoduchými zákony (a možná i s jednoduchými počátečními podmínkami) jsou typické. Kdyby nebyly, tak by aplikace antropického principu (self-sampling assumption) předpovídalo, že svět bude náhodnou sekvencí nekoherentních zážitků, jako náhodná simulace která jenom náhodou obsahuje struktury nějak odpovídající mozkům.

Intuitivně mi připadne trochu podivné, že "napsání několika rovnic" by mělo způsobit větší vnitřní komplexitu, než detailní popis každého atomu. Ale pokud se na to člověk dívá prismatem toho, že jednoduchý program může vygenerovat velmi komplexní chování, a to, že je krátký znamená, že je více častý ("snáz se najde v náhodných datech"), zase mi to dává smysl.

Dává to nějaké empirické předpovědi?
Hlavní předpověď, kterou taková formulace Tegmarkova multiverza 4 dává je, že jednoduché světy by měly být daleko pravděpodobnější. Jako pozorovatel jsem strukturou, která odpovídá mému tělu a hlavně mozku. A jako takový můžu být zakódován v různých prostředích. Mohl bych být jenom Boltzmannovým mozkem, který se náhodou vytvořil - v tomto případě ne z náhodných stavů částic, které se zrovna poskládaly do struktury mého mozku tady a teď a zase se rozpadnou, jak si to představoval Boltzmann, ale jako náhodná matematická struktura, která obsahuje jenom ten mozek a nic dalšího. Taky můžu být simulace, jak si Bostrom představuje ve své simulační hypotéze. Ne nutně provozované na počítači v nějakém fyzickém vesmíru, ale přímo v jako jednu z alternativních matematických struktur se Solomonoff priorem. A nakonec můžu být mozkem savce na planetě Zemi, která je součástí nějaké matematické struktury popisující celý vesmír s jeho počáteční podmínkou.

Jak se tyto tři varianty poměřují? Pokud bych chtěl najít samotný můj mozek, bude jeho struktura (ať už v simulaci nebo jako Boltzmannův mozek) úměrná počtu synapsí a neuronů (krát velikost popisu těchto prvků). To je celkem řádově alespoň 10^15 bitů. Nevím, jak složitý je minimální popis zákonů fyziky a jaké jsou, ale pokud je to jednoduchá rovnice / struktura, může mít stovky až desítky tisíc bitů. Poměr pravděpodobností, že se najdu v takovém vesmíru vs. jako simulace mozku by pak byl cca 2^-1000 ku 2^(-10^15), tedy nesrovnatelně víc ve prospěch fyzikálních vesmírů.

Je vesmír skutečně jednoduchý, když obsahuje složitou počáteční podmínku?
Odpověď na tuto otázku bychom museli dát ve finální fyzikální teorii (minimálně např. kvantově), ale snazší asi bude to ilustrovat na klasických kuličkách. Když bych chtěl popsat krabici ve které je N molekul, potřeboval bych 6xN čísel. Z hlediska toho, jak se běžně formuluje termodynamika je každý mikrostav rovnocenný, takže složitost každého stavu je prostě 6N. Ale pokud byste psali počítačovou simulaci, jistě víte, že daleko úsporněji zapíšete např. stav, který molekuly rovnoměrně rozhodí po prostoru, nebo jim dá nějakou pseudo-náhodnou polohu a rychlost, než libovolný pozdější stav, který už je z daleko obecnějšího prostoru stavů. I kdybyste chtěli opustit analogii programů, v rovnicích bude mít takový speciální stav taky daleko jednodušší popis. Čili v jistém smyslu se dá tvrdit, že speciální počáteční podmínka může být jednoduchá.

Z čeho jsem pořád zmatený?
Jednak je tu námitka, že pokud mám nějaký popis vesmíru, existuje popis, ve kterém je podmínka, že od určitého času se začne něco chovat jinak, než zákony popisují. Kdyby takové modifikace byly v metrice Solomonoffova prioru jednoduché, pak by tato verze Tegmarkova multiverza 4 předpovídala, že místo normálního pokračování podle přírodních zákonů budeme pozorovat náhodné modifikace našeho vesmíru. ("Od času T zvedni Planckovu konstantu o x".) Pokud tato námitka nemá teorii diskvalifikovat, museli bychom ukázat, že takové modifikace jsou buď o hodně složitější (protože např. musí přesně popsat "od času T", což v komplikovanější teorii může být složitý objekt), anebo že skoro všechny takové modifikace jsou neslučitelné s fungováním inteligentních pozorovatelů, což by takovou modifikaci zabránilo komukoliv pozorovat a zůstala by v antropickém stínu.

Pak jsem taky zmatený z této námitky: Pokud je číslo pí jednoduchý objekt, možná jednodušší než minimální popis našeho vesmíru, a přesto obsahuje každou myslitelnout sekvenci; a pokud nepotřebuji specifikovat ukazatel na danou strukturu, neměly by být simulace a Boltzmannovy mozky (ve smyslu simulací našeho mozku) stejně časté jako fyzikální pozorovatelé? Nebo jsou struktury uvnitř čísla pí meta-popis, který znovu vygeneruje nový seznam Turingových strojů a bude to znovu replikovat Solomonoffův prior? Pak by to chtělo minimálně dokázat, že popis a meta-popis jsou jedno a to samé a ne dvě různé neekvivalentní věci.


Tegmarkovo multiverzum 4 možná vůbec není self-konzistentní, a pokud je, pak asi stejně není pořádně falzifikovatelné ("not even wrong"). Ale pořád se mi nedaří ho myšlenkově opustit a tohle byl další pokus o zamyšlení nad ním.

sobota 18. října 2025

Antropické efekty

Nedávno jsem konečně přečetl Anthropic Bias od Nicka Bostroma. Tento příspěvek je přehled toho, co jsem si z knihy odnesl a soubor postřehů, které mne na ni napadly, nebo jsem je zhodnotil jako tématu blízké, nebo je přidávám pro vysvětlení kontextu. 

Jedna z oblastí, která mi připadne zajímavá a zároveň neprozkoumaná, jsou antropické efekty a otázky spojené s tím, jak je správně zahrnout do našeho uvažování. Objevují se v moderních fyzikálních teoriích, které vysvětlují problém jemného vyladění či otázek, odkud se vzaly hodnoty fyzikálních konstant. Často jsou spojeny s představou, že žijeme v nějakém širším multiverzu, kde se realizuje mnoho možností, a my se (logicky) nacházíme tam, kde vesmír umožňuje vznik inteligentních pozorovatelů. Nelze se tedy divit, že se nenacházíme uprostřed mezigalaktické prázdnoty, ve vesmírech, kde elementární částice mají takové hmotnosti a vazbové konstanty, že neumožňují vznik prvků složitějších než helium, nebo ve vícerozměrných prostorech, kde jsou elektronové orbitaly stlačené do jader a klasická chemie nemůže fungovat

Co jsou ale antropické efekty přesněji? Jednoduše řečeno jde o zahrnutí role pozorovatele do úvah o tom, jak interpretovat naše pozorování. V mnoha případech, které bych označil jako „krotké“, asi nebude sporu o tom jak to správně udělat a že je tato oprava správná. Jedním takovým efektem je tzv. antropický stín. Představme si, že by se vesmírem šířila rychlostí světla oblast, ve které se vakuum a všechny částice rozpadnou na horké plazma. (Model rozpadu falešného vakua). Jelikož se bublina šíří rychlostí světla, neuvidíme ji, než nás zničí. Antropický stín je v tomto případě tvrzení, že jelikož v rozpadlém vakuu žádní pozorovatelé být nemohou, nemohli bychom takovou teorii falzifikovat. I kdyby 99% našeho vesmíru už bylo vyplněno rozpadlým vakuem, ničeho bychom si nevšimli. 

Jiný a možná lépe uchopitelný příklad antropického stínu můžeme ilustrovat na odhadech pravděpodobnosti vypuknutí jaderné války. Pokud jste forecaster na predikčním trhu a snažíte se odhadnout, jaká je pravděpodobnost vypuknutí jaderné války v příštím roce, mohli byste udělat zhruba tuto úvahu: Jaderné zbraně má lidstvo od roku 1945 a zhruba od roku 1955 jich má dost na to, aby efektivně zničilo civilizaci. V roce 2025 tedy máme za sebou 70 let, kdy jsme se úspěšně nezničili a podle Laplaceova pravidla bychom tedy mohli usoudit, že následující rok bude pravděpodobnost nejvýše 1-(1+1/70)^-1 = 1.4%. (Pokud vás toto číslo znervózňuje, tak vězte, že skutečné odhady, které zahrnují i jiné věci než jen časovou řadu, např. geopolitickou situaci, jsou víc jak 4x menší.) Jak to souvisí s antropickým stínem? Co kdybych byl v pozici mladého pozorovatele, kterému je 20 let. Pokud by před jeho narozením byl svět zničený jadernou válkou, velmi pravděpodobně by se nemohl narodit a nad touto otázkou přemýšlet. Pokud jsme předtím v odhadu pravděpodobnosti použili čas 70 let, tento mladý pozorovatel by tedy měl použít nejvýše 20. Jeho odhad pravděpodobnosti, s jakou se lidstvo jaderně zničí by tedy měl být spíše 1-(1+1/20)^-1 = 4.8%, což vypadá jako poměrně významný rozdíl. (Toto je ve skutečnosti jenom hrubý odhad pro ilustraci, správný výsledek bychom měli přepočítat použitím Bayesovy věty a zabývat se nuancemi jako jestli bych měl odečítat jenom roky před narozením pozorovatele nebo i něco z let za jeho života, nebo jestli katastrofa zabrání pozorování stoprocentně, nebo jenom s nějakou pravděpodobností. Ačkoliv tyto detaily nejsou dobře definované a nechávají dost prostoru pro interpretaci, myslím si, že příklad dobře ilustruje, že antropické efekty mají jasný vliv na odhad).

Extrémní aplikací antropického stínu je potom tzv. kvantová sebevražda / kvantová nesmrtelnost. To je argument, že pokud platí mnohasvětová interpretace kvantové mechaniky, (z antropických důvodů) nikdy nemůžeme zažít vlastní smrt a tedy ze svého subjektivního pohledu budeme žít věčně. (Vždy se najde nějaká verze světa, kdy jsme, byť velkou náhodou, ještě nezemřeli.) Nikomu bych ale takový experiment nedoporučil. 

SSA / SSI
Pokud jsem předchozí aplikace označil za krotké a neproblematické, nyní se dostáváme k těm obtížnějším. Bostrom v knize formalizuje antropické úvahy a dává jim konkrétní matematickou podobu a návod, jak s nimi zacházet. Konkrétně říká toto:

Self-Sampling Assumption (SSA) - Měl bych uvažovat tak, jako bych byl typickým představitelem své referenční třídy v daném vesmíru.

Self-Indication Assumption (SIA) - Měl bych uvažovat, jako bych byl typickým představitelem své referenční třídy ve všech myslitelných vesmírech.

(Oba ještě existují ve variacích, kdy počítáme pozorovatel-momenty a ne pozorovatele. Tj. pozorovatel žijící desetkrát déle má desetkrát větší váhu.)

V čem se liší? Pokud bych uvažoval různé hypotézy o tom, jak může svět vypadat, SSA mi říká, abych nezohledňoval antropické efekty v apriorním odhadu pravděpodobností těchto hypotéz. O dané hypotéze bych měl začít pochybovat teprve tehdy, pokud si všimnu, že je moje místo ve světě v rámci této hypotézy nějak privilegované. Pokud bych například měl dva možné světy: v jednom je 99 červených a jeden zelený pokoj a v druhé 990 zelených pokojů a 10 červených, než se rozsvítí světla a já zjistím, v pokoji jaké barvy se nacházím, je každá z těchto teorií stejně pravděpodobná. Pokud se rozsvítí světla a já zjistím že jsem v červeném pokoji, u prvního světa je to velmi typické umístění s likelihood 0.99, zatímco u toho druhého je to velmi netypické umístění s likelihood 0.01. První hypotéza by tedy měla být stokrát pravděpodobnější než druhá. 

To se ve skutečnosti v astronomii běžně používá, např. pro rozřešení tzv. paradoxu červené oblohy, tedy otázky, proč se nenacházíme na planetě obíhající červeného trpaslíka, když jsou tyto hvězdy mnohokrát četnější než hvězdy typu našeho slunce, a navíc žijí mnohem déle. (Závěr, který z toho pak autor dělá je, že planety kolem červených trpaslíků se slušnou mírou jistoty nejsou příliš obyvatelné).

Jenže pokud SSA vezmeme do důsledků, vede k velmi znepokojivým paradoxům. Zvažme dvě hypotézy: V první se v budoucnosti narodí ještě několik desítek, možná set miliard lidí a pak lidstvo vyhyne nebo se přemění k nepoznání. V druhé budoucnosti bude lidstvo úspěšně kolonizovat vesmír a budou žít ještě miliony miliard lidí. Pokud si nyní seřadíme lidi od prvního k poslednímu, zjistíme, že v první předpovědi budoucnosti jsme relativně typičtí lidé a teorie je proto neproblematická, zatímco v druhé teorii jsme se narodili velmi brzy, a to tak brzy, že je to náhoda téměř jedna ku milionu. Podle SSA bychom tedy měli „šťastnou budoucnost lidstva“, kde je mnoho lidí, považovat za velice nepravděpodobnou, protože v takové budoucnosti by naše pozice v rané minulosti Země byla velmi podivně privilegovaná. To je známo jako Carterův paradox soudného dne.

Takový výsledek je velice podivný z několika důvodů: ten první nasnadě je, že jsme udělali poměrně velice silný závěr jen na základě informace „jsem člověk, co se narodil jako stomiliardtý“, aniž bych řekl cokoliv o tom, jak vypadá svět. Bostrom zkouší paradox řešit různými způsoby. Jedním jsou referenční třídy. Co znamená být člověk? Proč je seřazení od prvního k poslednímu ta zajímavá vlastnost, na kterou se dívat? Proč nepočítat naše předky ve formě primátů nebo starších zvířat? Máme počítat vzdálené potomky lidí, kteří nás už nemusí moc připomínat? Jsou dobré referenční třídy „každý sudý člověk“? A co „člověk který ví / neví o Carterově paradoxu“? Nebo mám počítat jen lidi, kteří „jsou přesně já“ a tedy v budoucnu nejspíš žádní takoví nejsou? Bostrom nedává definitivní odpověď a někdy jsou argumenty kolem referenčních tříd poměrně komplikované. Myšlenka, kterou jsem si k referenčním třídám odnesl je, že u „krotkých“ problémů, které zmiňuji na začátku, je řešení problému často velmi robustní k tomu, jaké referenční třídy volím. Naopak u problémů, kde se tvářím, že lidi losuji do světa, aby se narodili v nějakém pořadí jsou na referenční třídu citlivé docela dost.. a možná už to samotné je indikace, že řešení není dobré.

Jednou z odpovědí, kterou lidé často navrhují je říct, že protože je lidí v budoucnu daleko více, je taková teorie apriorně pravděpodobnější. Tady přichází na řadu SIA. Tento předpoklad zvýhodňuje teorie, které obsahují více pozorovatelů a tyto členy se v Carterově paradoxu přesně vyruší a paradox vysvětlí. Ale Bostrom upozorňuje, že to také není snadno přijatelné řešení. Pokud bychom totiž zvažovali dvě fyzikální teorie, kde jedna má mnoho pozorovatelů a druhá málo (řekněme téměř nekonečný vesmír vs. malý vesmír, mnohosvětová teorie vs. objektivní kolaps v kvantové mechanice, apod.), někdo by mohl snadno tvrdit, že vůbec nemusíme provádět žádné experimenty, protože teorie s velkým vesmírem jsou apriorně o mnoho řádů pravděpodobnější. Tomu Bostrom říká paradox domýšlivého filozofa.

Bostrom nakonec neříká, jestli je správně SSA nebo SIA, ale ukazuje, že oba vedou k problémům. Tím nechává hodně otevřených otázek, ale možná i to dělá tento problém nadále tak zajímavým.

Tady dnes skončím. Rád bych se k problému ještě vrátil a zkusil aplikovat SSA na konkrétní modely Tegmarkova matematického vesmíru, o čemž snad napíšu někdy příště.

pondělí 23. října 2017

Nick Bostrom - Superintelligence

I am just finishing Bostrom's Superintelligence. Although the book seems far fetched in some moments (and if you know me, you realize this probably is a strong understatement), the argumentation stays honest and serious, discussing many possible scenarios of the so-called intelligence explosion

Bostrom essentially claims that:
  • Sooner or later, we will discover artificial intelligence as capable as humans in all relevant skills. 
  • Since humans are probably not at the top of the possible intelligence ladder and since clever machines will accelerate the progress even more, soon after that the AIs will surpass us in many directions. (Including speed: as transistors run on 2 GHs, while neurons around 10 Hz).
  • If we fail to program the right motivation to the AI soon enough, we will inevitably lose control of the situation.

Bostrom names several possibilities how we could try to control the AI, however assumes they are risky in long term, given the AI capabilities. He also spends several chapters elaborating how we should specify the motivation system (if we will ever be able to make solid algorithmic representation for it). He claims, that the AI minds could be extremely counter-intuitive in their motivations. This seems to be very plausible to me. For example, they could suffer from:

Perverse Instantiation: We specify what we want in such way, that the unexpected solution is something we had never in mind. ("Make us happy" can be achieved by placing electrodes into our brains, for instance.)

Infrastructure Profusion: If we specify goal of autonomous action incorrectly, the artificial intelligence (AI) can turn the whole Earth into microprocessors while blindly following the goal to solve Riemann hypothesis, or do similar damage.

Mind crime: If you believe simulated minds can have moral status, there is danger that the AI will harm the simulations (torture them while exploring different scenarios by too detailed simulation, for instance.). 


Later, Bostrom classifies the possible types of AIs we could try to achieve, as "Oracles"that only provide information we require without any motivations of its own, "Djinns" and "Sovereigns" that fulfill tasks one at a time or completely autonomously, and "Instruments", which perform complex tasks without acting as agents. Bostrom then tries to construct (more or less) formal definition of what goal should we try to implement to the initial AI, to avoid the above mentioned failures. (Assuming we find out how.) There is much more, but you will have to read the book. 😉




I really liked the book - it is very intellectually stimulating and after long time, it is one with many new concepts - this is something I really like. I think the outline of the scenarios presented therein is more or less correct, but there is also many cases, where I disagree with Bostrom. It is, for sure, very hard to imagine intelligences that surpass us in the same way our intellect surpasses that of a dog, or even much more. The way Bostrom approaches this is, that he simply vastly overestimates the superintelligent AIs in all directions. One consequence of this strange logic is this sort of "exponential fitting": Before neolithic evolution, it took humanity 220,000 years to double the production, for agrarian society, it was 900 years, and in purely industrial society, it would be 6.3 years+. The intelligence explosion should therefore happen in minutes or max days. (Bostrom also presents slower scenarios, but claims this time scale should not surprise us).

If there would be no hardware needed to develop, and if the AI could design all the technology from first principles, then maybe. But I am very skeptical that technology can be developed without experiment (which takes time). There are very good reasons to think no computer should be able to predict weather beyond several weeks, because the required precision in initial condition grows exponentially with the required prediction time. The agent capable of thinking about not few, but millions of entities at once could out-think us in many ways, but we already know that there are some practical limits even for superintelligences, and we should not blindly extrapolate. It is even possible, there is surprisingly little practical technologies not comprehensible to humans, but available to supreintelligences. They would discover them much faster, but the technologies would not necessary be incomprehensible to us in the same way differential equations or aeroplanes are incomprehensible to dogs.

The same goes for the claims that isolation and direct control cannot work, because alone supercomputer isolated from the outer world with only keyboard input could surely outmaneuver his guards and overtake the world. Bostrom is more careful in his claims, but one can still notice, that arguments from this community sneak somewhere into his assumptions.

Last think I will point out: I do not quite believe there will be reasonable algorithmic way how to encode "final goal" the AI shall follow in the way Bostrom imagines it. (This is the "control problem" that should be solved before we start creating the AI.) All the abstract motivations he constructs are interesting and some of them also well-defined, but it is quite possible the complex intelligences will be achievable only by some self-organizing or self-learning algorithms, like neural networks, which do not allow such solid specifications of so abstract goals. Although I am no neuroscientist, I tend to think that on the lowest level of our brains, there is probably some simple and very solid algorithm of how the neurons should interact, connect and learn in the process. The concepts (people, trees, houses, etc.), on the other hand, are probably derived and although they can be partially built into the brain architecture as well, they are much further from the low level algorithm. It seems hard to imagine that we could encode abstract goals in layer low-level enough it would stay enforced, and would be correctly generalized and maintained by the AIs during the whole intelligence explosion.

Overall, I am very glad that these things are getting into public knowledge, because even if many of them sound very counter-intuitive and improbable, they may be closer than we think.

+ I am now not sure about the numbers, I will soon correct them according the book. These, I took from here, where is only citation.

neděle 7. prosince 2014

Z geekova deníčku

Zhruba od doby, kdy jsem před dvěma lety objevil free realistickou hru z vesmíru s pěknou Newtonovskou fyzikou, Pioneer, a pomohl s několika fyzikálními problémy v kódu, začal jsem se opět vracet ke sci-fi, kosmonautice a modelování světů s tím souvisejících. V tomto postu se chci pochlubit zajímavými odkazy s touto tematikou, které by lidé s podobnými zájmy určitě neměli minout.

  • Kerbal Space Program - Kde začít než u KSP? Jde o krásnou hru, ve které je kosmonautika představená taková, jaká skutečně je. Stavíte rakety jako ze stavebnice a snažíte se dostat co nejdále. Poté, co jsem se konečně naučil vystřelit vůbec něco na orbitu, jsem zorganizoval výpravu na Měsíc zpět. Konečně jsem získal nezprostředkovaný dojem, že jestliže je to tak těžké ve zjednodušené počítačové hře, musela to být skutečně veliká výzva. Ani po mnoha dnech snažení jsem nedostal nic zpět z Marsu. 
  • Space Engine - Pokud máte rádi krásné záběry z vesmíru a vlastníte silnou grafickou kartu, neměli byste minout Space Engine. Generuje náhodné fiktivní hvězdné systémy, takže můžete dělat objevitelské průlety a snadno objevit věci, které autor třeba ani vůbec nezamýšlel.
  • Universe Sandbox - Universe Sandbox je program, který se zaměřuje na vytváření planetárních systémů tak, že že si je jednoduše naklikáte. Autoři do kódu vložili poměrně hodně vědy, takže např. ukazuje obyvatelné zóny, počítá Hillovu sféru (oblast, ve které mohou být měsíce planety stabilní) a Rocheho limit (oblast, ve které gravitace planety rozbíjí oběžnice a vytváří prstence), Lagrangeovy body a další užitečné zajímavosti.
  • Project rho - Projekt ró píše autor blogu Rocketpunk Manifesto. Jde o jakéhosi technického průvodce pro autory sci-fi, kde vysvětluje fyziku kosmických letů. Jeho heslem je: "Hard scifi - protože fyzici a experti na termodynamiku se chtějí taky bavit."
  • Orion's Arm - Orion's Arm je sdružení nadšenců a autorů, kteří si za úkol vytyčili postavit vesmír pokud možno konzistentní s moderní vědou a zasadit do něj potom povídky a příběhy. Použitá fyzika je hodně divoká - základní premisou je, že lidská společnost prošla tzv. technologickou singularitou, tj. vytvořili jsme umělou inteligenci, která se natolik rozvinula, že pro nás přestala být jakkoliv pochopitelná. Vlastně jim nestačila jedna singularita, a tak postulovali hned hierarchii sedmi na sebe navazujících přechodů k vyšším formám života. Na pořadu dne jsou červí díry a warpové bubliny, fúzní a anti-hmotové rakety, ale třeba taky velice originální koncept maghmoty. To má být vyjímečně hustá stabilní látka z dosud neobjevených stabilních fermionů, z níž lze postavit struktury, na které atomy nestačí. (Tj. různé prstencové světy, kde atomům nestačí pevnost, nebo warpové bubliny a červí díry, kde zase atomům zdaleka nestačí hustota.) 
  • Stellar database - Stellar database je opět ze zcela skutečného vesmíru a představuje výborný zdroj, pokud chcete informace o blízkých hvězdách a jejich vzdálenostech k jiným hvězdám.
  • Speculative evolution - Na fórum spekulativní evoluce jsem již několikrát poukazoval. Sdružuje unikátní komunitu lidí, kteří v intencích skutečné vědy přemýšlejí, kam by mohla evoluce živočichy zavést, kdyby je nezavedla tam, kam je zavedla. Zcela unikátní je třeba projekt Ilión (a zde), kde slečna buduje důsledně vědecky biosféru na fiktivní planetě obíhající Barnardovu hvězdu. 
  • Sean Raymond a Real-life scifi worlds - Nedávno jsem našel tohoto zajímavého chlapíka, který vedle svého povolání ještě píše blog, ve kterém se mj. snaží domýšlet, jaké by byly skutečně podmínky na Pandoře z filmu Avatar, Arrakis z Herbertovy Duny a na jiných exotických světech.
Z tohoto postu si asi udělám osobní rozcestník, takže se těšte - objevy budou jistě přibývat.