Den här artikeln är baserad på en engeskspråkig artikel i Bishop Hill som i sin tur är baserad på en kommentar i WUWT. Frågan gäller om medeltal och standardavvikelse har någon mening då man betraktar resultatet från en serie körningar av klimatmodeller. Svaret på frågan, mera om detta nedan, är nej.
Att säga att vi måste vänta en bestämd tid innan vi kan säga något om huruvida modellerna är riktiga eller inte är farligt. Det finns två orsaker till detta, för det första, och det här är något som helt ignoreras, finns det en mängd olika modeller som alla är baserade på grundläggande fysik och ändå ger de alla helt olika resultat.
Fig. 1 Spagettigraf av klimatmodeller.
Man ser detta tydligt i de kurvor Monckton publicerade (fig. 1) där AR5 trendlinjen är medeltalet av alla dessa modeller och trots att det finns många modeller är variansen mycket stor. Då man tittar på kurvorna ser de ut som en upplöst repända inte som en naturlig spridning runt ett fysikaliskt resultat.
Lägg märke till graden blåsning i bilden. Genom att beräkna medeltal och standard deviation over de olika modellernas projektioner och sedan använda medeltalet som den mest sannolika projektionen och variansen som felgränser så behandlar man de olika modellerna som om de vore okorrelerade slumpmässiga storheter som ger upphov till ett sant medelvärde!
Det här är ett så fullständigt hårresande missbruk av statistik att det är svårt att bestämma sig för var man skall börja greppa frågan. Man skulle helst ge den som satte ihop den ursprungliga bilden ett antal örfilar och sedan se till att de aldrig kunde publicera vetenskapligt eller statistiskt material i framtiden. Man kan inte skapa en ensamble av oberoende och identiskt distribuerade modeller som har olika kod. Man kunde eventuellt använda en enda modell med olika startvärden (brus) och studera hur olika körningar av samma modell då uppför sig.
Vad jag försöker säga är att variansen och medeltalet för ensamblen av modeller är statistiskt helt meningslös eftersom de ingångsvärden vi har saknar de grundläggande statistiska egenskaper som behövs för en meningsfull tolkning.
Varför köpa detta nonsens genom att göra en linjär anpassning till till en funktion, den globala temperaturen, som aldrig har varit linjär även om den naturligtvis har varit approximativt jämn så att man via serieutveckling får fram en linjär term … som kan garanteras att inte ge meningsfulla extrapolerade värden för framtiden eftersom högre ordningens icke linjära termer börjar inverka och med tiden kommer att dominera. Varför ens med läpparna bekänna att R² eller p har någon mening? Den har det inte.
Låt mig upprepa. Den har ingen mening! Den kan inte statistiskt försvaras varken praktiskt eller teoretiskt. Man kunde lika väl använda ett spiritistiskt talande bord http://en.wikipedia.org/wiki/Ouija som grund för förutsägelser gällande framtida klimat. Ensamblen modeller skiljer sig inte genom verkliga slumpmässiga variationer utan de är beroende av alla möjliga obeaktade variabler, valda variabler, implementeringen och initialiserings bias. Bordet kan tänkas ge rätt svar, eller kanske inte, men god tur ger eventuellt gissningen någon typ av rationell bas.
Låt oss vända på steken och tillämpa statistisk analys på distributionen av modellresultat gällande påståendet att de alla korrekt implementerar välkänd fysik. Om jag t.ex. försöker göra en a priori beräkning av kvantstrukturen av t.ex. en kolatom så kan jag börja med att lösa en en-elektron modell där man låter elektronens växelverkan med sig själv generera ett sfäriskt symmetriskt elektronmoln kring kärnan. Sedan kan man utgående från fältteori iterera fram en bättre lösning (Hartree approximation).
Någon kan då säga ”Vänta, det här bryter mot Paulis uteslutningsprincip” och kravet på att elektronens vågfunktion skall vara helt antisymmetrisk. Man kan då göra en-elektronmodellen lite mera komplicerad och skapa en slater determinant för en helt antisymmetrisk representation av elektronens vågfunktion. Man kan sedan generera tätheten och utföra den självkonsistenta fältberäkningen för att få det hela att konvergera (det här kallas Hartree-Fock metoden).
En tredje person kunde då lägga märke till att resultatet fortfarande underskattar systemets såkallade ”korrelationsenergi” eftersom man då man behandlar elektronmolnet som en kontinuerlig distribution ignorerar att elektroner kraftigt repellerar varandra och därför inte vill vara nära varandra. Båda de första modellerna underskattar elektronmolnets storlek vilket gör atomen alltför liten och alltför hårt bunden. En variant där man använder en halv-empirisk täthetsfunktion ger igen ett bättre resultat.
En fjärde grupp konstaterar att universum i verkligheten är relativistiskt och genom att ignorera relativitetsteorin så inför vi fel i alla de ovanstående beräkningsmodellerna.
På slutändan kan vi ha en lång serie modeller som alla är baserade på fysik. I praktiken är också skillnaderna mellan modellerna baserade på fysik d.v.s. den fysik vi har lämnat bort i olika modeller. Vi ser också hur vi försökte använda en halvempirisk metod för att hantera frågor vi inte kan beräkna utfående från grundläggande fysik, resultatet är ofta dåligt eftersom empiriska korrektioner ofta endast fungerar i specifika situationer. Observera dock att vi inte har alternativet att göra beräkningen utgående från grundläggande fysik … vi klarar helt enkelt inte av att lösa det flerkroppsproblem vi stött på. Lika lite klarar vi av att lösa flerkroppsproblem klassiskt eller mängden öppna, ickelinjära, kopplade, dämpade, drivna kaotiska Navier-Stokes ekvationer i en icke inertial referensram … som representerar ett klimatsystem.
Lägg märke till att vårt försök att lösa elektronens vågfunktion för en kolatom är ett trivialt problem (som vi inte klarar att lösa) jämfört med klimatproblemet. Vi kan inte exakt beräkna någondera men vi är mycket närmare en lösning gällande atomen än gällande klimatet.
Borde vi beräkna ett medeltal för ensamblen modeller av den kvantelektroniska strukturen av atomärt kol och använda detta medelvärde som den bästa beskrivningen av kolets kvantstruktur? Vi gör detta endast om vi är idioter eller sinnesjuka eller om vi försöker sälja något. Om du läste ovanstående med eftertanke så märker du att jag fuskade … jag använde en halvempirisk metod d.v.s. metoden bygger inte på grundläggande fysik.
Vilken modell kommer att ge den bästa beskrivningen? Den halvempiriska metoden naturligtvis! Varför? Eftersom det finns ett antar parametrar som kan justeras så att man får bästa möjliga passning till ett mätt spektrum på en kolatom. Alla de övriga kommer att underskatta korrelationshålet och felen kommer att systematiskt skilja sig från verkligheten. Deras medeltal kommer att vara systematiskt felaktigt och genom att ge Hartree modellen (den dummaste, enklaste) samma vikt som den halvempiriska modellen så garanterar man att felet i medeltalet måste vara signifikant.
Anta att vi inte vet vilken av modellerna som ger det bästa resultatet. Antag att ingen i verkligheten har mätt kolets spektrum så att dess empiriska kvantstruktur är okänd. Om man lägger till detaljer som lämnades bort i Hartree så kan vi inte vara säkra på om vi får en förbättring eller en försämring av beskrivningen.
Vad man skulle göra i det verkliga livet är att mäta kolets spektrum och jämföra detta med förutsägelserna från de olika modellerna. Efter jämförelsen mot verkligheten kan vi välja den/de modeller som beskriver verkligheten bäst. Man går sedan vidare och försöker förbättra de bästa modellerna.
Kan vi tillämpa samma tänkesätt på klimatmodellernas spagettikod? Klart att vi kan! Först måste vi sluta låtsas att ensamblens medeltal och varians har någon mening överhuvudtaget genom att helt enkelt låta bli att beräkna dem. Varför beräkna ett meningslöst tal? För det andra kan vi utnyttja verkliga klimatmätningar från någon vald startpunkt. Vilken den valda startpunkten är spelar i det långa loppet ingen roll och vi kommer att vara tvungna att jämföra modellerna under lång tid för att inte slumpmässigt brus skall föra oss vilse och dölja systematiska fel i modellerna. Då vi har jämfört modellerna med verkligheten under tillräckligt lång tid väljer vi t.ex de fem modeller som bäst motsvarar verkligheten och lägger de övriga i malpåse och dessa övriga modeller används inte överhuvudtaget vid framtida analys eftersom vi vet att de innehåller systemetiska fel.
En verklig vetenskapsman kan sedan tänka på att sätta sig ner och studera dessa fem vinnande modeller och meditera över varför dessa modeller var bäst och dessutom försöka komma underfund med hur man kunde göra dem ännu bättre. Man kunde tänka sig att lägga till fysik som man tidigare förenklat bort, man kan tänka sig att lägga till empiriska korrektioner eller justera ingångsparametrar.
Nu kommer det verkliga problemet. Att vänta! Klimatet är inte så enkelt som en kolatom. Kolatomens spektrum är oföränderligt, klimatet är olinjärt, icke-Markoviskt, kaotiskt och allmänt påverkat av en mängd globala dåligt förstådda sinsemellan tävlande faktorer. Sot aerosoler, växthusgaser, moln, is, årtionden långa temperatursvängningar. Felaktigheter som beror på kaotiska processer som ger upphov till globala bestående förändringar i luftströmmarna men som beror på lokala osaker som t.ex. blockerande högtryck i Atlanten men som har stor inverkan på års- eller månadstemperaturen. Ytterligare har vi banförändringar, förändringar i Solen, förändringar i atmosfären, vulkaner, förändringar i användningen av landområden, algblomningar…
Någonstans har vi dessutom den där förbaskade fjärilen som inte förstår att sitta still … nån borde göra mos av den eftersom beräkning av ett ensamble medeltal från ett kaotiskt system är så dumt at man inte kan beskriva det. Allt fungerar bra så länge man beräknar medeltal över ett så kort intervall att man är bunden av en specifik attraktor … allting oskillerar snyggt och prydligt och sedan plötsligt har vi en annan attraktor och allting förändras. Alla parametrar vi använde för att finjustera modellen för den gamla attraktorn måste ges helt nya värden för att modellen över huvudtaget skall kunna fungera.
Ovanstående är orsaken till att det är huvudlöst att tro att någon sorts p-värde eller R² som beräknas utgående från AR5 har någon mening.
Jag rekommenderar att skeptiker försöker att inte acceptera ensamblen och i stället försöker rikta diskussioner mot frågor gällande varför modellerna stämmer så dåligt överens sinsemellan även då man kör dem utgående från leksaksproblem som är mycket enklare än det jordklot vi lever på. Varför använder vi inte empiriska bevis för att eliminera dåliga modeller så att vi kan koncentrera oss på de modeller som bäst motsvarar verkligheten, samtidigt måste vi se till att de dåliga modellerna inte används för några lösa påståenden om framtida klimat.
Det skulle ta mig, i min relativa ovetskap, omkring fem minuter att eliminera alla utom de bästa 10% av klimatmodellerna (som fortfarande divergerar men befinner sig inom fluktuationsområdet på datasidan). Sortera de återstående modellerna i en bästa (som kan förbättras) och en sämre halva som man kunde stoppa finansieringen av eftersom det är slöseri med tid och pengar. Naturligtvis försvinner de dåliga modellerna inte i verkligheten … de hamnar i malpåse och kan tas fram senare om det framtida klimatet förändras så att de ratade modellerna ger den bästa beskrivningen.
Om man eliminerar de dåliga modellerna så rasar modellernas förutsagda klimatkänslighet från det statistiskt sett helt bedrägliga 2.5 grader C/århundrade till ett mycket mera trovärdigt värde på ungefär 1 grad C/århundrade vilket ungefär motsvarar den långsamma klimatåterhämtningen efter den lilla istiden. En så här stor förändring skulle å andra sidan locka fram högafflar, tjärtunnor och fjädrar då människor inser hur de grovt har utnyttjats av en liten grupp vetenskapsmän och politiker. Då människor förstår hur de är offer för ett helt oförsvarbart missbruk av statistik där man beräknar ett medeltal mellan extremt dåligt och dåligt som om de skulle ha samma sannolikhet att vara korrekta med slumpmässigt distribuerade differenser.
Kommentera