Archive for the ‘Klimatmodeller’ Category

Petteri Taalas, hur man ljuger med finess

13/04/2014

Uppdatering 15.4.2014 för finska läsare, se länk i slutet av artikeln.

I kvällsnyheterna idag (13.4.2014) uttalade sig Petteri Taalas som är Meteorologiska Institutets chef och Finlands representant i IPCC. Inslaget betonade att mänskligheten snabbt måste sluta upp att använda fossila bränslen och ersätta dessa med t.ex. vindkraft och solenergi. Petteri Taalas konstaterade att utsläppen från fossila bränslen har nått en aldrig tidigare skådad nivå bl.a. till följd av utsläpp i utvecklingsländerna men främst i Kina och Indien. Tanken är naturligtvis att personen som följer med nyheterna skall göra kopplingen att situationen är katastrofal.

Den kända SciFi författaren Robert Heinlein beskriver tre sätt som ”makten” d.v.s. beslutsfattarna kan ljuga på. De olika sätten är:

  1. Låt bli att säga sanningen. Detta gör endast en ren amatör.
  2. Säg sanningen men lämna bort bitar av sanningen så att lyssnaren själv skapar den lögn lögnaren ville få fram.
  3. Säg hela sanningen men presentera den så att ingen tror på den.

Petteri Taalas uttalande på TV faller inom kategori två ovan, han är alltså rätt skicklig som lögnare men han tillhör inte de absoluta topparna 😉 . Petteri Taalas ljuger genom att lämna bort en kritisk del av sanningen vilket gör att åhöraren själv skapar den önskade felaktiga slutledningen.

Vad hände? Petteri Taalas hänvisar till att utsläppen från användningen av de fossila bränslena är större än man ens vågade dröma om i början av 1990-talet när man sparkade igång klimathysterin.

Petteri Taalas har helt rätt i att utsläppen idag är större än de förväntade scenarierna. Det som gör Petteri Taalas till en kategori (2) medelmåttig lögnare är att petteri Taalas av någon anledning glömde bort att informera lyssnarna om att klimatmodellerna förutsåg en kraftig temperaturstegring till följd av den stigande koldioxidhalten i atmosfären men att den förutspådda temperaturstegringen aldrig realiserades. Den globala temperaturen har inte stigit på över sjutton år … skulle det inte ha varit relevant att låta tittaren få veta också detta?

Varför måste utvecklingsländerna enligt Petteri Taalas avstå från en mänsklig levnadsstandard … om koldioxiden inte har visat sig medföra de katastrofer man i över tjugo år har överösts med via inkompetenta nyhetsmedia. Om temperaturstegringen koldioxidökningen inte medför kraftigt stigande temperaturer så betyder det samtidigt att Petteri Taalas indirekt framför en grov lögn som varje år kostar Europa uppskattningsvis 100 000 miljoner Euro. Skulle det inte vara vettigare att satsa den här summan på att t.ex. skapa jobb för Europas ungdomar?

Det finns uppskattningar om att nästan 50% av de stigande skördarna efter 1960 d.v.s. den gröna revolutionen beror på koldioxidgödsling av gröna växter. Vi ligger skrämmande nära en situation där växterna direkt svälter till följd av brist på livsviktig koldioxid. Mätningar tyder på att växter mår extremt illa om koldioxidhalten i atmosfären faller under ca. 200 ppmv (vid början av den industriella revolutionen låg den på ca. 280 ppmv och idag på ca. 400 ppmv). Notera att man regelmässigt tillför koldioxid till luften i växthus eftersom växterna växer mycket snabbare då koldioxidhalten är högre (halterna i växthus kan vara upp till 5 gånger högre än halten i atmosfären idag).  Experiment bl.a. i ubåtar visar att koldioxidhalter som är ännu högre än halten i växthus inte ger problem för människor.

Uppdatering (finska): finsk kommentar till Petteri Taalas. Se också Alestalo: Finlands Trifim Lysenko?.

 

 

Det finska miljöministeriet

04/12/2013

Miljöministeriet har trettio personer som jobbar med klimatpolitik och frågor i anslutning till klimatpolitik.

Målsättningen är att göra minska förbrukningen av kol samt förändra samhället i riktning mot hållbar förbrukning av resurser och i en riktning där samhället snabbt kan anpassa sig till förändringar.

Politiker ohoj!

Här finns en snabb metod att lite fixa till hållbarhetsgapet. De här klimatparasiterna kostar samhället uppskattningsvis 3 miljoner euro per år.  Kan någon visa på någonting av värde den här klimatmaffian har producerat.

Temperaturkurvan ovan är tagen direkt från Meteorologiska institutionens egen hemsida (4.12.2013). Observera temperaturen i Sodankylä som i egenskap av nordlig station enligt dagens klimatmodeller borde har värmts upp extremt mycket (blå kurva). Man ser genast att temperaturen idag på inget sätt är speciell och att det var varmast mot slutet av 1930-talet.

Helsingfors är något varmare än 1930-talet men detta är knappast förvånande eftersom den röda kurvan är från Helsingfors Kaisaniemi som ligger i stort sett mitt i en storstad d.v.s. ca. en kilometer från stadens exakta centrum. Framför allt trafiken har ökat våldsamt sedan 1930-talet och varje motorfordon mostvarar ett värme-element på några kilowatt.

Vilket existensberättigande har den statligt finansiedrade Klimatpanelen då man betraktar ovanstående temperaturkurva?

Vilket existensberättigande har de avdelningar på Meteorologiska Institutionen som sysslar med ickeproblemet katastrofal klimatuppvärmning … då mätningar enligt IPCC (Pachauri) visar att temperaturen inte har stigit på 17 år.

Om temperaturen inte stiger så måste ju detta samtidigt betyda att det inte kan finnas några betydande problem till följd av global uppvärmning … eller tolkar ovanstående parasiter de normala vädret som katastrofal klimatförändring.

Om moln, Solen och kosmiska strålar

03/12/2013

Under de senaste årtiondena har det i det vetenskapliga samfundet pågått ett stort ”gräl” gällande vilka faktorer som i huvudsak påverkar jordens klimat.

En grupp, representerad av IPCC och europeiska politiker, påstår att jordens temperatur bestäms av halten koldioxid i atmosfären. Den här gruppen konstaterar att de inte kan komma på någon annan förklaring till den observerade temperaturstegringen än koldioxiden … problemet börjar idag vara att koldioxidhalten fortsätter att växa medan temperaturen hålls konstant. I stort sett alla klimatmodeller visar att temperaturen sedan början av 2000-talet borde ha stigit nästan 0,3 grader medan temperaturen i verkligheten har sjunkit något.

En annan grupp konstaterar att det är självklart att solen är den faktor som driver jordens klimat. På en trivial nivå är det här naturligtvis sant. Problemet är dock att mätningarna av solstrålningens intensitet d.v.s. hur mycket värme jorden tar emot från solen visar att variationerna i solstrålningens effekt inte räcker till för att förklara de observerade temperaturförändringarna.

En tredje grupp har gjort experiment där man simulerar hur den kosmiska strålningen påverkar molnbildningen. Videon nedan presenterar Svensmarks forskning kring sambandet mellan kosmisk strålning och molnbildning. Det visar sig att mycket små variationer i mängden eller typen av moln har en effekt som är mycket större än den värmande effekt den ökande andelen koldioxid har.

Observera forskarnas kommentar i slutet av videon där de konstaterar att de inte har fått sina resultat publicerade i någon klimattidskrift. Det här stämmer väl överens med uppgifter från läckta epostmeddelanden från den styrande klimatklicken runt IPCC. Man förhindrar aktivt att icke önskade forskningsresultat publiceras. Om en liten grupp forskare kan styra systemet för peer review så leder detta till en grov snedvridning av vetenskapen.

Bloggen NoTricksZone (Gosslin) hade nyligen en intressant artikel om samma fenomen d.v.s. moln. Gosslin hittade informationen genom IPCC men IPCC kastar bort informationen eftersom den är mot IPCCs uttalade uppgift d.v.s. att söka stöd för mänsklig klimatpåverkan. Klimatinverkan från moln beror inte av människan och därför borde den antagligen sopas under mattan.

Bilden visar hur molnigheten kontinuerligt har minskat sedan 1980-talet. Förändringen tog slut ungefär kring år 2000.

Bilden visar mängden solstrålning som når markytan d.v.s. den del av solenergin som faktiskt värmer jorden och de lägre delarna av atmosfären.

GISS temperaturkurva som den såg ut innan man via justeringar ökade uppvärmningen så att 1998 blev varmare än tiden kring 1940. Lägg märke till den intressanta korrelationen mellan molndata och temperatur.

Mitt kliv in i klimatdebatten (Lars Bern)

22/11/2013

Nyheter Hbl inte vill att du skall känna till!

Fram till början av 2008 tillhörde jag de som fullt ut trodde på IPCC:s larm om klimatet. Jag hade lärt känna IPCC:s ordförande Bert Bolin under min tid som chef för Svenska Miljöforskningsinstitutet IVL och mina år som ordförande i Det Naturliga Stegets miljöinstitut. Jag hade som många andra stort förtroende för Bolin och såg ingen anledning att betvivla det han sa. Men sedan hände saker som ändrade allt.

Bilden är länkad till den ursprungliga artikeln, se länk nedan.

Våren år 2008 reagerade jag på en annonsbilaga i Svenska Dagbladet där Naturskyddsföreningens ordförande Mikael Karlsson och Anders Wijkman uppträdde som annonspojkar för etanolindustrin. Med tanke på mina mångåriga och dåliga erfarenheter av etanol som drivmedel skrev jag ett mejl till Karlsson där jag ifrågasatte det lämpliga i att han lånade ut vår förenings goda namn till ett så ur miljösynpunkt tvivelaktigt syfte. Hans mycket nedlåtande svar blev en mindre chock, så jag gick vidare och skrev en artikel som togs in på SvD Brännpunkt. Den gav sedan upphov till en upphetsad debatt med Karlsson och Wijkman. Tonläget i svaret på mitt mejl och i debatten fick mig konfunderad…

Läs hela artikeln här.

Numeriska instabiliteter i klimatmodeller

28/07/2013

Det är ett känt faktum att olika klimatmodeller, även om de har samma initialvärden, ger olika resultat. Ett välkänt exempel är IPCCs spagettigraf över olika klimatmodellers beräknade framtidsscenarier.

Bilden visar IPCCs klimatmodellers framtidsscenarier jämfört med verkliga mätningar (satellit [kvadrat] och väderballonger [bollar]). Bilden visar hur modellerna grovt överdriver en framtida uppvärmning.

Bloggen WUWT gav en intressant länk till en ny publikation, som har genomgått s.k. peer review, som behandlar numeriska fel i beräkningarna.

Forskarna undersökte vad som händer då man kör samma klimatmodell på olika datorplattformer. Det visade sig att trots att initialvärdena var exakt lika för de olika datorsystemen så divergerade körningarna rätt snabbt d.v.s. resultaten från de olika körningarna blev allt mer olika. Hur är detta möjligt? Räknar datorerna fel?

Orsaken till divergensen är något som kallas avrundningsfel som är en följd av att tal i en dator oftast uttrycks med ett begränsat antal decimaler. Antalet decimaler en dator jobbar med kan vara i storleksordningen 16 decimaler plus en exponent som anger hur decimaldelen skall skalas. Vid beräkningar är är det speciellt riskabelt att beräkna skillnaden mellan två nästan lika stora tal.

Ett exempel:

Antag att vi gör en beräkning på en dator där ett tal uttrycks med 8 decimaler. Vi stöter på en situation där vårt program beräknar skillnaden mellan två stora tal. Sekvenserna xxxxxxx och yyyyyyyy representerar information som inte ryms i talrepresentationen.

T = 3173333.3xxxxxxx – 3173332.1yyyyyyyy = 1.2

Vi har plötsligt gått från 8 siffror till en två.

Då vi subtraherar små tal från stora tal kan motsvarande problem dyka upp. Antag igen att vi använder en dator med 8-siffrors talrepresentation och att vi i programmet behöver utföra subtraktioner av små tal från ett basvärde:

X = bas – modifikation

X = 10 344 232 – 0.012345

Om vår antagna dator med 8 siffrors talrepresentation utför subtraktionen så får vi:

X = 10 344 232

eftersom det lilla talet vi subtraherade är så litet att det inte påverkar  det första talet över huvudtaget. Om vi har ett komplicerat program som miljontals gånger utför motsvarande beräkningar så kan felen med tiden bli betydande.  Problem av ovanstående typ är välkända i datavetenskapen och det finns många metoder för att minska på felen man får till följd av avrundningsfel. Problemet är dock att många lösningar kräver att man vet hur beräkningarna generellt uppför sig för att man skall kunna optimera beräkningarna på ett vettigt sätt.

Utöver ovanstående avrundningsfel kan det förekomma andra problem då man flyttar en klimatmodell från en beräkningsplattform till en annan. Då man kompilerar modellen för en ny plattform får man andra algoritmer för hur t.ex. olika matematiska funktioner beräknas. Små skillnader i algoritmerna kan ge upphov till intressanta kumulativa fel. Klimatmodeller körs idag i allmänhet på stora processorfarmer d.v.s. programmen körs på hundratals eller tusentals processorer som behandlar olika delar av modellen och sedan skickar mellanresultat till andra processorer där resultaten kombineras. Det är lätt att se att det utgående från ovanstående exempel kan ha betydelse i vilken ordning olika delresultat behandlas.  I t.ex. det senare fallet kan vi ibland ha situationer då det lilla talet har betydelse men att det har betydelse vad man eventuellt har subtraherat tidigare.

Andra orsaker till skillnader är hur beräkningarna optimeras. En kompilator kan t.ex. intelligent arrangera om olika termer i ett uttryck så att de kan beräknas så snabbt som möjligt, naturligtvis under förutsättning att resultatet matematiskt blir detsamma. Om vi har ett komplicerat uttryck så kan vi mycket väl få situationer där olika termers beräkningsordning har betydelse även om uttrycken matematiskt sett är ekvivalenta.

Resultatet av tio dagars körning där man jämförde på vilken höjd olika datorsystem beräknade att 500hPa geopotentialen borde befinna sig. Resultatet blev:

model_CPUs_table2

Vi ser att endast tio dagars simuleringar ger en standardavvikelse på 10 m i den beräknade höjden. En klimatmodell körs äver tiotals år d.v.s. tusentals eller tiotusentals dagar, det är lätt att inse att då endast de numeriska problemen gör att resultaten blir mycket tvivelaktiga.

Klimatmodeller, ensamble, medelvärde?

17/06/2013

Den här artikeln är baserad på en engeskspråkig artikel i Bishop Hill som i sin tur är baserad på en kommentar i WUWT. Frågan gäller om medeltal och standardavvikelse har någon mening då man betraktar resultatet från en serie körningar av klimatmodeller. Svaret på frågan, mera om detta nedan, är nej.

Att säga att vi måste vänta en bestämd tid innan vi kan säga något om huruvida modellerna är riktiga eller inte är farligt. Det finns två orsaker till detta, för det första, och det här är något som helt ignoreras, finns det en mängd olika modeller som alla är baserade på grundläggande fysik och ändå ger de alla helt olika resultat. 

Fig. 1  Spagettigraf av klimatmodeller.

Man ser detta tydligt i de kurvor Monckton publicerade (fig. 1) där AR5 trendlinjen är medeltalet av alla dessa modeller och trots att det finns många modeller är variansen mycket stor. Då man tittar på kurvorna ser de ut som en upplöst repända inte som en naturlig spridning runt ett fysikaliskt resultat. 

Lägg märke till graden blåsning i bilden. Genom att beräkna medeltal och standard deviation over de olika modellernas projektioner och sedan använda medeltalet som den mest sannolika projektionen och variansen som felgränser  så behandlar man de olika modellerna som om de vore okorrelerade slumpmässiga storheter som ger upphov till ett sant medelvärde!

Det här är ett så fullständigt hårresande missbruk av statistik att det är svårt att bestämma sig för var man skall börja greppa frågan. Man skulle helst ge den som satte ihop den ursprungliga bilden ett antal örfilar och sedan se till att de aldrig kunde publicera vetenskapligt eller statistiskt material i framtiden. Man kan inte skapa en ensamble av oberoende och identiskt distribuerade modeller som har olika kod. Man kunde eventuellt använda en enda modell med olika startvärden (brus) och studera hur olika körningar av samma modell då uppför sig.
Vad jag försöker säga är att variansen och medeltalet för ensamblen av modeller är statistiskt helt meningslös eftersom de ingångsvärden vi har saknar de grundläggande statistiska egenskaper som behövs för en meningsfull tolkning.

Varför köpa detta nonsens genom att göra en linjär anpassning till till en funktion, den globala temperaturen, som aldrig har varit linjär även om den naturligtvis har varit approximativt jämn så att man via serieutveckling får fram en linjär term … som kan garanteras att inte ge meningsfulla extrapolerade värden för framtiden eftersom högre ordningens icke linjära termer börjar inverka och med tiden kommer att dominera. Varför ens med läpparna bekänna att R² eller p har någon mening? Den har det inte.

Låt mig upprepa. Den har ingen mening! Den kan inte statistiskt försvaras varken praktiskt eller teoretiskt. Man kunde lika väl använda ett spiritistiskt talande bord http://en.wikipedia.org/wiki/Ouija som grund för förutsägelser gällande framtida klimat. Ensamblen modeller skiljer sig inte genom verkliga slumpmässiga variationer utan de är beroende av alla möjliga obeaktade variabler, valda variabler, implementeringen och initialiserings bias. Bordet kan tänkas ge rätt svar, eller kanske inte, men god tur ger eventuellt gissningen någon typ av rationell bas.

Låt oss vända på steken och tillämpa statistisk analys på distributionen av modellresultat gällande påståendet att de alla korrekt implementerar välkänd fysik. Om jag t.ex. försöker göra en a priori beräkning av kvantstrukturen av t.ex. en kolatom så kan jag börja med att lösa en en-elektron modell där man låter elektronens växelverkan med sig själv generera ett sfäriskt symmetriskt elektronmoln kring kärnan. Sedan kan man utgående från fältteori iterera fram en bättre lösning (Hartree approximation).

Någon kan då säga ”Vänta, det här bryter mot Paulis uteslutningsprincip” och kravet på att elektronens vågfunktion skall vara helt antisymmetrisk. Man kan då göra en-elektronmodellen lite mera komplicerad och skapa en slater determinant för en helt antisymmetrisk representation av elektronens vågfunktion. Man kan sedan generera tätheten och utföra den självkonsistenta fältberäkningen för att få det hela att konvergera (det här kallas Hartree-Fock metoden).

En tredje person kunde då lägga märke till att resultatet fortfarande underskattar systemets såkallade ”korrelationsenergi” eftersom man då man behandlar elektronmolnet som en kontinuerlig distribution ignorerar att elektroner kraftigt repellerar varandra och därför inte vill vara nära varandra. Båda de första modellerna underskattar elektronmolnets storlek vilket gör atomen alltför liten och alltför hårt bunden. En variant där man använder en halv-empirisk täthetsfunktion ger igen ett bättre resultat.

En fjärde grupp konstaterar att universum i verkligheten är relativistiskt och genom att ignorera relativitetsteorin så inför vi fel i alla de ovanstående beräkningsmodellerna.

På slutändan kan vi ha en lång serie modeller som alla är baserade på fysik. I praktiken är också skillnaderna mellan modellerna baserade på fysik d.v.s. den fysik vi har lämnat bort i olika modeller. Vi ser också hur vi försökte använda en halvempirisk metod för att hantera frågor vi inte kan beräkna utfående från grundläggande fysik, resultatet är ofta dåligt eftersom empiriska korrektioner ofta endast fungerar i specifika situationer. Observera dock att vi inte har alternativet att göra beräkningen utgående från grundläggande fysik … vi klarar helt enkelt inte av att lösa det flerkroppsproblem vi stött på. Lika lite klarar vi av att lösa flerkroppsproblem klassiskt eller mängden öppna, ickelinjära, kopplade, dämpade, drivna kaotiska Navier-Stokes ekvationer i en icke inertial referensram … som representerar ett klimatsystem.

Lägg märke till att vårt försök att lösa elektronens vågfunktion för en kolatom är ett trivialt problem (som vi inte klarar att lösa) jämfört med klimatproblemet. Vi kan inte exakt beräkna någondera men vi är mycket närmare en lösning gällande atomen än gällande klimatet.

Borde vi beräkna ett medeltal för ensamblen modeller av den kvantelektroniska strukturen av atomärt kol och använda detta medelvärde som den bästa beskrivningen av kolets kvantstruktur? Vi gör detta endast om vi är idioter eller sinnesjuka eller om vi försöker sälja något. Om du läste ovanstående med eftertanke så märker du att jag fuskade … jag använde en halvempirisk metod d.v.s. metoden bygger inte på grundläggande fysik.

Vilken modell kommer att ge den bästa beskrivningen? Den halvempiriska metoden naturligtvis! Varför? Eftersom det finns ett antar parametrar som kan justeras så att man får bästa möjliga passning till ett mätt spektrum på en kolatom. Alla de övriga kommer att underskatta korrelationshålet och felen kommer att systematiskt skilja sig från verkligheten. Deras medeltal kommer att vara systematiskt felaktigt och genom att ge Hartree modellen (den dummaste, enklaste) samma vikt som den halvempiriska modellen så garanterar man att felet i medeltalet måste vara signifikant.

Anta att vi inte vet vilken av modellerna som ger det bästa resultatet. Antag att ingen i verkligheten har mätt kolets spektrum så att dess empiriska kvantstruktur är okänd. Om man lägger till detaljer som lämnades bort i Hartree så kan vi inte vara säkra på om vi får en förbättring eller en försämring av beskrivningen.

Vad man skulle göra i det verkliga livet är att mäta kolets spektrum och jämföra detta med förutsägelserna från de olika modellerna. Efter jämförelsen mot verkligheten kan vi välja den/de modeller som beskriver verkligheten bäst. Man går sedan vidare och försöker förbättra de bästa modellerna.

Kan vi tillämpa samma tänkesätt på klimatmodellernas spagettikod? Klart att vi kan! Först måste vi sluta låtsas att ensamblens medeltal och varians har någon mening överhuvudtaget genom att helt enkelt låta bli att beräkna dem. Varför beräkna ett meningslöst tal? För det andra kan vi utnyttja verkliga klimatmätningar från någon vald startpunkt. Vilken den valda startpunkten är spelar i det långa loppet ingen roll och vi kommer att vara tvungna att jämföra modellerna under lång tid för att inte slumpmässigt brus skall föra oss vilse och dölja systematiska fel i modellerna. Då vi har jämfört modellerna med verkligheten under tillräckligt lång tid väljer vi t.ex de fem modeller som bäst motsvarar verkligheten och lägger de övriga i malpåse och dessa övriga modeller används inte överhuvudtaget vid framtida analys eftersom vi vet att de innehåller systemetiska fel.

En verklig vetenskapsman kan sedan tänka på att sätta sig ner och studera dessa fem vinnande modeller och meditera över varför dessa modeller var bäst och dessutom försöka komma underfund med hur man kunde göra dem ännu bättre. Man kunde tänka sig att lägga till fysik som man tidigare förenklat bort, man kan tänka sig att lägga till empiriska korrektioner eller justera ingångsparametrar.

Nu kommer det verkliga problemet. Att vänta! Klimatet är inte så enkelt som en kolatom. Kolatomens spektrum är oföränderligt, klimatet är olinjärt, icke-Markoviskt, kaotiskt och allmänt påverkat av en mängd globala dåligt förstådda sinsemellan tävlande faktorer. Sot aerosoler, växthusgaser, moln, is, årtionden långa temperatursvängningar. Felaktigheter som beror på kaotiska processer som ger upphov till globala bestående förändringar i luftströmmarna men som beror på lokala osaker som t.ex. blockerande högtryck i Atlanten men som har stor inverkan på års- eller månadstemperaturen. Ytterligare har vi banförändringar, förändringar i Solen, förändringar i atmosfären, vulkaner, förändringar i användningen av landområden, algblomningar…

Någonstans har vi dessutom den där förbaskade fjärilen som inte förstår att sitta still … nån borde göra mos av den eftersom beräkning av ett ensamble medeltal från ett kaotiskt system är så dumt at man inte kan beskriva det. Allt fungerar bra så länge man beräknar medeltal över ett så kort intervall att man är bunden av en specifik attraktor … allting oskillerar snyggt och prydligt och sedan plötsligt har vi en annan attraktor och allting förändras. Alla parametrar vi använde för att finjustera modellen för den gamla attraktorn måste ges helt nya värden för att modellen över huvudtaget skall kunna fungera.

Ovanstående är orsaken till att det är huvudlöst att tro att någon sorts p-värde eller R² som beräknas utgående från AR5 har någon mening.

Jag rekommenderar att skeptiker försöker att inte acceptera ensamblen och i stället försöker rikta diskussioner mot frågor gällande varför modellerna stämmer så dåligt överens sinsemellan även då man kör dem utgående från leksaksproblem som är mycket enklare än det jordklot vi lever på. Varför använder vi inte empiriska bevis för att eliminera dåliga modeller så att vi kan koncentrera oss på de modeller som bäst motsvarar verkligheten, samtidigt måste vi se till att de dåliga modellerna inte används för några lösa påståenden om framtida klimat.

Det skulle ta mig, i min relativa ovetskap, omkring fem minuter att eliminera alla utom de bästa 10% av klimatmodellerna (som fortfarande divergerar men befinner sig inom fluktuationsområdet på datasidan). Sortera de återstående modellerna i en bästa (som kan förbättras) och en sämre halva som man kunde stoppa finansieringen av eftersom det är slöseri med tid och pengar. Naturligtvis försvinner de dåliga modellerna inte i verkligheten … de hamnar i malpåse och kan tas fram senare om det framtida klimatet förändras så att de ratade modellerna ger den bästa beskrivningen.

Om man eliminerar de dåliga modellerna så rasar modellernas förutsagda klimatkänslighet från det statistiskt sett helt bedrägliga 2.5 grader C/århundrade till ett mycket mera trovärdigt värde på ungefär 1 grad C/århundrade vilket ungefär motsvarar den långsamma klimatåterhämtningen efter den lilla istiden. En så här stor förändring skulle å andra sidan locka fram högafflar, tjärtunnor och fjädrar då människor inser hur de grovt  har utnyttjats av en liten grupp vetenskapsmän och politiker. Då människor förstår hur de är offer för ett helt oförsvarbart missbruk av statistik där man beräknar ett medeltal mellan extremt dåligt och dåligt som om de skulle ha samma sannolikhet att vara korrekta med slumpmässigt distribuerade differenser.

Spencers illustration av IPCCs klimatmodeller

09/06/2013

Dagens klimatdomedagspropaganda bygger helt på klimatmodeller. En klimatmodell är i princip en vädermodell som körs över lång tid. Eftersom en global klimatmodell kräver en betydande räknekapacitet används ett relativt grovt rutnät (grid) som bestämmer modellens maximala upplösning. Lokala meteorologiska vädermodellers upplösning är normalt betydligt högre eftersom modellen inte gör globala beräkningar.  Eftersom beräkningsnätverket är grovt förlorar man rätt mycket detaljer från lokala fenomen, de förlorade detaljerna ersätts med tumregler för t.ex. hur moln bildas, man beräknar alltså inte molnbildningen utgående från fysikaliska grundsanningar.

Varje intresserad och vaken individ vet att dagens väderprognoser fungerar rätt bra för den närmaste dagen, ju längre fram i tiden väderprognosen sträcker sig desto inexaktare blir den. Dågonstans vid 10 – 14 dagar blir prognosen så inexakt att den blir till en ren gissning.

En vädermodell bryter samman efter ca. två veckor… Hur är det då möjligt att en i princip modifierad vädermodell kan användas till att beräkna ett framtida klimat efter t.ex. 100 år? Borde inte klimatmodellens beräkningar vara totalt opålitliga efter hundra år om vädermodellen blir opålitlig på två veckor? Svaret är att man antar att även om det väder klimatmodellen beräknar har allt mindre att göra med det verkliga vädret så kommer förekomsten av sol, regn, stormar, snöfall att statistiskt motsvara det globala vädret. Tanken är alltså att om det på ett kontrollområde förekommer rätt väder statistiskt sett så kan man använda modellen till att statistiskt uppskatta temperaturtrender även om t.ex. temperaturen modellen beräknar fram för ett specifikt år t.ex. 2015 inte behöver ha något med den verkliga medeltemperaturen år 2015. Då man tittar på trender över årtionden antar man att felen jämnas ut och de trender man ser motsvarar mätta temperaturtrender.

Motsvarar klimatmodellerna ovanstående beskrivning? Hur kan man kontrollera en klimatmodell?

Klimatmodeller kan kalibreras mot kända historiska klimatdata. Man kan alltså t.ex. ta den historiska situationen 1950 som utgångspunkt för en klimatmodell och man låter modellen räkna framåt år för år medan man justerar olika parametrar i modellen så att det beräknade resultatet motsvarar den historiska verkligheten så bra som möjligt. Om vi slutar justera modellen t.ex. år 2000 så kan vi kontrollera hur väl modellen träffar rätt i förhållande till åren 2000 – 2013 då den inte längre justeras.

De justerade parametrarna är t.ex. klimatkänsligheten i förhållande till koncentrationen CO2 i atmosfären. Klimatkänsligheten är främst beroende av en antagen förstärkning i form av vattenånga (också en växthusgas) i atmosfären. IPCC antar att en av koldioxid förorsakad uppvärmning ger upphov till högre luftfuktighet som i sin tur leder till större uppvärmning. IPCC antar att förstärkningen är ca. tre gånger.

Dr. Roy Spencer, en känd klimatolog, har studerat hur väl klimatmodellerna motsvarar verkligheten på sin vebbsida
”epic fail” . Modellerna har också behandlats på WUWT .

Klimatmodellernas beräkningar har fixerats till samma startpunkt d.v.s. 1979 som råkar vara det år då man för första gången kontinuerligt började mäta jordens temperatur från satellit. Klimatmodellernas beräkningar jämförs med verkligheten på två sätt. Den första bilden visar ett spagettidiagram äver en stor mängd klimatmodellers beräknade klimatframtid jämförd med mätningar av jordens temperatur. Det visar sig att klimatmodellerna har mycket lite med verkligheten att göra. I stort sett alla modeller överskattar grovt jordens uppvärmning och inga modeller har träffat rätt gällande de senaste sexton årens temperaturplatå.

Man ser hur klimatmodellerna idag överskattar temperaturen med 0,5 … 0,6 grader vilket ligger nära den totala uppskattade uppvärmningen (0,7 grader) sedan slutet av 1800-talet. Observera att man också inom klimatetablissemanget har uppskattat att en eventuell mänsklig inverkan på temperaturen inte har gått att mäta före ca. 1950.

Samma bild som ovan kan också ges som linjära trender för de enskilda modellerna. Den linjära bilden är lättare att avläsa än spagettibilden ovan men har eventuellt lite mindre med verkligheten att göra. Vi ser igen att klimatmodellerna inte motsvarar verkligheten.

Samma bild men baserad på endast amerikanska modeller ges nedan. Bilden visar att spridningen blir mindre vilket kan tyda på att modellerna inte byggs oberoende av varandra utan de bygger delvis på samma kod och gemensamma uppskattningar av justerbara parametrar.

Inom genetiken skulle man kalla situationen incest …

Om klimatveternskapen skulle göra skäl för namnet vetenskap borde man nu sätta in alla krafter på att förklrar varför modellerna blev fel.

Konflikt mellan klimatmodeller och verklighet

25/03/2013

Det blir allt tydligare att klimatmodeller beskriver verkligheten rätt dåligt vad gäller beskrivningen av vad som sker i atmosfären. Vad värre är är att de dessutom kan ge missvisande resultat. IPCCs scenarium bygger på en grupp modeller, de flesta med något olika utgångsantaganden.

klimatmodeller_temp

Bilden är tagen från Mail Online. Observera att endast området till höger om den vita vertikala linjen är förutsägelser modellerna har beräknat. Området till vänster om linjen har modellerna beräknat utgående från kända historiska data d.v.s. man har justerat olika variabler i modellerna så att modellerna skulle stämma med historiska data. Data till vänster måste således vara ungefär korrekta för alla modeller eftersom de var kända då modellerna kördes.  Bilden visar hur den mätta temperaturen idag ligger nedanför 95% konfidensintervallet vilket bör tolkas så att modellerna inte motsvarar verkligheten.

Resultatet man får från modellensamblen är en projektion (förutsägelse) av framtida temperatur uttryckt som ett medianvärde samt felgränser. Sedan början av 2000-talet har temperaturtrenden varit statistiskt lika med noll d.v.s. temperaturen har varken stigit eller sjunkit trots att koldioxidhalten i atmosfären har fortsatt att stiga i stort set i enlighet med IPCCs högsta utsläppsscenarier…  Ingen förväntar sig en direkt koppling mellan koldioxidhalt och temperatur, men det är klart att ju längre perioden av konstant eller sjunkande temperatur vi har desto större blir konflikten gällande den förväntade temperaturstegringen och desto bättre förklaringar behövs från modellbyggarna för att man skall kunna ha förtroende för modellerna. Idag har vi en period av konstant temperatur som sträcker sig över 15 – 23 år beroende av vilken uppskattning av den globala temperaturen man tittar på.

På 1970-talet tutade nyhetsmedia ut nyheter om den kommande istiden. Orsaken var att man från ca. 1950 fram till kanske 1976 kunde se en sjunkande global temperatur. Om man extrapolerade temperaturtrenden in i framtiden var det lätt att se att en ny istid låg strax bakom hörnet… I slutet av 1970-talet svängde trenden och samma vetenskapsmän som varnade för istid varnade nu för en katastrofal global uppvärmning. Temperaturen skulle fortsätta att stiga under ca. 20 år vilket skall jämföras med 30 år av sjunkande temperatur efter 1940-talets temperaturmaximum. FN skapade år 1988 IPCC (Intergovernmental Panel on Climate Change) vars uppgift från början  att föra fram bevis på mänsklig inverkan på jordens klimat alltså inte studera klimat i allmänhet

Situationen har nu nått en punkt där diskrepansen mellan modeller och mätningar nått en punkt där problemet inte längre kan ignoreras.  Problemet är att den mätta temperaturen nu börjar ligga utanför modellernas 95% gränser vilket i allmänhet brukar tolkas som att modellerna inte beskriver verkligheten d.v.s. de är fel. På kort sikt kommer ändå inget att ske på varken det politiska planet eller vetenskapligt eftersom väldigt många människor har satsat sin autoritet på fel häst.

Vad kommer att hända? Sannolikt kommer allt större grupper människor, vetenskapsmän och väljare att börja uppfatta att den vision av en kommande klimatkatastrof saknar verklighetsförankring. För några år sedan var det populärt att tala om ”tipping points” d.v.s. man antog att det kunde finnas någon temperatur som skulle kunna leda till mycket kraftiga och snabba förändringar i klimatet trots att inga belägg för sådana extrema förändringar verkar finnas från t.ex. geologin.  Thomas Kuhn som är kond för sin beskrivning av såkallade paradigmskifte beskriver situationen ungefär så att man till en början kommer att ignorera fakta som strider mot den nuvarande paradigmen, det är lätt att sopa otrevliga resultat under mattan. Så småningom samlas dock så mycket data som motsäger konsensus att de inte längre kan ignoreras. Då man har nått en kritisk massa så svänger opinionerna plötsligt och alla är förvånade över att man inte såg självklarheterna …

I en ideal värld skulle vi nu ungefär vara i en situation att få uppleva ett paradigmskifte. Vad som behövs är inte något konstigt. Klimatforskare måste acceptera att extremt små koncentrationer koldioxid i atmosfären inte nödvändigtvis är den dominerande kraften bakom klimatförändringar och temperatur. Steget är dock alltför stort för IPCC och aktivistforskare. Politikerna har övertygats att klimatförändringen är verklig och att den är farlig och att det enda sättet att undvika en katastrof är att kraftigt minska koldioxidutsläppen. Om det politiska budskapet om en farlig klimatförändring försvagas så kan det leda till en plötslig förändring i det politiska stödet för kostsamma försök att nå utsläppsmål … om klimattåget tvingas bromsa är det möjligt att det inte längre kan nå sin destination.

Politiker är inga idioter, idioter kan inte nå den maktposition politiker på hög nivå har nått. Många börjar dock se att gräsrötterna i allt högre grad vänder sig mot naturförstörelse i form av vindkraftverk och kraftigt stigande energipriser och levnadskostnader. Tyska konsumenter klagar över de extra kostnader de måste bära på gurnd äv regeringens svärmande för förnybar energi. I Skottland debatterar man idag om ett kraftigt beroende av vindkraft kommer att vara en ekonomisk fördel. Det är möjligt att vi närmar os en brytpunkt och ett politiskt paradigmskifte. Samma ögonblick något relevant politiskt parti tar upp dessa frågor i sitt program så att väljarna ges ett verkligt alternativ kan vi se en förändring som liknar en tsunami … som samtidigt stänger alla vägar tillbaka.

Den vetenskapliga sidan kommer att gräla ännu många år. Det bästa man kan hoppas på är antagligen en objektiv forskning baserad på verkliga mätningar. Pengar måste fås fram för att göra objektiv forskning i stället för forskning styrd av en liten grupp aktivister. Observera att vi fortfarande kan vara i en situation att den stora faran trots en övergående värmeperiod är sjunkande temperatur. Då vi ser tillbaka över geologisk tid ser vi att vi borde börja gå mot en ny istid. Sannolikt borde vi satsa mycket resurser på att utveckla framtida energikällor baserade på fusion, thorium och uran, energikällor som dessutom i hög grad skulle minska beroendet av fossila bränslen. Vad vi minst av allt behöver är en politisk och vetenskaplig ortodoxi som kör sitt race oberoende av vetenskapliga fakta och oberoende av vad väljarna behöver.

Några intressanta länkar (på engelska):

http://www.express.co.uk/comment/columnists/ann-widdecombe/385446/Even-scientists-are-cooling-on-climate-change

http://www.forbes.com/sites/larrybell/2013/03/19/the-feverish-hunt-for-evidence-of-a-man-made-global-warming-crisis/

http://notrickszone.com/2013/03/17/warming-theory-doused-world-leading-meteorologist-climate-is-in-fact-warming-much-slower-than-anticipated/

http://www.dailymail.co.uk/news/article-2294560/The-great-green-1-The-hard-proof-finally-shows-global-warming-forecasts-costing-billions-WRONG-along.html

Global uppvärmning, olika synvinklar på problemet

22/03/2013

Lite bakgrund till detta rätt gamla inlägg (kommentar 2013, artikeln är från 2007):

Klimatdiskussionen är inte ny, den har pågått sedan början av 1990-talet. Det är intressant att notera hur man från politikerhåll och från det som borde ha varit sakkunniga helt har undvikit att diskutera sakfrågor. Många mätdata som man från skeptiskt håll har efterlyst har fåtts fram först efter långvariga juridiska processer eller genom att material har läckt ut jag tänker på den såkallade ”Climate Gate” där ca. 200000 e-postmeddelanden läcktes ut från CRU antagligen via en insider. Innehållet i IPCCs kommande rapport läcktes också ut på nätet efter att en av de personer som gör utvärdering av innehållet ville försäkra sig om att människor skulle vara medvetna om vad IPCC visste. Det visade sig att det ur den preliminära rapporten klart framgick att alla IPCCs modeller är fel d.v.s. den mätta temperaturen ligger nedanför modellarnas 95% felgräns. Det faktum att modellerna har falsifierats betyder att deras förutsägelser eller skenarier saknar all tyngd eftersom modellarna inte överenstämmer med verkligheten.

Artikeln nedan skrevs år 2007 men den är fortfarande relevant. Med facit på hand ser vi att artikelns konstaterande att temperaturen efter 1998 hållits konstant var korrekt. Skillnaden är att vi idag ser en platå eller långsamt sjunkande temperatur som beroende av vilken temperaturkälla man använder redan har räckt 15 – 23 år. Det är också intressant att notera att den korta uppvärmningsperioden efter domedagsförutsägelserna om en kommande istid från ca. 1978 till 1998 räckte 20 år. I rättvisans namn bör man komma ihåg att riktiga klimatologer och alltså inte t.ex. Alestalo från Ilmatieteen laitos anser att det behövs en ca. 30-årig trend för att man skall våga säga något om klimattrender. Om denna tumregel används ser man att hela den globala uppvärmningen representerar en alltför kort period för att vi skall kunna säga något bestämt. På samma sätt är det klart att perioden av stoppad eller svagt sjunkande temperatur är alltför kort för att man skall kunna säga om det är en varaktig trend eller något man kan kalla väder.

Observera Alestalos överlägsna konstaterande att klimatmodellerna bygger på fysikaliska lagar som är konstanta och stabila som Newtons lagar. Vi ser hur grovt Alestalo hugger i sten. Alla de klimatmodeller han hänvisar till har falsifierats efter att artikeln publicerades 2007  d.v.s. de är falska och beskriver inte naturen som vi ser den. Hur är detta möjligt utgående från Alestalos tvärsäkra påstående. Orsaken är att vädersystem är så komplicerade att man är tvungen att göra matematiska förenklingar. Det görs alltså förenklande antaganden där man justerar olika parametrar för att t.ex. få modellen att simulera moln på rätt höjd och vid rätt tidpunkt på dagen. Detta betyder att modellerna kanske bättre kan uppfattas som klimatologernas gissning av hur klimatet uppför sig, stöpt i en matematisk form.

En klimatmodell är i princip en normal vädermodell som körs över en lång tid. Vi vet av erfarenhet att meteorologiska väderprognoser sällan ger korrekta resultat över mer än ca. en vecka. Hur är det då möjligt att använda samma modell för att undersöka klimatet hundra år framåt i tiden on vädermodellen blir fel inom en vecka. Svaret är att man antar att klimatmodellen på lång sikt kommer att räkna fram ett väder som i huvudsak, d.v.s. statistiskt, kommer att se ut ungefär som vädret i framtiden kommer att se ut. Klimatmodellen kommer således för låt oss säga år 2057 att förutspå 3 sommarstormar och 4 höststormar samt att nederbörden sannolikt kommer att ligga på en viss nivå. Inga förutsägelser gjorda av klimatmodellen förväntas motsvara verkligheten. De tre sommarstormarna kan komma med fel intervall och på fel månader men detta spelar inte någon roll de kan också vara något fler eller färre än verkligheten visar sig vara 2057. Antagandet att klimatmodellerna statistiskt motsvarar verkligheten verkar väldigt trovärdigt under förutsättning att klimatmodellens parametrar har valts på ett trovärdigt sätt. Som man ser i artikeln nedan så gäller detta inte, alltså trovärdig parametrisering, åtminstone för GISS klimatmodell.

Jag är fortfarande rätt nöjd med artikeln från 2007 och det finns inte mycket jag skulle vilja ändra på. Åtminstone i det här fallet gav historien skeptikerna rätt 😉 !

Balanserad debatt?

I HBL ingick den 4.3.2007 en artikel med den braskande rubriken

Klimatskeptikerna saknar hållbara belägg

Bilden nedan visar artikeln i sin helhet.

Mitt svar (nedan publicerades inte i Hbl trots att artikeln Biström/Alestalo är att betrakta som ett direkt personangrepp på tre kända finska klimatskeptiker (Jarl Ahlbeck, Boris Winterhalter och Lars Silen). Min kommentar nedan är mycket kortfattad eftersom Hbl av naturliga orsaker begränsar insändares längd. Eftersom en kommentar på nätet inte behöver begränsas i fråga om längden lägger jag till några ytterligare kommentare efter mitt svar eftersom de kan vara av allmänt intresse.

Mikko Alestalo konstaterar i Hedda Biströms artikel i Hbl 4.3.2007 att klimatmodellerna är byggda på universella fysikaliska lagar som är konstanta och stabila såsom Newtons lagar. Beklagligtvis verkar herr Alestalo inte riktigt vara insatt i vad han talar om. Det är klart att klimatmodellerna för att vara trovärdiga bör bygga på korrekta väl verifierade fysikaliska modeller, detta är inte situationen idag. Dagens modeller har intressanta fel. Hanteringen av bl.a. molnbildning är så dåligt känd att man använder sig av tumregler för att uppskatta var och hur moln uppkommer. Utgående från dagens fysikaliska kunskap skulle moln bildas på fel höjd eller inte alls.

Intresserade kan bekanta sig med klimatmodellen modelE1 (NASA GISS 2004) för vilken programkoden finns tillgänglig http://www.giss.nasa.gov/tools/modelE/. Koden kan köras på en vanlig Linux PC. Då man låter datorn söka igenom koden för att se hur den behandlar den specifika värmen för vatten i atmosfären hittar man kommentaren:

c**** shv is currently assumed to be zero to aid energy conservation in the atmosphere.

I modellen bevaras inte energin varför man tar till trick för att få bokföringen att skenbart stämma. Kommentaren visar konkret hur man godtyckligt väljer parametervärden för att få önskat resultat. Parametern shv som kommentaren konstaterar är satt till noll skall i verkligheten ha ett värde någonstans mellan 1800 och 1900J/kg K. Universella fysikaliska lagar fungerar inte på detta sätt. Kanske herr Alestalo kunde klargöra vad han egentligen menade?

Alestalo frågar i Hedda Biströms artikel vilka motiv skeptikerna kan tänkas ha för att på egen bekostnad jobba med klimatfrågan. För mig gäller kravet på intellektuell ärlighet. IPCC processen är en nidbild av vetenskap. Rådata undanhålls så att kontroll av påstådda resultat försvåras. Detta gäller också data till artiklar publicerade i de vetenskapliga tidskrifterna Nature och Science trots att tidskrifterna i sina officiella krav för att godkänna publicering kräver att alla data skall göras tillgängliga för andra forskare. Vetenskapsmän som inte böjer sig för den ledande klicken inom IPCC fryses ut. Den mycket kända forskaren Dr Chris Landsea var tidigare ansvarig för området orkaner inom IPCC. Dr. Landsea avgick från IPCC efter att hans förman gått ut i offentligheten med ett pressmeddelande där man konstaterade att antalet orkaner har ökat till följd av den globala uppvärmningen. Jag citerar Dr. Landsea: “Jag fann det lite konfunderande att deltagarna i konferensen hade kommit fram till att den globala uppvärmningen påverkade orkaners aktivitet idag. Såvitt jag vet har ingen av deltagarna i presskonferensen överhuvudtaget forskat i orkanvariabilitet och inte heller hänvisade de till nya rön på området. All tidigare forskning har visat att det inte går att urskilja någon trend. ” Dr Landsea avslutar med:”Jag personligen kan inte med gott samvete fortsätta att arbeta för en process som jag ser som motiverad av en förutfattad agenda och som är vetenskapligt tvivelaktig.” Hela texten finns på nätet på adressen http://www.lavoisier.com.au/papers/articles/landsea.html . Översättningen är min.

Lars Silen, Fysiker Esbo.

Några kommentarer till galopperande temperaturstegring

Det är rätt klart att temperaturen har stigit sedan den lilla istiden. Exakt hur stor denna stegring har varit och frågan om vilken den nuvarande temperaturen är i förhållande till tidigare tidsepoker är dock svår att besvara exakt. Man har gjort globala satellitmätningar sedan 1979. Då man jämför satellitmätningar med markmätningar visar det sig att markmätningarna visar en uppvärmningstrend som är ungefär dubbelt så stor som den temperaturstegring satelliterna visar. Satellitmätningarna i den nedre delen av atmosfären kan kontrolleras genom att man regelbundet skickar upp väderballonger som med hjälp av en konventionell termometer direkt mäter temperaturen på ifrågavarande höjd. Det visar sig att satellitmätningarna och väderballongerna överensstämmer mycket väl. Man har försökt förklara den obetydliga trenden i satellitmätningarna bl.a. med att satelliterna långsamt tappar höjd vilket långsamt förändrar mätvärdena. Ett stort problem för denna förklaring är dock att väderballongerna stöder satellitmätningarna. Markstationernas snabba uppvärmning kan däremot förklaras genom lokal värmenedsmutsning. En stor del av de mätstationer som levererar mätdata för bestämning av t.ex. global medeltemperatur befinner sig i eller nära storstäder d.v.s. städer med en befolkning från några tiotusental invånare till miljonstäder. Det finns också många exempel på konstigheter som sannolikt beror på rent slarv då data överfördes från papper till elektronisk form (se länk till engelskspråkigt material nere på sidan).

Bilden visar den globala medeltemperaturen mätt från satellit fram till december 2006. Observera att temperaturen för närvarande relativt hög men sedan 1998 har temperaturen hållits i det närmaste konstant trots stigande CO2 nivå. Denna bild kan jämföras med motsvarande kurva baserad på markmätningar.

Observera att markmätningarna visar en uppvärmning som är mer än dubbelt större än satellitmätningarna över samma tidsrymd. Jag putsade bort mätdata före 1979 från kurvan över markmätningarna för att de inte skulle störa jämförelsen. Observera att kurvan över satellitmätningarna är mycket mera utdragen horisontellt än motsvarande kurva över markmätningarna. De olika tidsskalorna gör att uppvärmningen i markmätningarna verkar accentueras ytterligare. Jag är skyldig till denna synvilla. Jämför den totala temperaturförändringen mellan 1979 och 2006 i båda kurvorna.

Koldioxidens inverkan på klimatet

IPCC 2007 konstaterar (min översättning): Koldioxid, den viktigaste antropogena växthusgasen, ökade märkbart som följd av mänsklig aktivitet och dess atmosfäriska koncentration 379 ppmv (delar per miljon enligt volym) översteg år 2005 betydligt det naturliga variationsområdet 180 … 300 ppmv över de senaste 650 000 åren. Detta konstaterande tas idag som en självklar sanning som inte ifrågasätts. Det antas allmänt att mätningar av luftens koldioxid skulle ha inletts 1959. Kontinuerliga mätningar av atmosfärens koldioxidhalt inleddes 1959 men motsvarande sporadiska mätningar har gjorts långt tidigare. Sedan 1959 ser utvecklingen ut som på bilden nedan (Tagen från ”National Oceanic and Atmospheric Administration” (NOAA) hemsida).

Observera att bildskalan har valts så att utvecklingen ser mycket dramatisk ut. Då man läser IPCCs rapporter får man intrycket att det inte finns tidigare riktiga mätningar utan man måste ty sig till indirekta mätningar baserade på mätdata från isborrkärnor från Grönland och Antarktis. Då det faller snö som långsamt pressas ihop till kompakt is av de överliggande snö/islagrens tyngd kommer små mängder luft att inneslutas som bubblor i isen. Genom att analysera den inneslutna luften vid ett bestämt djup i en borrkärna kan man få en bild av atmosfärens sammansättning upp till hundratusen år tillbaka i tiden. (Borrning kan också ge en bild av tidigare temperaturer eftersom is leder värme relativt dåligt kan man genom att mäta temperaturen på olika djup få en bild av temperaturvariationerna långt tillbaka i tiden.) Det finns dock problem med proxymätningar av koldioxidhalterna i borrkärnor. Den Polska Professorn Zbigniew Jaworowski (Ph.D, D.Sc) har gjort mätningar av denna typ (se CO2: The Greatest Scientific Scandal of Our Time”. Enligt Prof. Jaworowski bygger mätningarna av CO2-halten via borrkärnor på följande antaganden:

  • Det förekommer ingen vattenfas i isen vid temperaturen -24 oC (Berner et.al. 1977, Friedli et.al 1986, Raynaud & Barnola 1985).
  • Inneslutning av luft i isen är en mekanisk process som inte differentierar de inneslutna gaserna (Oeschger et.al 1985).
  • Den ursprungliga atmosfäriska sammansättningen i den inneslutna gasen bevaras för all framtid (Oeschger et.al 1985).
  • Gasens ålder i inneslutningen är lägre än den omgivande isens ålder (Oeschger et.al 1985).

För mer än tio år sedan visades det att alla de ovanstående antagandena är felaktiga d.v.s. att borrkärnor av is inte kan betraktas som slutna system och att de antagna låga preindustriella koncentrationerna av växthusgaser inte är korrekta eftersom mer än tjugo olika fysikaliska och kemiska processer påverkar resultatet inne i själva inlandsisen. Själva borrningen är en mycket våldsam process som både kontaminerar och på annat sätt påverkar provet. Vissa av ovanstående processer beror på lösligheten av gaser i vatten. Koldioxid har en löslighet i vatten som är mer än 70 gånger högre än kväve (N2) och mer än 30 ggr högre än syrets löslighet (O2). Lösligheten är omvänt proportionell mot temperaturen d.v.s. koldioxid löser sig bättre ju kallare vattnet är. Det finns fritt vatten i polarisen t.o.m. vid temperaturen -73 oC! Även små mängder vatten i isen kommer att leda till att främst CO2 löses ut med resultatet att mätningarna visar på en alltför låg CO2 halt.

Observera hur dåligt borrhålsdata passar ihop med senare mätningar på Mauna Loa. Man ”löste” problemet genom att godtyckligt konstatera att luften i borrkärnorna var 83 år yngre(!) än den omgivande isen. Kurvan man fick efter manipuleringen kallas Sippelkurvan.

Prickarna i bilden ovan är de tidigare mätningar av CO2 halten i atmosfären man hade tillgång till. De inringade mätvärdena är de värden man valde ut. På detta sätt kan man visa på en låg förindustriell CO2 halt. IPCCs antagande om en generellt låg förindustriell CO2 halt motsägs av danska mätningar. Det visar sig att en björk under sin livstid har förmåga att reglera antalet klyvöppningar på bladen i omvänd proportion till CO2 halten. När CO2 halten är låg bildas således fler klyvöppningar än då CO2 halten är hög. Undersökningar av CO2 halten vid tiden efter den senaste istiden d.v.s. för ca. 11000 år sedan visade snabba förändringar i CO2 halten över en tidsperiod på några århundraden. Halter motsvarande de vi har haft under 1900-talet detekterades (260 ppmv … 350 ppmv). De halter vi ser idag är således inte exceptionella. Den danska artikeln som publicerades i tidskriften Science år 1999 hittar du här.

Exempel på slarv vid behandling av data

IPCC betonar att man inte bedriver vetenskaplig forskning. Däremot betonar man att konklusionerna baseras på vetenskapliga artiklar som har genomgått en vetenskaplig granskning (peer review). Granskningen fungerar dock endast om granskarna är oberoende av författarna. Man har statistikt kunnat visa (Wegman rapporten) att gruppen klimatologer inom IPCC är så liten att det är tvivel underkastat om granskningen fungerar. Rapporten är värd att bekanta sig med.

Kontroll av några ryska mätstationer som av IPCC påstås uppvisa stor uppvärmning. Materialet är på engelska.

Exempel på inmatningsfel i data använda av Jones et. al. i vetenskapligt granskat material. Observera att de flesta av ovanstående fel leder till en temperaturökning då materialet behandlas statistiskt på dator. Materialet är på engelska.

Annat intressant

Observera den lilla rutan ovanför rubriken där man citerar Andrew Goldsworthy: ”Folk som försöker minimera behovet av utsläppsreduktioner genom att skylla på solen har skjutit sig själv i foten…” han konstaterar att det i såfall krävs ännu större reduktioner eftersom vi inte kan påverka solaktiviteten.

Ovanståernde innehåller följande fel:

  • Man antar att en klimatskeptiker är en motståndare till en minskning av användningen av fossila bränslen. En kontrollerad övergång till andra energikällor, diversifiering, är en god strategi på medellång sikt (tiotals år) eftersom det verkar mycket troligt att det uppstår oljebrist i världen. Resultatet blir kraftiga prisstegringar på fossil energi.
  • Om solaktiviteten är orsak till merparten av den observerade uppvärmningen betyder detta samtidigt att klimatmodellerna har parametriserats fel vilket betyder att det resultat av uppvärmningen de beräknar med hög sannolikhet är felaktigt. Katastrofisterna antar allmänt att jordens känslighet för variationer i instrålad effekt är 0,75 … 1 oC /m2W. Grundläggande fysik antyder att känsligheten bör vara 0,1 … 0,2 oC/m2W. Vi ser här tydligt hur man sannolikt överskattar känsligheten 3 … 6 gånger d.v.s. den av koldioxid förorsakade beräknade temperaturstegringen är 3 … 6 ggr för stor. Det är inte konstigt att modellerna visar en kraftig uppvärmning.
  • Om solen är den viktigaste orsaken till uppvärmningen bör vi antagligen anpassa oss till förändringen och inte gå in för att försöka ändra en naturlig klimatvariation.

Det finns för övrigt ett intressant faktum som explicit visar att solen måste ha en betydande andel i den observerade uppvärmningen under det senaste århundradet. Polarkalotterna på planeten Mars krymper och områden närmare planetens ekvator uppvisar spår av erosion förorsakad av smältning. En global uppvärmning på Mars beror garanterat inte på mänskligt utsläpp av koldioxid i atmosfären … däremot finns en självklar gemensam nämnare Solen.

Räknaren är gemensam för artikeln på min gamla blogg som så småningom fasas ut.

Du är besökare nummer:.

IPCCs falska klimatmodeller

06/03/2013

Falsifierade klimatmodeller

En vetenskaplig teori är ett försök till beskrivning av verkligheten. En god teori lyckas beskriva verkligheten och göra förutsägelser som kan användas till att verifiera eller förkasta teorin. I princip kan en teori förkastas om man hittar en enda mätning som klart kan visas stå i konflikt med den beskrivning teorin ger. Albert Einstein uttryckte saken så att det inte spelar någon roll hur många personer som anser relativitetsteorin vara rätt … det räcker med en mätning som visar att något antagande är fel för att teorin skall förkastas.

I praktiken är situationen inte riktigt så klar som situationen ovan. En komplicerad och allmänt accepterad teori kan innehålla justerbara parametrar som kan användas för att få en teori att överensstämma med nya mätningar. Min personliga uppfattning är att t.ex. dagens kosmologiska teorier hör till denna kategori. Dagens teori om ”big bang” kan vara rätt men sannolikt existerar redan de observationer som man i framtiden kan använda för att förkasta dagens teori.

Om klimatmodeller

En klimatmodell är ett datorprogram som i många avseenden påminner om de vädermodeller man normalt använder för att förutse vädret. Programmet bygger på att man delar in jordklotet (eller det område man studerar) i lämpliga små ”kuber”. Programmet beräknar alla energiflöden in/ut ur en kub samt de förändringar såsom kondensation/avdunstning som sker inne i kuben till följd av förändringarna. Man vet av erfarenhet att en vädermodell (General Circulation Model) divergerar inom ca. två veckor till följd av att

  • Ingångsdata inte är kända med tillräckligt stor noggranhet
  • Avrundningsfel i beräkningskedjan
  • De block/kuber man använder är för stora för att man skall kunna beskriva lokala fenomen
  • Beskrivningen av den lokala topologin och miljön är inexakt
  • Vissa bakgrundsfaktorer är helt enkelt okända

Ovanstående faktorer gör att en väderförutsegelse blir mindre exakt ju längre man går in i framtiden. Vi vet t.ex. att många lågtryck vi upplever som höststormar i Finland har fötts i Karibien som tropiska orkaner. T.ex. stormen Andrew som slog mot bl.a. New York gick över oss ungefär två veckor senare efter att stormen hade tagit sig över atlanten. Eftersom det är mycket svårt att förutse exakt hur ett lågtryck kommer att röra sig kan det träffa mellaneuropa eller norden. Slutresultatet är i vilket fall som helst att vädermodellerna snabbt blir inexakta då man gör långtidsberäkningar.

En klimatmodell är i princip en vädermodell som byggts om för att köras årtionden framåt i tiden. Eftersom en klimatmodell betraktar hela jorden och inte ett begränsat område krävs mycket omfattande beräkningar i varje beräkningssteg. Detta kombineras med att en tillräckligt noggrann beskrivning av mark och oceaner behövs som begränsningar i programmet. Totalt sett leder detta till att en klimatmodell använder större nätrutor för sina beräkningar än en vädermodell … denna begränsning blir dock mindre med tiden till följd av datorernas och minnesteknikens utveckling.

Hur kalibreras en klimatmodell

En klimatmodell kalibreras mot historiska data. Om tillräckliga data finns tillgängliga kan dessa användas för att begränsa en klimatmodell. Vi kan t.ex. använda meteorologiska data för att köra en klimatmodell med start 1950. Vi kör den fram till t.ex. år 2000. Då vi sedan låter modellen köra vidare utan att använda senare data för att justera modellen kan man jämföra modellens uppförande efter år 2000 med kända data. Om modellen efter år 2000 lyckas beskriva temperatur och stormfrekvens så att de motsvarar den verklighet vi har sett så är modellen antagligen rätt bra. Om modellen däremot börjar divergera d.v.s. tydligt uppför sig på annat sätt än det mätta klimatet efter år 2000 så är modellen inte bra.

Vad beräknar en klimatmodell

Precis som en vädermodell kommer en klimatmodell att divergera från verkligheten på en kort tid. Modellen kan alltså inte t.ex. förutse när en storm kommer att drabba något speciellt område tio år in i framtiden. Däremot antar man att en välkonstruerad klimatmodell kommer att generera samma typs väder som man ser på ett speciellt område. Man antar alltså att vädret inne i modellen statistiskt sett kommer att se ut som det väder man tidigare har sett i området om ingen yttre påverkan förändrar situationen.

En klimatmodell kan användas till att uppskatta t.ex.

  • Nederbörd
  • Medeltemperatur
  • Molnighet
  • Snötäcke
  • Stormfrekvens och stormstyrka
  • Vindhastigheter
  • mm

Om vi t.ex. vet att koldioxidhalten i atmosfären stiger så kan vi använda en klimatmodell för att beräkna hur den ökande koldioxidhalten påverkar temperatur och nederbörd på olika områden. Problemet är dock, som vi såg ovan, att det finns okända faktorer som man på olika sätt försöker uppskatta. Om en specifik faktor är dåligt känd blir slutresultatet också lätt osäkert. Just koldioxidens inverkan på temperaturen är en sådan faktor.

Utgående från grundläggande fysik kan man anta att en fördubbling av koldioxidhalten som sådan ger en temperaturökning på ungefär en grad. Vad är då problemet om man uppskattar att en temperaturökning mindre än två grader inte förorsakar problem? Problemet är att klimatmodellernas beräkning av framtida temperatur bygger på en kraftig positiv återkoppling via vattenånga. Vattenångan antas leda till en förstärkning på ca. 3x d.v.s. man antar att en grad direkt uppvärmning skulle ge en slutlig temperaturökning som är tre gånger högre. Vattenånga är dock problematisk genom att vatten kan förekomma i olika aggregationstillstånd. Vattnet kan förekomma som gas eller som ånga (moln). Förekomsten av moln påverkas sannolikt rätt kraftigt av mängden vattenånga i atmosfären … moln som beroende på var de bildas antingen kan ge en värmande eller en nedkylande effekt. Man vat fortfarande inte ens förtecknet på förstärkningen d.v.s. är den positiv eller negativ. En negativ återkoppling gör inverkan mindre än inverkan från den ursprungliga koldioxiden som startade processen.

Vad visar mätningar

De klimatmodeller som våra politiker har använt som argument för att göra långt gående förändringar i vårt samhälle har sammanställts av IPCC. Det finns ungefär tjugo klimatmodeller (som betonar vissa faktorer på lite olika sätt) som alla visar en rätt kraftig uppvärmning som funktion av stigande koldioxidhalt.

En rapport av NOAA ”Climatets tillstånd” konstaterar år 2006 angående modellerna

”Nära noll och t.o.m. negativa trender ar vanliga för intervall om en dekad eller mindre i simuleringarna på grund av den intern klimatvariabilitet. Simuleringarna utesluter (på 95% nivå) nolltrender under mer än 15 år…

Då man jämför modellernas förutsegelser med den observerade temperaturutvecklingen ser man

http://wattsupwiththat.files.wordpress.com/2012/12/ipcc_fig1-4_models_obs.png

Figuren är tagen ur IPCCs läckta kommande rapport.
Observera hur den mätta temperaturen (svarta staplar) ligger nedanför alla modellensambler. Vi är nu i en situation att IPCCs modeller har falsifierats d.v.s. de har statistiskt kunnat visas vara falska. Hänvisningar till dessa modeller som argument för restriktioner gällande bränslen, belysning etc. är således falska.


Pointman's

A lagrange point in life

THE HOCKEY SCHTICK

Lars Silén: Reflex och Spegling

NoTricksZone

Lars Silén: Reflex och Spegling

Big Picture News, Informed Analysis

Canadian journalist Donna Laframboise. Former National Post & Toronto Star columnist, past vice president of the Canadian Civil Liberties Association.

JoNova

Lars Silén: Reflex och Spegling

Climate Audit

by Steve McIntyre

Musings from the Chiefio

Techno bits and mind pleasers

Bishop Hill

Lars Silén: Reflex och Spegling

Watts Up With That?

The world's most viewed site on global warming and climate change

TED Blog

The TED Blog shares news about TED Talks and TED Conferences.

Larsil2009's Blog

Lars Silén: Reflex och Spegling

%d bloggare gillar detta: