Numeriska instabiliteter i klimatmodeller

28/07/2013

Det är ett känt faktum att olika klimatmodeller, även om de har samma initialvärden, ger olika resultat. Ett välkänt exempel är IPCCs spagettigraf över olika klimatmodellers beräknade framtidsscenarier.

Bilden visar IPCCs klimatmodellers framtidsscenarier jämfört med verkliga mätningar (satellit [kvadrat] och väderballonger [bollar]). Bilden visar hur modellerna grovt överdriver en framtida uppvärmning.

Bloggen WUWT gav en intressant länk till en ny publikation, som har genomgått s.k. peer review, som behandlar numeriska fel i beräkningarna.

Forskarna undersökte vad som händer då man kör samma klimatmodell på olika datorplattformer. Det visade sig att trots att initialvärdena var exakt lika för de olika datorsystemen så divergerade körningarna rätt snabbt d.v.s. resultaten från de olika körningarna blev allt mer olika. Hur är detta möjligt? Räknar datorerna fel?

Orsaken till divergensen är något som kallas avrundningsfel som är en följd av att tal i en dator oftast uttrycks med ett begränsat antal decimaler. Antalet decimaler en dator jobbar med kan vara i storleksordningen 16 decimaler plus en exponent som anger hur decimaldelen skall skalas. Vid beräkningar är är det speciellt riskabelt att beräkna skillnaden mellan två nästan lika stora tal.

Ett exempel:

Antag att vi gör en beräkning på en dator där ett tal uttrycks med 8 decimaler. Vi stöter på en situation där vårt program beräknar skillnaden mellan två stora tal. Sekvenserna xxxxxxx och yyyyyyyy representerar information som inte ryms i talrepresentationen.

T = 3173333.3xxxxxxx – 3173332.1yyyyyyyy = 1.2

Vi har plötsligt gått från 8 siffror till en två.

Då vi subtraherar små tal från stora tal kan motsvarande problem dyka upp. Antag igen att vi använder en dator med 8-siffrors talrepresentation och att vi i programmet behöver utföra subtraktioner av små tal från ett basvärde:

X = bas – modifikation

X = 10 344 232 – 0.012345

Om vår antagna dator med 8 siffrors talrepresentation utför subtraktionen så får vi:

X = 10 344 232

eftersom det lilla talet vi subtraherade är så litet att det inte påverkar  det första talet över huvudtaget. Om vi har ett komplicerat program som miljontals gånger utför motsvarande beräkningar så kan felen med tiden bli betydande.  Problem av ovanstående typ är välkända i datavetenskapen och det finns många metoder för att minska på felen man får till följd av avrundningsfel. Problemet är dock att många lösningar kräver att man vet hur beräkningarna generellt uppför sig för att man skall kunna optimera beräkningarna på ett vettigt sätt.

Utöver ovanstående avrundningsfel kan det förekomma andra problem då man flyttar en klimatmodell från en beräkningsplattform till en annan. Då man kompilerar modellen för en ny plattform får man andra algoritmer för hur t.ex. olika matematiska funktioner beräknas. Små skillnader i algoritmerna kan ge upphov till intressanta kumulativa fel. Klimatmodeller körs idag i allmänhet på stora processorfarmer d.v.s. programmen körs på hundratals eller tusentals processorer som behandlar olika delar av modellen och sedan skickar mellanresultat till andra processorer där resultaten kombineras. Det är lätt att se att det utgående från ovanstående exempel kan ha betydelse i vilken ordning olika delresultat behandlas.  I t.ex. det senare fallet kan vi ibland ha situationer då det lilla talet har betydelse men att det har betydelse vad man eventuellt har subtraherat tidigare.

Andra orsaker till skillnader är hur beräkningarna optimeras. En kompilator kan t.ex. intelligent arrangera om olika termer i ett uttryck så att de kan beräknas så snabbt som möjligt, naturligtvis under förutsättning att resultatet matematiskt blir detsamma. Om vi har ett komplicerat uttryck så kan vi mycket väl få situationer där olika termers beräkningsordning har betydelse även om uttrycken matematiskt sett är ekvivalenta.

Resultatet av tio dagars körning där man jämförde på vilken höjd olika datorsystem beräknade att 500hPa geopotentialen borde befinna sig. Resultatet blev:

model_CPUs_table2

Vi ser att endast tio dagars simuleringar ger en standardavvikelse på 10 m i den beräknade höjden. En klimatmodell körs äver tiotals år d.v.s. tusentals eller tiotusentals dagar, det är lätt att inse att då endast de numeriska problemen gör att resultaten blir mycket tvivelaktiga.

Tall Ships Races i Helsingfors i juni 2013

22/07/2013

Jag spelar med i en folkmusikgrupp på föreningen Arbetets Vänner i Helsingfors. Vi har inofficiellt kallat gruppen Altra Volta d.v.s. ”En gång till”, förkortningen passar då samtidigt bra in på moderföreningen.

På hösten 2012 lade jag märke till att Tall Ships Races d.v.s. segeltävlingen för ungdomar på riktiga och ofta rätt stora segelfartyg skulle ha ett delmål i Helsingfors mellan den 17 och den 20 juni. Efter diskussion beslöt vi att sätta ihop en repertoar baserad på finlandssvenska melodier med sjömotiv, estniska melodier, brittiska/amerikanska shanties samt grekisk musik. Resultatet blev ett litet nothäfte som vi övade på i olika repriser under vintern.

Strax efter nyår kontaktade jag ”Tall Ships Races” i England och fick genast kontaktuppgifter på ansvariga arrangörer i Helsingfors … allt såg bra ut. Under våren försökte jag komma i kontakt med den finska organisationen men utan resultat. Vår tanke var att det vore trevligt att spela på däcket av något av de stora segelfartygen, att spela för glädjen att spela … utan ersättning.

Kvällen den 17.7 gjorde jag en recognoseringstur till Sandvikshamnen i Helsingfors. Vi hade beslutat att samla ihop vår musikgrupp på torsdagen den 18.7 och på vinst och förlust åka till hamnen och improviserat spela någonstans! Jag åkte till hamnen för att få en bild av vilka spelmöjligheter det kunde finnas och naturligtvis var?

Observera att du får fram mera detaljer i bilderna genom att klicka på dem.

IMGP5179

Till vänster syns aktern på ostindiefararen ”Götheborg”. I bakgrunden syns fullriggarna ”Kruzenshtern” (fyrmastad, svart) och ”Mir” från Ryssland. I bildens högra kan skymtar den Norska ”Christian Radich” (vit). Skeppsbåtar från olika fartyg övade rodd inför inofficiella tävlingar i hamnbassängen.

IMGP5180

Götheborg är en kopia av ostindiefararen ”Götheborg” byggd i Stockholm 1738. Fartygets lastkapacitet var 340 läster d.v.s. ungefär 830 ton och skeppet var bestyckat med 30 kanoner. Götheborg kom att göra tre resor till Kina innan det förliste vid insegling den 12 september 1745 till Göteborg. Fartyget gick på det välkända grundet ”Hunnebådan”. En stor del av lasten kunde bärgas. Den nybyggda kopian ”Götheborg” är världens största oceanklassade segelskepp i trä. Fartyget doftar härligt av tjära …

IMGP5205

Det norska skeppet ”Christian Radich” förtöjt på insidan av det holländska ”Kampen”. Masterna på ”Mir” och ”Kruzenshtern” syns i bakgrunden.

IMGP5211

Den ryska fyrmastaren ”Kruzenshtern” i förgrunden. Bilden är tagen in mot hamnbassängen vid tiotiden på kvällen. Observera besättningsmännen som beslår segel på förmasten!

IMGP5223

Stanislav från vår musikgrupp (han med säckpipan) diskuterar med en besättningsman ombord på det ryska segelfartyget ”Shtandart” på torsdagen den 18.7.  Vår värd är däcksofficeren  Alexey Yekamasov (tredje från höger i blå skjorta). Fartyget är en kopia av av en 1700-talsfregatt. Besättningen var mycket trevlig och vi fick spela på fördäck. Efter spelningen blev de som hade tid bjudna på te nere i ruffen.

IMGP5224

Förberedelse för spelande på ”Shtandart”. Från vänster Anders, av mig syns endast min hardangerfiol framför Anders, därefter Tuulikki (basflöjt) i bakgrunden och Leith med fiol i förgrunden. Själv syns jag inte speciellt bra då jag står bakom kameran …

IMGP5229

Ombord på det norska skeppet ”Christian Radich”. Vi hade fått inbjudan att komma och spela på nytt till det ryska skeppet ”Standart” men vi måste vänta en stund på att besökstiden skulle börja. Vi beslöt då att gå ombord på ”Christian Radich” som turister. På onsdagen hade jag frågat en besättningsman om vi skulle kunna spela på ”Christian Radich” på torsdagen men svaret var nekande ( det kan hända att besättningen då var och tittade på Helsingfors). På fredagen gick vi bara ombord och ställde oss på fördäck och började spela. Åtminstone verkade ingen ta illa upp! Det var roligt att för första gången spela Hardangerfiol nästan på norsk mark!

IMGP5225

Fregatten ”Shtandart” ligger förtöjd vid ”estlandskajen”. I bakgrunden skymtar en modern bilfärja.

IMGP5228

Den ryska fregatten ”Shtandart” sedd framifrån.

IMGP5233

Segel beslås på ”Shtandart”. Fartyget hade på morgonen besökt Sveaborg och sedan blivit tilldelat en ny kajplats. Tidigare hade det legat långt inne i viken nära torrdockan.

IMGP5234

Spelandet tog plötsligt slut då vi råkade ut för en plötslig och relativt kraftig regnskur. Vädret var sådant att varje större moln läckte. Med en halvtimmes mellanrum kom det en kort skur på 5 till 10 minuter. Då det blev vått på däck plockade vi ihop instrumenten och flyttade ner under däck för att dricka te och diskutera med besättningen. Vi blev extremt väl mottagna ombord och diskuterade bl.a. segling i Estland med däcksofficeren Alexey Yekamasov.

Tall Ships Races blev trots diverse kommunikationsproblem en väldigt positiv upplevelse för vår grupp och det bemötande vi fick överträffade alla förväntningar!

Klimatmodeller, ensamble, medelvärde?

17/06/2013

Den här artikeln är baserad på en engeskspråkig artikel i Bishop Hill som i sin tur är baserad på en kommentar i WUWT. Frågan gäller om medeltal och standardavvikelse har någon mening då man betraktar resultatet från en serie körningar av klimatmodeller. Svaret på frågan, mera om detta nedan, är nej.

Att säga att vi måste vänta en bestämd tid innan vi kan säga något om huruvida modellerna är riktiga eller inte är farligt. Det finns två orsaker till detta, för det första, och det här är något som helt ignoreras, finns det en mängd olika modeller som alla är baserade på grundläggande fysik och ändå ger de alla helt olika resultat. 

Fig. 1  Spagettigraf av klimatmodeller.

Man ser detta tydligt i de kurvor Monckton publicerade (fig. 1) där AR5 trendlinjen är medeltalet av alla dessa modeller och trots att det finns många modeller är variansen mycket stor. Då man tittar på kurvorna ser de ut som en upplöst repända inte som en naturlig spridning runt ett fysikaliskt resultat. 

Lägg märke till graden blåsning i bilden. Genom att beräkna medeltal och standard deviation over de olika modellernas projektioner och sedan använda medeltalet som den mest sannolika projektionen och variansen som felgränser  så behandlar man de olika modellerna som om de vore okorrelerade slumpmässiga storheter som ger upphov till ett sant medelvärde!

Det här är ett så fullständigt hårresande missbruk av statistik att det är svårt att bestämma sig för var man skall börja greppa frågan. Man skulle helst ge den som satte ihop den ursprungliga bilden ett antal örfilar och sedan se till att de aldrig kunde publicera vetenskapligt eller statistiskt material i framtiden. Man kan inte skapa en ensamble av oberoende och identiskt distribuerade modeller som har olika kod. Man kunde eventuellt använda en enda modell med olika startvärden (brus) och studera hur olika körningar av samma modell då uppför sig.
Vad jag försöker säga är att variansen och medeltalet för ensamblen av modeller är statistiskt helt meningslös eftersom de ingångsvärden vi har saknar de grundläggande statistiska egenskaper som behövs för en meningsfull tolkning.

Varför köpa detta nonsens genom att göra en linjär anpassning till till en funktion, den globala temperaturen, som aldrig har varit linjär även om den naturligtvis har varit approximativt jämn så att man via serieutveckling får fram en linjär term … som kan garanteras att inte ge meningsfulla extrapolerade värden för framtiden eftersom högre ordningens icke linjära termer börjar inverka och med tiden kommer att dominera. Varför ens med läpparna bekänna att R² eller p har någon mening? Den har det inte.

Låt mig upprepa. Den har ingen mening! Den kan inte statistiskt försvaras varken praktiskt eller teoretiskt. Man kunde lika väl använda ett spiritistiskt talande bord http://en.wikipedia.org/wiki/Ouija som grund för förutsägelser gällande framtida klimat. Ensamblen modeller skiljer sig inte genom verkliga slumpmässiga variationer utan de är beroende av alla möjliga obeaktade variabler, valda variabler, implementeringen och initialiserings bias. Bordet kan tänkas ge rätt svar, eller kanske inte, men god tur ger eventuellt gissningen någon typ av rationell bas.

Låt oss vända på steken och tillämpa statistisk analys på distributionen av modellresultat gällande påståendet att de alla korrekt implementerar välkänd fysik. Om jag t.ex. försöker göra en a priori beräkning av kvantstrukturen av t.ex. en kolatom så kan jag börja med att lösa en en-elektron modell där man låter elektronens växelverkan med sig själv generera ett sfäriskt symmetriskt elektronmoln kring kärnan. Sedan kan man utgående från fältteori iterera fram en bättre lösning (Hartree approximation).

Någon kan då säga ”Vänta, det här bryter mot Paulis uteslutningsprincip” och kravet på att elektronens vågfunktion skall vara helt antisymmetrisk. Man kan då göra en-elektronmodellen lite mera komplicerad och skapa en slater determinant för en helt antisymmetrisk representation av elektronens vågfunktion. Man kan sedan generera tätheten och utföra den självkonsistenta fältberäkningen för att få det hela att konvergera (det här kallas Hartree-Fock metoden).

En tredje person kunde då lägga märke till att resultatet fortfarande underskattar systemets såkallade ”korrelationsenergi” eftersom man då man behandlar elektronmolnet som en kontinuerlig distribution ignorerar att elektroner kraftigt repellerar varandra och därför inte vill vara nära varandra. Båda de första modellerna underskattar elektronmolnets storlek vilket gör atomen alltför liten och alltför hårt bunden. En variant där man använder en halv-empirisk täthetsfunktion ger igen ett bättre resultat.

En fjärde grupp konstaterar att universum i verkligheten är relativistiskt och genom att ignorera relativitetsteorin så inför vi fel i alla de ovanstående beräkningsmodellerna.

På slutändan kan vi ha en lång serie modeller som alla är baserade på fysik. I praktiken är också skillnaderna mellan modellerna baserade på fysik d.v.s. den fysik vi har lämnat bort i olika modeller. Vi ser också hur vi försökte använda en halvempirisk metod för att hantera frågor vi inte kan beräkna utfående från grundläggande fysik, resultatet är ofta dåligt eftersom empiriska korrektioner ofta endast fungerar i specifika situationer. Observera dock att vi inte har alternativet att göra beräkningen utgående från grundläggande fysik … vi klarar helt enkelt inte av att lösa det flerkroppsproblem vi stött på. Lika lite klarar vi av att lösa flerkroppsproblem klassiskt eller mängden öppna, ickelinjära, kopplade, dämpade, drivna kaotiska Navier-Stokes ekvationer i en icke inertial referensram … som representerar ett klimatsystem.

Lägg märke till att vårt försök att lösa elektronens vågfunktion för en kolatom är ett trivialt problem (som vi inte klarar att lösa) jämfört med klimatproblemet. Vi kan inte exakt beräkna någondera men vi är mycket närmare en lösning gällande atomen än gällande klimatet.

Borde vi beräkna ett medeltal för ensamblen modeller av den kvantelektroniska strukturen av atomärt kol och använda detta medelvärde som den bästa beskrivningen av kolets kvantstruktur? Vi gör detta endast om vi är idioter eller sinnesjuka eller om vi försöker sälja något. Om du läste ovanstående med eftertanke så märker du att jag fuskade … jag använde en halvempirisk metod d.v.s. metoden bygger inte på grundläggande fysik.

Vilken modell kommer att ge den bästa beskrivningen? Den halvempiriska metoden naturligtvis! Varför? Eftersom det finns ett antar parametrar som kan justeras så att man får bästa möjliga passning till ett mätt spektrum på en kolatom. Alla de övriga kommer att underskatta korrelationshålet och felen kommer att systematiskt skilja sig från verkligheten. Deras medeltal kommer att vara systematiskt felaktigt och genom att ge Hartree modellen (den dummaste, enklaste) samma vikt som den halvempiriska modellen så garanterar man att felet i medeltalet måste vara signifikant.

Anta att vi inte vet vilken av modellerna som ger det bästa resultatet. Antag att ingen i verkligheten har mätt kolets spektrum så att dess empiriska kvantstruktur är okänd. Om man lägger till detaljer som lämnades bort i Hartree så kan vi inte vara säkra på om vi får en förbättring eller en försämring av beskrivningen.

Vad man skulle göra i det verkliga livet är att mäta kolets spektrum och jämföra detta med förutsägelserna från de olika modellerna. Efter jämförelsen mot verkligheten kan vi välja den/de modeller som beskriver verkligheten bäst. Man går sedan vidare och försöker förbättra de bästa modellerna.

Kan vi tillämpa samma tänkesätt på klimatmodellernas spagettikod? Klart att vi kan! Först måste vi sluta låtsas att ensamblens medeltal och varians har någon mening överhuvudtaget genom att helt enkelt låta bli att beräkna dem. Varför beräkna ett meningslöst tal? För det andra kan vi utnyttja verkliga klimatmätningar från någon vald startpunkt. Vilken den valda startpunkten är spelar i det långa loppet ingen roll och vi kommer att vara tvungna att jämföra modellerna under lång tid för att inte slumpmässigt brus skall föra oss vilse och dölja systematiska fel i modellerna. Då vi har jämfört modellerna med verkligheten under tillräckligt lång tid väljer vi t.ex de fem modeller som bäst motsvarar verkligheten och lägger de övriga i malpåse och dessa övriga modeller används inte överhuvudtaget vid framtida analys eftersom vi vet att de innehåller systemetiska fel.

En verklig vetenskapsman kan sedan tänka på att sätta sig ner och studera dessa fem vinnande modeller och meditera över varför dessa modeller var bäst och dessutom försöka komma underfund med hur man kunde göra dem ännu bättre. Man kunde tänka sig att lägga till fysik som man tidigare förenklat bort, man kan tänka sig att lägga till empiriska korrektioner eller justera ingångsparametrar.

Nu kommer det verkliga problemet. Att vänta! Klimatet är inte så enkelt som en kolatom. Kolatomens spektrum är oföränderligt, klimatet är olinjärt, icke-Markoviskt, kaotiskt och allmänt påverkat av en mängd globala dåligt förstådda sinsemellan tävlande faktorer. Sot aerosoler, växthusgaser, moln, is, årtionden långa temperatursvängningar. Felaktigheter som beror på kaotiska processer som ger upphov till globala bestående förändringar i luftströmmarna men som beror på lokala osaker som t.ex. blockerande högtryck i Atlanten men som har stor inverkan på års- eller månadstemperaturen. Ytterligare har vi banförändringar, förändringar i Solen, förändringar i atmosfären, vulkaner, förändringar i användningen av landområden, algblomningar…

Någonstans har vi dessutom den där förbaskade fjärilen som inte förstår att sitta still … nån borde göra mos av den eftersom beräkning av ett ensamble medeltal från ett kaotiskt system är så dumt at man inte kan beskriva det. Allt fungerar bra så länge man beräknar medeltal över ett så kort intervall att man är bunden av en specifik attraktor … allting oskillerar snyggt och prydligt och sedan plötsligt har vi en annan attraktor och allting förändras. Alla parametrar vi använde för att finjustera modellen för den gamla attraktorn måste ges helt nya värden för att modellen över huvudtaget skall kunna fungera.

Ovanstående är orsaken till att det är huvudlöst att tro att någon sorts p-värde eller R² som beräknas utgående från AR5 har någon mening.

Jag rekommenderar att skeptiker försöker att inte acceptera ensamblen och i stället försöker rikta diskussioner mot frågor gällande varför modellerna stämmer så dåligt överens sinsemellan även då man kör dem utgående från leksaksproblem som är mycket enklare än det jordklot vi lever på. Varför använder vi inte empiriska bevis för att eliminera dåliga modeller så att vi kan koncentrera oss på de modeller som bäst motsvarar verkligheten, samtidigt måste vi se till att de dåliga modellerna inte används för några lösa påståenden om framtida klimat.

Det skulle ta mig, i min relativa ovetskap, omkring fem minuter att eliminera alla utom de bästa 10% av klimatmodellerna (som fortfarande divergerar men befinner sig inom fluktuationsområdet på datasidan). Sortera de återstående modellerna i en bästa (som kan förbättras) och en sämre halva som man kunde stoppa finansieringen av eftersom det är slöseri med tid och pengar. Naturligtvis försvinner de dåliga modellerna inte i verkligheten … de hamnar i malpåse och kan tas fram senare om det framtida klimatet förändras så att de ratade modellerna ger den bästa beskrivningen.

Om man eliminerar de dåliga modellerna så rasar modellernas förutsagda klimatkänslighet från det statistiskt sett helt bedrägliga 2.5 grader C/århundrade till ett mycket mera trovärdigt värde på ungefär 1 grad C/århundrade vilket ungefär motsvarar den långsamma klimatåterhämtningen efter den lilla istiden. En så här stor förändring skulle å andra sidan locka fram högafflar, tjärtunnor och fjädrar då människor inser hur de grovt  har utnyttjats av en liten grupp vetenskapsmän och politiker. Då människor förstår hur de är offer för ett helt oförsvarbart missbruk av statistik där man beräknar ett medeltal mellan extremt dåligt och dåligt som om de skulle ha samma sannolikhet att vara korrekta med slumpmässigt distribuerade differenser.

Kyla blir till värme

14/06/2013

Är det här den nivå på förståelse av jordens klimat vi väntar oss av FN? Videon är på engelska och den visar en intervju med delegaten från Cook Islands vid klimatkonferensen i Bonn. Vi kommer rätt nära Orwells dubbeltänkande där Svart blir Vitt och Sanning blir till lögn.

Delegaten har ett glatt leende men kunskap har hon beklagligtvis inte …

Det lönar sig för övrigt att läsa Orwell igen och jämföra med avlyssningsskandalen i USA. Orwells framtidsvision är obehagligare än den värld vi ser idag, men samtidigt finns det mycket få detaljer i Orwells beskrivning som man inte redan nu har tekniskt på plats eller som skulle vara enkla att implementera.

Det krävs antagligen inga kommentarer…

Spencers illustration av IPCCs klimatmodeller

09/06/2013

Dagens klimatdomedagspropaganda bygger helt på klimatmodeller. En klimatmodell är i princip en vädermodell som körs över lång tid. Eftersom en global klimatmodell kräver en betydande räknekapacitet används ett relativt grovt rutnät (grid) som bestämmer modellens maximala upplösning. Lokala meteorologiska vädermodellers upplösning är normalt betydligt högre eftersom modellen inte gör globala beräkningar.  Eftersom beräkningsnätverket är grovt förlorar man rätt mycket detaljer från lokala fenomen, de förlorade detaljerna ersätts med tumregler för t.ex. hur moln bildas, man beräknar alltså inte molnbildningen utgående från fysikaliska grundsanningar.

Varje intresserad och vaken individ vet att dagens väderprognoser fungerar rätt bra för den närmaste dagen, ju längre fram i tiden väderprognosen sträcker sig desto inexaktare blir den. Dågonstans vid 10 – 14 dagar blir prognosen så inexakt att den blir till en ren gissning.

En vädermodell bryter samman efter ca. två veckor… Hur är det då möjligt att en i princip modifierad vädermodell kan användas till att beräkna ett framtida klimat efter t.ex. 100 år? Borde inte klimatmodellens beräkningar vara totalt opålitliga efter hundra år om vädermodellen blir opålitlig på två veckor? Svaret är att man antar att även om det väder klimatmodellen beräknar har allt mindre att göra med det verkliga vädret så kommer förekomsten av sol, regn, stormar, snöfall att statistiskt motsvara det globala vädret. Tanken är alltså att om det på ett kontrollområde förekommer rätt väder statistiskt sett så kan man använda modellen till att statistiskt uppskatta temperaturtrender även om t.ex. temperaturen modellen beräknar fram för ett specifikt år t.ex. 2015 inte behöver ha något med den verkliga medeltemperaturen år 2015. Då man tittar på trender över årtionden antar man att felen jämnas ut och de trender man ser motsvarar mätta temperaturtrender.

Motsvarar klimatmodellerna ovanstående beskrivning? Hur kan man kontrollera en klimatmodell?

Klimatmodeller kan kalibreras mot kända historiska klimatdata. Man kan alltså t.ex. ta den historiska situationen 1950 som utgångspunkt för en klimatmodell och man låter modellen räkna framåt år för år medan man justerar olika parametrar i modellen så att det beräknade resultatet motsvarar den historiska verkligheten så bra som möjligt. Om vi slutar justera modellen t.ex. år 2000 så kan vi kontrollera hur väl modellen träffar rätt i förhållande till åren 2000 – 2013 då den inte längre justeras.

De justerade parametrarna är t.ex. klimatkänsligheten i förhållande till koncentrationen CO2 i atmosfären. Klimatkänsligheten är främst beroende av en antagen förstärkning i form av vattenånga (också en växthusgas) i atmosfären. IPCC antar att en av koldioxid förorsakad uppvärmning ger upphov till högre luftfuktighet som i sin tur leder till större uppvärmning. IPCC antar att förstärkningen är ca. tre gånger.

Dr. Roy Spencer, en känd klimatolog, har studerat hur väl klimatmodellerna motsvarar verkligheten på sin vebbsida
”epic fail” . Modellerna har också behandlats på WUWT .

Klimatmodellernas beräkningar har fixerats till samma startpunkt d.v.s. 1979 som råkar vara det år då man för första gången kontinuerligt började mäta jordens temperatur från satellit. Klimatmodellernas beräkningar jämförs med verkligheten på två sätt. Den första bilden visar ett spagettidiagram äver en stor mängd klimatmodellers beräknade klimatframtid jämförd med mätningar av jordens temperatur. Det visar sig att klimatmodellerna har mycket lite med verkligheten att göra. I stort sett alla modeller överskattar grovt jordens uppvärmning och inga modeller har träffat rätt gällande de senaste sexton årens temperaturplatå.

Man ser hur klimatmodellerna idag överskattar temperaturen med 0,5 … 0,6 grader vilket ligger nära den totala uppskattade uppvärmningen (0,7 grader) sedan slutet av 1800-talet. Observera att man också inom klimatetablissemanget har uppskattat att en eventuell mänsklig inverkan på temperaturen inte har gått att mäta före ca. 1950.

Samma bild som ovan kan också ges som linjära trender för de enskilda modellerna. Den linjära bilden är lättare att avläsa än spagettibilden ovan men har eventuellt lite mindre med verkligheten att göra. Vi ser igen att klimatmodellerna inte motsvarar verkligheten.

Samma bild men baserad på endast amerikanska modeller ges nedan. Bilden visar att spridningen blir mindre vilket kan tyda på att modellerna inte byggs oberoende av varandra utan de bygger delvis på samma kod och gemensamma uppskattningar av justerbara parametrar.

Inom genetiken skulle man kalla situationen incest …

Om klimatveternskapen skulle göra skäl för namnet vetenskap borde man nu sätta in alla krafter på att förklrar varför modellerna blev fel.

Om temperaturvariationer och klimat

03/06/2013

Min artikel ”Mera koldioxid i atmosfären gör jorden grönare” ledde till en viss diskussion på facebook. Ett intressant argument för att dagens temperaturförändring är farlig var att förändringen just nu är extremt snabb jämfört med tidigare (Läs: icke av människan förorsakade …) klimatförändringar. Artikeln nedan tar en titt på det här argumentet.

Det finns olika uppskattningar av hur temperaturen har förändrats under de senaste 100 … 120 åren. En god gissning, baserad på olika vetenskapliga uppskattningar, är att temperaturen har stigit ca, 0,7 grader C sedan 1890. Temperaturförändringen är då ungefär 0,057 grader C/decennium. Är den här temperaturstegringen unik och hur förhåller sig den till tidigare kända klimatvariationer. Observera att temperaturförändringen 0,7 grader ligger på gränsen till vad man pålitligt kan avläsa en kvicksilver/sprittermometer visuellt. Visuell avläsning torde ge en noggrannhet på ca. en halv grad.

Dr. Don J. Easterbrook råkade ha en analys av precis den här frågan på WUWT för någon dag sedan http://wattsupwiththat.com/2013/06/02/multiple-intense-abrupt-late-pleisitocene-warming-and-cooling-implications-for-understanding-the-cause-of-global-climate-change/#more-87448 .

Det finns flera olika indirekta metoder för att uppskatta temperaturen under tidsperioder då det inte existerade av människan konstruerade termometrar. Man har bl.a. använt förhållandet mellan isotoperna O18 och 016 som proxy för temperaturen. För närvarande är de bästa data som finns från projekten ”Greenland Ice Sheet Project” (GISP) och ”Greenland Ice Core Project” (GRIP).

Fig. 1 Förhållandet mellan syreisotoperna O18 och O16 mätt i isborrkärnor på Grönland.

Fig. 2 Uppskattad temperatur under samma tid (Cuffy and Clow, 1997 och Alley, 2000).

Fig. 3 Syreisotopmätning från borrkärna på Grönland. Man ser en extremt snabb temperatursänkning ungefär för 12800 år sedan följd av en kallperiod säm räckte 1300 år. För 11500 år sedan steg temperaturen snabbt igen. Varmare är uppåt på Y-axeln. (Baserad på data av Cuffy and Clow, 1997 and Alley, 2000).

Man ser genast att bilderna korrelerar ytterst väl. Mätningar från olika områden på jorden visar att temperaturförändringarna var globala.

Förändringens hastighet nu och tidigare

Under de senaste 25000 åren har temperaturen förändrats rätt abrupt många gånger. Bilden nedan visar kalla och varma perioder om ca. hundra år, länden kan variera i någon mån.

Fig. 4 Kalla och varma perioder under de senaste 25000 åren. Den första temperaturförändringen skedde för ca. 24000 år sedan och stapeln nr. 15 är ungefär från tiden 11000 år sedan. Observera att Y-axeln är graderad i Farenheit. Förändringarna bör alltså multipliceras med 5/9 för att man skall få förändringen i grader C.

Då man studerar förändringarna i fig. 4 ser man att tre perioder av temperaturförändring var 20 – 24 gånger större än det vi har sett under det senaste århundradet. Fyra händelser var 6 – 9 gånger större än det vi har upplevt. Dessa data är viktiga och intressanta eftersom de inte kan ha varit förorsakade av människan, vi ser alltså naturliga fluktuationer som är mångdubbelt större än det senaste århundrades uppvärmning.

De abrupta förändringar man kan se kan inte ha förorsakats av långsamma stegvisa förändringar (Croll-Milankovitch).

Det är ytterligare intressant att notera att trots att koldioxidhalten i atmosfären har stigit kontinuerligt så har den globala temperaturen inte stigit under de senaste 16 åren. Det verkar alltså sannolikt att koldioxidens inverkan på jordens temperatur är betydligt lägre än vad t.ex. IPCC har antagit … vilket också stöds av att många forskargrupper som jobbar med klimatmodeller nu skriver ner den antagna av koldioxidklimatkänsligheten med 30 – 50%. Klimatkänsligheten ligger nu nära den nivå skeptikerna utgående från grundläggande fysik men utan inverkan av förstärkande vattenånga kom fram till. Det verkar alltså sannolikt att ökande vattenånga leder till effektivare borttransport av värme och skuggande moln vilket gör att IPCC sannolikt rätt grovt överskattar den uppvärmning vi har att vänta till följd av ökande koldioxidhalt i atmosfären. Eftersom uppvärmningen är logaritmiskt beroende av koldioxidhalten har vi sannolikt redan sett huvuddelen av den förväntade uppvärmningen.

Mera koldioxid i atmosfären gör jorden grönare

02/06/2013

Uppdaterad 2.6.2013, lade till länkar på slutet.

Det är ingen hemlighet att koldioxid får de flesta växter att växa snabbare. Man har bl.a. uppskattat att 30 – 50% av lantbrukets gröna revolution är en följd av koldioxidgödning. Det är inte utan orsak man i växthusnäringen höjer koldioxidhalten i växthus eftersom växterna växer bättre.

Mätningar indikerar att då atmosfärens koldioxidhalt går under 200 ppm (vi ligger idag nära 400) så stannar många växters tillväxt upp eftersom växterna då svälter.

Den 31.5.2013 publicerade AGU d.v.s. American Geophysical Union en rapport http://www.agu.org/news/press/pr_archives/2013/2013-24.shtml där man har undersökt torra områden på jorden. Man har kunnat visa, genom satellitmätningar och modelller, att mängden gröna blad har ökat med ca. 10% till följd av den ökande koldioxidhalten. Effekten är starkast på torra områden eftersom högre koldioxidhalt betyder att färre klyvöppningar behöver vara aktiva för att växten skall få den koldioxid som behövs, detta betyder samtidigt att mängden vatten som avdunstar i samband med växten andning minskar och att växten blir tåligare mot torka.

Koldioxidens effekt kan ses bl.a. som skogsutbredning på tidigare helt gräsbevuxna områden.

Det är intressant att se hur man politiskt aktivt demoniserar koldioxiden som tillsammans med syre är är absolut livsnödvändiga för nästan alla former av liv på jordklotet. Skulle man avlägsna all koldioxid från atmosfären så skulle livet på jorden dö ut nästan genast.

Intressanta länkar:

AGU says CO2 is plant food


http://news.nationalgeographic.com/news/2009/07/090731-green-sahara.html
http://joannenova.com.au/

Står vi inför en energirevolution?

23/05/2013

Uppdaterad 25.5.2013, nya länkar.

Uppdaterad 29.5.2013, ny länk.

Man har nu fått de första oberoende mätningarna av Rossis E-Cat apparat som bygger på LENR där Nickel transmuterar till Koppar och energi produceras.

Forskning kring LENR har pågått oavbrutet sedan slutet av 1980-talet då Fleishmann och Pons meddelade att de hade detekterat abnormal värmeutveckling vid elektrolys med palladiumelektrod.

Italiano: Schema della cella di Piantelli-Foca...

Bild: Generell uppbyggnad av Rossis LENR reaktor.

Den klassiska kärnfysiken stod helt oförstående till fenomenet och man försökte snabbt lägga locket på den nya upptäkten. Man uppfattade att det måste vara bluff eftersom man inte kan slå ihop atomkärnor med några elektronvolts energi d.v.s. ungefär samma energi som vid kemiska reaktioner … man visste ju att det behövdestusentals gånger mera energi för att tränga igenom coulomb potentialvallen. Uttrycket kallfusion myntades eftersom de låga LENR energierna gjorde att komponenterna som transmuterade kunde uppfattas som extremt kalla jämfört med t.ex. temperaturen i en konventionell Tokamac fusionreaktor som man då aktivt arbetade med.

Jag har själv, dock utan klara resultat, experimenterat med motsvarande reaktioner som Fleishmann Pons.

katodplasma

Bilden visar min försöksuppställning. Jag använder Thoriumdopade Wolframelektroder. I elektroden i mitten matas det in protoner från den omgivande vätskan. Spänningen ligger på ca. 300 V och effekten är flera hundra watt. Ett extremt klart lysande plasma bildas mellan vätskan och centralelektroden.

Vad händer om vi byter polaritet? I stället för protoner som strömmar mot centralelektroden matar vi in elektroner. Strömkällan är exakt densamma i båda fallen.

elektronplasma

Ett svagt plasma uppstår då man matar in elektroner i mittelektroden. Färgen kommer antagligen från natrium i elektrolyten.

Rossis LENR reaktor

Den 16.5.2013 publicerades en forskningsrapport där utomstående forskare har haft möjlighet att mäta Rossis E-cat reaktor. Med i forskargruppen fanns forskare från

Giuseppe Levi (Bologna University, Bologna, Italy), Evelyn Foschi (Bologna, Italy), Torbjörn Hartman, Bo Höistad, Roland Pettersson och Lars Tegnér (Uppsala University, Uppsala, Sweden), Hanno Essén (Royal Institute of Technology, Stockholm, Sweden).

Man kan ladda ner forskningsrapporten från http://arxiv.org/abs/1305.3913 .

Vad kom man fram till:

Abstract

An experimental investigation of possible anomalous heat production in a special type of reactor
tube named E-Cat HT is carried out. The reactor tu be is charged with a small amount of hydrogen loaded nickel powder plus some additives. The reaction is primarily initiated by heat from resistor coils inside the reactor tube. Measurement of the produced heat was performed with high-resolution thermal imaging cameras, recording data every second from the hot reactor tube. The measurements of electrical power input were performed with a large bandwidth three-phase power analyzer.
Data were collected in two experimental runs lasting 96 and 116 hours, respectively. An anomalous heat production was indicated in both experiments. The 116-hour experiment also included a calibration of the experimental set-up without the active charge present in the E-Cat HT. In this case, no extra heat was generated beyond the expected heat from the electric input. Computed volumetric and gravimetric energy densities were found to be far above those of any known chemical source. Even by the most conservative assumptions as to the errors in the measurements, the result is still one order of magnitude greater than conventional energy sources.

Forskargruppen konstaterar att de gjorde två experiment som sträckte sig över 96 och 119 timmar. Det senare experimentet (119 timmar) använde dessutom en inaktiv cell som inte uppvisade anomal energiproduktion som referens.

Experimenten tog betydligt längre tid än väntat eftersom den första  cellen man avsåg att mäta  överhettades och stålcylindern i vilken cellen befann sig smälte.

fig_1-2_final

Rossireaktorn kör. Observera de mörka skuggorna från värmemotstånden som används för att reglera effekten.

energiprod_final

Kurvan Plot 2 visar att uteffekten från reaktorn är ca. fem gånger större än den inmatade eleffekten. Energimultiplikationen är således bättre än för en typisk värmepump.

Intresserade läsare uppmanas läsa den ursprungliga artikeln som rätt ingående visar hur mätningarna har gått till.

Slutsatser

Om forskargruppens slutsatser stämmer så står vi på trösken till en ny tidsålder vad gäller tillgång till billig energi. Nickeltillgångarna på jorden är mycket stora och tillgången till väte i havet är outsinlig. Det är självklart att om man kan visa att en LENR reaktion fungerar så kommer man rätt snabbt att hitta också andra reaktioner som fungerar då man blir av med forskarnas blockeringar. Min gissning är att det finns en serie tänkbara material som borde fungera i LENR reaktioner. Rossi har använt Nickel i kombination med okända tilläggsämnen i små mängder. Typiskt för Ni är att det finns fem stabila isotoper och sex relativt stabila isotoper. Det första material man använde i LENR reaktioner var Palladium som har sex stabila isotoper och sju ”halvstabila” isotoper. Min gissning är att Palladium direkt kan ersätta Nickel men Palladium är ett dyrare material. Ett annat intressant material är Wolfram.

För en vanlig villaägare skulle effekten av en fungerande Rossi-cell betyda att kostnaden för uppvärmning skulle minska till ca. en femtedel. Elförbrukningen i vår villa är ca. 30 000 kWh per år. Denna elförbrukning skulle sjunka till kanske 10 000 kWh vilket skulle betyda en betydande sänkning av uppvärmningskostnaderna.

Om det visar sig att Rossis högtermperaturcell fungerar så ger det möjlighet att använda cellen till att producera elektricitet autonomt. Det skulle således vara möjligt att både producera elektricitet och värme. En förutsättning för elproduktion är tillräckligt hög drifttemperatur för att man skall få en vettig termisk verkningsgrad.

Vilken typ av avfall produceras?

En LENR reaktor av Rossityp producerar koppar ur nickel och väte. Restprodukten d.v.s. det uttjänta bränslet har fortfarande ett värde!

Intressanta länkar:

Nuclear Fusion Summary – Prospects for breakthrough commercial reactors 2018-2025

NewEnergyTimes gets three NASA powerpoint LENR presentations

Klicka för att komma åt 20110922NASA-Nelson-GRC-LENR-Workshop.pdf

http://www.gizmag.com/nasa-lenr-nuclear-reactor/26309/

http://climate.nasa.gov/news/864

http://www.extremetech.com/extreme/149090-nasas-cold-fusion-tech-could-put-a-nuclear-reactor-in-every-home-car-and-plane

NASAs metod för att snabbt hitta optimala LENR varianter. Spekulation om rymdflygplan med LENR kraftkälla.

 

Om Koppar och Zink och andra metaller i vår mat

20/05/2013

Djurägare, t.ex. hästägere, vet att djuren kan vara mycket beroende av korrekta proportioner av olika ämnen i djurens mat.

Hästar kräver ett specifikt förhållande mellan intaget av calcium och fosfor. Unga växande hästar behöver Ca/P i ett förhållande ca. 2/1 medan vuxna hästar klarar sig på 1/1. Ett sto med föl behöver också förhållandet 2/1.

Vad har ovanstående med rubriken att göra?

Jag råkade hitta en mycket intressant artikel på Chiefio http://chiefio.wordpress.com/2013/05/18/copper-zinc-ratio-and-phytate/

där EM Smith diskuterar problem då det uppstår obalans mellan Koppar och Zink hos människor. Observera att EM Smith har teknisk bakgrund och således ser på saken ur amatörsynvinkel.

Sökandet fick sin början då en vän hade olika problem bl.a. relaterade till veteallergi. En annan vän hade en mängd obestämda mystiska reaktioner på olika sorters mat. Situationen verkade kompliceras av att reaktionerna på yttre stimuli verkade variera beroende på vilken mat man hade ätit. Kosten var tidvis en relativt extrem vegetarisk kost.

Utbildade läkare följde med personerna och alla inblandade hade vettig utbildning vilket alltså borde betyda att det inte borde vara fråga om ren flum. Ett enkelt faktum var att vissa sorters mat gav upphov till problem. Allmänt illamående och kraftlöshet fanns bland de symptom som dök upp.

Då man gjorde tester visade det sig att bl.a. Soja gav problem. Att undvika soja förbättrade situationen men löste inte problemet.

Plötsligt en dag försvann problemet!

En mängd förbjudna livsmedel testades igen ett i taget. Soja fungerade fortfarande inte medan däremot mjölkprodukter, ost etc. gick igen att äta.

De tänkbara ”tekniska” förklaringarna EM Smith kom fram till var:

  • Orsaken låg i något patogen (bakterie/virus) som kroppen äntligen fick kål på. Symptomen kan alltså ha varit bieffekter av en infektion.
  • Problem med något livsviktigt spårämne. Brist/obalans kan ha gett upphov till ovanstående symptom.

Det korrekta svaret går eventuellt aldrig att finna, men problemen fick EM Smith att börja studera den tänkbara underliggande problematiken. Under senare år har det i allt högre utsträckning diskuterats hur olika spårämnen påverkar människan och också i vilka ungefärliga proportioner dessa spårämnen borde ingå i kosten. Ämnen som har diskuterats är bl.a. bor, arsenik(!) och aluminium. Finns det t.ex. något krav på att grannarna (i det periodiska systemet) till de mest grundläggande ämnena i vår kost borde ingå i ungefär bestämda förhållanden för att enzymerna skall fungera korrekt? På vägen, i läsandet, stötte Smith på diskussioner om koppar/zink förhållanden.

Det finns åsikter om att koppar och zink borde förekomma i specifika förhållanden i människans diet (jämför calcium/fosfor för hästar) för att en människa skall må bra och dessutom att vår moderna diet ger oss dessa ämnen i helt fel förhållanden … åtminstone är det här ett intressant problemområde att börja botanisera.

Problem med koppar, vilket idag mycket ofta betyder alltför mycket koppar, kan leda till en mängd intressanta problem både för män och kvinnor http://www.drlwilson.com/Articles/copper_toxicity_syndrome.htm . Artikeln är på engelska men värd att titta på i sin helhet. Orsaken till att vi får i oss för mycket koppar är sannolikt förändringar i kosten men också ökad användning av kopparrör i vattenledningar i stället för galvaniserade (förzinkade) rör. Observera dock att kroppen behöver koppar för att må bra men att vår diet idag lätt innehåller alltför mycket koppar. För mycket koppar kan vara en följd av alltför lite zink eftersom zink (tillsammans med proteiner) behövs för att bli av med kopparöverskottet.

Fytinsyra (phytic acid) upptäcktes år 1903 och är det ämne i vilket fosfor i huvudsak lagras i många växter bl.a. i spannmål. Människan och icke idisslande djur kan inte utnyttja fytinsyran i kosten. Situationen blir intressant då man noterar att fytinsyra förhindrar upptagning av järn och zink och dessutom i viss utsträckning calcium och magnesium.

Fytinsyrans kemiska utseende är

https://en.wikipedia.org/wiki/File:Phytic_acid.svg

Det finns (osäkra) indikationer på att fytinsyran eventuellt kan minska risken för tarmcancer. Att kombinera en diet som innehåller lite zink men mycket fytinsyra är sannolikt inte att rekommendera eftersom fytinsyran förhindrar upptagning av den lilla mängd nödvändig zink som finns i dieten. Fytinsyrans problem förekommer också för icke idisslande djur (grisar, höns). Eftersom spannmål, som innehåller mycket fytinsyra, är ett billigt foder har man i djurhushållningen utvecklat metoder för att hantera fytinsyran. Man kan lägga till enzymet phytas som bryter ner fytinsyra i fodret. Aktivt arbete pågår också för att utveckla nya växtsorter som innehåller mindre fytinsyra.

Ovan ser vi hur ämnet fytinsyra om det vill sig illa kan leda till alltför litet intag av zink även om maten tekniskt sett innehåller tillräckligt zink! Vad kan detta i såfall leda till?

Effekten av alltför lite zink diskuteras här (på engelska): http://www.ctds.info/zinc1.html#zinc_deficiency

Zink-obalans och då oftast allför lite zink kan ge en lång rad intressanta symptom:

Kronisk trötthet, sömnproblem, vita fläckar på naglarna, dålig aptit på morgonen, illamående på morgonen, snabba förändringar i humöret, dåligt korttidsminne, torrt skinn, rädsla, acne, psoriasis, blir lätt sjuk, depression … skitsofreni.

Jag har under senare år i allt högre utsträckning reagerat på pollen speciellt då träden blommar. Pollenallergin har jag hanteratmed antihistaminer då symptomen har blivit alltför svåra. Jag skaffade zinktabletter och tog en idag. Det verkar som om näsan skulle ha öppnat sig nästan genast (2-3 timmar) och ögonen har slutat rinna d.v.s. samma effekt som antihistamin men utan tröttheten. Den här effekten var för mig helt oväntad och jag har inte läst om den. Det blir intressant att se om fenomenet håller i sig eller om det var någon typ av placeboeffekt. Jag har tidigare sporadiskt ätit magnesium då jag har känt obestämd värk i lederna. Symptomen har försvunnit på några timmar efter en magnesiumtablett. Ovan kan man se att fytinsyra också kan påverka upptagningen av magnesium. Kan detta eventuellt betyda att någon specifik mat har fått till stånd ledsymtom? Samma typ av mat kan mycket väl påverka zink/koppar balansen med t.ex. trötthet som följd.

Notera att man inte skall överdosera zink. Jag vet inte var riskgränsen går men det verkar finnas indikationer på t.ex. risk för glaucom d.v.s. ”grön starr” och näthinneavlossning vid överdosering vilket antyder att lagom är bäst i det här fallet. Tänkte kombinera med B6 vitamin och se om det går att känna någon skillnad. Mycket intressant!

Maximalt Zinkintag?

I artikeln ovan poängteras att man inte skall överdriva intag av zink eftersom också zink i alltför stora mängder blir giftigt. Jag sökte på nätet efter data om rekommenderat intag och kom fram till följande resultat:

Rekommenderat dagligt intag av Zink:

Table 1: Recommended Dietary Allowances (RDAs) for Zinc [2]
Age                  Male      Female   Pregnancy   Lactation
0–6 months    2 mg*    2 mg*

7–12 months  3 mg      3 mg

1–3 years        3 mg       3 mg

4–8 years        5 mg       5 mg

9–13 years      8 mg       8 mg

14–18 years   11 mg     9 mg     12 mg            13 mg
19+ years        11 mg     8 mg     11 mg            12 mg
* Adequate Intake (AI)

Källor för Zink i vår mat:

Table 2: Selected Food Sources of Zinc [11]
Food                               mg per portion          % dagl. intag
Ostron 100 g                 74.0                             493
Kött 100 g                       7.0                                47
Krabba 100g                   6.5                                43
Baked beans 1/2 kopp  2.9                                19
Kyckling 100g               2.4                                16
Yogurt 250g                    1.7                                11
Cashewnötter 30g          1.6                                11
Ost 30g                             1.2                                  8
Maximat Zinkintag:

Table 3: Tolerable Upper Intake Levels (ULs) for Zinc [2]
Age                     Male        Female       Pregnant       Lactating
0–6 months       4 mg         4 mg

7–12 months     5 mg        5 mg

1–3 years           7 mg        7 mg

4–8 years           12 mg     12 mg

9–13 years         23 mg     23 mg

14–18 years       34 mg     34 mg         34 mg            34 mg
19+ years            40 mg     40 mg         40 mg            40 mg

En engångsdos på ca. 570 mg zink d.v.s. mer än tio gånger den maximala tolererbara dosen ovan har rapporterats ge svårt illamående med uppkastningar inom ca. 30 minuter från intag. Intag på 150 – 450 mg zink per dag kan leda till kopparbrist. Också zinkdoser på 60 mg/dag under flera veckors tid har rapporterats påverka enzym beroende av koppar negativt.

Sammanfattning:

Överdosera inte! Observera dock att det inte är självklart att kroppen kan utnyttja all zink som teoretiskt finns i maten (se artikeln ovan).

Nu vill man kyla Norden!

16/05/2013

De senaste 16 åren har jordens temperatur inte stigit vilket naturligtvis gör stora grupper aktivister som är beroende av klimatpengar desperata.

Jag råkade stöta på en entressant artikel i WUWT som diskuterar växthusgasen metan och eventuella framtida katastrofala utsläpp inom det arktiska området till följds av framtida stigande temperaturer.

I Wikipedia kan man läsa (översättning från engelska):

Det arktiska området är en av de naturliga källorna för växthusgasen metan. Global uppvärmning accelererar metanutsläpp både i form av utsläpp från existerande förråd i marken och genom methanogenesis i ruttnande biomassa. Stora mängder metan finns lagrade i arktis i naturliga gaslager såsom permafrost och i form av marina klatrater. Permafrost och klatrater faller sönder vid uppvärmning vilket kan leda till stora utsläpp av metan från dessa källor till följd av global uppvärmning.

Bilden visar hur metankoncentrationen i atmosfären har varit ungefär konstant de senaste åren efter en ökning i slutet av 1900-talet. Metan bryts ned rätt snabbt i atmosfären och det bildas då vatten och koldioxid.

Man har sedan slutet an 1980-talet undersökt hur en eventuell uppvärmning skulle påverka utsläppen av koldioxid i arktis .

Undersökningen visade att då tundra värmdes upp så ersattes mossor och lavar av buskvegetation och den biologiska aktiviteten gick djupare in i marken. Sönderfallet vid jordytan blev långsammare medan den ökade längre ner. Användning av växthus för att på artificiell väg höja temperaturen med två grader för att simulera en framtida uppvärmning visade inte någon förändring i kolinnehållet i marken under växthusen.

Det är ett känt faktum att man kan påverka människors beteende genom att skrämma dem … men inte hur länge som helst då katastrof på katastrof inte kommer utan går upp i rök.

Organisationen AMEG d.v.s. Arctic Methane Emergency Group konstaterar att en ”Planetär katastrof är oundviklig om man inte via geoingenjörskonst kyl arktis”. Man vill alltså avsiktligt kyla t.ex. Norden och finland. Kom ihåg att t.ex. Helsingfors befinner sig på 60-nde breddgraden d.v.s. lika långt norrut som södra Grönland.

AMEG hänvisar till en kommande hungersnöd inom det närmaste året och påstår att denna hungersnöd beror på klimatförändringen och främst uppvärmningen av arktis. Man hänvisar till Complex Systems Institute (CSI) som presenterar följande bild:

Bilden visar prisindexet för mat från 2003 fram till 2020. Observera att allt från 2013 framåt är rena gissningar. Man konstaterar, sannolikt helt korrekt, att stigande matpriser i fattiga länder kan åstadkomma plötslig oro i befolkningen såsom t.ex. arabvåren.

Då man tittar på ovanstående bild från 2004 till nutid så slås man av att de kraftigt stigande matpriserna sammanfaller med allt större satsningar på biologiska bränslen.

corn_2012

Bilden visar hur en allt större del av majsproduktionen i USA (30 – 40%) har använts till att producera motorbränsle i form av etanol. Källa http://www.afdc.energy.gov/data/tab/fuels-infrastructure .

Man kan se samma trend globalt då t.ex. EU införde krav på att en bestämd mängd biobränslen måste användas. Frågan som genast infinner sig då man tittar på den ursprungliga kurvan (CSI) som visar snabbt stigande livsmedelspris och jämför den med användningen av biobränslen är: Har vi här en fullständigt onödig och av människan skapad konfliktsituation. De oroligheter vi kan komma att se kan vara skapade av politiker för att få till stånd globala oroligheter. Det är lätt att se att det inte finns någon brist på mat. Det enda problemet är att man bränner så mycket mat att det påverkar de globala livsmedelspriserna.

Man har i Europa till följd av konstgjort höga energipriser, skapade genom subventionerad grön energi och beskattning, lyckats få till stånd en ekonomisk kris där de företag som har möjlighet röstar med fötterna och flyttar bort produktionen till vettigare områden på jorden. Situationen skulle ha varit densamma i USA om man inte plötsligt hade upptäckt att det fanns ofantliga mängder naturgas. Det är intressant att notera att det också under stora delar av Europa finns motsvarande geologiska formationer som i USA. Man kan alltså anta att också Europa kunde vara självförsörjande på naturgas om den politiska viljan att skapa Europeisk produktion skulle finnas.

Låg industriproduktion och stor arbetslöshet har lett till att bl.a. efterfrågan på bensin har sjunkit kraftigt. I New York Times http://www.nytimes.com/2013/03/17/us/17ethanol.html?pagewanted=all fanns en artikel om produktionen av etanol för användning som biobränsle.

Artikeln konstaterar att nästan 10% av etanoltillverkanrna har stoppat produktionen under det senaste året delvis till följd av det senaste årets torka som gjorde råvaran så dyr att produktionen blev olönsam.

Minskad efterfrågan på bensin har förstärkt problemen genom att minska på efterfrågan på etanol.

Vad vill man då göra för att kyla Arktis?

  • Den främsta metoden skulle vara att påverka molnigheten. Moln skapas så att solljus effektivt reflekteras från molnen och aldrig värmer markytan. Man kan också under vintertiden se till att moln inte bildas vilket leder till att mera värme strålar ut i rymden vilket leder till avkylning (det här är orsakan till att det brukar vara kallt då det är klart väder med lite vind på vintern).
  • Eftersom ovanstående inte uppfattas vara tillräckligt skulle man gå vidare genom att förhindra att det strömmar varmt vatten upp till arktis. Detta kunde åtgärdas genom att t.ex. delvis stänga Berings sund.
  • Den ultimata metoden som föreslås är att sluta rena rökgaserna från koleldade kraftverk. Man skulle som idag rena flygaskan, som är mörk, men svavlet i rökgaserna skulle släppas ut direkt … välkomna igen ni sura regn som vi trodde var något i det förflutna! Man förespråkar t.ex. att fartyg skulle få använda högsvavlig olja för att dessa svavelutsläpp verkar kylande.
  • Man vill skapa negativ och positiv feedback via kontrails d.v.s. jetstrimmor. I praktiken skulle detta betyda att man under vintern skulle förbjuda flygning över polarområdena eftersom detta skapar tunna moln på hög höjd. Jetstrimmor bildas normalt inte på låg höjd d.v.s. skapande av låga jetstrimmor på sommaren torde inte vara möjligt (se bild i tidigare artikel pp denna blogg: https://larsil2009.wordpress.com/2013/04/14/dimma-moln-och-jetstrimmor/).
  • Man föreslår att man logistiskt skall förbereda sig för storskalig sprutning av aerosol pre-cursor i den lägre stratosfären … man talar tydligen om mars april 2013. Aurosolprecursor är alltså kondensationskärnor för att moln skulle bildas på låg höjd.

Vad kan man säga annat än att det är skrämmande att se att det helt tydligt finns personer i hög ställning med sådan hybris att man tror sig vara kapabel att på ett kontrollerat sätt förändra hela norra halvklotets klimat.

De stora frågorna är dock:

  • I vilken mån görs förberedelser för storskalig geoingenjörskonst?
  • Om man lyckas sänka temperaturen med säg två grader i arktis så betyder det att vi i Finland plötsligt klimatmässigt befinner oss i en ny liten istid liknande nödåren på 1860-talet som i värsta fall kan eskalera till en fullskalig istid. Hur ersätts de nordliga folken för en våldsam försämring i klimatet?

Pointman's

A lagrange point in life

THE HOCKEY SCHTICK

Lars Silén: Reflex och Spegling

NoTricksZone

Lars Silén: Reflex och Spegling

Big Picture News, Informed Analysis

Canadian journalist Donna Laframboise. Former National Post & Toronto Star columnist, past vice president of the Canadian Civil Liberties Association.

JoNova

Lars Silén: Reflex och Spegling

Climate Audit

by Steve McIntyre

Musings from the Chiefio

Techno bits and mind pleasers

Bishop Hill

Lars Silén: Reflex och Spegling

Watts Up With That?

The world's most viewed site on global warming and climate change

TED Blog

The TED Blog shares news about TED Talks and TED Conferences.

Larsil2009's Blog

Lars Silén: Reflex och Spegling