Klimatmodeller, ensamble, medelvärde?

17/06/2013

Den här artikeln är baserad på en engeskspråkig artikel i Bishop Hill som i sin tur är baserad på en kommentar i WUWT. Frågan gäller om medeltal och standardavvikelse har någon mening då man betraktar resultatet från en serie körningar av klimatmodeller. Svaret på frågan, mera om detta nedan, är nej.

Att säga att vi måste vänta en bestämd tid innan vi kan säga något om huruvida modellerna är riktiga eller inte är farligt. Det finns två orsaker till detta, för det första, och det här är något som helt ignoreras, finns det en mängd olika modeller som alla är baserade på grundläggande fysik och ändå ger de alla helt olika resultat. 

Fig. 1  Spagettigraf av klimatmodeller.

Man ser detta tydligt i de kurvor Monckton publicerade (fig. 1) där AR5 trendlinjen är medeltalet av alla dessa modeller och trots att det finns många modeller är variansen mycket stor. Då man tittar på kurvorna ser de ut som en upplöst repända inte som en naturlig spridning runt ett fysikaliskt resultat. 

Lägg märke till graden blåsning i bilden. Genom att beräkna medeltal och standard deviation over de olika modellernas projektioner och sedan använda medeltalet som den mest sannolika projektionen och variansen som felgränser  så behandlar man de olika modellerna som om de vore okorrelerade slumpmässiga storheter som ger upphov till ett sant medelvärde!

Det här är ett så fullständigt hårresande missbruk av statistik att det är svårt att bestämma sig för var man skall börja greppa frågan. Man skulle helst ge den som satte ihop den ursprungliga bilden ett antal örfilar och sedan se till att de aldrig kunde publicera vetenskapligt eller statistiskt material i framtiden. Man kan inte skapa en ensamble av oberoende och identiskt distribuerade modeller som har olika kod. Man kunde eventuellt använda en enda modell med olika startvärden (brus) och studera hur olika körningar av samma modell då uppför sig.
Vad jag försöker säga är att variansen och medeltalet för ensamblen av modeller är statistiskt helt meningslös eftersom de ingångsvärden vi har saknar de grundläggande statistiska egenskaper som behövs för en meningsfull tolkning.

Varför köpa detta nonsens genom att göra en linjär anpassning till till en funktion, den globala temperaturen, som aldrig har varit linjär även om den naturligtvis har varit approximativt jämn så att man via serieutveckling får fram en linjär term … som kan garanteras att inte ge meningsfulla extrapolerade värden för framtiden eftersom högre ordningens icke linjära termer börjar inverka och med tiden kommer att dominera. Varför ens med läpparna bekänna att R² eller p har någon mening? Den har det inte.

Låt mig upprepa. Den har ingen mening! Den kan inte statistiskt försvaras varken praktiskt eller teoretiskt. Man kunde lika väl använda ett spiritistiskt talande bord http://en.wikipedia.org/wiki/Ouija som grund för förutsägelser gällande framtida klimat. Ensamblen modeller skiljer sig inte genom verkliga slumpmässiga variationer utan de är beroende av alla möjliga obeaktade variabler, valda variabler, implementeringen och initialiserings bias. Bordet kan tänkas ge rätt svar, eller kanske inte, men god tur ger eventuellt gissningen någon typ av rationell bas.

Låt oss vända på steken och tillämpa statistisk analys på distributionen av modellresultat gällande påståendet att de alla korrekt implementerar välkänd fysik. Om jag t.ex. försöker göra en a priori beräkning av kvantstrukturen av t.ex. en kolatom så kan jag börja med att lösa en en-elektron modell där man låter elektronens växelverkan med sig själv generera ett sfäriskt symmetriskt elektronmoln kring kärnan. Sedan kan man utgående från fältteori iterera fram en bättre lösning (Hartree approximation).

Någon kan då säga ”Vänta, det här bryter mot Paulis uteslutningsprincip” och kravet på att elektronens vågfunktion skall vara helt antisymmetrisk. Man kan då göra en-elektronmodellen lite mera komplicerad och skapa en slater determinant för en helt antisymmetrisk representation av elektronens vågfunktion. Man kan sedan generera tätheten och utföra den självkonsistenta fältberäkningen för att få det hela att konvergera (det här kallas Hartree-Fock metoden).

En tredje person kunde då lägga märke till att resultatet fortfarande underskattar systemets såkallade ”korrelationsenergi” eftersom man då man behandlar elektronmolnet som en kontinuerlig distribution ignorerar att elektroner kraftigt repellerar varandra och därför inte vill vara nära varandra. Båda de första modellerna underskattar elektronmolnets storlek vilket gör atomen alltför liten och alltför hårt bunden. En variant där man använder en halv-empirisk täthetsfunktion ger igen ett bättre resultat.

En fjärde grupp konstaterar att universum i verkligheten är relativistiskt och genom att ignorera relativitetsteorin så inför vi fel i alla de ovanstående beräkningsmodellerna.

På slutändan kan vi ha en lång serie modeller som alla är baserade på fysik. I praktiken är också skillnaderna mellan modellerna baserade på fysik d.v.s. den fysik vi har lämnat bort i olika modeller. Vi ser också hur vi försökte använda en halvempirisk metod för att hantera frågor vi inte kan beräkna utfående från grundläggande fysik, resultatet är ofta dåligt eftersom empiriska korrektioner ofta endast fungerar i specifika situationer. Observera dock att vi inte har alternativet att göra beräkningen utgående från grundläggande fysik … vi klarar helt enkelt inte av att lösa det flerkroppsproblem vi stött på. Lika lite klarar vi av att lösa flerkroppsproblem klassiskt eller mängden öppna, ickelinjära, kopplade, dämpade, drivna kaotiska Navier-Stokes ekvationer i en icke inertial referensram … som representerar ett klimatsystem.

Lägg märke till att vårt försök att lösa elektronens vågfunktion för en kolatom är ett trivialt problem (som vi inte klarar att lösa) jämfört med klimatproblemet. Vi kan inte exakt beräkna någondera men vi är mycket närmare en lösning gällande atomen än gällande klimatet.

Borde vi beräkna ett medeltal för ensamblen modeller av den kvantelektroniska strukturen av atomärt kol och använda detta medelvärde som den bästa beskrivningen av kolets kvantstruktur? Vi gör detta endast om vi är idioter eller sinnesjuka eller om vi försöker sälja något. Om du läste ovanstående med eftertanke så märker du att jag fuskade … jag använde en halvempirisk metod d.v.s. metoden bygger inte på grundläggande fysik.

Vilken modell kommer att ge den bästa beskrivningen? Den halvempiriska metoden naturligtvis! Varför? Eftersom det finns ett antar parametrar som kan justeras så att man får bästa möjliga passning till ett mätt spektrum på en kolatom. Alla de övriga kommer att underskatta korrelationshålet och felen kommer att systematiskt skilja sig från verkligheten. Deras medeltal kommer att vara systematiskt felaktigt och genom att ge Hartree modellen (den dummaste, enklaste) samma vikt som den halvempiriska modellen så garanterar man att felet i medeltalet måste vara signifikant.

Anta att vi inte vet vilken av modellerna som ger det bästa resultatet. Antag att ingen i verkligheten har mätt kolets spektrum så att dess empiriska kvantstruktur är okänd. Om man lägger till detaljer som lämnades bort i Hartree så kan vi inte vara säkra på om vi får en förbättring eller en försämring av beskrivningen.

Vad man skulle göra i det verkliga livet är att mäta kolets spektrum och jämföra detta med förutsägelserna från de olika modellerna. Efter jämförelsen mot verkligheten kan vi välja den/de modeller som beskriver verkligheten bäst. Man går sedan vidare och försöker förbättra de bästa modellerna.

Kan vi tillämpa samma tänkesätt på klimatmodellernas spagettikod? Klart att vi kan! Först måste vi sluta låtsas att ensamblens medeltal och varians har någon mening överhuvudtaget genom att helt enkelt låta bli att beräkna dem. Varför beräkna ett meningslöst tal? För det andra kan vi utnyttja verkliga klimatmätningar från någon vald startpunkt. Vilken den valda startpunkten är spelar i det långa loppet ingen roll och vi kommer att vara tvungna att jämföra modellerna under lång tid för att inte slumpmässigt brus skall föra oss vilse och dölja systematiska fel i modellerna. Då vi har jämfört modellerna med verkligheten under tillräckligt lång tid väljer vi t.ex de fem modeller som bäst motsvarar verkligheten och lägger de övriga i malpåse och dessa övriga modeller används inte överhuvudtaget vid framtida analys eftersom vi vet att de innehåller systemetiska fel.

En verklig vetenskapsman kan sedan tänka på att sätta sig ner och studera dessa fem vinnande modeller och meditera över varför dessa modeller var bäst och dessutom försöka komma underfund med hur man kunde göra dem ännu bättre. Man kunde tänka sig att lägga till fysik som man tidigare förenklat bort, man kan tänka sig att lägga till empiriska korrektioner eller justera ingångsparametrar.

Nu kommer det verkliga problemet. Att vänta! Klimatet är inte så enkelt som en kolatom. Kolatomens spektrum är oföränderligt, klimatet är olinjärt, icke-Markoviskt, kaotiskt och allmänt påverkat av en mängd globala dåligt förstådda sinsemellan tävlande faktorer. Sot aerosoler, växthusgaser, moln, is, årtionden långa temperatursvängningar. Felaktigheter som beror på kaotiska processer som ger upphov till globala bestående förändringar i luftströmmarna men som beror på lokala osaker som t.ex. blockerande högtryck i Atlanten men som har stor inverkan på års- eller månadstemperaturen. Ytterligare har vi banförändringar, förändringar i Solen, förändringar i atmosfären, vulkaner, förändringar i användningen av landområden, algblomningar…

Någonstans har vi dessutom den där förbaskade fjärilen som inte förstår att sitta still … nån borde göra mos av den eftersom beräkning av ett ensamble medeltal från ett kaotiskt system är så dumt at man inte kan beskriva det. Allt fungerar bra så länge man beräknar medeltal över ett så kort intervall att man är bunden av en specifik attraktor … allting oskillerar snyggt och prydligt och sedan plötsligt har vi en annan attraktor och allting förändras. Alla parametrar vi använde för att finjustera modellen för den gamla attraktorn måste ges helt nya värden för att modellen över huvudtaget skall kunna fungera.

Ovanstående är orsaken till att det är huvudlöst att tro att någon sorts p-värde eller R² som beräknas utgående från AR5 har någon mening.

Jag rekommenderar att skeptiker försöker att inte acceptera ensamblen och i stället försöker rikta diskussioner mot frågor gällande varför modellerna stämmer så dåligt överens sinsemellan även då man kör dem utgående från leksaksproblem som är mycket enklare än det jordklot vi lever på. Varför använder vi inte empiriska bevis för att eliminera dåliga modeller så att vi kan koncentrera oss på de modeller som bäst motsvarar verkligheten, samtidigt måste vi se till att de dåliga modellerna inte används för några lösa påståenden om framtida klimat.

Det skulle ta mig, i min relativa ovetskap, omkring fem minuter att eliminera alla utom de bästa 10% av klimatmodellerna (som fortfarande divergerar men befinner sig inom fluktuationsområdet på datasidan). Sortera de återstående modellerna i en bästa (som kan förbättras) och en sämre halva som man kunde stoppa finansieringen av eftersom det är slöseri med tid och pengar. Naturligtvis försvinner de dåliga modellerna inte i verkligheten … de hamnar i malpåse och kan tas fram senare om det framtida klimatet förändras så att de ratade modellerna ger den bästa beskrivningen.

Om man eliminerar de dåliga modellerna så rasar modellernas förutsagda klimatkänslighet från det statistiskt sett helt bedrägliga 2.5 grader C/århundrade till ett mycket mera trovärdigt värde på ungefär 1 grad C/århundrade vilket ungefär motsvarar den långsamma klimatåterhämtningen efter den lilla istiden. En så här stor förändring skulle å andra sidan locka fram högafflar, tjärtunnor och fjädrar då människor inser hur de grovt  har utnyttjats av en liten grupp vetenskapsmän och politiker. Då människor förstår hur de är offer för ett helt oförsvarbart missbruk av statistik där man beräknar ett medeltal mellan extremt dåligt och dåligt som om de skulle ha samma sannolikhet att vara korrekta med slumpmässigt distribuerade differenser.

Kyla blir till värme

14/06/2013

Är det här den nivå på förståelse av jordens klimat vi väntar oss av FN? Videon är på engelska och den visar en intervju med delegaten från Cook Islands vid klimatkonferensen i Bonn. Vi kommer rätt nära Orwells dubbeltänkande där Svart blir Vitt och Sanning blir till lögn.

Delegaten har ett glatt leende men kunskap har hon beklagligtvis inte …

Det lönar sig för övrigt att läsa Orwell igen och jämföra med avlyssningsskandalen i USA. Orwells framtidsvision är obehagligare än den värld vi ser idag, men samtidigt finns det mycket få detaljer i Orwells beskrivning som man inte redan nu har tekniskt på plats eller som skulle vara enkla att implementera.

Det krävs antagligen inga kommentarer…

Spencers illustration av IPCCs klimatmodeller

09/06/2013

Dagens klimatdomedagspropaganda bygger helt på klimatmodeller. En klimatmodell är i princip en vädermodell som körs över lång tid. Eftersom en global klimatmodell kräver en betydande räknekapacitet används ett relativt grovt rutnät (grid) som bestämmer modellens maximala upplösning. Lokala meteorologiska vädermodellers upplösning är normalt betydligt högre eftersom modellen inte gör globala beräkningar.  Eftersom beräkningsnätverket är grovt förlorar man rätt mycket detaljer från lokala fenomen, de förlorade detaljerna ersätts med tumregler för t.ex. hur moln bildas, man beräknar alltså inte molnbildningen utgående från fysikaliska grundsanningar.

Varje intresserad och vaken individ vet att dagens väderprognoser fungerar rätt bra för den närmaste dagen, ju längre fram i tiden väderprognosen sträcker sig desto inexaktare blir den. Dågonstans vid 10 – 14 dagar blir prognosen så inexakt att den blir till en ren gissning.

En vädermodell bryter samman efter ca. två veckor… Hur är det då möjligt att en i princip modifierad vädermodell kan användas till att beräkna ett framtida klimat efter t.ex. 100 år? Borde inte klimatmodellens beräkningar vara totalt opålitliga efter hundra år om vädermodellen blir opålitlig på två veckor? Svaret är att man antar att även om det väder klimatmodellen beräknar har allt mindre att göra med det verkliga vädret så kommer förekomsten av sol, regn, stormar, snöfall att statistiskt motsvara det globala vädret. Tanken är alltså att om det på ett kontrollområde förekommer rätt väder statistiskt sett så kan man använda modellen till att statistiskt uppskatta temperaturtrender även om t.ex. temperaturen modellen beräknar fram för ett specifikt år t.ex. 2015 inte behöver ha något med den verkliga medeltemperaturen år 2015. Då man tittar på trender över årtionden antar man att felen jämnas ut och de trender man ser motsvarar mätta temperaturtrender.

Motsvarar klimatmodellerna ovanstående beskrivning? Hur kan man kontrollera en klimatmodell?

Klimatmodeller kan kalibreras mot kända historiska klimatdata. Man kan alltså t.ex. ta den historiska situationen 1950 som utgångspunkt för en klimatmodell och man låter modellen räkna framåt år för år medan man justerar olika parametrar i modellen så att det beräknade resultatet motsvarar den historiska verkligheten så bra som möjligt. Om vi slutar justera modellen t.ex. år 2000 så kan vi kontrollera hur väl modellen träffar rätt i förhållande till åren 2000 – 2013 då den inte längre justeras.

De justerade parametrarna är t.ex. klimatkänsligheten i förhållande till koncentrationen CO2 i atmosfären. Klimatkänsligheten är främst beroende av en antagen förstärkning i form av vattenånga (också en växthusgas) i atmosfären. IPCC antar att en av koldioxid förorsakad uppvärmning ger upphov till högre luftfuktighet som i sin tur leder till större uppvärmning. IPCC antar att förstärkningen är ca. tre gånger.

Dr. Roy Spencer, en känd klimatolog, har studerat hur väl klimatmodellerna motsvarar verkligheten på sin vebbsida
”epic fail” . Modellerna har också behandlats på WUWT .

Klimatmodellernas beräkningar har fixerats till samma startpunkt d.v.s. 1979 som råkar vara det år då man för första gången kontinuerligt började mäta jordens temperatur från satellit. Klimatmodellernas beräkningar jämförs med verkligheten på två sätt. Den första bilden visar ett spagettidiagram äver en stor mängd klimatmodellers beräknade klimatframtid jämförd med mätningar av jordens temperatur. Det visar sig att klimatmodellerna har mycket lite med verkligheten att göra. I stort sett alla modeller överskattar grovt jordens uppvärmning och inga modeller har träffat rätt gällande de senaste sexton årens temperaturplatå.

Man ser hur klimatmodellerna idag överskattar temperaturen med 0,5 … 0,6 grader vilket ligger nära den totala uppskattade uppvärmningen (0,7 grader) sedan slutet av 1800-talet. Observera att man också inom klimatetablissemanget har uppskattat att en eventuell mänsklig inverkan på temperaturen inte har gått att mäta före ca. 1950.

Samma bild som ovan kan också ges som linjära trender för de enskilda modellerna. Den linjära bilden är lättare att avläsa än spagettibilden ovan men har eventuellt lite mindre med verkligheten att göra. Vi ser igen att klimatmodellerna inte motsvarar verkligheten.

Samma bild men baserad på endast amerikanska modeller ges nedan. Bilden visar att spridningen blir mindre vilket kan tyda på att modellerna inte byggs oberoende av varandra utan de bygger delvis på samma kod och gemensamma uppskattningar av justerbara parametrar.

Inom genetiken skulle man kalla situationen incest …

Om klimatveternskapen skulle göra skäl för namnet vetenskap borde man nu sätta in alla krafter på att förklrar varför modellerna blev fel.

Om temperaturvariationer och klimat

03/06/2013

Min artikel ”Mera koldioxid i atmosfären gör jorden grönare” ledde till en viss diskussion på facebook. Ett intressant argument för att dagens temperaturförändring är farlig var att förändringen just nu är extremt snabb jämfört med tidigare (Läs: icke av människan förorsakade …) klimatförändringar. Artikeln nedan tar en titt på det här argumentet.

Det finns olika uppskattningar av hur temperaturen har förändrats under de senaste 100 … 120 åren. En god gissning, baserad på olika vetenskapliga uppskattningar, är att temperaturen har stigit ca, 0,7 grader C sedan 1890. Temperaturförändringen är då ungefär 0,057 grader C/decennium. Är den här temperaturstegringen unik och hur förhåller sig den till tidigare kända klimatvariationer. Observera att temperaturförändringen 0,7 grader ligger på gränsen till vad man pålitligt kan avläsa en kvicksilver/sprittermometer visuellt. Visuell avläsning torde ge en noggrannhet på ca. en halv grad.

Dr. Don J. Easterbrook råkade ha en analys av precis den här frågan på WUWT för någon dag sedan http://wattsupwiththat.com/2013/06/02/multiple-intense-abrupt-late-pleisitocene-warming-and-cooling-implications-for-understanding-the-cause-of-global-climate-change/#more-87448 .

Det finns flera olika indirekta metoder för att uppskatta temperaturen under tidsperioder då det inte existerade av människan konstruerade termometrar. Man har bl.a. använt förhållandet mellan isotoperna O18 och 016 som proxy för temperaturen. För närvarande är de bästa data som finns från projekten ”Greenland Ice Sheet Project” (GISP) och ”Greenland Ice Core Project” (GRIP).

Fig. 1 Förhållandet mellan syreisotoperna O18 och O16 mätt i isborrkärnor på Grönland.

Fig. 2 Uppskattad temperatur under samma tid (Cuffy and Clow, 1997 och Alley, 2000).

Fig. 3 Syreisotopmätning från borrkärna på Grönland. Man ser en extremt snabb temperatursänkning ungefär för 12800 år sedan följd av en kallperiod säm räckte 1300 år. För 11500 år sedan steg temperaturen snabbt igen. Varmare är uppåt på Y-axeln. (Baserad på data av Cuffy and Clow, 1997 and Alley, 2000).

Man ser genast att bilderna korrelerar ytterst väl. Mätningar från olika områden på jorden visar att temperaturförändringarna var globala.

Förändringens hastighet nu och tidigare

Under de senaste 25000 åren har temperaturen förändrats rätt abrupt många gånger. Bilden nedan visar kalla och varma perioder om ca. hundra år, länden kan variera i någon mån.

Fig. 4 Kalla och varma perioder under de senaste 25000 åren. Den första temperaturförändringen skedde för ca. 24000 år sedan och stapeln nr. 15 är ungefär från tiden 11000 år sedan. Observera att Y-axeln är graderad i Farenheit. Förändringarna bör alltså multipliceras med 5/9 för att man skall få förändringen i grader C.

Då man studerar förändringarna i fig. 4 ser man att tre perioder av temperaturförändring var 20 – 24 gånger större än det vi har sett under det senaste århundradet. Fyra händelser var 6 – 9 gånger större än det vi har upplevt. Dessa data är viktiga och intressanta eftersom de inte kan ha varit förorsakade av människan, vi ser alltså naturliga fluktuationer som är mångdubbelt större än det senaste århundrades uppvärmning.

De abrupta förändringar man kan se kan inte ha förorsakats av långsamma stegvisa förändringar (Croll-Milankovitch).

Det är ytterligare intressant att notera att trots att koldioxidhalten i atmosfären har stigit kontinuerligt så har den globala temperaturen inte stigit under de senaste 16 åren. Det verkar alltså sannolikt att koldioxidens inverkan på jordens temperatur är betydligt lägre än vad t.ex. IPCC har antagit … vilket också stöds av att många forskargrupper som jobbar med klimatmodeller nu skriver ner den antagna av koldioxidklimatkänsligheten med 30 – 50%. Klimatkänsligheten ligger nu nära den nivå skeptikerna utgående från grundläggande fysik men utan inverkan av förstärkande vattenånga kom fram till. Det verkar alltså sannolikt att ökande vattenånga leder till effektivare borttransport av värme och skuggande moln vilket gör att IPCC sannolikt rätt grovt överskattar den uppvärmning vi har att vänta till följd av ökande koldioxidhalt i atmosfären. Eftersom uppvärmningen är logaritmiskt beroende av koldioxidhalten har vi sannolikt redan sett huvuddelen av den förväntade uppvärmningen.

Mera koldioxid i atmosfären gör jorden grönare

02/06/2013

Uppdaterad 2.6.2013, lade till länkar på slutet.

Det är ingen hemlighet att koldioxid får de flesta växter att växa snabbare. Man har bl.a. uppskattat att 30 – 50% av lantbrukets gröna revolution är en följd av koldioxidgödning. Det är inte utan orsak man i växthusnäringen höjer koldioxidhalten i växthus eftersom växterna växer bättre.

Mätningar indikerar att då atmosfärens koldioxidhalt går under 200 ppm (vi ligger idag nära 400) så stannar många växters tillväxt upp eftersom växterna då svälter.

Den 31.5.2013 publicerade AGU d.v.s. American Geophysical Union en rapport http://www.agu.org/news/press/pr_archives/2013/2013-24.shtml där man har undersökt torra områden på jorden. Man har kunnat visa, genom satellitmätningar och modelller, att mängden gröna blad har ökat med ca. 10% till följd av den ökande koldioxidhalten. Effekten är starkast på torra områden eftersom högre koldioxidhalt betyder att färre klyvöppningar behöver vara aktiva för att växten skall få den koldioxid som behövs, detta betyder samtidigt att mängden vatten som avdunstar i samband med växten andning minskar och att växten blir tåligare mot torka.

Koldioxidens effekt kan ses bl.a. som skogsutbredning på tidigare helt gräsbevuxna områden.

Det är intressant att se hur man politiskt aktivt demoniserar koldioxiden som tillsammans med syre är är absolut livsnödvändiga för nästan alla former av liv på jordklotet. Skulle man avlägsna all koldioxid från atmosfären så skulle livet på jorden dö ut nästan genast.

Intressanta länkar:

AGU says CO2 is plant food


http://news.nationalgeographic.com/news/2009/07/090731-green-sahara.html
http://joannenova.com.au/

Står vi inför en energirevolution?

23/05/2013

Uppdaterad 25.5.2013, nya länkar.

Uppdaterad 29.5.2013, ny länk.

Man har nu fått de första oberoende mätningarna av Rossis E-Cat apparat som bygger på LENR där Nickel transmuterar till Koppar och energi produceras.

Forskning kring LENR har pågått oavbrutet sedan slutet av 1980-talet då Fleishmann och Pons meddelade att de hade detekterat abnormal värmeutveckling vid elektrolys med palladiumelektrod.

Italiano: Schema della cella di Piantelli-Foca...

Bild: Generell uppbyggnad av Rossis LENR reaktor.

Den klassiska kärnfysiken stod helt oförstående till fenomenet och man försökte snabbt lägga locket på den nya upptäkten. Man uppfattade att det måste vara bluff eftersom man inte kan slå ihop atomkärnor med några elektronvolts energi d.v.s. ungefär samma energi som vid kemiska reaktioner … man visste ju att det behövdestusentals gånger mera energi för att tränga igenom coulomb potentialvallen. Uttrycket kallfusion myntades eftersom de låga LENR energierna gjorde att komponenterna som transmuterade kunde uppfattas som extremt kalla jämfört med t.ex. temperaturen i en konventionell Tokamac fusionreaktor som man då aktivt arbetade med.

Jag har själv, dock utan klara resultat, experimenterat med motsvarande reaktioner som Fleishmann Pons.

katodplasma

Bilden visar min försöksuppställning. Jag använder Thoriumdopade Wolframelektroder. I elektroden i mitten matas det in protoner från den omgivande vätskan. Spänningen ligger på ca. 300 V och effekten är flera hundra watt. Ett extremt klart lysande plasma bildas mellan vätskan och centralelektroden.

Vad händer om vi byter polaritet? I stället för protoner som strömmar mot centralelektroden matar vi in elektroner. Strömkällan är exakt densamma i båda fallen.

elektronplasma

Ett svagt plasma uppstår då man matar in elektroner i mittelektroden. Färgen kommer antagligen från natrium i elektrolyten.

Rossis LENR reaktor

Den 16.5.2013 publicerades en forskningsrapport där utomstående forskare har haft möjlighet att mäta Rossis E-cat reaktor. Med i forskargruppen fanns forskare från

Giuseppe Levi (Bologna University, Bologna, Italy), Evelyn Foschi (Bologna, Italy), Torbjörn Hartman, Bo Höistad, Roland Pettersson och Lars Tegnér (Uppsala University, Uppsala, Sweden), Hanno Essén (Royal Institute of Technology, Stockholm, Sweden).

Man kan ladda ner forskningsrapporten från http://arxiv.org/abs/1305.3913 .

Vad kom man fram till:

Abstract

An experimental investigation of possible anomalous heat production in a special type of reactor
tube named E-Cat HT is carried out. The reactor tu be is charged with a small amount of hydrogen loaded nickel powder plus some additives. The reaction is primarily initiated by heat from resistor coils inside the reactor tube. Measurement of the produced heat was performed with high-resolution thermal imaging cameras, recording data every second from the hot reactor tube. The measurements of electrical power input were performed with a large bandwidth three-phase power analyzer.
Data were collected in two experimental runs lasting 96 and 116 hours, respectively. An anomalous heat production was indicated in both experiments. The 116-hour experiment also included a calibration of the experimental set-up without the active charge present in the E-Cat HT. In this case, no extra heat was generated beyond the expected heat from the electric input. Computed volumetric and gravimetric energy densities were found to be far above those of any known chemical source. Even by the most conservative assumptions as to the errors in the measurements, the result is still one order of magnitude greater than conventional energy sources.

Forskargruppen konstaterar att de gjorde två experiment som sträckte sig över 96 och 119 timmar. Det senare experimentet (119 timmar) använde dessutom en inaktiv cell som inte uppvisade anomal energiproduktion som referens.

Experimenten tog betydligt längre tid än väntat eftersom den första  cellen man avsåg att mäta  överhettades och stålcylindern i vilken cellen befann sig smälte.

fig_1-2_final

Rossireaktorn kör. Observera de mörka skuggorna från värmemotstånden som används för att reglera effekten.

energiprod_final

Kurvan Plot 2 visar att uteffekten från reaktorn är ca. fem gånger större än den inmatade eleffekten. Energimultiplikationen är således bättre än för en typisk värmepump.

Intresserade läsare uppmanas läsa den ursprungliga artikeln som rätt ingående visar hur mätningarna har gått till.

Slutsatser

Om forskargruppens slutsatser stämmer så står vi på trösken till en ny tidsålder vad gäller tillgång till billig energi. Nickeltillgångarna på jorden är mycket stora och tillgången till väte i havet är outsinlig. Det är självklart att om man kan visa att en LENR reaktion fungerar så kommer man rätt snabbt att hitta också andra reaktioner som fungerar då man blir av med forskarnas blockeringar. Min gissning är att det finns en serie tänkbara material som borde fungera i LENR reaktioner. Rossi har använt Nickel i kombination med okända tilläggsämnen i små mängder. Typiskt för Ni är att det finns fem stabila isotoper och sex relativt stabila isotoper. Det första material man använde i LENR reaktioner var Palladium som har sex stabila isotoper och sju ”halvstabila” isotoper. Min gissning är att Palladium direkt kan ersätta Nickel men Palladium är ett dyrare material. Ett annat intressant material är Wolfram.

För en vanlig villaägare skulle effekten av en fungerande Rossi-cell betyda att kostnaden för uppvärmning skulle minska till ca. en femtedel. Elförbrukningen i vår villa är ca. 30 000 kWh per år. Denna elförbrukning skulle sjunka till kanske 10 000 kWh vilket skulle betyda en betydande sänkning av uppvärmningskostnaderna.

Om det visar sig att Rossis högtermperaturcell fungerar så ger det möjlighet att använda cellen till att producera elektricitet autonomt. Det skulle således vara möjligt att både producera elektricitet och värme. En förutsättning för elproduktion är tillräckligt hög drifttemperatur för att man skall få en vettig termisk verkningsgrad.

Vilken typ av avfall produceras?

En LENR reaktor av Rossityp producerar koppar ur nickel och väte. Restprodukten d.v.s. det uttjänta bränslet har fortfarande ett värde!

Intressanta länkar:

Nuclear Fusion Summary – Prospects for breakthrough commercial reactors 2018-2025

NewEnergyTimes gets three NASA powerpoint LENR presentations

Klicka för att komma åt 20110922NASA-Nelson-GRC-LENR-Workshop.pdf

http://www.gizmag.com/nasa-lenr-nuclear-reactor/26309/

http://climate.nasa.gov/news/864

http://www.extremetech.com/extreme/149090-nasas-cold-fusion-tech-could-put-a-nuclear-reactor-in-every-home-car-and-plane

NASAs metod för att snabbt hitta optimala LENR varianter. Spekulation om rymdflygplan med LENR kraftkälla.

 

Om Koppar och Zink och andra metaller i vår mat

20/05/2013

Djurägare, t.ex. hästägere, vet att djuren kan vara mycket beroende av korrekta proportioner av olika ämnen i djurens mat.

Hästar kräver ett specifikt förhållande mellan intaget av calcium och fosfor. Unga växande hästar behöver Ca/P i ett förhållande ca. 2/1 medan vuxna hästar klarar sig på 1/1. Ett sto med föl behöver också förhållandet 2/1.

Vad har ovanstående med rubriken att göra?

Jag råkade hitta en mycket intressant artikel på Chiefio http://chiefio.wordpress.com/2013/05/18/copper-zinc-ratio-and-phytate/

där EM Smith diskuterar problem då det uppstår obalans mellan Koppar och Zink hos människor. Observera att EM Smith har teknisk bakgrund och således ser på saken ur amatörsynvinkel.

Sökandet fick sin början då en vän hade olika problem bl.a. relaterade till veteallergi. En annan vän hade en mängd obestämda mystiska reaktioner på olika sorters mat. Situationen verkade kompliceras av att reaktionerna på yttre stimuli verkade variera beroende på vilken mat man hade ätit. Kosten var tidvis en relativt extrem vegetarisk kost.

Utbildade läkare följde med personerna och alla inblandade hade vettig utbildning vilket alltså borde betyda att det inte borde vara fråga om ren flum. Ett enkelt faktum var att vissa sorters mat gav upphov till problem. Allmänt illamående och kraftlöshet fanns bland de symptom som dök upp.

Då man gjorde tester visade det sig att bl.a. Soja gav problem. Att undvika soja förbättrade situationen men löste inte problemet.

Plötsligt en dag försvann problemet!

En mängd förbjudna livsmedel testades igen ett i taget. Soja fungerade fortfarande inte medan däremot mjölkprodukter, ost etc. gick igen att äta.

De tänkbara ”tekniska” förklaringarna EM Smith kom fram till var:

  • Orsaken låg i något patogen (bakterie/virus) som kroppen äntligen fick kål på. Symptomen kan alltså ha varit bieffekter av en infektion.
  • Problem med något livsviktigt spårämne. Brist/obalans kan ha gett upphov till ovanstående symptom.

Det korrekta svaret går eventuellt aldrig att finna, men problemen fick EM Smith att börja studera den tänkbara underliggande problematiken. Under senare år har det i allt högre utsträckning diskuterats hur olika spårämnen påverkar människan och också i vilka ungefärliga proportioner dessa spårämnen borde ingå i kosten. Ämnen som har diskuterats är bl.a. bor, arsenik(!) och aluminium. Finns det t.ex. något krav på att grannarna (i det periodiska systemet) till de mest grundläggande ämnena i vår kost borde ingå i ungefär bestämda förhållanden för att enzymerna skall fungera korrekt? På vägen, i läsandet, stötte Smith på diskussioner om koppar/zink förhållanden.

Det finns åsikter om att koppar och zink borde förekomma i specifika förhållanden i människans diet (jämför calcium/fosfor för hästar) för att en människa skall må bra och dessutom att vår moderna diet ger oss dessa ämnen i helt fel förhållanden … åtminstone är det här ett intressant problemområde att börja botanisera.

Problem med koppar, vilket idag mycket ofta betyder alltför mycket koppar, kan leda till en mängd intressanta problem både för män och kvinnor http://www.drlwilson.com/Articles/copper_toxicity_syndrome.htm . Artikeln är på engelska men värd att titta på i sin helhet. Orsaken till att vi får i oss för mycket koppar är sannolikt förändringar i kosten men också ökad användning av kopparrör i vattenledningar i stället för galvaniserade (förzinkade) rör. Observera dock att kroppen behöver koppar för att må bra men att vår diet idag lätt innehåller alltför mycket koppar. För mycket koppar kan vara en följd av alltför lite zink eftersom zink (tillsammans med proteiner) behövs för att bli av med kopparöverskottet.

Fytinsyra (phytic acid) upptäcktes år 1903 och är det ämne i vilket fosfor i huvudsak lagras i många växter bl.a. i spannmål. Människan och icke idisslande djur kan inte utnyttja fytinsyran i kosten. Situationen blir intressant då man noterar att fytinsyra förhindrar upptagning av järn och zink och dessutom i viss utsträckning calcium och magnesium.

Fytinsyrans kemiska utseende är

https://en.wikipedia.org/wiki/File:Phytic_acid.svg

Det finns (osäkra) indikationer på att fytinsyran eventuellt kan minska risken för tarmcancer. Att kombinera en diet som innehåller lite zink men mycket fytinsyra är sannolikt inte att rekommendera eftersom fytinsyran förhindrar upptagning av den lilla mängd nödvändig zink som finns i dieten. Fytinsyrans problem förekommer också för icke idisslande djur (grisar, höns). Eftersom spannmål, som innehåller mycket fytinsyra, är ett billigt foder har man i djurhushållningen utvecklat metoder för att hantera fytinsyran. Man kan lägga till enzymet phytas som bryter ner fytinsyra i fodret. Aktivt arbete pågår också för att utveckla nya växtsorter som innehåller mindre fytinsyra.

Ovan ser vi hur ämnet fytinsyra om det vill sig illa kan leda till alltför litet intag av zink även om maten tekniskt sett innehåller tillräckligt zink! Vad kan detta i såfall leda till?

Effekten av alltför lite zink diskuteras här (på engelska): http://www.ctds.info/zinc1.html#zinc_deficiency

Zink-obalans och då oftast allför lite zink kan ge en lång rad intressanta symptom:

Kronisk trötthet, sömnproblem, vita fläckar på naglarna, dålig aptit på morgonen, illamående på morgonen, snabba förändringar i humöret, dåligt korttidsminne, torrt skinn, rädsla, acne, psoriasis, blir lätt sjuk, depression … skitsofreni.

Jag har under senare år i allt högre utsträckning reagerat på pollen speciellt då träden blommar. Pollenallergin har jag hanteratmed antihistaminer då symptomen har blivit alltför svåra. Jag skaffade zinktabletter och tog en idag. Det verkar som om näsan skulle ha öppnat sig nästan genast (2-3 timmar) och ögonen har slutat rinna d.v.s. samma effekt som antihistamin men utan tröttheten. Den här effekten var för mig helt oväntad och jag har inte läst om den. Det blir intressant att se om fenomenet håller i sig eller om det var någon typ av placeboeffekt. Jag har tidigare sporadiskt ätit magnesium då jag har känt obestämd värk i lederna. Symptomen har försvunnit på några timmar efter en magnesiumtablett. Ovan kan man se att fytinsyra också kan påverka upptagningen av magnesium. Kan detta eventuellt betyda att någon specifik mat har fått till stånd ledsymtom? Samma typ av mat kan mycket väl påverka zink/koppar balansen med t.ex. trötthet som följd.

Notera att man inte skall överdosera zink. Jag vet inte var riskgränsen går men det verkar finnas indikationer på t.ex. risk för glaucom d.v.s. ”grön starr” och näthinneavlossning vid överdosering vilket antyder att lagom är bäst i det här fallet. Tänkte kombinera med B6 vitamin och se om det går att känna någon skillnad. Mycket intressant!

Maximalt Zinkintag?

I artikeln ovan poängteras att man inte skall överdriva intag av zink eftersom också zink i alltför stora mängder blir giftigt. Jag sökte på nätet efter data om rekommenderat intag och kom fram till följande resultat:

Rekommenderat dagligt intag av Zink:

Table 1: Recommended Dietary Allowances (RDAs) for Zinc [2]
Age                  Male      Female   Pregnancy   Lactation
0–6 months    2 mg*    2 mg*

7–12 months  3 mg      3 mg

1–3 years        3 mg       3 mg

4–8 years        5 mg       5 mg

9–13 years      8 mg       8 mg

14–18 years   11 mg     9 mg     12 mg            13 mg
19+ years        11 mg     8 mg     11 mg            12 mg
* Adequate Intake (AI)

Källor för Zink i vår mat:

Table 2: Selected Food Sources of Zinc [11]
Food                               mg per portion          % dagl. intag
Ostron 100 g                 74.0                             493
Kött 100 g                       7.0                                47
Krabba 100g                   6.5                                43
Baked beans 1/2 kopp  2.9                                19
Kyckling 100g               2.4                                16
Yogurt 250g                    1.7                                11
Cashewnötter 30g          1.6                                11
Ost 30g                             1.2                                  8
Maximat Zinkintag:

Table 3: Tolerable Upper Intake Levels (ULs) for Zinc [2]
Age                     Male        Female       Pregnant       Lactating
0–6 months       4 mg         4 mg

7–12 months     5 mg        5 mg

1–3 years           7 mg        7 mg

4–8 years           12 mg     12 mg

9–13 years         23 mg     23 mg

14–18 years       34 mg     34 mg         34 mg            34 mg
19+ years            40 mg     40 mg         40 mg            40 mg

En engångsdos på ca. 570 mg zink d.v.s. mer än tio gånger den maximala tolererbara dosen ovan har rapporterats ge svårt illamående med uppkastningar inom ca. 30 minuter från intag. Intag på 150 – 450 mg zink per dag kan leda till kopparbrist. Också zinkdoser på 60 mg/dag under flera veckors tid har rapporterats påverka enzym beroende av koppar negativt.

Sammanfattning:

Överdosera inte! Observera dock att det inte är självklart att kroppen kan utnyttja all zink som teoretiskt finns i maten (se artikeln ovan).

Nu vill man kyla Norden!

16/05/2013

De senaste 16 åren har jordens temperatur inte stigit vilket naturligtvis gör stora grupper aktivister som är beroende av klimatpengar desperata.

Jag råkade stöta på en entressant artikel i WUWT som diskuterar växthusgasen metan och eventuella framtida katastrofala utsläpp inom det arktiska området till följds av framtida stigande temperaturer.

I Wikipedia kan man läsa (översättning från engelska):

Det arktiska området är en av de naturliga källorna för växthusgasen metan. Global uppvärmning accelererar metanutsläpp både i form av utsläpp från existerande förråd i marken och genom methanogenesis i ruttnande biomassa. Stora mängder metan finns lagrade i arktis i naturliga gaslager såsom permafrost och i form av marina klatrater. Permafrost och klatrater faller sönder vid uppvärmning vilket kan leda till stora utsläpp av metan från dessa källor till följd av global uppvärmning.

Bilden visar hur metankoncentrationen i atmosfären har varit ungefär konstant de senaste åren efter en ökning i slutet av 1900-talet. Metan bryts ned rätt snabbt i atmosfären och det bildas då vatten och koldioxid.

Man har sedan slutet an 1980-talet undersökt hur en eventuell uppvärmning skulle påverka utsläppen av koldioxid i arktis .

Undersökningen visade att då tundra värmdes upp så ersattes mossor och lavar av buskvegetation och den biologiska aktiviteten gick djupare in i marken. Sönderfallet vid jordytan blev långsammare medan den ökade längre ner. Användning av växthus för att på artificiell väg höja temperaturen med två grader för att simulera en framtida uppvärmning visade inte någon förändring i kolinnehållet i marken under växthusen.

Det är ett känt faktum att man kan påverka människors beteende genom att skrämma dem … men inte hur länge som helst då katastrof på katastrof inte kommer utan går upp i rök.

Organisationen AMEG d.v.s. Arctic Methane Emergency Group konstaterar att en ”Planetär katastrof är oundviklig om man inte via geoingenjörskonst kyl arktis”. Man vill alltså avsiktligt kyla t.ex. Norden och finland. Kom ihåg att t.ex. Helsingfors befinner sig på 60-nde breddgraden d.v.s. lika långt norrut som södra Grönland.

AMEG hänvisar till en kommande hungersnöd inom det närmaste året och påstår att denna hungersnöd beror på klimatförändringen och främst uppvärmningen av arktis. Man hänvisar till Complex Systems Institute (CSI) som presenterar följande bild:

Bilden visar prisindexet för mat från 2003 fram till 2020. Observera att allt från 2013 framåt är rena gissningar. Man konstaterar, sannolikt helt korrekt, att stigande matpriser i fattiga länder kan åstadkomma plötslig oro i befolkningen såsom t.ex. arabvåren.

Då man tittar på ovanstående bild från 2004 till nutid så slås man av att de kraftigt stigande matpriserna sammanfaller med allt större satsningar på biologiska bränslen.

corn_2012

Bilden visar hur en allt större del av majsproduktionen i USA (30 – 40%) har använts till att producera motorbränsle i form av etanol. Källa http://www.afdc.energy.gov/data/tab/fuels-infrastructure .

Man kan se samma trend globalt då t.ex. EU införde krav på att en bestämd mängd biobränslen måste användas. Frågan som genast infinner sig då man tittar på den ursprungliga kurvan (CSI) som visar snabbt stigande livsmedelspris och jämför den med användningen av biobränslen är: Har vi här en fullständigt onödig och av människan skapad konfliktsituation. De oroligheter vi kan komma att se kan vara skapade av politiker för att få till stånd globala oroligheter. Det är lätt att se att det inte finns någon brist på mat. Det enda problemet är att man bränner så mycket mat att det påverkar de globala livsmedelspriserna.

Man har i Europa till följd av konstgjort höga energipriser, skapade genom subventionerad grön energi och beskattning, lyckats få till stånd en ekonomisk kris där de företag som har möjlighet röstar med fötterna och flyttar bort produktionen till vettigare områden på jorden. Situationen skulle ha varit densamma i USA om man inte plötsligt hade upptäckt att det fanns ofantliga mängder naturgas. Det är intressant att notera att det också under stora delar av Europa finns motsvarande geologiska formationer som i USA. Man kan alltså anta att också Europa kunde vara självförsörjande på naturgas om den politiska viljan att skapa Europeisk produktion skulle finnas.

Låg industriproduktion och stor arbetslöshet har lett till att bl.a. efterfrågan på bensin har sjunkit kraftigt. I New York Times http://www.nytimes.com/2013/03/17/us/17ethanol.html?pagewanted=all fanns en artikel om produktionen av etanol för användning som biobränsle.

Artikeln konstaterar att nästan 10% av etanoltillverkanrna har stoppat produktionen under det senaste året delvis till följd av det senaste årets torka som gjorde råvaran så dyr att produktionen blev olönsam.

Minskad efterfrågan på bensin har förstärkt problemen genom att minska på efterfrågan på etanol.

Vad vill man då göra för att kyla Arktis?

  • Den främsta metoden skulle vara att påverka molnigheten. Moln skapas så att solljus effektivt reflekteras från molnen och aldrig värmer markytan. Man kan också under vintertiden se till att moln inte bildas vilket leder till att mera värme strålar ut i rymden vilket leder till avkylning (det här är orsakan till att det brukar vara kallt då det är klart väder med lite vind på vintern).
  • Eftersom ovanstående inte uppfattas vara tillräckligt skulle man gå vidare genom att förhindra att det strömmar varmt vatten upp till arktis. Detta kunde åtgärdas genom att t.ex. delvis stänga Berings sund.
  • Den ultimata metoden som föreslås är att sluta rena rökgaserna från koleldade kraftverk. Man skulle som idag rena flygaskan, som är mörk, men svavlet i rökgaserna skulle släppas ut direkt … välkomna igen ni sura regn som vi trodde var något i det förflutna! Man förespråkar t.ex. att fartyg skulle få använda högsvavlig olja för att dessa svavelutsläpp verkar kylande.
  • Man vill skapa negativ och positiv feedback via kontrails d.v.s. jetstrimmor. I praktiken skulle detta betyda att man under vintern skulle förbjuda flygning över polarområdena eftersom detta skapar tunna moln på hög höjd. Jetstrimmor bildas normalt inte på låg höjd d.v.s. skapande av låga jetstrimmor på sommaren torde inte vara möjligt (se bild i tidigare artikel pp denna blogg: https://larsil2009.wordpress.com/2013/04/14/dimma-moln-och-jetstrimmor/).
  • Man föreslår att man logistiskt skall förbereda sig för storskalig sprutning av aerosol pre-cursor i den lägre stratosfären … man talar tydligen om mars april 2013. Aurosolprecursor är alltså kondensationskärnor för att moln skulle bildas på låg höjd.

Vad kan man säga annat än att det är skrämmande att se att det helt tydligt finns personer i hög ställning med sådan hybris att man tror sig vara kapabel att på ett kontrollerat sätt förändra hela norra halvklotets klimat.

De stora frågorna är dock:

  • I vilken mån görs förberedelser för storskalig geoingenjörskonst?
  • Om man lyckas sänka temperaturen med säg två grader i arktis så betyder det att vi i Finland plötsligt klimatmässigt befinner oss i en ny liten istid liknande nödåren på 1860-talet som i värsta fall kan eskalera till en fullskalig istid. Hur ersätts de nordliga folken för en våldsam försämring i klimatet?

Om uppskattning av jordens temperatur

07/05/2013

Jag hittade en intressant artikel skriven av Willis Eschenback på bloggen WUWT. Artikeln tittar på olika uppskattningar av land- och havstemperatur och vissa förvånande diskrepanser mellan olika dataset. Du hittar artikeln (engelska) här.
En kommentar till ovanstående artikel pekade på en rätt spännande detalj i klimatvetenskapen. Det är välkänt att det är mycket svårt att beräkna en ”medeltemperatur” för vår jord. Vi vet att ca. 70% av jordens yta är hav, med ett relativt litet antal mätstationer. Hur skall land och hav vägas mot varandra och vilken noggrannhet kan man anta att man kan nå då jordens temperatur uppskattas?
Hur absurd situationen är visas av att man uppskattar att jordens temperatur har stigit med ca. 0.7 grader celsius under det senaste århundradet jämfört med någon referenstemperatur. Med vilken noggrannhet kan vi uppskatta ifrågavarande globala referenstemperatur?
Det verkar naturligt, då vi tänker på ovanstående 0.7 graders uppvärmning att, då successiva förbättrade uppskattningar av jordens temperatur görs, vi också i successiva uppskattningar skulle se en stigande temperaturtrend.
Hur ser verkligheten ut?
Utgångspunkt: Under det senaste århundradet har temperaturstegringen uppskattats till ca. 0.7 grader C.

  • År 1990 uppskattade James Hansen och fem andra ledande klimatforskare jordens temperatur till 15.5 grader C. Denna siffra anges också i prof. Christian Schönwiese bok “Klima im Wandel“, sidorna 73, 74 . Uppgiften är baserad på satellitdata.

Kommentar (korrektion) : Uppskattningen i denna källa är 14.0 grader C globalt. Värdet i ovanstående bullet gäller norra halvklotet där temperaturen är 14.6 grader C.  Södra halvklotets temperatur uppskattas till 13.4 grader C.

  • År 2004 uppskattade temperaturen till 14.5 grader C av professorerna Hans Schellnhuber och Stefan Rahmstorf i deras bok: “Der Klimawandel”. Baserad på data från meteorologiska mätstationer (Hadley Center).
  • År 2007 uppskattade IPCC den globala temperaturen till 14.5 grader C. IPCC WG1 AR4 (sida 6 i bmbf.de/pub/IPCC2007.pdf)
  • År 2010 uppskattades jordens temperatur till 14.5 grader C av professorerna Schellnhuber och Rahmstorf i deras bok: ”Der Klimawandel”, 7de upplagan, 2012, sida 37 baserad på markdata. Se Jodes data.
  • År 2012 uppskattades jordens medeltemperatur till 14.0 grader C.Press Release No. 943 World Meteorological Society Globally-averaged temperatures in 2011 were estimated to be 0.40° Centigrade above the 1961-1990 annual average of 14°C. WMO
  • År 2013 anger Wikipedia jordens medeltemperatur till 14.0 grader C. Absolute temperatures for the Earth’s average surface temperature have been derived, with a best estimate of roughly 14 °C (57.2 °F).[11] However, the correct temperature could easily be anywhere between 13.3 and 14.4°C (56 and 58 °F) and uncertainty increases at smaller (non-global). Se Wikipedia.

De intressanta frågorna i anslutning till ovanstående uppskattningar är naturligtvis:

  • Hur trovärdiga är de ”mätningar” man gjort av jordens medeltemperatur? Om uppskattningen ändrar med 1.5 grader C på 25 år, hur trovärdigt är då påståendena att man kan bestämma jordens temperatur med en noggrannhet på 1/100 grad?
  • Hur trovärdiga är de olika officiella uppskattningarna är temperaturutvecklingen på jorden då  den angivna temperaturförändringen 0.7 grader C under de senaste hundra åren är ungefär hälften av förändringen i den uppskattade medeltemperaturen på jorden. Saken blir inte mindre intressant av att man säger att jordens temperatur har stigit katastrofalt med 0.7 grader C samtidigt som uppskattningen av jordens medeltemperatur under de senaste 25 åren har sjunkit med 1.5 grader C.

Ref:
Du hittar motsvarande frågor på bloggen notrickszone.com (artikeln på engelska).

Månlandning med Apollo 11

02/05/2013

Jag minns hur vi andäktigt via radio följde med månlandningen. Vi hade inte tillgång till TV på den tiden. Landningen på månen är antagligen den händelse som framom alla andra för ett kort ögonblick lyckades ena hela mänskligheten.

Apolloprogrammet startade år 1960 som steg två, efter Mercuryprogrammet, i det amerikanska rymdprogrammet. Världen var mitt inne i det kalla kriget och USA hade plötsligt insett att Sovjetunionen låg före dem i rymdtekniken vilket automatiskt betydde att ryssarna också sannolikt klarade av att bygga bättre långdistansmissiler.

John F Kennedy valdes till USAs president i november 1960. Den amerikanska administrationen var mycket medveten om att det antagligen existerade ett teknologiskt gap mellan USA och Sovjetunionen gällande rymdteknik. Man lyckades få fram pengar för att utveckla en ny raketgeneration (Saturn 5) men Apolloprogrammets finansiering var ännu oklar.

Den 12 april 1961 kablades nyheten om Yuri Gagarins flygning runt jorden ut över hela jorden och rädslan i USA över att bli på efterkälken gällande teknologiskt kunnande växte och vid ett möte i kongressen dagen efter Gagarins flygning höjdes många röster för att man skulle starta ett kraschprogram för att hinna i kapp ryssarna.


Vostok 1 med Yuri Gagarin ombord startar.


Yuri Gagarin på besök i Sverige. Yuri Gagarin dog i en flygkrasch den 27 mars 1968 34 år gammal.

Den 20 april skickade Kennedy ett meddelande till vicepresident Lyndon Johnsson där han bad Johnsson studera vilka rymdprogram som kunde ge USA en möjlighet att komma förbi ryssarna. Johnsson svarade att en månlandning antagligen låg tillräckligt långt in i framtiden för att USA skulle hinna först.

Video av Alan Shepards rymdhopp. Flygningen var suborbital vilket betyder att farkosten aldrig gick in i kretsbana runt jorden.

Alan Shepard lyfts upp ur vattnet efter flygningen av en helikopter från fartyget USS Lake Champlain.

Dokumentärprogram om det amerikanska Mercuryprogrammet.


John Glenn var den första amerikanen som flög i kretsbana runt jorden.

Den 25 maj 1961, tjugo dagar efter USAs första bemannade rymdflygning föreslog Kennedy inför kongressen Apolloprogrammet:

”Jag tror att den här nationen borde gå in för att, innan detta årtiondes slut, nå målet att landsätta en människa på Månen och att säkert låta honom återvända till Jorden. Inget annat rymdprojekt under denna tid kommer att imponera mänskligheten mera än detta, eller vara viktigare viktigare för en framtida rymdforskning; ingenting kommer att vara så svårt eller så dyrt att uppnå.”

Efter Mercuryprogrammet användes Geminiprojektet för att samla praktisk erfarenhet av flygning i kretsbana.

Apolloprogrammet drabbades av en svår olycka år 1967 då man vid testning på marken råkade ut för en brand i Apollo 1. Engelskspråkigt material om olyckan finns här.


De tre astronauterna Edward White, Gus Grissom och Roger Chaffee dog i branden.

Det är värt att notera att Apollokapseln hade en atmosfär av rent syre med ett tryck ca. 0,3 atm. Problemet med en ren syrgasatmosfär är att många material vi i normala fall uppfattar som obrännbara brinner friskt i rent syre. Exempelvis aluminium och järn brinner i ren syrgasatmosfär och många plaster brinner extremt bra. Man använder idag olika plaster som bränsle i hybridraketmotorer oxidatorn är då rent syre.

Branden ledde till rätt omfattande ombyggnad av Apollokapseln för att undvika framtida olyckor. Branden var kanske inte helt oväntad eftersom astronauterna i ett meddelande till ledningen hade skickat nedanstående parodiska bild till chefen Joseph Shea den 19 augusti 1966. Vid ett möte där kapselns teknik diskuterades uttryckte besättningen sin oro över mängden brännbart material som användes i kapseln. Shea godkände kapseln efter mötet varvid besättningen skickade kommentaren ”Det är inte så att vi inte litar på dig men den här gången har vi beslutat att gå över ditt huvud.”


Innanmätet i Apollo 1 efter branden.

Apollo 7 flög den 11 oktober 1968 i bana kring jorden för att testa bemannad flygning i rymden. Besättningen var Schirra, Eisele and Cunningham. Längden på flygningen var elva dagar vilket motsvarar en månflygning.

Apollo 8 var tänkt att bli en flygning motsvarande Apollo 7 men med månlandare. Då det visade sig att månlandaren blev försenad beslöt man att i stället för en lång flygning runt jorden liknande Apollo 7 göra en flygning runt månen. Besättningen var veteranerna Frank Borman, James Lovell och den nya astronauten William Anders. Apollo 8 gjorde tjugo varv runt månen och återvände utan problem.

Apollo 9 testade dockning och flygning med månlandaren i jordbana. Måndräkten konstruerad för aktiviteter utanför månlandaren testades samtidigt vid en rymdpromenad.

Apollo 10 flög i maj 1969. Besättningen var Thomas Stafford, John Young och Eugene Cernan. Månlandaren flög på femton kilometers avstånd från månytan.

Den 20 juli 1969 landade Apollo 11 i Tystnadens hav på månen efter diverse potentiellt livsfarliga problem under landningsmanövern. Besättningen var Neil Armstrong, Michael Collins och Buzz Aldrin. Bl.a. överbelastades landningsdatorn, som till sin kapacitet antagligen närmast kan jämföras med mikroprocessorn i en modern tvättmaskin. Armstrong och Aldrin på Apollo 11:s månlandare blev tvungna att temporärt stänga av den krånglande datorn under nedfärden.

Det finns nu en vebbplats som visar landningen i realtid” sedd ur landarens, flygledningens och teknikens synvinkel. Besök på denna vebbplats rekommenderas!

Referenser:
Wikipedias artikel om månprogrammet.
Youtube video av Apollo 11 starten från Cape Caneveral.
Youtube video av Apollo 11 landning på månen

Jag tackar NASA och Wikipedia för bildmaterialet.


Pointman's

A lagrange point in life

THE HOCKEY SCHTICK

Lars Silén: Reflex och Spegling

NoTricksZone

Lars Silén: Reflex och Spegling

Big Picture News, Informed Analysis

Canadian journalist Donna Laframboise. Former National Post & Toronto Star columnist, past vice president of the Canadian Civil Liberties Association.

JoNova

Lars Silén: Reflex och Spegling

Climate Audit

by Steve McIntyre

Musings from the Chiefio

Techno bits and mind pleasers

Bishop Hill

Lars Silén: Reflex och Spegling

Watts Up With That?

The world's most viewed site on global warming and climate change

TED Blog

The TED Blog shares news about TED Talks and TED Conferences.

Larsil2009's Blog

Lars Silén: Reflex och Spegling