Archive for juni, 2013

Klimatmodeller, ensamble, medelvärde?

17/06/2013

Den här artikeln är baserad på en engeskspråkig artikel i Bishop Hill som i sin tur är baserad på en kommentar i WUWT. Frågan gäller om medeltal och standardavvikelse har någon mening då man betraktar resultatet från en serie körningar av klimatmodeller. Svaret på frågan, mera om detta nedan, är nej.

Att säga att vi måste vänta en bestämd tid innan vi kan säga något om huruvida modellerna är riktiga eller inte är farligt. Det finns två orsaker till detta, för det första, och det här är något som helt ignoreras, finns det en mängd olika modeller som alla är baserade på grundläggande fysik och ändå ger de alla helt olika resultat. 

Fig. 1  Spagettigraf av klimatmodeller.

Man ser detta tydligt i de kurvor Monckton publicerade (fig. 1) där AR5 trendlinjen är medeltalet av alla dessa modeller och trots att det finns många modeller är variansen mycket stor. Då man tittar på kurvorna ser de ut som en upplöst repända inte som en naturlig spridning runt ett fysikaliskt resultat. 

Lägg märke till graden blåsning i bilden. Genom att beräkna medeltal och standard deviation over de olika modellernas projektioner och sedan använda medeltalet som den mest sannolika projektionen och variansen som felgränser  så behandlar man de olika modellerna som om de vore okorrelerade slumpmässiga storheter som ger upphov till ett sant medelvärde!

Det här är ett så fullständigt hårresande missbruk av statistik att det är svårt att bestämma sig för var man skall börja greppa frågan. Man skulle helst ge den som satte ihop den ursprungliga bilden ett antal örfilar och sedan se till att de aldrig kunde publicera vetenskapligt eller statistiskt material i framtiden. Man kan inte skapa en ensamble av oberoende och identiskt distribuerade modeller som har olika kod. Man kunde eventuellt använda en enda modell med olika startvärden (brus) och studera hur olika körningar av samma modell då uppför sig.
Vad jag försöker säga är att variansen och medeltalet för ensamblen av modeller är statistiskt helt meningslös eftersom de ingångsvärden vi har saknar de grundläggande statistiska egenskaper som behövs för en meningsfull tolkning.

Varför köpa detta nonsens genom att göra en linjär anpassning till till en funktion, den globala temperaturen, som aldrig har varit linjär även om den naturligtvis har varit approximativt jämn så att man via serieutveckling får fram en linjär term … som kan garanteras att inte ge meningsfulla extrapolerade värden för framtiden eftersom högre ordningens icke linjära termer börjar inverka och med tiden kommer att dominera. Varför ens med läpparna bekänna att R² eller p har någon mening? Den har det inte.

Låt mig upprepa. Den har ingen mening! Den kan inte statistiskt försvaras varken praktiskt eller teoretiskt. Man kunde lika väl använda ett spiritistiskt talande bord http://en.wikipedia.org/wiki/Ouija som grund för förutsägelser gällande framtida klimat. Ensamblen modeller skiljer sig inte genom verkliga slumpmässiga variationer utan de är beroende av alla möjliga obeaktade variabler, valda variabler, implementeringen och initialiserings bias. Bordet kan tänkas ge rätt svar, eller kanske inte, men god tur ger eventuellt gissningen någon typ av rationell bas.

Låt oss vända på steken och tillämpa statistisk analys på distributionen av modellresultat gällande påståendet att de alla korrekt implementerar välkänd fysik. Om jag t.ex. försöker göra en a priori beräkning av kvantstrukturen av t.ex. en kolatom så kan jag börja med att lösa en en-elektron modell där man låter elektronens växelverkan med sig själv generera ett sfäriskt symmetriskt elektronmoln kring kärnan. Sedan kan man utgående från fältteori iterera fram en bättre lösning (Hartree approximation).

Någon kan då säga ”Vänta, det här bryter mot Paulis uteslutningsprincip” och kravet på att elektronens vågfunktion skall vara helt antisymmetrisk. Man kan då göra en-elektronmodellen lite mera komplicerad och skapa en slater determinant för en helt antisymmetrisk representation av elektronens vågfunktion. Man kan sedan generera tätheten och utföra den självkonsistenta fältberäkningen för att få det hela att konvergera (det här kallas Hartree-Fock metoden).

En tredje person kunde då lägga märke till att resultatet fortfarande underskattar systemets såkallade ”korrelationsenergi” eftersom man då man behandlar elektronmolnet som en kontinuerlig distribution ignorerar att elektroner kraftigt repellerar varandra och därför inte vill vara nära varandra. Båda de första modellerna underskattar elektronmolnets storlek vilket gör atomen alltför liten och alltför hårt bunden. En variant där man använder en halv-empirisk täthetsfunktion ger igen ett bättre resultat.

En fjärde grupp konstaterar att universum i verkligheten är relativistiskt och genom att ignorera relativitetsteorin så inför vi fel i alla de ovanstående beräkningsmodellerna.

På slutändan kan vi ha en lång serie modeller som alla är baserade på fysik. I praktiken är också skillnaderna mellan modellerna baserade på fysik d.v.s. den fysik vi har lämnat bort i olika modeller. Vi ser också hur vi försökte använda en halvempirisk metod för att hantera frågor vi inte kan beräkna utfående från grundläggande fysik, resultatet är ofta dåligt eftersom empiriska korrektioner ofta endast fungerar i specifika situationer. Observera dock att vi inte har alternativet att göra beräkningen utgående från grundläggande fysik … vi klarar helt enkelt inte av att lösa det flerkroppsproblem vi stött på. Lika lite klarar vi av att lösa flerkroppsproblem klassiskt eller mängden öppna, ickelinjära, kopplade, dämpade, drivna kaotiska Navier-Stokes ekvationer i en icke inertial referensram … som representerar ett klimatsystem.

Lägg märke till att vårt försök att lösa elektronens vågfunktion för en kolatom är ett trivialt problem (som vi inte klarar att lösa) jämfört med klimatproblemet. Vi kan inte exakt beräkna någondera men vi är mycket närmare en lösning gällande atomen än gällande klimatet.

Borde vi beräkna ett medeltal för ensamblen modeller av den kvantelektroniska strukturen av atomärt kol och använda detta medelvärde som den bästa beskrivningen av kolets kvantstruktur? Vi gör detta endast om vi är idioter eller sinnesjuka eller om vi försöker sälja något. Om du läste ovanstående med eftertanke så märker du att jag fuskade … jag använde en halvempirisk metod d.v.s. metoden bygger inte på grundläggande fysik.

Vilken modell kommer att ge den bästa beskrivningen? Den halvempiriska metoden naturligtvis! Varför? Eftersom det finns ett antar parametrar som kan justeras så att man får bästa möjliga passning till ett mätt spektrum på en kolatom. Alla de övriga kommer att underskatta korrelationshålet och felen kommer att systematiskt skilja sig från verkligheten. Deras medeltal kommer att vara systematiskt felaktigt och genom att ge Hartree modellen (den dummaste, enklaste) samma vikt som den halvempiriska modellen så garanterar man att felet i medeltalet måste vara signifikant.

Anta att vi inte vet vilken av modellerna som ger det bästa resultatet. Antag att ingen i verkligheten har mätt kolets spektrum så att dess empiriska kvantstruktur är okänd. Om man lägger till detaljer som lämnades bort i Hartree så kan vi inte vara säkra på om vi får en förbättring eller en försämring av beskrivningen.

Vad man skulle göra i det verkliga livet är att mäta kolets spektrum och jämföra detta med förutsägelserna från de olika modellerna. Efter jämförelsen mot verkligheten kan vi välja den/de modeller som beskriver verkligheten bäst. Man går sedan vidare och försöker förbättra de bästa modellerna.

Kan vi tillämpa samma tänkesätt på klimatmodellernas spagettikod? Klart att vi kan! Först måste vi sluta låtsas att ensamblens medeltal och varians har någon mening överhuvudtaget genom att helt enkelt låta bli att beräkna dem. Varför beräkna ett meningslöst tal? För det andra kan vi utnyttja verkliga klimatmätningar från någon vald startpunkt. Vilken den valda startpunkten är spelar i det långa loppet ingen roll och vi kommer att vara tvungna att jämföra modellerna under lång tid för att inte slumpmässigt brus skall föra oss vilse och dölja systematiska fel i modellerna. Då vi har jämfört modellerna med verkligheten under tillräckligt lång tid väljer vi t.ex de fem modeller som bäst motsvarar verkligheten och lägger de övriga i malpåse och dessa övriga modeller används inte överhuvudtaget vid framtida analys eftersom vi vet att de innehåller systemetiska fel.

En verklig vetenskapsman kan sedan tänka på att sätta sig ner och studera dessa fem vinnande modeller och meditera över varför dessa modeller var bäst och dessutom försöka komma underfund med hur man kunde göra dem ännu bättre. Man kunde tänka sig att lägga till fysik som man tidigare förenklat bort, man kan tänka sig att lägga till empiriska korrektioner eller justera ingångsparametrar.

Nu kommer det verkliga problemet. Att vänta! Klimatet är inte så enkelt som en kolatom. Kolatomens spektrum är oföränderligt, klimatet är olinjärt, icke-Markoviskt, kaotiskt och allmänt påverkat av en mängd globala dåligt förstådda sinsemellan tävlande faktorer. Sot aerosoler, växthusgaser, moln, is, årtionden långa temperatursvängningar. Felaktigheter som beror på kaotiska processer som ger upphov till globala bestående förändringar i luftströmmarna men som beror på lokala osaker som t.ex. blockerande högtryck i Atlanten men som har stor inverkan på års- eller månadstemperaturen. Ytterligare har vi banförändringar, förändringar i Solen, förändringar i atmosfären, vulkaner, förändringar i användningen av landområden, algblomningar…

Någonstans har vi dessutom den där förbaskade fjärilen som inte förstår att sitta still … nån borde göra mos av den eftersom beräkning av ett ensamble medeltal från ett kaotiskt system är så dumt at man inte kan beskriva det. Allt fungerar bra så länge man beräknar medeltal över ett så kort intervall att man är bunden av en specifik attraktor … allting oskillerar snyggt och prydligt och sedan plötsligt har vi en annan attraktor och allting förändras. Alla parametrar vi använde för att finjustera modellen för den gamla attraktorn måste ges helt nya värden för att modellen över huvudtaget skall kunna fungera.

Ovanstående är orsaken till att det är huvudlöst att tro att någon sorts p-värde eller R² som beräknas utgående från AR5 har någon mening.

Jag rekommenderar att skeptiker försöker att inte acceptera ensamblen och i stället försöker rikta diskussioner mot frågor gällande varför modellerna stämmer så dåligt överens sinsemellan även då man kör dem utgående från leksaksproblem som är mycket enklare än det jordklot vi lever på. Varför använder vi inte empiriska bevis för att eliminera dåliga modeller så att vi kan koncentrera oss på de modeller som bäst motsvarar verkligheten, samtidigt måste vi se till att de dåliga modellerna inte används för några lösa påståenden om framtida klimat.

Det skulle ta mig, i min relativa ovetskap, omkring fem minuter att eliminera alla utom de bästa 10% av klimatmodellerna (som fortfarande divergerar men befinner sig inom fluktuationsområdet på datasidan). Sortera de återstående modellerna i en bästa (som kan förbättras) och en sämre halva som man kunde stoppa finansieringen av eftersom det är slöseri med tid och pengar. Naturligtvis försvinner de dåliga modellerna inte i verkligheten … de hamnar i malpåse och kan tas fram senare om det framtida klimatet förändras så att de ratade modellerna ger den bästa beskrivningen.

Om man eliminerar de dåliga modellerna så rasar modellernas förutsagda klimatkänslighet från det statistiskt sett helt bedrägliga 2.5 grader C/århundrade till ett mycket mera trovärdigt värde på ungefär 1 grad C/århundrade vilket ungefär motsvarar den långsamma klimatåterhämtningen efter den lilla istiden. En så här stor förändring skulle å andra sidan locka fram högafflar, tjärtunnor och fjädrar då människor inser hur de grovt  har utnyttjats av en liten grupp vetenskapsmän och politiker. Då människor förstår hur de är offer för ett helt oförsvarbart missbruk av statistik där man beräknar ett medeltal mellan extremt dåligt och dåligt som om de skulle ha samma sannolikhet att vara korrekta med slumpmässigt distribuerade differenser.

Kyla blir till värme

14/06/2013

Är det här den nivå på förståelse av jordens klimat vi väntar oss av FN? Videon är på engelska och den visar en intervju med delegaten från Cook Islands vid klimatkonferensen i Bonn. Vi kommer rätt nära Orwells dubbeltänkande där Svart blir Vitt och Sanning blir till lögn.

Delegaten har ett glatt leende men kunskap har hon beklagligtvis inte …

Det lönar sig för övrigt att läsa Orwell igen och jämföra med avlyssningsskandalen i USA. Orwells framtidsvision är obehagligare än den värld vi ser idag, men samtidigt finns det mycket få detaljer i Orwells beskrivning som man inte redan nu har tekniskt på plats eller som skulle vara enkla att implementera.

Det krävs antagligen inga kommentarer…

Spencers illustration av IPCCs klimatmodeller

09/06/2013

Dagens klimatdomedagspropaganda bygger helt på klimatmodeller. En klimatmodell är i princip en vädermodell som körs över lång tid. Eftersom en global klimatmodell kräver en betydande räknekapacitet används ett relativt grovt rutnät (grid) som bestämmer modellens maximala upplösning. Lokala meteorologiska vädermodellers upplösning är normalt betydligt högre eftersom modellen inte gör globala beräkningar.  Eftersom beräkningsnätverket är grovt förlorar man rätt mycket detaljer från lokala fenomen, de förlorade detaljerna ersätts med tumregler för t.ex. hur moln bildas, man beräknar alltså inte molnbildningen utgående från fysikaliska grundsanningar.

Varje intresserad och vaken individ vet att dagens väderprognoser fungerar rätt bra för den närmaste dagen, ju längre fram i tiden väderprognosen sträcker sig desto inexaktare blir den. Dågonstans vid 10 – 14 dagar blir prognosen så inexakt att den blir till en ren gissning.

En vädermodell bryter samman efter ca. två veckor… Hur är det då möjligt att en i princip modifierad vädermodell kan användas till att beräkna ett framtida klimat efter t.ex. 100 år? Borde inte klimatmodellens beräkningar vara totalt opålitliga efter hundra år om vädermodellen blir opålitlig på två veckor? Svaret är att man antar att även om det väder klimatmodellen beräknar har allt mindre att göra med det verkliga vädret så kommer förekomsten av sol, regn, stormar, snöfall att statistiskt motsvara det globala vädret. Tanken är alltså att om det på ett kontrollområde förekommer rätt väder statistiskt sett så kan man använda modellen till att statistiskt uppskatta temperaturtrender även om t.ex. temperaturen modellen beräknar fram för ett specifikt år t.ex. 2015 inte behöver ha något med den verkliga medeltemperaturen år 2015. Då man tittar på trender över årtionden antar man att felen jämnas ut och de trender man ser motsvarar mätta temperaturtrender.

Motsvarar klimatmodellerna ovanstående beskrivning? Hur kan man kontrollera en klimatmodell?

Klimatmodeller kan kalibreras mot kända historiska klimatdata. Man kan alltså t.ex. ta den historiska situationen 1950 som utgångspunkt för en klimatmodell och man låter modellen räkna framåt år för år medan man justerar olika parametrar i modellen så att det beräknade resultatet motsvarar den historiska verkligheten så bra som möjligt. Om vi slutar justera modellen t.ex. år 2000 så kan vi kontrollera hur väl modellen träffar rätt i förhållande till åren 2000 – 2013 då den inte längre justeras.

De justerade parametrarna är t.ex. klimatkänsligheten i förhållande till koncentrationen CO2 i atmosfären. Klimatkänsligheten är främst beroende av en antagen förstärkning i form av vattenånga (också en växthusgas) i atmosfären. IPCC antar att en av koldioxid förorsakad uppvärmning ger upphov till högre luftfuktighet som i sin tur leder till större uppvärmning. IPCC antar att förstärkningen är ca. tre gånger.

Dr. Roy Spencer, en känd klimatolog, har studerat hur väl klimatmodellerna motsvarar verkligheten på sin vebbsida
”epic fail” . Modellerna har också behandlats på WUWT .

Klimatmodellernas beräkningar har fixerats till samma startpunkt d.v.s. 1979 som råkar vara det år då man för första gången kontinuerligt började mäta jordens temperatur från satellit. Klimatmodellernas beräkningar jämförs med verkligheten på två sätt. Den första bilden visar ett spagettidiagram äver en stor mängd klimatmodellers beräknade klimatframtid jämförd med mätningar av jordens temperatur. Det visar sig att klimatmodellerna har mycket lite med verkligheten att göra. I stort sett alla modeller överskattar grovt jordens uppvärmning och inga modeller har träffat rätt gällande de senaste sexton årens temperaturplatå.

Man ser hur klimatmodellerna idag överskattar temperaturen med 0,5 … 0,6 grader vilket ligger nära den totala uppskattade uppvärmningen (0,7 grader) sedan slutet av 1800-talet. Observera att man också inom klimatetablissemanget har uppskattat att en eventuell mänsklig inverkan på temperaturen inte har gått att mäta före ca. 1950.

Samma bild som ovan kan också ges som linjära trender för de enskilda modellerna. Den linjära bilden är lättare att avläsa än spagettibilden ovan men har eventuellt lite mindre med verkligheten att göra. Vi ser igen att klimatmodellerna inte motsvarar verkligheten.

Samma bild men baserad på endast amerikanska modeller ges nedan. Bilden visar att spridningen blir mindre vilket kan tyda på att modellerna inte byggs oberoende av varandra utan de bygger delvis på samma kod och gemensamma uppskattningar av justerbara parametrar.

Inom genetiken skulle man kalla situationen incest …

Om klimatveternskapen skulle göra skäl för namnet vetenskap borde man nu sätta in alla krafter på att förklrar varför modellerna blev fel.

Om temperaturvariationer och klimat

03/06/2013

Min artikel ”Mera koldioxid i atmosfären gör jorden grönare” ledde till en viss diskussion på facebook. Ett intressant argument för att dagens temperaturförändring är farlig var att förändringen just nu är extremt snabb jämfört med tidigare (Läs: icke av människan förorsakade …) klimatförändringar. Artikeln nedan tar en titt på det här argumentet.

Det finns olika uppskattningar av hur temperaturen har förändrats under de senaste 100 … 120 åren. En god gissning, baserad på olika vetenskapliga uppskattningar, är att temperaturen har stigit ca, 0,7 grader C sedan 1890. Temperaturförändringen är då ungefär 0,057 grader C/decennium. Är den här temperaturstegringen unik och hur förhåller sig den till tidigare kända klimatvariationer. Observera att temperaturförändringen 0,7 grader ligger på gränsen till vad man pålitligt kan avläsa en kvicksilver/sprittermometer visuellt. Visuell avläsning torde ge en noggrannhet på ca. en halv grad.

Dr. Don J. Easterbrook råkade ha en analys av precis den här frågan på WUWT för någon dag sedan http://wattsupwiththat.com/2013/06/02/multiple-intense-abrupt-late-pleisitocene-warming-and-cooling-implications-for-understanding-the-cause-of-global-climate-change/#more-87448 .

Det finns flera olika indirekta metoder för att uppskatta temperaturen under tidsperioder då det inte existerade av människan konstruerade termometrar. Man har bl.a. använt förhållandet mellan isotoperna O18 och 016 som proxy för temperaturen. För närvarande är de bästa data som finns från projekten ”Greenland Ice Sheet Project” (GISP) och ”Greenland Ice Core Project” (GRIP).

Fig. 1 Förhållandet mellan syreisotoperna O18 och O16 mätt i isborrkärnor på Grönland.

Fig. 2 Uppskattad temperatur under samma tid (Cuffy and Clow, 1997 och Alley, 2000).

Fig. 3 Syreisotopmätning från borrkärna på Grönland. Man ser en extremt snabb temperatursänkning ungefär för 12800 år sedan följd av en kallperiod säm räckte 1300 år. För 11500 år sedan steg temperaturen snabbt igen. Varmare är uppåt på Y-axeln. (Baserad på data av Cuffy and Clow, 1997 and Alley, 2000).

Man ser genast att bilderna korrelerar ytterst väl. Mätningar från olika områden på jorden visar att temperaturförändringarna var globala.

Förändringens hastighet nu och tidigare

Under de senaste 25000 åren har temperaturen förändrats rätt abrupt många gånger. Bilden nedan visar kalla och varma perioder om ca. hundra år, länden kan variera i någon mån.

Fig. 4 Kalla och varma perioder under de senaste 25000 åren. Den första temperaturförändringen skedde för ca. 24000 år sedan och stapeln nr. 15 är ungefär från tiden 11000 år sedan. Observera att Y-axeln är graderad i Farenheit. Förändringarna bör alltså multipliceras med 5/9 för att man skall få förändringen i grader C.

Då man studerar förändringarna i fig. 4 ser man att tre perioder av temperaturförändring var 20 – 24 gånger större än det vi har sett under det senaste århundradet. Fyra händelser var 6 – 9 gånger större än det vi har upplevt. Dessa data är viktiga och intressanta eftersom de inte kan ha varit förorsakade av människan, vi ser alltså naturliga fluktuationer som är mångdubbelt större än det senaste århundrades uppvärmning.

De abrupta förändringar man kan se kan inte ha förorsakats av långsamma stegvisa förändringar (Croll-Milankovitch).

Det är ytterligare intressant att notera att trots att koldioxidhalten i atmosfären har stigit kontinuerligt så har den globala temperaturen inte stigit under de senaste 16 åren. Det verkar alltså sannolikt att koldioxidens inverkan på jordens temperatur är betydligt lägre än vad t.ex. IPCC har antagit … vilket också stöds av att många forskargrupper som jobbar med klimatmodeller nu skriver ner den antagna av koldioxidklimatkänsligheten med 30 – 50%. Klimatkänsligheten ligger nu nära den nivå skeptikerna utgående från grundläggande fysik men utan inverkan av förstärkande vattenånga kom fram till. Det verkar alltså sannolikt att ökande vattenånga leder till effektivare borttransport av värme och skuggande moln vilket gör att IPCC sannolikt rätt grovt överskattar den uppvärmning vi har att vänta till följd av ökande koldioxidhalt i atmosfären. Eftersom uppvärmningen är logaritmiskt beroende av koldioxidhalten har vi sannolikt redan sett huvuddelen av den förväntade uppvärmningen.

Mera koldioxid i atmosfären gör jorden grönare

02/06/2013

Uppdaterad 2.6.2013, lade till länkar på slutet.

Det är ingen hemlighet att koldioxid får de flesta växter att växa snabbare. Man har bl.a. uppskattat att 30 – 50% av lantbrukets gröna revolution är en följd av koldioxidgödning. Det är inte utan orsak man i växthusnäringen höjer koldioxidhalten i växthus eftersom växterna växer bättre.

Mätningar indikerar att då atmosfärens koldioxidhalt går under 200 ppm (vi ligger idag nära 400) så stannar många växters tillväxt upp eftersom växterna då svälter.

Den 31.5.2013 publicerade AGU d.v.s. American Geophysical Union en rapport http://www.agu.org/news/press/pr_archives/2013/2013-24.shtml där man har undersökt torra områden på jorden. Man har kunnat visa, genom satellitmätningar och modelller, att mängden gröna blad har ökat med ca. 10% till följd av den ökande koldioxidhalten. Effekten är starkast på torra områden eftersom högre koldioxidhalt betyder att färre klyvöppningar behöver vara aktiva för att växten skall få den koldioxid som behövs, detta betyder samtidigt att mängden vatten som avdunstar i samband med växten andning minskar och att växten blir tåligare mot torka.

Koldioxidens effekt kan ses bl.a. som skogsutbredning på tidigare helt gräsbevuxna områden.

Det är intressant att se hur man politiskt aktivt demoniserar koldioxiden som tillsammans med syre är är absolut livsnödvändiga för nästan alla former av liv på jordklotet. Skulle man avlägsna all koldioxid från atmosfären så skulle livet på jorden dö ut nästan genast.

Intressanta länkar:

AGU says CO2 is plant food


http://news.nationalgeographic.com/news/2009/07/090731-green-sahara.html
http://joannenova.com.au/


Pointman's

A lagrange point in life

THE HOCKEY SCHTICK

Lars Silén: Reflex och Spegling

NoTricksZone

Lars Silén: Reflex och Spegling

Big Picture News, Informed Analysis

Canadian journalist Donna Laframboise. Former National Post & Toronto Star columnist, past vice president of the Canadian Civil Liberties Association.

JoNova

Lars Silén: Reflex och Spegling

Climate Audit

by Steve McIntyre

Musings from the Chiefio

Techno bits and mind pleasers

Bishop Hill

Lars Silén: Reflex och Spegling

Watts Up With That?

The world's most viewed site on global warming and climate change

TED Blog

The TED Blog shares news about TED Talks and TED Conferences.

Larsil2009's Blog

Lars Silén: Reflex och Spegling