MUNCH

“A câmara fotográfica não pode competir com o pincel e a paleta — não pode ser usada no céu ou no inferno.”

Edvard Munch

Depois de mais de dez anos de reformulação, abriu finalmente ao público o Munch, um dos maiores museus do mundo dedicados a um único pintor.

Bem no centro de Oslo, a dez minutos a pé da Estação Central, encontramos, muito perto da Casa da Ópera de Oslo, talvez o mais moderno, arrojado, icónico e, também, controverso1 edifício da capital norueguesa — o Museu MUNCH. Uma manhã inteira (ou uma tarde) não é de mais para uma visita a este magnífico museu de doze andares (incluindo um restaurante no terraço), onde além da exposição permanente das obras de Edvard Munch, é possível apreciar trabalhos de outros pintores, como Van Gogh, Salvador Dali, Auguste Rodin ou Pablo Picasso. Pelo menos foi o que aconteceu quando ali estivemos, em abril de 2022. Este espaço museológico é enorme, por isso não surpreende que, apesar de ser dedicado a um único artista, os seus responsáveis possam organizar, em paralelo, exposições com obras vindas do exterior.

Edvard Munch foi extremamente produtivo. Ele manteve a sua atividade artística durante mais de seis décadas — desde os anos oitenta do século dezanove até ao ano da sua morte, em 1944 — e é considerado um dos autores mais importantes do modernismo. No início do seu percurso artístico, destacou-se como membro integrante do simbolismo2 e tornar-se-ia um pioneiro da arte expressionista a partir do início do século XX. A incansável persistência na experimentação de diferentes motivos e técnicas garantiu-lhe um lugar de destaque na História da Arte norueguesa, e também mundial.

Cavalo Galopante (1910-1912), óleo sobre tela, de Edvard Munch.

Essa característica experimental da obra de Munch não permite que encaixemos o seu trabalho num único movimento ou estilo. Mais conhecido como simbolista e, sobretudo, expressionista, ele fez também incursões pelo universo surrealista3. Em 1930, sofreu um acidente que lhe provocou uma lesão ocular, ficando temporariamente cego de uma vista. Durante esse período, Munch produziu vários trabalhos simbólicos e abstratos, derivados das visões que o ferimento lhe tinha provocado na retina. Estes trabalhos podem ser enquadrados na ideia então contemporânea de “olho interno”, algo que o próprio Munch definiu da seguinte forma: “A natureza não é apenas aquilo que é visível pelo olho, é também o que é reproduzido pelas imagens internas da alma — imagens da parte de trás do olho”. Em 1944, o biógrafo de Munch, Rolf Stenersen, sustentou que as obras produzidas por Edvard, quando estava parcialmente cego, poderiam ser interpretadas como representações do inconsciente. Stenersen defendeu que esses trabalhos eram surrealistas, pois resultavam de impulsos do inconsciente.

O Assassino (1910), óleo sobre tela, de Edvard Munch.

Edvard Munch viveu em vários lugares, mas a maior parte do tempo na Noruega natal, num raio de poucos quilómetros em torno da capital, Oslo, onde também viveu e se formou, na Escola de Artes e Ofícios. Tendo nascido em Löten (em 12 de dezembro de 1863), 120 quilómetros a norte de Oslo, Munch veio estudar para a capital, onde foi bastante influenciado pelo Kristiania Bohème, um círculo cultural de escritores e artistas, particularmente por um dos seus membros mais antigos, o pintor Christian Krohg, que incentivou e orientou o jovem Edvard Munch. A estética naturalista deste movimento foi rapidamente ultrapassada por Munch quando, aos 26 anos, fez uma viagem a Paris e passou a conhecer de perto o impressionismo francês, sobretudo através dos trabalhos de Paul Gaughin e Henri de Toulouse-Lautrec.

Apesar de ter vivido em Berlim (1892-95) e Paris (1896-97), os locais onde Munch mais pintou foram na sua Noruega natal. Ele passou vários verões em Åsgårdstrand, cerca de 100 quilómetros a sul de Oslo. O primeiro verão que passou em Åsgårdstrand foi em 1889, e, em 1897, Munch comprou uma pequena cabana de pescadores, à qual passou a referir-se como o seu “lugar feliz”. As linhas costeiras desta pequena e tranquila localidade logo atraíram a atenção de Munch e ainterpretação estilizada dessas margens, muitas vezes combinada com o luar, tornou-se um elemento recorrente do seu grande projeto existencial O Friso da Vida.

Em 1909, após um longo período de doença, Munch foi viver para  Kragerø, na margem ocidental do fiorde de Oslo, onde alugou uma casa com vista para o mar. Foi nesta localidade que passou um dos períodos mais alegres e produtivos da sua vida artística.

O Sol (1910-1911) é um quadro gigante exposto no sexto andar do museu, que é consagrado às obras monumentais de Munch. Esta obra, produzida originalmente para os murais da Universidade de Oslo é especialmente importante porque é também um marco da aceitação tardia do trabalho de Munch na Noruega.

A natureza de Kragerø inspirou Munch a pintar o grande mural vitalista O Sol — o nascimento do astro-rei, símbolo mais puro da força da vida, retratado com pinceladas ousadas e vigorosas. Outros temas de Kragerø, que também aparecem na arte de Munch, são as ruas pitorescas, a alternância das estações, e cenas do dia-a-dia dos habitantes.

Em 1913, ainda dentro do Fiorde da Noruega, Munch subiu para Jeløya, nos arredores de Moss, onde morou durante três anos, até 1916. Os anos em Jeløya foram altamente produtivos e intensos, e Munch trabalhou avidamente com pinturas e xilogravuras coloridas. Uma das pinturas mais famosas de Munch, Trabalhadores a Caminho de Casa, foi produzida em Moss. Munch também representou, neste período, as belas paisagens culturais de Jeløya.

Mais tarde, já em Oslo, onde cresceu e se iniciou como jovem artista, Munch desenvolveu uma relação tensa com a cidade, tendo encontrado na capital os seus rivais mais ferozes e também os críticos mais severos da sua obra4.

Trabalhadores a Caminho de Casa (1915), óleo sobre tela, de Edvard Munch.

Mas os problemas de Munch já vinham de longe. Ele foi atormentado por doenças persistentes e também por uma infância difícil — com lutos e doenças mentais na família5 — as quais tiveram grande influência no seu trabalho artístico. Desde o ultrafamoso O Grito, até aos muitos milhares de esboços que produziu, a obra de Munch está repleta de emoções e traumas psicológicos. Várias versões de O Grito6 estão guardadas no MUNCH, incluindo desenhos, uma versão posterior pintada, e seis litografias.

O Grito é, sem dúvida, a obra mais famosa de Munch, um trabalho incrivelmente intemporal. Trata-se de uma narrativa aberta, em que o principal protagonista é estranhamente enigmático — não pertencendo a nenhuma classe, ou género, ou cultura, ou raça. O tema resulta de um passeio que Munch fez com amigos, num fim de tarde de 1891, quando o sol caía sobre o fiorde de Oslo. Todas as versões de O Grito são diferentes, mas igualmente poderosas. Há quem diga, provavelmente com razão, que O Grito manifesta a angústia do artista, provocada por decepções na sua vida pessoal, quer no que diz respeito ao amor, quer no que toca aos amigos. O quadro mostra-nos uma criatura enigmática em pânico — cuja forma pode sugerir, de algum modo, um feto, ou mesmo um espermatozoide (símbolos da extrema fragilidade da vida) — e cujos contornos se projetam no fundo avermelhado do horizonte; dois transeuntes seguem o seu caminho, indiferentes.

A célebre pintura O Grito (têmpera e óleo sobre cartão, provavelmente de 1910). Munch criou todas as versões desta obra em cartão ou papel, tornando-as mais frágeis do que seriam se tivessem sido produzidas em óleo sobre tela. É por isso que as três versões7 patentes na sala do museu dedicada a O Grito — uma pintura (na foto), um desenho a pastel (1893) e uma litografia (1895) — são apresentadas rotativamente, uma de cada vez, apenas por uma hora, sendo depois encerradas numa câmara escura até nova apresentação.8 Ou seja, há sempre uma das versões exposta, enquanto as outras duas permanecem no escuro.

É de notar que a estrada onde esses homens estão segue em linha reta para o infinito, o que torna ainda mais notória a distância que os separa do protagonista. Isto reforça a ideia de que a angústia e o desespero de uma pessoa pode ser completamente indiferente para outras. Embora o próprio Munch tenha escrito sobre a sua obra mais famosa9, O Grito continua, apesar de tudo, a ser um enigma, tanto no conteúdo como na forma. Não há uma interpretação única sobre a obra, antes inúmeras interpretações. Uma delas, verdadeiramente surpreendente, foi publicada em 2003, na revista Sky and Telescope por um grupo de professores de Física e Astronomia da Universidade Estadual do Texas, que se deslocaram até Oslo para perceberem onde teria sido o local exato onde Munch observara o tal céu vermelho-sangue. Depois de determinada a localização, os investigadores americanos concluíram que um céu semelhante ao descrito por Munch pode de facto ter sido observado naquela zona do globo, resultante da grande erupção do vulcão da ilha de Krakatoa, na Indonésia, em 1883 — uma das mais terríveis erupções vulcânicas registadas, que provocou o desaparecimento da ilha. Os investigadores concluíram assim que Munch estaria a olhar para sudoeste, exatamente o quadrante onde o clarão do Krakatoa apareceu, naquele inverno de 1883-1884. Isto parece vir ao encontro das próprias palavras de Munch (ver nota 9) quando este refere que sentiu um imenso grito infinito através da natureza.

Todas as versões de O Grito são diferentes. Mas todas são igualmente poderosas. Na foto, a litografia de 1895.

É, pois, impressionante como uma pequena obra pode dizer-nos tanto. E seja qual for a interpretação que tenhamos, nenhuma vai retirar o lugar que O Grito conquistou na História da Arte, um dos mais altos, senão o mais elevado, da corrente conhecida como Expressionismo.

Uma das características da arte de Munch é a atenção que dedica ao movimento, criando drama e intensidade nas suas obras: as linhas diagonais chamam a nossa atenção, puxando-nos, e provocando um movimento das figuras na nossa direção, gerando um confronto. Podemos reconhecer tais recursos desde os primeiros tempos da fotografia e do cinema — novos meios de imagem que ganharam destaque no tempo de Munch. Ele próprio experimentou a fotografia10e deslocava-se com certa frequência ao cinema, tendo além disso realizado pequenos filmes em torno de Oslo e no jardim da sua casa. Por isso se pensa que estas novas tecnologias influenciaram a sua arte. Porém, é preciso dizer que, com Munch, o movimento está sempre associado à emoção. Ele procura agarrar o espectador, imprimindo ao seu trabalho uma carga intensa e dramática. Munch pinta para criar a sensação de movimento dentro do próprio espectador.

A intensa produção de artes gráficas de Edvard Munch — gravuras, xilografias, litogravuras — começou em 1894. No MUNCH, os visitantes podem experimentar algumas técnicas utilizadas pelo pintor. Munch não tinha grande experiência gráfica, o que constituiu o principal motivo para a criação de técnicas inovadoras.

De acordo com Gray F. Watson, professor da Wimbledon School of Art, de Londres, Munch foi um líder na revolta contra os ditames naturalistas da pintura académica do século XIX e também foi além do naturalismo ainda inerente ao impressionismo. A sua concentração nos fundamentos emocionais levava-o por vezes a simplificações radicais da forma e a uma abordagem expressiva, em vez de descritiva, da cor. Estas tendências foram a dotadas por artistas mais jovens, nomeadamente os principais proponentes do expressionismo alemão. Talvez a sua influência formal mais direta na arte posterior possa ser vista na área da xilogravura. Mas o seu legado mais profundo para a arte moderna estava no seu propósito de abordar aspetos universais da experiência humana. Munch herdou o misticismo tradicional e a ansiedade da pintura do norte da Europa, que recriou numa arte altamente pessoal. O seu trabalho continua a expressar a situação tipicamente moderna do indivíduo diante da incerteza de um mundo contemporâneo em rápida mudança.11

A exposição patente no MUNCH está dividida em doze temas, que podem ser visitados pela ordem que se quiser — Só; Morrer; O Grito; Amor; Género; Outdoors; Nu; Outros; O Eu; Em Movimento; À Superfície; Variações.

Terminamos com uma frase retirada da exposição que tivemos a felicidade de visitar seis meses após a inauguração deste novo museu:

Não existe uma verdade única sobre Edvard Munch e o seu trabalho. A obra de Munch e a nossa compreensão da mesma podem ser consideradas infinitas.

No terraço do icónico e controverso edifício que acolhe e é, ele próprio, o museu MUNCH.

**************************************************

Notas:

1 A fase mais recente do projeto de renovação da zona ribeirinha de Oslo, que já dura há décadas, tem sido, de facto, controversa. O projeto do Munch, de autoria do renomado estúdio de arquitetos Herreros, com sede em Madrid, foi também criticado por alguns moradores nos meios de comunicação locais, sobretudo devido à forma “vertical” incomum e à fachada cinza do edifício. Os arquitetos disseram que se inspiraram, sobretudo, nas impressionantes torres do edifício da Câmara Municipal de Oslo.

2 O termo “simbolismo” foi cunhado pela primeira vez pelo crítico francês Jean Moréas, em 1886, e rapidamente usado para caracterizar artistas e escritores que rejeitavam as representações realísticas do mundo exterior, em favor da exploração da vida interior da alma humana. O objetivo destes artistas era o de expressarem as ideias que estão por trás da realidade visível, ou, tal como o autor Knut Hamsun referiu em 1890, “mostrar a vida inconsciente da alma”. O movimento representava uma nova e radical compreensão do “eu”, que em vez de ser algo estável e constante, era visto como fluído e fragmentado. Na década de 1890, o simbolismo desenvolveu-se como um movimento cultural abrangente, que incluía Arthur Rimbaud, Paul Gauguin, Auguste Rodin, James Ensor, August Strindberg, Vincent Van Gogh e Edvard Munch.

3 O surrealismo surgiu na ressaca da Primeira Guerra Mundial, após milhões de mortos e uma Europa em ruínas. Simultaneamente, Sigmund Freud e a psicanálise aportaram uma visão inovadora sobre a mente humana. Dedicando-se às questões do inconsciente — sonhos, desejos e impulsos inconscientes — os artistas, na opinião de André Breton, deveriam liderar o caminho para uma nova ordem mundial. Durante os anos 20 e 30 do século XX, Breton atraiu um vasto conjunto de escritores, artistas plásticos e realizadores cinematográficos, disposto a desafiar a moralidade, a tradição e a própria racionalidade. Entre estes estavam Max Ernst, Dora Maar, René Magritte, Leonora Carrington, Claude Cahun, Salvador Dalí e Luis Buñuel.

4 Munch esteve várias vezes envolvido em polémicas com outros autores. Uma luta física com um pintor rival obrigou-o a ausentar-se da Noruega durante 4 anos. Vários dos seus quadros refletem estas disputas.

5 A mãe e a irmã de Munch faleceram de tuberculose quando ele tinha, respetivamente, 5 e 14 anos. O pai e o irmão também morreram quando ele era jovem. A única irmã sobrevivente desenvolveu uma doença mental pouco depois. Munch foi várias vezes hospitalizado entre 1905 e 1909 por problemas de alcoolismo, depressão e comportamento suicida.

6 Quando abordamos as obras de Munch, geralmente não falamos de uma imagem, mas de várias. Ao longo de toda a sua carreira artística, Munch regressa aos mesmos temas para abordá-los de uma nova forma. Ele produzia uma versão, depois outra, e depois outra ainda. Ao revisitar os temas, novas possibilidades se revelam. Por vezes eles capta-as com um simples desenho ou, ocasionalmente, com uma escultura. Apesar de Munch nem sempre estar contente com o resultado, ele preservava todas as tentativas. Para ele não havia uma forma certa ou errada de pintar, apenas formas novas de o fazer.

7 Edvard Munch produziu quatro versões coloridas de “O Grito” — duas pinturas com têmpera e dois desenhos com pastel e lápis de cera. Dois deles permaneceram na sua posse e estão hoje na coleção do Museu MUNCH. Das duas versões restantes do famoso motivo, uma faz parte da coleção do Museu Nacional da Noruega e a outra é de propriedade privada (foi comprada em leilão pelo investidor e colecionador de arte norte-americano Leon Black, em 2012, por 119,9 milhões de dólares). Munch também criou uma litografia de “O Grito”. Não se sabe quantas litografias foram impressas, mas estima-se que existam cerca de 30 impressões. Seis destas — incluindo uma colorida à mão por Munch — estão hoje na coleção do Museu MUNCH.

8 Além do cuidado necessário com os fatores climáticos, como os níveis de temperatura, humidade e oxigénio, a exposição à luz tem de ser evitada. A luz afeta os pigmentos coloridos e danifica o papel e a cartolina ao longo do tempo.

9 Em 1892, na Riviera francesa, mais propriamente em Nice, Munch escreveu um poema no seu diário, descrevendo uma caminhada com os seus amigos. Ele sentiu-se cativado pela visão das nuvens flamejantes e da cidade e da água azul-negras. Escreveu Munch: “Eu estava a andar por uma estrada com dois amigos quando o sol se pôs. Senti uma rajada de melancolia e de repente o céu ficou vermelho-sangue. Eu parei, encostei-me ao gradeamento, cansado de morte, enquanto os céus flamejantes pendiam sobre o fiorde azul e negro e sobre a cidade. Os meus amigos continuaram, eu permaneci ali a tremer de ansiedade e senti um imenso grito infinito através da natureza.” Nesse mesmo ano, Munch traduziu a experiência relatada no diário visualmente. Assim nascia “O Grito”.

10 Foi um dos primeiros artistas a explorar o auto-retrato fotográfico, após ter comprado uma câmara Kodak, em 1902.

11 https://www.britannica.com/biography/Edvard-Munch.

**************************************************

A Casa da òpera, de Oslo, fica muito perto do MUNCH. Trata-se de outro edifício moderno, inaugurado em 2008 e projetado por arquitetos noruegueses, que ganharam vários prémios com esta obra, que é, de facto, muito bonita.

**************************************************

Fontes:

**************************************************

House on Fire, Eswatini

House on Fire, em Eswatini. Um espaço magnífico, quer na parte coberta, quer nas zonas ao ar livre.

Eswatini é um pequeno reino situado no sudeste africano, um enclave sem acesso ao mar, envolvido por dois países bastante maiores, Moçambique e África do Sul. O porto mais próximo, que permite ao país importar e exportar produtos por via marítima, é o de Maputo, na capital moçambicana. Eswatini chamava-se antes de 2018 Suazilândia, mas o rei Mswati III decidiu nesse ano alterar o nome do país, que queria dizer “terra dos zwazis”, os descendentes de povos que vieram do norte, em vagas sucessivas.

Desde que começaram a praticar a agricultura até hoje, passando pela autonomia (finais do século XIX) e a independência (1968) ambas concedidas pelos britânicos, esta foi sempre a principal atividade económica dos habitantes do atual Eswatini (se a ela juntarmos a criação de gado), embora se note uma crescente aposta em algumas pequenas indústrias, sobretudo na construção (obras públicas) e no turismo. Embora Eswatini e Moçambique sejam dois dos países mais pobres do planeta, nota-se um diferença considerável entre ambos, sendo Eswatini palpavelmente mais desenvolvido que Moçambique, embora este tenha condições naturais, geográficas e dimensionais para ser mais desenvolvido do que aquele.

House on Fire é uma instalação que se enquadra numa tentativa de desenvolvimento do país, impulsionado pelo turismo, uma aposta dos responsáveis de Eswatini, embora seja uma iniciativa privada. Situada 20 kms a sudeste da capital, Mbabane, aqui se realizam eventos diversos, incluindo, anualmente, em finais de maio, o MTN Bushfire, um dos mais conceituados festivais de música africanos. (https://youtu.be/nYhCAy9xZUE).

Idealizado pelos irmãos, Jiggs Thorne e Sholto Thorne, a House of Fire foi construída numa exploração de cana-de-açúcar e inaugurada no ano 2000. As suas esculturas ao ar livre refletem influências da Owl House, em Neiu Bethesda (África do Sul), e do Rock Garden, em Chandigarh (Índia). Apesar das diferenças, fez-nos lembrar Casapueblo, de Carlos Páez Vilaró (nosso artigo aqui).

Pormenor de um ponto de iluminação no espaço interior da House on Fire. (Foto: Fla).

A primeira das construções — o teatro — foi projetada com a colaboração da arquiteta sul-africana Sarah Calburn, tendo as posteriores evoluído para um espaço multifuncional em constante evolução, onde artistas locais, com destaque para Noah Mduli, continuam a dar asas à criatividade.

A intenção é a de apresentar uma filosofia de “harmonia em contraste”, com ícones e símbolos de todo o mundo. Um exemplo, bem interessante, sobretudo para nós, é o de um pequeno mural, erguido no jardim, onde se pode observar, por cima de uma frase de Einstein, uma imagem de Fernando Pessoa.

Aldeia em Eswatini.

A prova de que a House on Fire não para, é o último grande evento organizado pela sua equipa: o Festival conhecido como Standard Bank Luju Food & Lifestyle Festival, iniciado em 2018, que dedica dois dias às comida, moda e música, apresentando os melhores chefes gastronómicos da região.

House on Fire, independentemente dos eventos que ali se realizam (http://www.house-on-fire.com), é um espetáculo por si só.

Paisagem do Eswatini profundo.

**************************************************

Fontes:

***************************************************

Centro Nobel da Paz, Oslo

O Centro Nobel da Paz, no coração de Oslo.

Alfred Nobel foi um empresário, inventor e cientista sueco que acumulou uma fortuna considerável ao longo da sua vida de 63 anos. Para lá dos bens materiais, como dinheiro, títulos e imóveis, Alfred possuía igualmente bens que ultrapassavam o puro valor material; o seu amor pela literatura1 compelia-o a comprar muitos livros, pelo que possuía uma biblioteca vasta e valiosa. Parece que Alfred Nobel era um indivíduo empreendedor e confiante, mas simultaneamente reservado e tímido; de acordo com as suas próprias palavras, “misantropo e idealista”. É consensual que tinha um feitio difícil e não se sabe se por isso mesmo, ou por excesso de trabalho, nunca teve vontade ou oportunidade de constituir família. Alfred não teve filhos e não deixou herdeiros diretos.

Em 27 de novembro de 1895, um ano e 13 dias antes de morrer, Alfred Nobel assinou, em Paris, o último testamento. Logo após a sua morte, um número considerável de pessoas, familiares e amigos, aguardavam ansiosamente por conhecerem o teor desse documento, uma vez que todos tinham consciência de que era possuidor de uma das maiores fortunas mundiais privadas. Para grande desapontamento de muitos deles, declarava o seguinte na sua última vontade:

A totalidade do meu património remanescente realizável será alienada da seguinte forma: o capital, investido em títulos seguros pelos meus testamenteiros, constituirá um fundo, cujos juros serão atribuídos anualmente a título de prémio àqueles que, durante o ano anterior, terão conferido o maior benefício à humanidade. Os juros serão divididos em cinco partes iguais, a serem repartidos da seguinte forma: uma parte à pessoa que tiver feito a descoberta ou invenção mais importante no campo da física; uma parte à pessoa que tiver feito a descoberta ou invenção química mais importante; uma parte para a pessoa que tiver feito a descoberta mais importante no domínio da fisiologia ou medicina; uma parte à pessoa que no campo da literatura tenha produzido a obra mais destacada de tendência idealista; e uma parte à pessoa que tiver feito mais ou melhor trabalho pela fraternidade entre as nações e pela abolição ou redução dos exércitos permanentes e pela formação e difusão de congressos de paz. Os prémios de física e química serão concedidos pela Academia Sueca de Ciências; para trabalhos fisiológicos ou médicos pelo Instituto Caroline, em Estocolmo; para a literatura pela Academia em Estocolmo, e para os defensores da paz por um comité de cinco pessoas a serem selecionadas pelo parlamento norueguês. É meu desejo expresso que na atribuição dos prémios não seja dada qualquer consideração a filiações nacionais de qualquer tipo, para que o mais digno receba o prémio, seja escandinavo ou não.2

Alguns dos familiares de Alfred Nobel solicitaram a invalidade do testamento e nessa luta conseguiram o apoio de rei Oscar II, que considerou “fantasiosas” as pretensões de Alfred. Além destes, também muitos conservadores desejavam impedir a realização do testamento, considerado “antipatriótico”, uma vez que os prémios deveriam ter sido reservados para os suecos. Só após longas e difíceis negociações, que envolveram o governo, os executores Ragnar Sohlman e Rudolf Lilljequist conseguiram desatar os nós jurídicos envolvidos. Finalmente, em 29 de junho de 1900, os estatutos da recém criada Fundação Nobel foram aprovados pelo relutante rei Oscar II; e em 10 de dezembro de 1901 foram concedidos em Estocolmo e Oslo os primeiros prémios Nobel.3

O que teria levado um cientista e inventor da dinamite a uma decisão tão altruísta em favor da espécie humana, ao expressar a sua vontade de que fossem premiados anualmente os mais destacados no benefício da humanidade, incluindo quem “fez mais ou melhor para promover a comunhão entre as nações, a abolição ou redução de exércitos permanentes e o estabelecimento e promoção de congressos de paz”? Os biógrafos indicam que por trás dos ideais pacifistas de Alfred Nobel estava uma mulher. Não uma mulher com quem ele tivesse uma relação amorosa, mas uma amiga com quem se correspondeu durante anos e que, sendo ela própria pacifista, teve uma forte influência sobre o empreendedor sueco. Essa mulher chamava-se Bertha von Sutnner4 e, curiosamente, conheceu Nobel ao responder a um anúncio de jornal de “um senhor muito culto, rico e idoso, morando em Paris, que deseja encontrar uma senhora também de idade madura, familiarizada com idiomas, como secretária”.5

Não se conhece exatamente a razão pela qual Alfred Nobel optou, no seu testamento, pela criação de um comité, designado pelo parlamento norueguês (Storting), para a atribuição do prémio da paz. Trata-se de um facto e não adianta muito especular sobre ele. No entanto, Geir Lundestad, ex-secretário do Comité Nobel Norueguês e diretor do Instituto Nobel, resume no seu artigo O Prémio Nobel da Paz, 1901-2000, as suposições mais frequentes e melhor fundamentadas: Nobel, que escreveu o testamento no Clube Sueco-Norueguês de Paris, pode ter sido influenciado pelo facto de que, até 1905, a Noruega esteve em união com a Suécia; ele pode também ter considerado a Noruega um país mais orientado para a paz e mais democrático que a Suécia; finalmente, Nobel pode ter sido influenciado pela sua admiração pela ficção norueguesa, particularmente por Bjornstjerne Bjornson, conhecido ativista da paz na década de 1890; ou pode ter sido uma combinação dos três fatores.6

A verdade é que os noruegueses levaram essa incumbência muito a sério, e o Nobel da Paz é um prémio com significado e importância muito especiais. Em Oslo há dois locais onde podemos perceber isto, e nós visitámos ambos na nossa mais recente visita. Falamos do Instituto Nobel Norueguês e do Centro Nobel da Paz. O primeiro é onde trabalham os membros do Comité Nobel Norueguês7 e o seu secretariado; o segundo é um museu onde podemos percorrer, através da exposições ali patentes, partes das vidas e dos pensamentos quer de Alfred Nobel, quer dos muitos laureados com o Nobel da Paz, com destaque lógico para os últimos ganhadores8: uma ala do museu estava no momento da nossa visita dedicada aos laureados com o Nobel da Paz de 2021, o russo Dmitry Moratov e a filipina Maria Ressa.

Dmitry Moratov e Maria Ressa são jornalistas e ambos vivem em países onde não há liberdade de imprensa. Tal como outros colegas, arriscam a vida por exercerem uma profissão incómoda para o poder. O caso russo é mais grave que o filipino e, além disso, tem relação direta com a guerra que Vladimir Putin decidiu fazer à Ucrânia. É por isso que, nesta ala do museu, o enfoque está todo na falta de liberdade que se vive na Rússia, onde vigora um regime autocrático que piorou muito ao longo dos últimos vinte anos. Há uma relação inequívoca entre paz e liberdade, e as responsáveis pela exposição quiseram realçá-la, conduzindo o visitante a uma importante conclusão: não pode haver paz onde não há liberdade. Este é o primeiro ponto a considerar em relação à paz.

O segundo ponto, que também tem relação direta com a atual guerra iniciada por Putin, tem a ver com a grave ameaça que representam para a humanidade as armas nucleares. Cabe aqui dizer que em 2017 a ICAN – International Campaign to Abolish Nuclear Weapons (Campanha Internacional para a Abolição das Armas Nucleares), uma organização fundada em 2007 em Melbourne, na Austrália, ganhou o Prémio Nobel da Paz de 2017. A ICAN é uma organização global, composta por mais de 600 ONGs, com presença em 108 países. Por razões óbvias, é natural que o Comité Norueguês do Nobel e o Centro do Nobel da Paz dediquem uma especialíssima atenção à verdadeira espada de Dâmocles que pende sobre a cabeça de todos os seres humanos – as armas nucleares.

Em 7 de junho de 2017, após uma década de intensos trabalhos da ICAN e seus parceiros, a maioria das nações do mundo adotou um acordo global histórico para proibir as armas nucleares conhecido oficialmente como Tratado sobre a Proibição de Armas Nucleares9. Entrou em vigor em 22 de janeiro de 2021. No sítio da organização, numa página cujo título é Porquê um banimento?, a ICAN explica porque se bate não apenas pela proibição, mas pelo banimento completo das armas nucleares: As armas nucleares são as armas mais desumanas e indiscriminadas jamais criadas. Têm consequências humanitárias e ambientais catastróficas que se estendem por décadas e atravessam gerações; elas geram medo e desconfiança entre as nações, já que alguns governos podem ameaçar destruir cidades inteiras num piscar de olhos; o alto custo da sua produção, manutenção e modernização desvia fundos públicos da saúde, educação, socorro em desastres e outros serviços vitais. Proibir essas armas imorais e desumanas sob a lei internacional foi um passo crítico no caminho para exterminá-las, antes que elas acabem connosco.10

A guerra infligida à Ucrânia é uma das maiores calamidades deste século, bem como a chantagem nuclear de Putin. Trata-se de uma ameaça muito séria à paz na Europa e no mundo. Nas bibliotecas e livrarias que visitámos na Noruega, as obras destacadas são todas sobre os temas do momento: a Ucrânia, a Rússia, as relações internacionais e, sobretudo, Putin. As cores da bandeira ucraniana são visíveis nas cidades da Noruega (e da Dinamarca). O apoio do povo norueguês à Ucrânia e à liberdade sente-se não apenas no Centro Nobel da Paz e no Instituto Nobel Norueguês, mas, podemos constatá-lo, um pouco por todo o lado.

**************************************************

Fontes:

  • nobelpeacecenter.org
  • nobelprize.org
  • Biblioteca do Instituto Nobel Norueguês
  • Centro Nobel da Paz
  • icanw.org

**************************************************

**************************************************

Notas:

1 Alfred Nobel escreveu poemas durante juventude.

2 nobelpeacecenter.org.

3 Embora a maioria das pessoas pense que existem 6 diferentes prémios Nobel, a área da Economia não foi, como vimos, contemplada no testamento de Alfred Nobel. Só em 1968 o Banco da Suécia instituiu o “Prémio de Ciências Económicas em Memória de Alfred Nobel”. A atribuição deste prémio segue todos os critérios de atribuição dos prémios Nobel, por isso é muitas vezes confundido e considerado como tal, mas é, na realidade, um prémio similar, mas diferente à sua criação e ao seu financiamento.

4 Bertha von Suttner era escritora e ela própria ganhou o Nobel da Paz em 1902.

5 nobelpeacecenter.org.

6 nobelprize.org

7 Como se disse, os cinco membros do comité são designados pelo parlamento. Embora sejam normalmente políticos, não podem estar na política ativa, isto é, não podem ser deputados ou membros do governo.

8 Podemos dividir as exposições do museu em quatro partes: o historial do Nobel da Paz; a vida de Alfred Nobel (passamos por uma réplica do interior da casa onde morreu, em San Remo, na Riviera Italiana); os laureados; os últimos contemplados com o Nobel da Paz. Há também, como em quase todos os museus, uma loja onde se podem comprar artigos alusivos ao Nobel da Paz.

9 O teor do tratado, em português, pode ser consultado em: https://d3n8a8pro7vhmx.cloudfront.net/tectodevms/pages/2417/attachments/original/1571248142/Portugues.pdf?1571248142

10 https://www.icanw.org/why_a_ban

**************************************************

O Museu de Skagen

A zona a norte da cidade, onde fica a praia, foi motivo de grande parte das obras dos Pintores de Skagen, várias das quais patentes no museu. Na foto podem ver-se um bunker usado pelos alemães na Segunda Guerra Mundial e, ao fundo, a língua de areia onde convergem o Mar Báltico e o Mar do Norte.

Skagen é uma pequena cidade situada no extremo norte da Dinamarca. Acima da cidade há uma praia que apresenta uma forma muito curiosa, pois na extremidade tem o que parece um espigão de areia que entra pelo mar dentro e separa, supostamente, o Mar do Norte do Mar Báltico. Dada a sua condição geográfica, não surpreende que as principais atividades estejam ligadas à pesca e ao turismo: Skagen é o principal porto de pesca da Dinamarca e o turismo atrai à cidade cerca de dois milhões de pessoas por ano. Aqui, neste pequeno burgo, está situado um importante museu.

Na viragem do século XIX para o século XX, a região de Skagen foi uma importante zona de veraneio para os próprios dinamarqueses, atraindo artistas de todas as áreas e inclusive a família real. O rei Cristiano X e sua mulher Alexandrina mandaram aí construir uma residência de Verão, onde recebiam os amigos, incluindo membros de outras monarquias europeias. Vários pintores dinamarqueses também descobriram os encantos deste local, ainda durante os últimos anos do século XIX, seduzidos pela vida ao ar livre e motivados pela pintura naturalista.

P.S. Kroyer, Fogueira de Verão na Praia de Skagen (1906). Museu de Skagen.

Alguns deles, oriundos da Real Academia Dinamarquesa de Belas Artes, em Copenhaga, estão entre os maiores pintores modernos da Dinamarca. No século XIX, aquela escola foi o local onde pintores masculinos estudavam e expunham os seus trabalhos. As mulheres não tinham acesso à academia, até 1908, e só em 1925 lhes foi permitido estudarem em conjunto com os homens. Em alternativa, podiam recorrer às escolas privadas de Copenhaga, ou ir para o estrangeiro, para aprenderem a desenhar com modelos vivos. Foi assim que desde os anos de 1880 muitas mulheres dinamarquesas intervieram em colónias artísticas de outros países, onde puderam trabalhar e participar nos debates sobre arte e cultura em pé de igualdade com os homens.

Michael Ancher, Anna, Helga e Michael Ancher no Pântano (1905). Museu de Skagen.

Mas já na década de 1870 fermentava uma rebelião entre os jovens artistas masculinos que se encontravam na fase final de graduação na Real Academia Dinamarquesa de Belas Artes. Insatisfeitos com o ensino antiquado e fora de moda desta escola, aspiravam por novas vias no estrangeiro. As viagens de estudo a França tornaram-se, por isso, cada vez mais populares. Muitos pintores escandinavos e dinamarqueses tiveram acesso ao Atelier Bonnat, em Paris, onde pintaram desenfreadamente, enquanto nos tempos livres se deslocavam para fixar em tela as paisagens francesas, experimentando o prazer da moderna pintura ao ar livre. Colónias artísticas foram estabelecidas fora das grandes cidades, não só em França, mas também noutros países mediterrânicos, como Espanha e Itália. Skagen transformou-se numa réplica desses modelos europeus.

Michael Ancher, O Pescador Afogado (1886). Museu de Skagen.

Foi então que os jovens pintores começaram a romper com os ensinamentos da academia, focando-se em novos e diversos motivos. Este era o tempo de captar a vida do dia-a-dia e retratar a realidade nua e crua, sem embelezamentos. Entre estes artistas encontravam-se dois grandes pintores: Michael Ancher (que não chegou a completar o curso na Real Academia) e P.S. Kroyer. Ambos viveram largos períodos de suas vidas nesta cidade. Michael visitou Skagen pela primeira vez em 1874, acabando por casar em 1880 com a pintora Anna Brondum, cujo pai era o dono do hotel Bromdums, onde normalmente se hospedavam os apelidados Pintores de Skagen, que ali passavam todos os verões. O casal de pintores passou a viver em Skagen num local que hoje se situa no jardim do museu.

P.S. Kroyer, Barco Branco na Praia (1895). Museu de Skagen.

Por seu turno, P. S. Kroyer (que nasceu em Stavanger na Noruega) veio pela primeira vez a Skagen em 1882 e, durante outros 22 anos, passou temporadas na cidade, quase sempre no verão, incluindo todo o ano de 1908, vindo a falecer, aqui, em 1909. Não surpreende, por isso, que o Museu de Skagen possua no seu acervo significativas obras, quer dos Ancher (Michael e Anna), quer de Kroyer, sobretudo pinturas realistas cujos motivos se relacionam com a praia e a sua envolvente natural. As nuances de luz nos vários períodos do dia e nas diversas condições do tempo, inspiraram estes e outros pintores a mostrarem as atividades que decorriam na praia, fossem de trabalho (pescadores, pintores, transportadores) ou de lazer (crianças banhistas, pessoas passeando na praia, festividades), entre outros motivos.

Quem for a Skagen tem de visitar o seu magnífico museu. É obrigatório!

Carl Locher, A Carruagem do Correio (1885). Museu de Skagen.

**************************************************

Fontes:

  • Exposição patente no Museu de Skagen.
  • “Kroyer – An International Perspective”, The Hirschsprung Collection & Skagens Museum, 2011.

**************************************************

O marxismo e a guerra

O marxismo é uma religião e, tal como outras religiões, tem várias correntes – leninista, estalinista, trotskista, etc.

Quem não é da nossa religião é nosso inimigo, e é por isso que, onde vigora a religião, a perseguição aos hereges é efetiva e implacável.

As diversas seitas marxistas divergem entre si em vários pontos, mas o que as une é a convergência na identificação do principal inimigo – o maldito Ocidente e o seu modo de vida liberal e capitalista.

Assim, qualquer luta contra o Grande Satã é também a nossa luta, não importa que monstro tenhamos de engolir.

Putin? É apenas mais um.

**************************************************

ARoS Aarhus Art Museum

A fachada Sul do ARoS Aarhus Art Museum.

Na nossa visita à cidade dinamarquesa de Aarhus houve dois locais que nos surpreenderam: a parte antiga, conhecida como Den Gamle By, e sobretudo o Museu de Arte ARoS. E para a surpresa ser completa, mal transpusemos a porta deste, deparámo-nos com uma peça monumental de Joana Vasconcelos (Valkyrie Rán), que ali permanecerá até novembro do presente ano, abrangendo totalmente o comprimento do átrio do museu.

“Boy”, de Ron Mueck.

Depois fomos subindo os andares do ARoS e apreciando as diversas exposições. Destas destacamos os trabalhos do artista hiper-realista australiano, Ron Mueck, sobretudo uma escultura gigante intitulada “Boy”, com 4,5 metros de altura e 500 quilos de peso, que é uma das imagens de marca deste espaço cultural, presente em pins, sacos, cadernos, canecas e todo o tipo de souvenirs que se podem comprar na loja do museu.

Your Rainbow Panorama. Magnífico.

Até que finalmente chegamos ao terraço e deparamos com a estrela permanente deste magnífico edifício. Trata-se de uma passarela circular, com 150 metros de comprimento, 3 de largura e 52 de diâmetro – Your Rainbow Panorama – situada no topo do edifício, 50 metros acima do solo. O seu autor é o criador dinamarquês e islandês, Olafur Eliasson. Com paredes de vidro das cores do arco-íris, esta estrutura proporciona vistas espetaculares sobre a cidade e a baía de Aarhus e é, desde maio de 2011, um dos ícones da cidade.

É irresistível passear nesta passarela.

O ARoS vê-se praticamente de toda a cidade e, mesmo que não se goste de museus, é quase impossível ir a Aarhus e não reservar algum tempo para visitá-lo. Não há qualquer dúvida de que vale a pena.

**************************************************

Inconclusivo

Steven Koonin e o seu livro Unsettled, divulgado neste artigo. (Foto retirada de: https://clintel.org/fact-checking-steven-koonins-fact-checkers/). A opinião pública mainstream considera que as alterações climáticas provocadas pelo homem são uma realidade que não merece contestação. Steven Koonin mostra que, cientificamente, a influência humana sobre o clima está longe de estar estabelecida. É real, mas também muito difícil de avaliar e medir.

O texto que se segue baseia-se no livro de Steven E. Koonin, Unsettled – What Climate Science Tell Us, What it Doesn’t, and why it Matters, publicado em abril de 2021 (ainda não editado em Portugal) e, em linha com os restantes artigos da categoria “Livros”, é uma síntese deste importante e extremamente atual ensaio científico, contendo, em algumas passagens, citações literais (traduzidas por nós), não podendo, em consequência, ser considerado um texto crítico, antes um artigo de divulgação. Os títulos dos capítulos que se seguem são, inclusive, literalmente transpostos desta obra de Steven Koonin, um físico teórico do Caltech, especialista em clima e energia, e um dos mais conceituados cientistas americanos. Mãos à obra.

**************************************************

Introdução

Apesar de ser verdade que o globo está numa fase de aquecimento, e que os humanos têm alguma influência nisso, sobretudo através da queima de combustíveis fósseis, não é possível confirmar cientificamente, antes pelo contrário, as notícias alarmistas que os media veiculam quase todos os dias, anunciando um desastre ecológico. A ciência climática envolve muitos campos científicos diferentes, abrangendo a física quântica das moléculas; a física clássica do ar em movimento, água e gelo; os processos químicos na atmosfera e nos oceanos; a geologia da terra sólida; e a biologia dos ecossistemas. O estudo climático também comporta o uso de tecnologias sofisticadas, incluindo a criação de modelos nos computadores mais rápidos do mundo, controlo remoto de satélites, análise paleoclimática (que estuda os climas antigos), e métodos estatísticos avançados. Finalmente, temos ainda as áreas relacionadas com a ciência climática – política, economia, e tecnologia energética – focadas na redução das emissões de gases com efeito de estufa. Este enorme leque de conhecimentos e metodologias fazem da ciência climática e energética a mais avançada, e também a mais complexa, atividade científica multidisciplinar.

As mais importantes avaliações sobre o clima vêm dos relatórios produzidos pelo Painel Intergovernamental para as Alterações Climáticas (IPCC – Intergovernmental Panel on Climate Change) das Nações Unidas, criado em 1988. O IPCC (manteremos ao longo do artigo os acrónimos em inglês) produziu o seu primeiro relatório de avaliação em 1990; o quarto relatório (denominado AR4) foi emitido em 2007; o quinto (AR5) em 2013, e o sexto (AR6) em 2021.1 O setor fundamental na elaboração de cada relatório é o chamado “Grupo de Trabalho I” (WG I), que lida com os aspetos físicos do sistema climático, particularmente as alterações observadas em décadas recentes, e com a forma como o clima responde às influências naturais e humanas. Outros grupos de trabalho baseiam-se nas avaliações do WG I para descrever os impactos de um clima em mudança e a resposta da sociedade a esses impactos. Cada grupo de trabalho prepara também um Resumo para Decisores Políticos (SPM – Summary for Policymakers); uma síntese de todos os setores é também publicada. Além da série de relatórios de avaliação (AR), o IPCC também publica relatórios especiais mais restritos, como sejam “Eventos Extremos”2, “O Oceano e a Criosfera”3, ou “Alterações Climáticas e Terra”4.

ExpressãoProbabilidade
Virtualmente certo (Virtually certain)99-100% de probabilidade
Muito provável (Very likely)90-100% de probabilidade
Provável (Likely)66-100% de probabilidade
Tão provável como não provável (About as likely as not)33-66% de probabilidade
Improvável (Unlikely)0-33% de probabilidade
Muito improvável (Very unlikely)0-10% de probabilidade
Excecionalmente improvável (Exceptionally unlikely)0-1% de probabilidade
Escala de probabilidade de IPCC e expressões utilizadas nos relatórios de avaliação (AR).

O governo dos Estados Unidos também emite, independentemente, a sua série de relatórios de avaliação. A Lei de Pesquisa sobre Alterações Globais, de 1990, requer uma Avaliação Climática Nacional (NCA – National Climate Assessment) a cada quatro anos. Esses relatórios são produzidos pelo Programa de Pesquisa sobre Alterações Climáticas dos Estados Unidos (USGCRP)5. Os relatórios da NCA têm, em larga medida, os mesmos propósitos dos ARs do IPCC, embora com um foco maior sobre os Estados Unidos. O conteúdo das NCAs alinha-se, geralmente, com o dos ARs, mas podem ocorrer diferenças de ênfase e linguagem. As três primeiras NCAs foram publicadas em 2000, 2009 e 2014. A quarta, NCA 2014, compreende dois volumes. O volume I, focado na ciência climática física, foi publicado em novembro de 2017, tal como o “Relatório Especial sobre Ciência Climática” (CSSR – Climate Science Special Report)6. O volume II, publicado em novembro de 2018, trata dos impactos e riscos de um clima em mudança, bem como da forma como nos podemos adaptar a essas mudanças7. A quinta NCA é esperada em 2023.

Os AR e NCA são desenhados e revistos por processos semelhantes. A entidade patrocinadora (o IPCC ou o USGCRP) seleciona equipas de especialistas para cada capítulo dos relatórios. Essas equipas produzem esboços sucessivos que são melhorados em resposta a comentários de outros peritos; a NCA também se submete a uma revisão formal levada a cabo por um painel convencionado pelas academias nacionais americanas. O processo completo demora anos. Por exemplo, a primeira reunião dos autores responsáveis pelo AR6 teve lugar em junho de 2018, cerca de três anos antes da data prevista para publicação do relatório. Os relatórios de avaliação apresentam a ciência a não especialistas. Dada a quantidade enorme de autores e de revisões, qualquer leitor poderá, naturalmente, esperar que os relatórios de avaliação e os resumos da literatura de pesquisa são completos, objetivos, e transparentes – o “padrão ouro”. De acordo com Koonin, os relatórios vão de encontro a essa expectativa, e o próprio livro que Koonin escreveu é, em grande parte, baseado neles. Mas uma leitura atenta da maioria dos mais recentes relatórios de avaliação também revela algumas falhas elementares que enganam ou desinformam os leitores em pontos importantes. Quais são essas falhas, como surgiram, como os media as aceitam e divulgam, e o que pode ser feito para as corrigir constitui uma outra dimensão da história da ciência, que importa contar.

Isto mostra que as coisas são bastante mais complexas do que geralmente se pensa. Há, por exemplo, algumas conclusões retiradas dos relatórios de avaliação, quer os das agências governamentais dos Estados Unidos, quer os do IPCC que poderão surpreender muitas pessoas, e que contrariam as manchetes alarmantes e sensacionalistas que quotidianamente vemos na comunicação social. Eis algumas delas.

  • As ondas de calor nos Estados Unidos não são mais comuns agora do que eram em 1900.
  • As temperaturas mais elevadas não subiram nos últimos 50 anos nos Estados Unidos.
  • Os seres humanos não tiveram impacte detectável sobre os furacões nos últimos cem anos.
  • O lençol de gelo da Gronelândia não está a encolher, hoje, mais rapidamente do que há 80 anos.
  • O impacte económico global das alterações climáticas induzidas pelo homem será mínimo, pelo menos até ao final deste século.

1- O que se sabe sobre o aquecimento

Uma vez que o clima é definido por médias relativas a muitos anos, ele muda gradual e lentamente. É necessário, pelo menos, uma década de dados para se definir um clima, e duas ou três décadas mais para identificar uma mudança. Isto está, muitas vezes, para além da memória humana e, por isso, precisamos de registos para não nos equivocarmos. Porém, o que conquista a atenção popular são os eventos extremos, como tempestades e ondas de calor, embora o seu número e intensidade variem de ano para ano e seja a sua média, extraída ao longo de décadas, o que define o clima. A tendência de subida da temperatura tem causas diversas. Uma delas relaciona-se com a) a variabilidade interna do sistema climático – fluxos e refluxos durante décadas, maioritariamente associados às correntes lentas dos oceanos; depois, há b) os fenómenos naturais, como mudanças na luminosidade solar, que forçam (influenciam), por sua vez, mudanças no sistema climático; e, finalmente, de grande interesse para nós, há c) as mudanças e tendências que podem ocorrer devido às atividades humanas.

É de realçar que o termo “alterações climáticas” induz a muitas confusões. A convenção-quadro das Nações Unidas define assim “alterações climáticas”: … uma mudança no clima, atribuída direta ou indiretamente à atividade humana, que altera a composição da atmosfera ao nível global, a qual, em conjunto com a variabilidade natural observada durante períodos comparáveis…8

Esta definição exclui explicitamente as alterações devidas a causas naturais e consubstancia, hoje, o entendimento comum sobre o termo. Desta forma, quando as pessoas ouvem falar de “alterações climáticas”, assumem que se trata de alterações provocadas pelo homem. Paradoxalmente, ou não, a Terra arrefeceu um pouco entre 1940 e 1980, embora a atividade humana tenha aumentado, e é por isso vital perceber porque isso aconteceu, para percebermos também qual é efetivamente a influência humana e que mudanças poderão ocorrer no futuro. Por outro lado, o aquecimento global nos últimos 40 anos não é uniforme. A superfície terrestre aquece mais rapidamente que a superfície dos oceanos e as altas latitudes perto dos polos estão a aquecer mais rapidamente que as baixas latitudes perto do equador. Em geral, as temperaturas mais frias (à noite, durante o inverno, etc.) estão a subir mais rapidamente que as temperaturas mais quentes – o clima está ficando mais suave à medida que o globo aquece.

É claro que há outras coisas importantes para o clima, para além das mudanças de temperatura na superfície ou mesmo mudanças na atmosfera. De facto, a atmosfera é uma parte relativamente menor de um muito maior e mais complexo sistema que inclui a água (oceanos, lagos, etc.), neve e gelo, em terra e no mar, a terra sólida, e coisas vivas (micróbios, plantas, animais e humanos). Os oceanos, cuja profundidade média é de 3.700 metros, são a parte mais importante e mais problemática do sistema climático da Terra. Eles detêm mais de 90% do calor climático e são a sua memória de longo prazo. As condições na atmosfera variam, de dia para dia e de ano para ano, em resposta a um grande número de influências. Os oceanos, por seu turno, mudam, e respondem a mudanças, em décadas ou séculos.

Não é fácil recolher dados úteis dos oceanos para avaliar as alterações climáticas, mas a situação melhorou muito a partir do ano 2000, com a criação do programa Argo9 – robôs à deriva nos oceanos para registarem as suas propriedades – que atingiu cobertura global em 2005, com cerca de 3500 em atividade, operando a 1 km de profundidade, mas descendo de 10 em 10 dias a 2 km, para medirem a temperatura e a salinidade, subindo depois à superfície para transmitirem os dados via satélite, antes de regressarem à sua posição normal a 1 km de profundidade. Apesar da dificuldade em recolher dados nos oceanos antes do Argo, é possível dizer que, de facto, os oceanos têm vindo a aquecer, embora muito modestamente (centésimas de grau por década), logo, o planeta também. É difícil, porém, avaliar a influência humana nesta tendência, uma vez que a subida é constante, mesmo em épocas de menor atividade humana, como sejam os anos entre 1921 e 1946.

Há 20 mil anos a Terra começou a aquecer (cerca de 5º) o que permitiu, desde há 10 mil anos, um rápido desenvolvimento da civilização. Desde há milhões de anos, a Terra alterna períodos de rápido aquecimento com períodos de lento arrefecimento. Estas variações são devidas a pequenas alterações da órbita da Terra em torno do Sol e na inclinação do eixo terrestre. O mais recente período de aquecimento, antes do atual, começou há cerca de 127 mil anos e durou 20 mil anos. Nessa altura a superfície terrestre era até 2º-3º mais quente do que é hoje. Em suma, a questão não é a de saber se a Terra está a aquecer – o que é afirmativo – mas saber qual a influência que os humanos têm nesse aquecimento – o que é difícil de avaliar.

Fraca Influência Humana

A temperatura da Terra resulta do balanço entre o aquecimento devido à luz solar e o arrefecimento derivado do calor irradiado para o espaço. Do lado do aquecimento temos a energia solar que o planeta absorve. À medida que aquece, a Terra emite radiação infravermelha para o espaço, o que aumenta a parte de arrefecimento do balanço. A lei Stefan-Boltzmann, descoberta por volta de 1880 por dois físicos a trabalhar na Áustria, diz-nos que a quantidade de radiação infravermelha que um objeto emite aumenta com a temperatura, de uma forma proporcional e bastante precisa. Assim, à medida que a temperatura do planeta aumenta devido ao aquecimento solar, o arrefecimento devido à radiação infravermelha emitida também aumenta, até o arrefecimento infravermelho ser igual ao aquecimento solar. O termo técnico para esta condição goldilock – quando o planeta não ganha nem perde energia e a sua temperatura é estável – é radiative equilibrium.

Olhemos mais atentamente para ambos os lados deste balanço. Uma vez que a Terra não é completamente negra, ela absorve apenas 70% da luz solar que a atinge. Aos 30% refletidos chama-se albedo, (do latim albus, que quer dizer “branco”). Quando o albedo é mais elevado, a Terra reflete mais luz solar e por isso fica um pouco mais fria e, claro, quando o albedo é mais fraco, a Terra absorve mais luz solar e, logo, fica mais quente. Apesar da média do albedo terrestre ser de 30%, o valor do mesmo num determinado momento depende de que parte da planeta está virada para o Sol (os oceanos são escuros, a parte terrestre é mais brilhante, as nuvens mais brilhantes ainda, e a neve e o gelo são ainda mais brilhantes), e a média mensal varia cerca de 0,01 com as estações (maior em março e menor em junho/julho). A precisão com que se mede o albedo é importante para compreendermos o sistema climático. Se o albedo médio aumentasse de 0,30 para 0,31, devido, por exemplo, a um aumento de 5% da nebulosidade, essa reflexividade adicional compensaria largamente a influência de um aumento para o dobro do CO2 presente na atmosfera.

Existem satélites que medem o albedo, mas há um projeto da JASON que pretende cobrir todo o globo com pequenos satélites para que se consiga medir o albedo com maior precisão. Um método mais antigo, mas ainda assim muito interessante, foi usado por André Danjou, um astrónomo francês, no início dos anos de 1930. Consistia em, através de um filtro apropriado, detetar o brilho da luz solar que incide na Terra, refletida na parte escura da Lua, quando esta está em quarto crescente. Compreender as mudanças da luz, refletida da Terra, na Lua pode ser muito útil para estudar outros planetas que orbitam outras estrelas, os quais são visíveis pela luz que refletem.10

Conhecendo o albedo da Terra (a média do globo e os ciclos diários e sazonais), poderemos determinar o seu equilíbrio de temperatura, através do balanço entre a luz solar absorvida contra o arrefecimento dos infravermelhos. Como vimos, o arrefecimento aumenta ao mesmo tempo que a temperatura aumenta – se a Terra ficar mais quente, os infravermelhos libertam mais calor – funcionando como uma espécie de termostato. Calcular o valor deste equilíbrio – a temperatura média da superfície terrestre – constitui o problema básico de qualquer curso sério dedicado ao clima. Esse valor é de -18ºC (0ºF). Mas este valor está errado, muito abaixo de verdadeiro valor médio global de temperatura, que é de 15ºC (59ºF). O que falta é o isolamento provocado pelos gases com efeito de estufa presentes na atmosfera, os quais fazem subir a temperatura da superfície terrestre para o valor observado. Os gases com efeito de estufa funcionam como as roupas isolantes que os exploradores dos polos terrestres usam. Impedem o calor de sair, e os infravermelhos são impedidos de viajar para o espaço.

Os gases mais comuns presentes na atmosfera terrestre são o nitrogénio (78%) e o oxigénio (21%). Juntos, eles constituem, portanto, 99% da atmosfera seca, e devido às peculiaridades das suas estruturas moleculares, o calor passa facilmente através deles. A maior parte do restante 1% é o gás inerte árgon. Mas, embora ainda menos abundantes, alguns dos outros gases – sendo os mais significativos o vapor de água, o dióxido de carbono, o metano, o óxido nitroso e o ozono – intercetam, em média, cerca de 83% do calor emitido pela superfície terrestre11. Destes gases, o que mais contribui para o efeito de estufa é o vapor de água (+ de 90%), depois, o dióxido de carbono (7%) e, finalmente, todos juntos, metano ozono e óxido nitroso, entre outros, com mais ou menos 3%.

Desde 1750, a concentração de dióxido de carbono aumentou de 0.000280 ppm (partes por milhão) até 0.000410 ppm em 2019, continuando a crescer 2.3 ppm a cada ano. Embora a maior parte da concentração de CO2 seja natural, não há dúvida de que este crescimento resulta da atividade humana, sobretudo da queima de combustíveis fósseis. O aumento de CO2 faz com que o efeito de estufa seja maior e a fração de calor intercetado, que era em 1750 de 82,1%, é hoje de 82,7%. Se duplicássemos a concentração de CO2 de 1750, que como vimos era de 280 ppm, isso resultaria numa concentração de 560ppm, a qual aumentaria a capacidade de interceção do calor para 83,2% (isto em condições de céu limpo, porque as humidade, temperatura, nebulosidade, entre outras, têm influência sobre o calor intercetado). Um tal aumento corresponderia apenas a um incremento de 2,8 moléculas de CO2 por 10 mil moléculas de ar.

A primeira questão que aqui se coloca é a de saber como é que um aumento de menos de 3 moléculas em 10.000, ou seja, um aumento de apenas 0,03%, provoca um aumento 30 vezes maior (1%) na interceção do calor libertado pela Terra em forma de radiação infravermelha. Isto acontece porque a radiação é emitida e dispersada em diferentes comprimentos de onda. Pensemos nestes comprimentos de onda como “cores”, embora não captáveis pelos nossos olhos. O vapor de água, o mais importante gás para o efeito de estufa, interceta apenas algumas cores, mas porque bloqueia quase cem por cento destas, acrescentar mais vapor de água à atmosfera não tornará o isolamento mais forte – seria como acrescentar uma camada a uma janela já pintada de preto. Mas isto não acontece com o dióxido de carbono. Esta molécula interceta algumas cores que o vapor de água não atinge, o que quer dizer que poucas moléculas de CO2 podem ter um efeito muito maior (como uma primeira demão de preto numa janela não pintada).

No entanto, embora o efeito da concentração atual de CO2 seja importante (7,6%), a sua duplicação não altera substancialmente as coisas (um aumento de 0,8%) devido ao efeito de “pintar uma janela preta”, já referido. Isto leva-nos à segunda questão. Porque é que um aumento tão modesto, de cerca de 1%, pode ter tanta importância? Acontece que os modelos do IPPC nos dizem que a duplicação dos níveis de CO2 desde os tempos pré-industriais – causando a mudança de 1% na interceção do calor, já discutida atrás – deve aumentar a temperatura da superfície terrestre em cerca de 3ºC (5,5ºF). Uma vez que a temperatura média da superfície terrestre é de 15ºC (59ºF), um aumento de 3ºC representa um aumento de 20% (3ºC em 15ºC). Mas, na escala Fahrenheit, esta mudança é de 5,5ºF, retirada da média de 59ºF, um aumento de 10%. Ora, porque é que a percentagem de subida da temperatura depende da escala que usamos? Como pode uma subida de 1% na captura de calor produzir um tal efeito colateral?

O problema está mesmo na escala que usamos, seja a de Celsius ou a de Fahrenheit, ambas adstritas às propriedades da água – que gela a 0ºC (32ºF) e ferve a 100ºC (212ºF). Ora, a lei Stefan- Boltzmann que, como vimos, descreve a relação entre o calor irradiado pela Terra e a sua temperatura, baseia-se em temperaturas absolutas, que são medidas pela escala de Kelvin, adstrita ao zero absoluto – a temperatura em que a matéria está tão fria que não emite qualquer calor (0K = -273,15ºC ou 459,67ºF). Assim, a temperatura média da superfície terrestre é de 15ºC (59ºF) a que correspondem 288K. A uma subida de 3ºC (5,5ºF) corresponde uma subida de 3K (as escalas Celsius e Kelvin têm intervalos iguais), o que, sobre 288, dá o valor correto de 1% na capacidade de a atmosfera intercetar o calor quando a concentração de CO2 é duplicada. Deste modo, na escala apropriada, a influência humana revela-se muito modesta.

Mas nem todas as influências humanas provocam aquecimento. Os aerossóis, por exemplo, são finas partículas na atmosfera que refletem a luz solar e formam nuvens refletivas. Juntamente com alterações nos terrenos, com a desflorestação (pastagens são mais refletivas que florestas) aumentam o albedo e exercem uma influência para o arrefecimento que anula cerca de metade do aquecimento provocado pelos gases com efeito de estufa. Causas naturais, como os vulcões, que lançam aerossóis para a atmosfera, onde podem permanecer durante vários anos, também contribuem para o arrefecimento. Mudanças na intensidade solar (originadas pela sua variabilidade interna) podem também alterar a quantidade de luz solar que atinge a Terra. Tudo isto torna complicado avaliar as dimensões natural e humana no que diz respeito ao delicado equilíbrio energético do planeta. A maior influência humana sobre o sistema climático prende-se com a emissão de gases com efeito de estufa. Mas a relação entre essa emissão e a influência que ela tem no clima é mais complicada do que se poderia imaginar.

Emissões Explicadas e Extrapoladas

Dos gases com efeito de estufa que sofrem influência da atividade humana, os mais importantes são o dióxido de carbono (CO2) e o metano (CH4). Apesar do nosso foco estar centrado na redução de emissões, a correspondência entre concentração e emissão não está, de forma alguma, bem estabelecida. A emissão de CO2 pelos humanos é modesta, no contexto do ciclo natural de carbono que se move sobre a crosta terrestre – oceanos, plantas e atmosfera. Como veremos, o aumento de CO2 provocado pelo homem aumentará, sob qualquer cenário, durante décadas. Mas, apesar da precisão reclamada pelos modelos climáticos, o seu impacto é largamente incerto.

Comecemos pelo princípio. A Terra foi formada há 4,5 mil milhões de anos, com uma dotação fixa de carbono. Esse carbono encontra-se hoje em diversos locais no planeta, nos chamados “reservatórios”. O maior reservatório é de longe a crosta terrestre, que contém quase todo o carbono do planeta, cerca de 1,9 mil milhões de gigatons (1 gigaton, Gt, são mil milhões de toneladas). A segunda maior quantidade, cerca de 40 mil Gt, está nos oceanos, quase todo abaixo da superfície. Há também cerca de 2.100 Gt armazenados nas terras, solos e coisas vivas, e 5.000-10.000 Gt em combustíveis fósseis debaixo dos fundos terrestres e marinhos. Os 850 Gt de carbono presente na atmosfera, quase todo na forma de dióxido de carbono, corresponde a cerca de 25% do carbono presente na, ou perto da, superfície terrestre (em solos, plantas e oceanos pouco profundos), mas representa apenas 2% do carbono presente nos oceanos.

Poderosos processos naturais movimentam o carbono terrestre entre esses reservatórios, transformando frequentemente a sua fórmula química. O mais importante destes processos é o fluxo sazonal de cerca de 1/4 do carbono da atmosfera para as plantas em crescimento – que usam a fotossíntese para transformar o CO2 da atmosfera em matéria orgânica, que depois regressa à atmosfera através da respiração das plantas e à medida que essa matéria orgânica decai. Outros processos bastante mais lentos transportam o carbono da superfície para as profundezas dos oceanos e depois transformam-no em rochas, tais como calcário e mármore, formadas a partir de conchas de animais marinhos.

O CO2 emitido através da queima de combustíveis fósseis altera o equilíbrio deste grande ciclo anual, uma vez que o carbono é retirado das profundezas dos solos onde estava isolado através deste processo natural. O uso de combustíveis fósseis aumenta em 4,5% o carbono que circula no ciclo anual. Cerca de metade deste aumento é absorvido pela superfície terrestre (a subida de CO2 fez aumentar bastante a vegetação do planeta) e o remanescente fica na atmosfera, aumentando por esta via a concentração de CO2. Há 5 linhas independentes que provam a influência humana no aumento da concentração de CO2 nos últimos 150 anos, por isso nenhum cientista contesta essa influência:

  • as concentrações ao longo dos últimos 10 mil anos variaram entre 260 e 280 ppm, antes de uma forte subida ter ocorrido em meados do século XIX.
  • esta subida é o que seria expectável pela queima de combustíveis fósseis.
  • esta subida é antecipada em 2 anos no hemisfério norte, onde a queima de combustíveis fósseis é maior, relativamente ao hemisfério sul.
  • a subida do carbono é de um tipo de carbono “leve” 12C, presente nos seres vivos, cujos restos são, como se sabe, os constituintes dos combustíveis fósseis.
  • o oxigénio está a diminuir – embora muito levemente e sem consequências para os humanos – em proporção correspondente ao necessário para transformar o carbono fóssil em CO2.

No entanto, a concentração de CO2 já foi muitíssimo maior do que a que existe hoje. Apenas no período permiano, há 300 milhões de anos, o nível de CO2 era idêntico ao de hoje. De resto, foi sempre muito superior, e apenas há cerca de 175 milhões de anos começou a decrescer até ao século XIX. Nessa altura, em que os níveis de CO2 eram cinco ou dez vezes superiores aos de hoje, a vida de plantas e animais era florescente. Mas eram animais e plantas diferentes. A vida na Terra está agora adaptada a baixos níveis de CO2. O dióxido de carbono é o único gás com efeito de estufa provocado pelo homem com larga influência no clima. E motiva preocupação porque persiste no ciclo atmosfera/superfície terrestre por muito tempo. 60% do CO2 que é produzido hoje permanecerá na atmosfera por mais 20 anos; 30% a 50% permanecerá por um século; e entre 15 a 30% manter-se-á na atmosfera mais de mil anos. Isto quer dizer que pequenas reduções na emissão de CO2 apenas abrandarão o aumento da concentração de CO2 na atmosfera, mas não o anulam. Para estabilizar essa concentração, e consequentemente a sua influência no aquecimento terrestre, teríamos de parar por completo as emissões.

O metano é o segundo gás com efeito de estufa mais importante, no que diz respeito à influência humana. Tem vindo a subir consistentemente desde o início dos anos 80 do século XX, embora um “planalto”, entre 1998 e 2008, intrigue os cientistas e constitua mais uma incerteza no seio da ciência climática. Mas a subida do metano vem de muito mais longe, pelo menos desde há 4 mil anos. As principais diferenças entre o metano e o CO2 são as seguintes.

  • O metano tem uma concentração na atmosfera muito menor (2.000 partes por bilhão – mil milhões em português – enquanto o CO2 tem cerca de 400 partes por milhão).
  • O metano dura apenas 12 anos na atmosfera, embora, depois disso, reações químicas o convertam em CO2.
  • Devido às peculiaridades de como as moléculas interagem com as diferentes cores da radiação infravermelha, cada molécula adicional de metano na atmosfera é 30 vezes mais potente do que a molécula de CO2 no que diz respeito ao efeito de estufa.

As principais fontes de metano na atmosfera são os gases emitidos pelo gado, através da fermentação interna nos seus corpos (29%)12; petróleo e gás (20%); cultivo de arroz (10%); águas residuais (9%); estrume, mineração de carvão, decaimento de materiais em aterros, entre outros.

O futuro do clima terrestre será determinado pela resposta climática, quer à influência humana quer à influência natural, quer à sua variabilidade interna. Vulcões, o Sol e as correntes oceânicas profundas têm mentes próprias, tal como o clima em si mesmo. Quanto a isto, podemos fazer pouco, mas podemos ter uma noção sobre o que os humanos farão nos próximos anos, particularmente no que diz respeito às emissões de gases com efeito de estufa e aerossóis. Face às grandes incertezas sobre as décadas que aí vêm, em vez de fazer previsões credíveis, o IPPC cria cenários que têm o nome complicado de Representative Concentration Pathways ou, simplesmente, RCPs. Um ponto principal a retirar de qualquer cenário é que a influência humana continuará a crescer no curto prazo, mesmo que cessem na totalidade as emissões. Em suma, não é só difícil isolar a influência humana dentro do complexo sistema climático, mas também a relação entre emissões e concentrações na atmosfera torna extremamente difícil moderar as nossas influências.

Muitos modelos confusos

Para tentarem perceber como as coisas se vão desenrolar, os cientistas criam em computador os seus famosos modelos. Mas o que são exatamente os modelos climáticos? A resposta curta é que são programas de computador que correm sob simulações matemáticas do sistema climático. Tal como o estatístico George Box, da universidade de Wisconsin, disse em 1978: Todos os modelos estão errados, mas alguns são úteis. Um problema básico dos modelos climáticos é deduzível das dificuldades atuais das previsões meteorológicas, que não conseguem uma precisão superior a 15 dias, apesar de serem hoje muito mais precisas do que eram há 30 anos. Este problema fundamental foi descrito em 1961 por Ed Lorenz, do MIT. O tempo é caótico e pequenas alterações ao modo como iniciamos o nosso modelo podem conduzir a predições muito diferentes após poucas semanas. Então, não importa quão acuradamente podemos especificar as condições presentes, a incerteza das nossas predições cresce exponencialmente à medida que as projetamos no futuro. Computadores mais poderosos não podem ultrapassar esta incerteza básica.

Todos os modelos climáticos computorizados começam através da cobertura da atmosfera com uma rede tridimensional, tipicamente dez a vinte camadas de caixas empilhadas acima da rede de superfície, em quadrados de 100X100 quilómetros. A rede que cobre os oceanos é semelhante, mas menor, tipicamente 10X10 quilómetros, e mais camadas verticais (até 30 camadas). Com a totalidade da Terra coberta desta forma, há cerca de um milhão de caixas desta rede para a atmosfera e 100 milhões de caixas para o oceano. Uma vez estabelecida esta rede no terreno, os modelos de computador usam as leis da Física para calcular como o ar, água e energia em cada caixa, num dado momento, se movem para as caixas de rede vizinhas, um pouco mais tarde; este lapso de tempo pode ser tão curto quanto dez minutos. Repetindo este processo milhões de vezes, simula-se o clima para um século (pouco mais de 5 milhões de vezes se o lapso de tempo for de 10 minutos). Estes inúmeros lapsos de tempo numa simulação podem dar trabalho, mesmo ao mais poderoso computador do mundo, durante meses. Os investigadores podem alternar entre estes diferentes fatores, dependendo do propósito do modelo em questão. Um dos desafios maiores destes modelos é que apenas usam valores únicos para a temperatura, a humidade, etc., para descrever as condições no interior de uma caixa de rede.

No entanto, vários fenómenos importantes ocorrem numa escala menor do que os 100 kms (60 milhas) das caixas, tais como montanhas, nuvens e trovoadas, e por isso os investigadores têm de construir sub redes para construírem um modelo completo. Por exemplo, fluxos de luz solar e de calor através da atmosfera são influenciados pelas nuvens. Estas desempenham um papel crucial – dependendo do tipo e formação, as nuvens refletem a luz solar ou intercetam o calor, em quantidades variáveis.

Então, porque não construir caixas mais pequenas? Infelizmente, isso iria aumentar dramaticamente a dimensão da computação, desde logo porque teríamos muito mais caixas de rede com que lidar. Mas, além do número de caixas, uma rede mais fina introduz um outro problema: a computação só será acurada se as coisas não mudarem demasiado dentro de um lapso de tempo (ou seja, se não se moverem para lá de uma única caixa de rede). Assim, se a rede for mais fina, o lapso de tempo tem igualmente de ser menor, exigindo mais tempo de computação. Para ilustrarmos isto, uma simulação que dure dois meses para uma rede de 100 kms quadrados, levaria mais de um século se usássemos uma rede de 10 kms quadrados. Este tempo poderia ser reduzido para os mesmos dois meses se tivéssemos um supercomputador cem vezes mais rápido que os atuais – uma capacidade talvez disponível dentro de duas ou três décadas, mas não hoje.

Outro problema que se levanta prende-se com a forma como a nossa grelha divide a Terra em pedaços verticais versus horizontais. A atmosfera e os oceanos são ambos como finas conchas que cobrem a superfície terrestre – a profundidade média dos oceanos (4 kms) é muito pequena quando comparada com o raio da Terra (6.400 kms), bem como a altura da atmosfera (cerca de 100 kms). Para descrever com precisão as variações verticais, as várias dezenas de caixas empilhadas são mais parecidas com panquecas do que com cubos, centenas de vezes maiores em largura do que em altura13. Em geral, as simulações são mais acuradas nas partes superiores da pilha de “panquecas”, mas estas caixas achatadas tornam-se um problema nas partes da atmosfera abaixo dos 10 kms, onde o tempo turbulento ocorre. As trovoadas têm lugar em áreas muito menores do que os 100 kms da nossa rede. Isto é particularmente importante nos trópicos, onde há um significativo fluxo de energia e vapor de água, transportados para a atmosfera pela evaporação da água dos oceanos. Deste modo, são necessárias sub redes que assumam esta “convecção húmida” – a forma como o ar e o vapor de água se movem verticalmente através das caixas achatadas – para se construírem modelos fiáveis. De facto, a maior incerteza da modelagem climática decorre do tratamento das nuvens.14

Qualquer simulação precisa também de ser “iniciada”, ou seja, precisamos de alguma forma especificar as condições do oceano e da atmosfera no início do primeiro lapso de tempo: temperatura, humidade, ventos, etc., em cada caixa da atmosfera, bem como temperatura, salinidade, correntes, etc., em cada caixa de rede do oceano. Infelizmente, mesmo com os meios sofisticados de observação existentes, esse tipo de detalhe não está ao nosso alcance, muito menos estaria nas décadas passadas. Além disso, o nível caótico da simulação tornaria a maioria dos detalhes irrelevantes passadas duas ou três semanas. Assim, a etapa inicial (1º lapso de tempo) capta apenas de forma grosseira as condições de partida. Em cada evento, por razões práticas e fundamentais, é impossível ajustar dezenas de parâmetros para que o modelo corresponda às muito mais numerosas propriedades observadas do sistema climático. As nossas limitações não nos permitem entender as características do clima, nem sequer perto dos níveis de especificidade exigidos.

Entre as coisas mais importantes que um modelo tem de considerar estão os chamados feedbacks. O crescimento da concentração de gases com efeito de estufa que provocam o aquecimento global pode também causar outras mudanças no sistema climático, as quais podem ampliar ou diminuir a sua própria influência nesse aquecimento. Por exemplo, à medida que o globo aquece, há menos neve e gelo na superfície terrestre, o que provoca a diminuição do albedo terrestre. A Terra menos reflexiva irá então absorver mais luz solar, causando ainda mais calor. Um outro exemplo de um feedback é que, à medida que a atmosfera aquece, vai carregar mais vapor de água, o que vai aumentar bastante a sua capacidade de intercetar o calor libertado. Mas mais vapor de água vai também transformar a cobertura de nuvens, aumentando quer a interceção de calor (nuvens altas) quer a reflexividade (nuvens baixas). Neste balanço ganha a reflexividade, e o feedback da rede de nuvens, de alguma forma, diminui o aquecimento direto.

É por tudo isto que os ajustamentos (tuning) são necessários mas perigosos, quer nos modelos climáticos, quer em qualquer sistema complexo. Um artigo de 15 proeminentes cientistas do clima põe as coisas nestes termos:

As escolhas e os compromissos feitos durante os ajustamentos podem significativamente afetar os resultados do modelo… Em teoria o tuning deveria ser levado em conta em qualquer avaliação, comparação ou interpretação dos resultados do modelo… Porquê uma tal falta de transparência? Isto pode acontecer porque a “sintonização” é frequentemente vista como uma parte suja, embora inevitável, da modelação climática, mais engenharia que ciência, um ato de desafinação que não merece ser registado na literatura científica. Também pode haver alguma preocupação em explicar que os modelos são ajustados, pois isto pode fortalecer os argumentos daqueles que questionam a validade das projeções sobre mudanças climáticas. Os ajustamentos podem ser vistos, sem dúvida, como uma inconfessável forma de compensar os erros dos modelos.15

Acresce a tudo isto que os resultados dos diferentes modelos divergem entre si, sendo que, quanto à temperatura média da superfície terrestre, chegam a divergir em 3ºC. Isto é particularmente chocante se tivermos em consideração que 3ºC são três vezes maiores que o valor de aquecimento observado durante o século XXI, valor esse que os próprios modelos buscam explicar e descrever. Dois modelos cuja temperatura de superfície média varie deste modo vai igualmente variar bastante nos seus detalhes. Por exemplo, uma vez que não é possível ajustar a temperatura de congelamento da água (determinada pela natureza), a quantidade de neve e gelo que cobrem a Terra, e consequentemente os albedos, podem ser muito diferentes.

Dado que nenhum modelo bate certo, o resultado médio dos relatórios de avaliação é deduzido de um “conjunto” de algumas dezenas de modelos de diversos grupos de pesquisa espalhados pelo mundo. O CMIP (Coupled Model Intercomparison Project) compila estes conjuntos. O conjunto CMIP3 está na base do relatório de avaliação AR4 do IPCC; por sua vez o CMIP5 sustenta o relatório AR5, de 2013, enquanto o CMIP6 fundamentará o relatório de avaliação conhecido por AR616. Surpreendentemente, alguns dos atuais modelos são menos precisos que modelos antigos, apesar de mais sofisticados. O próprio IPCC, embora numa linguagem asséptica, reconhece não ter ideia do que causa as falhas nos modelos, nomeadamente quando previram metade do aquecimento realmente observado entre 1910 e 1940. Isto é altamente problemático porque o aquecimento observado no início do século XX é comparável ao observado no final do século, o qual, de acordo com os relatórios de avaliação, é atribuído com “elevada confiança” à influência humana. O IPCC reconhece que é difícil quantificar as contribuições da variabilidade interna, das forças naturais ou antropogénicas para este aquecimento.17

A variabilidade interna que o IPCC refere como difícil de quantificar, embora considerado um assunto menor, é de facto um grande problema. Observações climáticas mostram claramente comportamentos repetidos ao longo de décadas e mesmo séculos. Pelo menos alguns deles devem-se a lentas mudanças nas correntes oceânicas e à interação entre o oceano e a atmosfera. O exemplo mais conhecido é o dos fenómenos associados ao El Niño (tecnicamente, El Niño -Southern Oscilation), uma alteração no calor ao longo da região equatorial do Oceano Pacífico, que ocorre irregularmente entre 2 a 7 anos e influencia a meteorologia mundial. Um comportamento lento menos conhecido é a “Oscilação Multidecadal do Atlântico” (Atlantic Multidecadal Oscilation – AMO), que envolve mudanças cíclicas de temperatura (entre 60 a 80 anos) no Atlântico Norte. O Oceano Pacífico mostra um similar, embora não relacionado, comportamento cíclico de cerca de 60 anos. Dado que temos apenas 150 anos de boas observações e registos, comportamentos sistemáticos que ocorrem em escalas de tempo maiores são menos conhecidos – mas podem existir (e quase de certeza que existem) outras variações cíclicas naturais, que ocorrem ao longo de períodos ainda maiores.

Estes ciclos influenciam o clima aos níveis regional e global e sobrepõem-se a qualquer tendência, humana ou natural, como a emissão de gases com efeito de estufa ou os aerossóis de origem vulcânica, e tornam difícil determinar que mudanças observadas se devem à influência humana ou à influência natural. O falhanço, mesmo dos modelos mais recentes, para justificar o rápido aquecimento ocorrido nos anos iniciais do século XX sugere, torna mesmo provável, que a variabilidade interna – os fluxos e refluxos naturais dos sistemas climáticos – tenha contribuído significativamente para o aquecimento que vem ocorrendo nas últimas décadas. O facto de os modelos não conseguirem reproduzir o passado constitui um grande cartão vermelho e degrada a confiança em projeções futuras. Isto reflete-se no ECS – Equilibrium Climate Sensitivity, ou seja, no valor em que subirá a temperatura média da superfície terrestre se a concentração de CO2 hipoteticamente duplicar os 280 ppm da época pré-industrial. Se as emissões se mantivessem ao ritmo atual, essa duplicação aconteceria até ao final deste século. O que acontece é que esse valor não tem agora um grau de certeza maior do que tinha em 1979 (o valor estimado nessa altura era de 3ºC.)

Os modelos dão-nos valores diferentes, que vão dos 2ºC até aos 5,5ºC. Estes altos ECS parecem resultar da sub-rede que inclui a interação das nuvens com os aerossóis nos modelos, algo que não é bem compreendido, mas que inibe o aquecimento, ao aumentar o albedo da Terra. Por outras palavras, os investigadores ajustam os seus modelos ao que eles pensam corresponder ao aumento dos gases com efeito de estufa, ou seja, cozinham os resultados. Num artigo publicado em julho de 2020, vinte cientistas combinaram as abordagens verticais e em grade (juntamente com algumas informações observacionais e de períodos antigos) na tentativa de definir a sensibilidade do clima. Os autores encontraram um intervalo provável para o ECS de 2,6 a 4,1º C, metade do estimado pelo AR5 (1,5-4,5ºC), o que significa que valores extremamente baixos ou extremamente altos são considerados pouco prováveis.18 Não surpreende que tenhamos uma pobre compreensão sobre como o clima vai responder ao aumento das concentrações de gases com efeito de estufa. Quanto mais aprendemos sobre o sistema climático, mais temos noção do quão complicado ele é.

Exagerando no calor

O que vemos quase diariamente na comunicação social são notícias sobre secas, incêndios, cheias, tempestades, etc., “sem precedentes”. Dado que a memória humana é relativamente curta, a maioria das pessoas acredita. Mas a ciência conta-nos uma história diferente. Observações desde há um século indicam que a maioria dos fenómenos meteorológicos extremos não mostram qualquer tendência significativa, e alguns destes eventos tornaram-se, na realidade, menos comuns e severos, mesmo com o aumento da influência humana sobre o clima.

Por outro lado, é difícil detetar mudanças em eventos extremos, bem como atribuí-los à influência humana, devido à baixa qualidade dos registos históricos, à elevada variabilidade natural, a influências naturais difíceis de determinar, e ao desacordo sobre os inúmeros modelos usados. Sobre a dificuldade em determinar a influência humana, a Organização Meteorológica Mundial coloca de forma clara a questão: cada evento, por exemplo um ciclone tropical, furacão ou tufão, não pode ser atribuído a mudanças climáticas provocadas pelo homem, tendo em conta o conhecimento científico atual.19

Nos Estados Unidos, país que tem os registos mais extensos e de maior qualidade sobre a temperatura, os recordes de baixas temperaturas são agora menos comuns, e os recordes diários de temperaturas mais altas não são mais frequentes hoje do que eram há um século. Porque temos então a sensação de que as temperaturas extremas estão a aumentar? Uma das razões é que os relatórios são objeto de múltiplas revisões. Por questões ideológicas, muitas vezes, os dados são deturpados. Por exemplo, um quadro apresentado pelo CSSR – Climate Science Special Report (Relatório Especial sobre Ciência Climática), que mostra o racio do registo diário de recordes de altas temperaturas versus o registo diário de recorde de baixas temperaturas, é enganador, pois leva a concluir que o número de recordes da altas temperaturas está a ocorrer com mais frequência, o que não corresponde à verdade, o que acontece é que o número de recordes de temperaturas mínimas está a baixar mais do que o de temperaturas máximas. Chama-se a isto persuadir em vez de informar. Assim, não surpreende que os media desinformem e não digam a verdade, que é a de que, afinal, os recordes de mínimas estão a diminuir e os recordes de máximas temperaturas quase não se alterou nas últimas décadas.

Terrores de tempestades

De acordo com os media, as tempestades estão a tornar-se mais comuns e mais intensas, e o aumento dos gases com efeito de estufa estão a tornar tudo isto ainda pior. No entanto, os dados e a literatura de pesquisa estão totalmente em desacordo com esta mensagem. No centro desta confusão estão os relatórios de avaliação, que apresentam sumários inconsistentes em relação às suas próprias conclusões. Mas a verdade é que furacões e tornados não mostram mudanças atribuíveis à influência humana. Tecnicamente, “furacão” é o termo usado para um ciclone tropical no Atlântico ou no leste do Pacífico; estas tempestades são chamadas “tufões” no Pacífico Oeste e apenas “ciclones” na Baía de Bengala e no norte do Oceano Índico. Para evitar confusões, Koonin não se faz essa distinção, considera no livro que todos essas tempestades são furacões. Com uma extensão de até algumas centenas de milhas, estes sistemas de tempestade apresentam um centro (“olho”) de baixas pressões, rodeado por uma espiral (contrária ao sentido dos ponteiros do relógio no hemisfério norte e no sentido dos ponteiros do relógio no hemisfério sul) de trovoadas e tornados, produzindo chuva pesada. Quanto mais baixa for a pressão do olho, mais fortes serão os ventos em seu torno. Um furacão apresenta ventos superiores a 119 km/h; se for mais fraco, é chamado “tempestade tropical”, e se for ainda mais fraco é conhecido por “depressão tropical”. Os furacões são categorizados pela sua intensidade através da escala Saffir-Simpson, que vai de 1 a 5. As maiores tempestades (as de categorias 3 a 5) têm ventos superiores a 179 km/h.20

Os furacões crescem de depressões tropicais (áreas de baixa pressão) nascidas sobre os oceanos ao longo do equador. De seguida movem-se no sentido dos polos, dependendo o seu caminho preciso dos ventos regionais; a maioria nunca chega ao solo. Há cerca de 48 furacões por ano em todo o globo. Dois terços ocorrem no hemisfério norte (onde a temporada de furacões vai de junho a novembro) e um terço no sul (de novembro a maio). Em números redondos, cerca de 60% ocorrem no Pacífico, 30% no Índico, e 10% no Atlântico Norte. São muito raros no Atlântico Sul. Os cientistas desenvolveram outras formas de medir as tempestades. Uma delas é a Energia Acumulada do Ciclone (ACE – Accumulated Cyclone Energy), que combina o número de tempestades com a sua intensidade, e outra é o Índice de Energia de Dissipação (PDI- Power Dissipation Index), semelhante à ACE, mas que confere um peso ainda maior às tempestades mais intensas (cada tempestade é medida pelo cubo, ou 3ª potência, da sua velocidade de vento).

As áreas de baixas pressões que se transformam em furacões formam-se a partir da evaporação da água do mar numa zona quente; essa água liberta calor à medida que sobe e se condensa na atmosfera. Assim, podemos esperar um incremento na atividade dos furacões à medida que a superfície do mar aquece. Infelizmente, não é assim tão simples, como se pode comprovar pelos registos de longo prazo dos números anuais e da ACE de furacões no Atlântico Norte. As flutuações de longo prazo da Oscilação Multidecadal do Atlântico (AMO – Atlantic Multidecadal Oscillation), atrás referida, afeta a temperatura da superfície do mar onde se formam os furacões e pode, por isso, aumentar ou suprimir a sua atividade. As condições atmosféricas têm que ser precisas para que um furacão se forme, não apenas a temperatura. Há uma série de outros fatores a ter em conta, como a variação da velocidade do vento e a sua direção com a altitude, ou a presença de poeira do Sahara, nenhum dos quais descritos pelos modelos climáticos.

Como é evidente, o facto de a temperatura não ser o único fator a ter em conta na formação de furacões não quer dizer que o aquecimento, natural ou causado pelo homem, não tenha influência. Tem havido, como sempre há em tudo que tem a ver com o clima, oscilações no número e intensidade dos furacões nos últimos anos, talvez porque o ciclo AMO esteja numa fase alta, mas tal já ocorreu no passado e, se alongarmos o período de registos, verificaremos que houve tempos em que a atividade era pelo menos tão grande como a que temos hoje, mesmo antes da influência humana se tornar significativa. Assim, a maioria dos autores tem “baixa confiança” (low confidence) em que alterações na frequência e intensidade dos ciclones tropicais estejam além do que possa ser atribuído à variabilidade natural. No entanto, os media não dão conta desta realidade, preferindo propagar o alarme não fundamentado. É verdade que os danos económicos provocados pelos furacões estão a aumentar, mas isto acontece porque hoje há mais pessoas e mais infraestruturas valiosas nas zonas costeiras, não porque as características das tempestades tenham mudado no longo prazo.

Seja o que for que o futuro nos reserve, as descrições dos dados sobre furacões, presentes nos relatórios de avaliação, pecam por omissão; violam o que Einstein uma vez disse no edifício da Academia Nacional, em Washington: “O direito da busca pela verdade implica também um dever; não devemos esconder nenhuma parte do que reconhecemos ser verdadeiro”. É claro que os furacões não são as únicas tempestades que causam estragos e ganham manchetes. Vejamos os tornados. O seu número tem aumentado significativamente. Mas isto ilustra perfeitamente os perigos da correlação. Uma simples pesquisa no Google revela-nos que também o números de barcos de pesca ou de filmes violentos duplicou desde 1950 e, com certeza, nenhuma destas tendências se deve a alterações climáticas. No caso dos tornados, a chave para esta “tendência” reside na compreensão de como os dados são compilados – o que é frequentemente tão importante quanto os dados em si. Como são, afinal, os tornados contabilizados?

Hoje em dia os radares detetam tornados muito fracos, distantes mais de 160 kms, mas antes dos radares estarem largamente disponibilizados os tornados fracos nem sempre eram registados. Estes tornados mais fracos nem sempre deixam um rastro de destruição, sobretudo nas áreas escassamente povoadas. A força dos tornados é medida na escala Fujita (Enhanced Fujita Scale), originalmente desenvolvida em 1971, com uma versão aumentada em 2007. A categorização dos tornados vai de EF0 para as tempestades mais fracas até ao EF5, para as que têm ventos acima das 260 mph (milhas/hora). Sessenta por cento dos tornados nos Estados Unidos são hoje da categoria EF0, enquanto em 1950 essa categoria representava apenas 20%. Isto sugere que o aumento do número de tornados se deve à maior contagem de fracas tempestades nas décadas recentes, o que, de acordo com a NOAA (National Oceanic and Atmospheric Administration), é, de facto, o caso.21 De acordo com os registos no terreno, se tivermos em conta apenas os tornados de força EF1 ou superiores, verifica-se que o seu número não varia muito desde 1974. Mas se tivermos em consideração o número de tornados da categoria EF3 ou de força superior, o que se verifica é que o seu número decresceu em cerca de 40% nos 60 anos que se seguiram a 1954.

Os dados também nos dizem que há menos dias/ano com tornados, mas maior número de tempestades nos dias em que estas ocorrem. As causas, naturais ou humanas, que provocaram estas mudanças ao longo das últimas décadas mantém-se um mistério. No entanto, podemos com confiança atribuir à influência humana uma grande mudança relacionada com os tornados: as mortes provocadas pelos tornados caíram mais de dez vezes desde 1987 nos Estados Unidos, o que se deve, em larga medida, aos avisos dos radares.22

Perigos de Precipitação – das Inundações aos Incêndios

As relações entre tempo e clima são complicadas, especialmente para a precipitação, sob a forma de chuva ou de neve. Por exemplo, embora possa parecer contraintuitivo, a subida da temperatura pode afinal contribuir para que neve mais – se um aumento das temperaturas mínimas impedir o congelamento do Oceano Ártico no inverno, mais água será evaporada para a atmosfera. De acordo com os registos, os grandes nevões no mundo desenvolvido têm vindo a decrescer, embora de forma muito lenta e pouco acentuada. Desconhece-se qual a influência humana nesta tendência, se é que existe de todo.

Quanto à precipitação, temos de considerar o seguinte. O volume de água existente na Terra é, essencialmente fixo. Quase todo (cerca de 97%) está nos oceanos, e quase todo o resto encontra-se em Terra – no gelo e na neve (especialmente na Gronelândia e nos lençóis de gelo do Ártico, em lagos e rios, e no subsolo. No entanto, a água terrestre que se encontra na atmosfera tem um papel central no clima, visto que o vapor de água é o mais importante gás com efeito de estufa, e as nuvens contribuem para a maior parte do albedo terrestre. A energia solar movimenta a água entre estes diversos reservatórios e forma o chamado ciclo hidrológico. A maior e mais dinâmica parte deste ciclo é o fluxo de água que sobe da superfície terrestre para a atmosfera (85% deste fluxo advém da evaporação dos oceanos, os outros 15% da superfície terrestre, a maior parte da transpiração das plantas). Essa água mantém-se nas alturas por uma média de 10 dias, antes de condensar e cair de novo, na forma de chuva ou neve (77% cai nos oceanos e 23% no solo terrestre). Globalmente, a chuva é mais intensa perto do equador (onde muita da água evaporada volta à superfície à medida que o ar quente e húmido sobe e arrefece) mas baixa onde o ar seco desce, criando os desertos que flanqueiam o equador.

O lugar mais seco da Terra fica na América do Sul, no extremo norte do deserto de Atacama, no Chile: Arica, onde chove apenas 0,6 mm por ano. O mais húmido é Mawsynram, na Índia, com a média de 11,871 mm/ano. Se todo o resto se mantiver igual, é expectável que o ciclo hidrológico se intensifique à medida que o globo aquece: haverá mais evaporação e o ar quente transportará mais água, conduzindo a mais precipitação. É igualmente expectável que esta precipitação seja mais pesada, com áreas secas a ficarem ainda mais secas e as áreas húmidas ainda mais húmidas, com mais períodos de intensa precipitação. Isto pode levar a inundações em algumas áreas, mas uma vez que as temperaturas mais elevadas devem também aumentar a evaporação, as secas podem também aumentar. Há escasso consenso entre os modelos acerca de como, onde e quando estas alterações têm lugar.

Além disso, é bastante difícil escolher e analisar dados que sejam úteis para testar as expectativas sobre o que pode acontecer, e mesmo até responder a uma questão básica como: “como tem mudado a média de precipitação?” Ao contrário das alterações na temperatura, a precipitação pode variar enormemente em curtas distâncias e em poucos minutos – pode chover em determinado local, embora o tempo esteja perfeitamente seco a 30 kms (ou mesmo 3 kms) de distância. Isto acontece porque, como mencionado atrás, acontecem alterações súbitas nas propriedades da água: em função da temperatura e da quantidade de vapor de água, a água pode condensar e criar precipitação ou não. Assim, ao contrário do que acontece com a temperatura, não há nenhuma forma fácil de combinar os dados sobre precipitação recolhidos pelas estações meteorológicas espalhadas pelo mundo e obter um quadro geral da situação. No entanto, a combinação de dados registados por observações no solo e por satélite permite-nos projetar um quadro global de longo prazo, mais apurado sobre as zonas onde as estações meteorológicas são mais numerosas. Apesar disso, como se mostra num artigo publicado por um grupo de cientistas no Bulletin of the American Meteorological Society, em 2018: … Não parece haver qualquer tendência positiva no volume global de precipitação, devido ao aumento global de temperatura. Porquanto haja tendências regionais, não há evidência de aumento de precipitação à escala global em consequência do aquecimento global observado.23

Outro aspeto de particular importância para o sistema climático, no que diz respeito à precipitação, é a cobertura de neve que aumenta o albedo terrestre. Observações por satélite no hemisfério Norte mostram que há um declínio na cobertura de neve durante a Primavera (e também com algum significado no Verão), como seria expectável num globo a aquecer – especialmente num em que as baixas temperaturas estão a aumentar, enquanto a neve durante o Outono e o Inverno aumentou modestamente. As pequenas alterações no volume de precipitação nos Estados Unidos ao longo dos anos, não alteram a média de incidência de inundações.

As secas são ainda mais difíceis de determinar do que as inundações, uma vez que não resultam apenas da precipitação (ou, antes, da falta dela). Ao contrário, as secas envolvem combinações de temperatura, precipitação, composição e capacidade de escoamento do solo. Atividades humanas, como a irrigação, que esgota a água no solo, ou o esgotamento das terras por excesso de aragem (de “arar” a terra), como aconteceu durante os Grandes Planos americanos nos anos 1930, também jogam um papel. As secas medem-se através do Índice de Gravidade da Seca de Palmer (PDSI – Palmer Drought Severity Index). Secas severas têm acontecido ao longo dos milénios, e os dados, sobretudo através dos registos nos anéis, mostra-nos muitas secas que perduraram por décadas, muitas antes de 1900, incluindo as mega secas de 900 a 1300 AD, e que, portanto, não podem ser atribuídas a influências humanas, mas antes ao aquecimento natural do globo naquela época. O AR5 de 2014 reconhece que “pode dizer-se com elevada confiança que houve secas de maior magnitude e mais longa duração no último milénio, do que aquelas observadas em muitas regiões nos últimos cem anos.

As secas tornam os incêndios mais severos e os grandes incêndios dominam as parangonas dos jornais, que atribuem as causas dos mesmos às alterações climáticas. Apesar disso, os dados mostram-nos que a área ardida, a nível global, diminuiu 25% de 1998 até 2015. Uma das razões para este declínio é atribuída pelos cientistas à atividade humana, nomeadamente à expansão e intensificação da agricultura. Mais uma vez, os modelos são imperfeitos e as previsões incertas. Não se conhece exatamente que papel desempenha a humanidade relativamente a estes aspetos do clima no futuro.

O Nível do Mar Assusta

Depois dos oceanos, a maior reserva de água da Terra está nos lençóis de gelo da Gronelândia e do Ártico. Enquanto numerosos fatores contribuem para pequenas alterações do nível do mar, o que conta mais, o que é mesmo mais importante ao longo do tempo geológico, depende do gelo que se encontra nos solos. Ciclos lentos – variações na órbita da Terra e na inclinação do seu eixo ao longo de dezenas de milhares de anos – alteram a quantidade de luz solar absorvida pelos hemisférios Norte e Sul. Essas alterações causaram grandes oscilações na temperatura global durante milhões de anos. E também provocam o crescimento ou a diminuição dos lençóis de gelo que cobrem os continentes (os intervalos são tecnicamente chamados “glaciações” e “interglaciações”, respetivamente), despejando menos ou mais água nos oceanos, e assim causando a descida ou subida dos níveis do mar. Por exemplo, durante o último período interglacial (pouco gelo), há 125 mil anos, conhecido por Eemian (Eemiano), o nível dos mares era cerca de 6 metros mais alto do que é hoje.

O último Glaciar Máximo ocorreu há cerca de 22 mil anos, altura em que os glaciares continentais começaram a derreter de novo. A Terra encontra-se hoje no interglacial Holoceno, que os geólogos acreditam ter começado há 12 mil anos. De acordo com os dados geológicos, o nível do mar subiu cerca de 120 metros desde o Último Glaciar Máximo, muito rapidamente (120mm por década) até cerca de 7 mil anos atrás, tendo depois essa subida abrandado drasticamente. A questão, portanto, não é a de saber se o nível dos mares está subindo, mas de que forma os seres humanos contribuem (ou não) para isso. Nas últimas três décadas o nível do mar subiu cerca de 3mm por ano, mais do que a média de 1,8 mm desde 1880. No entanto, a média não nos diz nada sobre se ocorreram ou não períodos de maiores subidas, como este dos últimos 30 anos.

Para sermos claros, o nível dos mares sobe à medida que a temperatura do globo sobe. Quando a temperatura de superfície terrestre aumenta, o gelo derrete – e à medida que os oceanos aquecem, a água que contêm expande-se. Os níveis sobem e descem sazonalmente no longo prazo, em resposta aos ciclos orbitais discutidos anteriormente, e em resposta às influências naturais ou humanas. Enquanto as taxas de subida ao longo do século passado tiveram significativos altos e baixos, um globo em aquecimento provoca, indubitavelmente, mais água nos oceanos. O que acontecerá, então, ao nível dos mares, no futuro? A resposta depende sobretudo da quantidade de gelo que derrete na superfície terrestre, à medida que as temperaturas sobem, e também do aumento da temperatura dos oceanos.

No entanto, sabe-se que o derretimento do gelo ao nível global diminuiu desde 1900 e é hoje o mesmo que há 50 anos; a contribuição da Gronelândia para este derretimento atingiu um nível mínimo em 1985 e não é agora mais elevado do que era em 1935. Os cientistas que constroem os modelos deparam-se com um problema fundamental: não compreenderam as alterações que ocorrem na Antártida e na Gronelândia que determinaram o volume dos oceanos e, consequentemente, a subida ou descida do nível dos mares. Os dados sugerem que há ciclos que condicionam o nível das águas, nomeadamente o AMO (Oscilação Multidecadal do Atlântico)24, já referido, sendo expectável que esse nível desça durante as próximas décadas, ao contrário do que é divulgado pela comunicação social.

Em suma, não sabemos o quanto da subida do nível global do mar é devida ao aquecimento provocado pelo homem, e quanto é devido aos ciclos naturais de longo prazo. Há poucas dúvidas de que, ao contribuirmos para o aquecimento do planeta, também contribuímos para a subida do nível dos mares. Mas há pouca evidência de que essa contribuição seja significativa, muito menos catastrófica. A tendência dos humanos construírem cidades nas zonas costeiras também tem contribuído para o aumento do nível dos mares.25

Apocalipses que não são

Os supostos apocalipses, que afinal, não o são, são três:

  • Mortes causadas pelas alterações climáticas.
  • Desastre na agricultura.
  • Desastre na economia

Quanto ao primeiro, é preciso reconhecer que as pessoas não morrem por causa do clima. O clima muda devagar e as sociedades adaptam-se ou migram. Mas as pessoas morrem devido a eventos meteorológicos relacionados com o clima – secas e inundações, tempestades, temperaturas extremas e grandes incêndios, embora tenhamos já visto que estamos longe de ter alguma certeza de que alterações no clima provoquem estes fenómenos. Desde 1930, as mortes provocadas por fenómenos meteorológicos decaíram consecutivamente, sendo hoje menos de metade do que as que ocorriam naquela década. Por outro lado, muitas mortes atribuídas ao clima – como aquelas provocadas pelo cozinhar com madeira e restos de animais e plantas – são na realidade causadas pela pobreza. Não há dúvida de que a poluição afeta o clima (como vimos, os aerossóis provocam o arrefecimento do planeta), mas as mortes devidas à poluição não são causadas pelas alterações climáticas, antes pela própria poluição.

Quanto ao suposto desastre na agricultura, é importante começar por referir que o aumento da concentração de dióxido de carbono tem sido um fator muito relevante para o aumento da produção agrícola, uma vez que impulsiona a taxa de fotossíntese e altera a fisiologia das plantas, fazendo com que usem a água de forma mais eficiente.26, 27 2020 foi o ano-recorde da produção de grãos. Em suma, o que a ciência realmente nos diz é que o colapso nas colheitas derivado do clima é outro apocalipse que, simplesmente, não o é. E, consequentemente, nada indica que possa ocorrer, devido às “alterações climáticas”, um desastre económico.

Fica claro que os media, os políticos e frequentemente os próprios relatórios de avaliação desvirtuam descaradamente o que a ciência diz sobre clima e catástrofes. Essas falhas devem ser atribuídas aos cientistas que escrevem ou reveem os relatórios, os repórteres que acriticamente os refletem, os editores que permitem que tal aconteça, os ativistas e as suas organizações que primem os botões de alarme, e os especialistas cujo silêncio público engrossa o engano.

Quem degradou a ciência e porquê

Há vários responsáveis pela desinformação que passa para o público sobre as alterações climáticas. Eis os principais: os media; os políticos; as instituições científicas; os cientistas; os ativistas e as ONGs; o próprio público. Claro que nem todos os membros destes grupos alinham no alarme geral, mas os que o fazem são suficientes para sustentar essa tendência, que se tornou maioritária e, mais do que isso, uma verdade incontestável na maior parte da opinião pública mundial. Os media são responsáveis porque destacam, na abertura de telejornais ou em parangonas na imprensa, aquilo que vende mais: o alarmismo. Isto é particularmente verdade no que toca às matérias sobre clima e energia. Informar em profundidade não vende, é muito mais rentável a manchete sensacionalista – sobretudo num mundo onde a partilha de notícias nas redes sociais é a parte mais importante do negócio – até porque há sempre, algures no mundo, uma história sobre um qualquer evento meteorológico extremo para contar.

Por outro lado, a maioria dos jornalistas não tem formação científica. E isto é muito importante porque, como vimos, os próprios relatórios de avaliação podem ser mal interpretados, sobretudo por quem não é especialista. Assim, os jornalistas embarcam facilmente na missão de salvar o mundo da destruição humana, considerando o alarmismo correto, mesmo um dever, o qual se deve, em larga medida, ao desconhecimento que têm do desenvolvimento atual da ciência climática. Quanto aos políticos, é preciso notar que ganham eleições agradando ao público, de alguma forma, dizendo o que este quer ouvir. Isto não é novo. Como notou H. L. Mencken’s no seu livro Em Defesa das Mulheres, de 1918:

Todo o propósito da prática política é manter a populaça alarmada (e, consequentemente, ansiosa por segurança), assustando-a com uma série infindável de duendes, a maioria imaginários.28

As ameaças de catástrofe climática – tempestades, secas, subida dos mares, destruição de colheitas, colapso económico – impacta em toda a gente. E essas ameaças podem ser consideradas urgentes (envolvendo um recente evento climático mortífero, por exemplo), mas também suficientemente distantes para que as terríveis previsões de um político sejam postas à prova apenas décadas depois de ele deixar o cargo. Por outro lado, e embora a ciência climática e as questões energéticas associadas sejam complicadas, a complexidade e as suas nuances não se adequam a mensagens políticas eficazes. Assim, a ciência é descartada em favor da Ciência e “simplificada” para uso na arena política, o que permite que as ações necessárias sejam resumidas de forma simples – basta eliminar os combustíveis fósseis para salvar o planeta. É claro que este não é um problema específico do clima, e o eleitorado – que odeia zonas cinzentas – tem a sua quota-parte de culpa.

Alguns políticos tentaram descaradamente minar o processo científico. Michael Bloomberg e Tom Steyer, dois políticos bilionários, tinham o objetivo de “fazer a ameaça climática parecer real, imediata e potencialmente devastadora para o mundo dos negócios.” Conspiraram com alguns cientistas, entre outros, para produzir uma série de relatórios descaracterizando o cenário de emissões extremas RCP 8.5 como “negócio de sempre” (ou seja, um mundo que não se esforça para conter as emissões). Os relatórios foram acompanhados por uma campanha sofisticada para infundir essa noção em conferências e revistas científicas.29 Aqueles que procuram corromper dessa forma o processo científico jogam o mesmo jogo que a multidão anticientífica que eles condenam em voz alta. Felizmente, a fraude está sendo denunciada agora nas principais revistas científicas.30

Finalmente, é prática comum sugerir que muitos dos políticos de direita, que defendem a ideia de “uma farsa da mudança climática”, são influenciados por vínculos a industriais afetados negativamente pela regulamentação ambiental restritiva. Infelizmente, à medida que a indústria das energias alternativas cresce, há incentivos financeiros para que os políticos também exagerem na tónica da catástrofe climática. A ciência não deve ser partidária, mas a interligação da ciência climática com a política, em geral, e com a política energética, em particular, praticamente garantiu que isso iria acontecer.

Quanto às instituições científicas, deveriam merecer o nosso apoio, pois é nelas que se baseia a nossa confiança – e a dos media e dos políticos – no que nos é apresentado como A Ciência. No entanto, quando se trata de clima, essas instituições parecem, frequentemente, mais preocupadas em fazer a ciência encaixar-se numa narrativa, do que em garantir que a narrativa se encaixe na ciência. Já vimos que as instituições que preparam as avaliações oficiais têm um problema de comunicação, sumariando ou interpretando os dados de formas ativamente enganadoras. Outras instituições, ou os seus líderes, exageram também na sua intenção de persuadir em vez de informar. Vejamos, por exemplo, o que disseram os presidentes das Academias Nacionais de Ciência, Engenharia e Medicina, nos Estados Unidos, em 28 de junho de 2019:

Os cientistas sabem, desde há algum tempo, por múltiplas linhas de evidência, que os humanos estão a alterar o clima da Terra, sobretudo através da emissão de gases com efeito de estufa. A evidência dos impactos das alterações climáticas são igualmente claros bem como o seu crescimento. A atmosfera e os oceanos estão a aquecer, a magnitude e frequência de certos eventos extremos estão a aumentar, e o nível do mar está a subir ao longo das nossas costas.31

Mesmo considerando a necessidade de concisão, esta é uma forma enganadora, incompleta e imprecisa de mostrar o que nos diz a ciência climática. Confunde o aquecimento causado pelo homem com mudanças climáticas em geral, sugerindo, erradamente, que as influências humanas são as únicas responsáveis por essas mudanças. Invoca “certos eventos extremos”, enquanto omite o facto de que a maioria deles (incluindo aqueles que afloram mais rapidamente à mente quando se lê a frase “eventos extremos”, como os furacões) não mostram nenhuma tendência significativa. E afirma que “o nível do mar está a subir” de uma forma que não só sugere que isso também é apenas atribuível ao aquecimento causado pelo homem, mas que também omite o facto de que essa subida não é novidade.

Quando a comunicação da ciência climática é corrompida desta forma, isso mina a confiança que as pessoas têm no que o establishment científico diz sobre outras questões sociais cruciais (o COVID-19 é o notável exemplo recente). Tal como Philip Handler, um ex-presidente da Academia Nacional de Ciências, escreveu num editorial de 1980:

É tempo de regressar à ética e às normas da ciência para que o processo político possa decorrer com maior confiança. O público pode perguntar porque ainda não sabemos o que parece vital para a tomada de decisão – mas a ciência manterá o seu lugar na estima do público apenas se admitirmos firmemente a magnitude das nossas incertezas e, consequentemente, afirmarmos a necessidade de mais pesquisas. E perderemos esse lugar se dissimularmos ou se argumentarmos como se todas as informações e entendimento necessários estivessem disponíveis. Os cientistas servem melhor as políticas públicas cingindo-se à ética da ciência, e não à ética da política.32

A verdade é que os cientistas não deveriam ceder à pressão institucional, seja do governo, de uma empresa ou de uma organização não governamental, e nem sequer deveriam recear a pressão dos seus pares. Tal como Richard Feynman afirmou, a integridade científica tem de ser mantida e isso só pode ocorrer se o cientista for imune a pressões: se tiver a sorte de estar em algum lugar onde seja livre para manter o tipo de integridade que descrevi e onde não se sinta forçado, pela necessidade de manter uma posição, ou de apoio financeiro, ou outra qualquer, a perder a sua integridade.33 Porém, no que concerne ao clima e à energia, os cientistas, de várias áreas, caem frequentemente naquilo que se pode chamar “simplificação climática”. E o que causa isto? Talvez a falta de conhecimento sobre o assunto, ou talvez o medo de falar contra os seus pares científicos. Ou talvez seja simples convicção no proclamado consenso, nascida mais de uma fé do que da evidência.

Quanto às ONGs, a imprensa tende a conferir-lhes uma posição de autoridade. Mas também estes são grupos de interesses, com as suas próprias agendas climáticas e energéticas. E são também atores poderosos, que mobilizam apoiantes, arrecadam dinheiro, realizam campanhas e alcançam poder político. Para muitos, a “crise climática” é a sua completa raison d’être. É claro que não há problema em ser-se ativista, e os esforços das ONGs tornaram o mundo melhor de incontáveis maneiras. Mas distorcer a ciência para seguir uma causa é indesculpável, particularmente com a cumplicidade dos cientistas que trabalham nos seus conselhos consultivos. Finalmente, com toda a distorção que ocorre a montante, não surpreende que o público tenha uma visão pseudocientífica. Deste modo, quem divulgue alguns aspetos menos conhecidos dos relatórios de avaliação é imediatamente rotulado de negacionista ou militante de direita, pois a crença nas alterações climáticas consolidou-se na opinião pública como a única posição politicamente correta.

Como restaurar a ciência

A principal proposta de Koonin para restaurar a credibilidade da ciência passa pela criação de uma “Equipa “Vermelha” (Red Team) que deveria ser encarregada de analisar os relatórios de avaliação, tentando identificar e avaliar os pontos fracos. Em contrapartida, outro grupo qualificado, digamos, a “Equipa Azul” (Blue Team), que seria, presumivelmente, constituída pelos próprios autores dos relatórios, teria oportunidade de rebater os pontos fracos encontrados pela Equipa Vermelha. É claro que o IPCC das Nações Unidas, bem como o governo dos Estados Unidos, consideram os seus relatórios incontestáveis, uma vez que são rigorosamente revistos por pares científicos, antes da publicação. Sendo assim, qual a necessidade de um outro nível de revisão? A resposta direta é que – tal como em capítulos precedentes deste artigo foi salientado – esses relatórios apresentam grandes falhas. E uma razão importante para essas falhas prende-se com a forma como os relatórios são revistos. A ciência é um corpo de conhecimento que cresce através de testes, degrau a degrau. Se cada passo for sólido, os investigadores podem alcançar rapidamente resultados espantosos, como o desenvolvimento de vacinas ou moderna tecnologia da informação.

Ao saber que um investigador produziu um novo conhecimento sólido, outros pesquisadores examinam, e muitas vezes desafiam, resultados de experiências ou observações, ou formulam novos modelos e teorias. Foram as medições feitas corretamente? Havia controlos adequados às experiências? São os resultados consistentes com o conhecimento prévio? Quais são as razões para um resultado inesperado? Respostas satisfatórias a questões como estas são indispensáveis para a aceitação de novos resultados no sempre crescente corpo do conhecimento científico. Koonin participou em muitas revisões de pares, ao longo da sua longa carreira científica de 45 anos, às vezes como autor, outras vezes como revisor, outras como árbitro, e umas poucas vezes como editor. O que ele nos diz é que a revisão por pares pode efetivamente melhorar a apresentação de um artigo científico e normalmente captar os erros mais notórios, mas está muito longe de ser perfeita, e não garante de forma alguma que o artigo publicado não contenha erros. Uma avaliação independente dos resultados por outros investigadores, que conduzam estudos alternativos, é uma garantia muito mais forte de que os resultados estão corretos.

Mas um relatório de avaliação não é um artigo de pesquisa – de facto, trata-se de um tipo de documento muito diverso, com um propósito muito diferente. Artigos em revistas científicas são escritos por especialistas para especialistas. Ao invés, os autores dos relatórios de avaliação devem avaliar as validade e importância de uma diversidade de artigos, e depois sintetizá-los num conjunto de declarações importantes, destinadas a não especialistas. Por isso, a “história” do relatório de avaliação importa, como importa a linguagem usada para contá-la – especialmente em algo tão importante como o clima. Os processos para construir e rever os relatórios de avaliação sobre ciência climática não promovem a objetividade. Os funcionários das agências científicas e ambientais do governo (que devem eles próprios ter um ponto de vista) nomeiam ou escolhem os autores, que não estão sujeitos a restrições devidas a conflitos de interesses. Quer dizer, um autor pode trabalhar para uma companhia petrolífera ou para uma ONG que promova a “ação climática”. Isto aumenta as hipóteses de a persuasão ser favorecida, em detrimento da informação.

Um grande número de revisores especializados e voluntários reveem o texto preliminar dos relatórios. Mas ao contrário da revisão por pares dos artigos científicos, os desacordos entre revisores e autores não são resolvidos por um árbitro independente; o autor principal pode optar pela rejeição de uma crítica dizendo, simplesmente, “não concordamos”. As versões finais das avaliações são então objeto da aprovação governamental (através de um processo entre agências para o governo dos Estados Unidos, e reuniões, muitas vezes contenciosas, entre especialistas e políticos, no caso do IPCC). E – um ponto muito importante – os “Resumos para Decisores Políticos” do IPCC são fortemente influenciados, se não mesmo escritos, por governos que têm interesse em promover políticas particulares. Em suma, há muitas oportunidades para corromper a objetividade do processo e da versão final. É por isso que uma Equipa Vermelha é tão necessária. Ela poderia constituir uma importante ferramenta para corrigir os erros no processamento dos relatórios de avaliação.

Seguem-se algumas dicas para quem quer estar bem informado. Se tiver tempo, aprofunde as notícias dos media, pesquisando a fonte da notícia. Resumos dos artigos de pesquisa originais estão disponíveis nas revistas científicas onde aparecem e, para uma pesquisa particularmente importante, o próprio artigo está por vezes disponível online, gratuitamente. Há também alguns blogues que, de uma forma séria e consistente, se debruçam sobre a mais recente ciência climática. Do lado consensual, Real Climate (realclimate.org) é um dos que vale a pena consultar, enquanto o sítio de Judith Curry’s, Climate Etc. (judithcurry.com), alberga discussões sérias de um ponto de vista não consensual.

Mas não há nada como consultar diretamente os dados – que são, afinal, o árbitro de toda a ciência. Dados climáticos são prontamente disponibilizados online pelo governo dos Estados Unidos, pela EPA (em http://www.epa.gov/climate-indicators) e pela NOAA (em http://www.noaa.gov/climate). Assim, se alguém se deparar com uma narrativa acerca da subida do nível do mar, furacões ou temperaturas médias, e quiser escavar mais fundo, pode fazê-lo através de uma simples ligação à internet e uma sensibilidade (que se espera mais apurada após a leitura do presente artigo) sobre quais as questões que verdadeiramente necessitam de resposta.

A quimera da descarbonização

Os cientistas não têm bolas de cristal que lhes digam o que vai acontecer no futuro. Têm apenas os dados, com as suas imperfeições, e a maior ou menor capacidade para aplicar o pensamento crítico, e usar esses dados para identificar, ou mesmo antecipar, problemas e construir as soluções necessárias. As pessoas têm muitas ideias diferentes sobre quais devem ser essas soluções. Todos já ouvimos falar de, pelo menos, algumas delas. Numa lado extremo há os que defendem a eliminação completa das emissões de gases com efeito de estufa durante as próximas décadas, tal como é apoiado por muitos governos, a ONU, e virtualmente todas as ONGs. No outro extremo, há os que dizem que devemos continuar com os nossos negócios como habitualmente, assumindo a posição de que o clima é imune à influência humana, e que nós próprios temos a capacidade de nos adaptar a quaisquer mudanças que possam ocorrer.

Os vários relatórios do IPCC dizem-nos que é urgente reduzir as emissões de gases com efeito de estufa para prevenir os piores impactos das mudanças climáticas causados pelo homem. E dizem-nos também que a “mitigação” das emissões deve ser acompanhada por uma transição para fontes de energia e práticas agrícolas de “baixo carbono”. O objetivo central tornou-se atingir a carbonização zero em meados do século. Embora, em princípio, não existam barreiras intransponíveis para esta redução, múltiplos fatores – técnicos, científicos, económicos e sociais – tornam esta pretensão bastante implausível. Felizmente, não só é extremamente incerto que um desastre climático esteja iminente, como temos estratégias alternativas para respondermos às mudanças climáticas, particularmente a adaptação e a geoengenharia. A resposta mais provável da sociedade às alterações climáticas é, efetivamente, a adaptação humana.

O CO2 acumula-se na atmosfera, não desaparece quando paramos de o emitir, permanece na atmosfera durante séculos, absorvido lentamente pelas plantas e os oceanos. Reduções modestas das emissões apenas atrasarão, mas não eliminam o aumento da concentração do CO2. Tendo em conta o desenvolvimento mundial, é virtualmente impossível uma simples estabilização da influência humana. Muitos decisores políticos acreditam de que apenas necessitamos dos incentivos certos para desenvolvermos e aplicarmos novas tecnologias que levem à descarbonização. Mas os cientistas sabem que existem poderosos constrangimentos físicos que qualquer tecnologia tem de respeitar. Por exemplo, nenhuma política pode contornar os limites fundamentais sobre eficiência energética, impostos pela segunda lei da termodinâmica – não se pode “criar” energia, apenas convertê-la de uma forma para outra, e o processo de conversão sempre incluirá, por si só, uma certa quantidade de energia.

De facto, a população terrestre de menos de 8 mil milhões de habitantes humanos, subirá (sobretudo à custa do mundo em desenvolvimento) para 9 mil milhões em meados do século34. Assim, embora alguns vejam no Acordo de Paris um passo crucial para a mobilização geral no sentido de mitigar as emissões, é difícil fazer algo para reduzir a influência humana, tendo em conta a necessidade de uma redução de 100% apenas para estabilizar a concentração de CO2. É por isso que as metas do acordo não estão a ser atingidas. Elas são claramente irrealistas35, porque as energias renováveis estão muito longe de satisfazer a procura.

Por outro lado, mesmo que a transição para energias renováveis realmente aconteça nos países desenvolvidos, isso fará muito pouca diferença, se é que fará alguma, no clima: os Estados Unidos, por exemplo, emitem apenas 13% dos gases com efeito de estufa. É claro que muitos argumentarão que outros países seguirão o seu exemplo. Mas que probabilidade eles têm para fazer isso, quando a pressão sobre a necessidade de energia é tão alta e os benefícios das reduções tão baixos?

Planos B

À medida que a efetiva mitigação dos gases com efeito de estufa se mostrava cada vez mais difícil, cresceu o nosso interesse por estratégias diferentes para responder às alterações climáticas. Uma delas é a geoengenharia. A outra é, simplesmente, adaptarmo-nos ao clima em mudança. São estes os Planos B. Há pelo menos duas formas de contrariar o aquecimento do planeta. Uma é tornar a Terra um pouco mais reflexiva (aumentando o seu albedo), absorvendo um pouco menos de energia solar. Esta estratégia é denominada “Gestão da Radiação Solar” (SRM – Solar Radiation Management) e poderia ser adequada, quer o aquecimento seja natural ou resultado de influências humanas. A outra é retirar CO2 da atmosfera por forma a compensar as emissões provocadas pelo homem. Esta estratégia é conhecida por CDR – Carbon Dioxide Removal (“Remoção de Dióxido de Carbono”).

Comecemos pelo SRM. Há muitas maneiras de aumentar o albedo, incluindo tornar a superfície terrestre mais brilhante, com “telhados brancos” nos edifícios, plantações alteradas para se tornarem mais reflexivas, clarear o oceano com micro bolhas na superfície, e colocando refletores gigantes no espaço, só para citar algumas. No entanto, criar aerossóis na estratosfera pode ser a forma mais plausível de se conseguir um impacto global, à semelhança do que acontece de forma natural com as grandes erupções vulcânicas. Existe tecnologia suficiente para criar neblina estratosférica, incluindo aditivos do combustível para aviões ou projéteis de artilharia que dispersam o gás sulfeto de hidrogénio (que cheira a ovos podres) a elevadas altitudes. Isto não poderia ser feito de uma vez só. A neblina teria de ser renovada regularmente, anualmente ou a cada dois anos. A quantidade de enxofre que teríamos de enviar para a estratosfera seria apenas cerca de um décimo do que os seres humanos emitem quotidianamente em altitudes muito mais baixas, pelo que os impactos na saúde das pessoas seria mínimo. E os custos do projeto são tão reduzidos que um pequeno país ou mesmo um indivíduo abastado poderiam desenvolvê-lo sem problemas.

Mas a “Gestão da Radiação Solar” (SRM) também tem desvantagens significativas. Em primeiro lugar, se não se renovasse a neblina, a temperatura teria um salto súbito quando o efeito de arrefecimento terminasse (seria como fechar um chapéu de sol na praia). Em segundo lugar, aumentar o albedo não significa o fim do aquecimento provocado pelo efeito de estufa. Os gases com efeito de estufa provocam o aquecimento por todo o globo e a todo o tempo, enquanto as alterações no albedo apenas refrescam quando e onde a luz solar que reflete é significativa; não tem relevância à noite e é pouco significativo no inverno, particularmente nas latitudes mais elevadas. Ou seja, provavelmente os efeitos colaterais podem ser piores, pelo menos nalgumas zonas, que o aquecimento do que o aquecimento que combater. Apesar disso, o SRM merece mais investigação, e o Congresso dos Estados Unidos concedeu recentemente fundos para mais trabalho exploratório. Isso poderá conduzir-nos a uma melhor compreensão do sistema climático.

Em vez de tornarmos a Terra mais reluzente, podemos atenuar o aquecimento removendo diretamente o CO2 da atmosfera. A CDR – Carbon Dioxide Removal (“Remoção do Dióxido de Carbono”) retira o carbono da atmosfera em vez de (ou além de) se emitir uma menor quantidade. Há claras vantagens no CDR. Tornaria a questão de “de quem é este CO2” menos relevante e, logo, menos contenciosa. A atribuição de responsabilidades pelas emissões é um dos maiores impedimentos aos esforços internacionais para a sua redução. Também permitiria a exploração de combustíveis fósseis de acordo com a procura necessária ao desenvolvimento económico e tecnológico (embora alguns considerassem isso um retrocesso). Finalmente, uma vez que o CDR anula diretamente as emissões humanas, haveria poucos efeitos colaterais com que nos preocuparmos.

Não é difícil construir uma fábrica química destinada a capturar o CO2 diretamente da atmosfera. Esta tecnologia é similar àquelas usadas nos sistemas de exaustão das centrais nucleares, embora com o desafio adicional de ter de movimentar uma grande quantidade de ar através do sistema. Assim, as verdadeiras questões são acerca da escala e do custo. A quantidade de carbono que necessita de ser removida para reduzir significativamente a influência humana é assustadora. O consumo global de energia é medida em gigatoneladas (mil milhões de toneladas). Anualmente, o mundo consome cerca de 4,5 Gt de petróleo e 8 Gt de carvão. Assim, uma remoção anual de 10 Gt de CO2 (cerca de 1/3 das emissões atuais) requereria uma infraestrutura correspondente só para capturar e manusear o material. É desnecessário dizer que isto não seria barato. Estimativas recentes indicam que custaria até 100 dólares a captura e compressão de uma tonelada de CO2, todos os anos. E depois teríamos o problema adicional de saber que fazer com o CO2, após o removermos da atmosfera. O mundo de hoje utiliza apenas 0,2 Gt de CO2 a cada ano – cerca de 0,13 Gt para produzir ureia (fertilizante) e 0,08 Gt para aumentar a produção de petróleo (bombear CO2 nos campos de petróleo através de “poços de injeção” ajuda a mover o petróleo do subsolo até aos “poços de produção”). Estes usos correntes de CO2 são 100 vezes menores do que a quantidade que seria necessário remover da atmosfera. Infelizmente, é difícil imaginar novas utilizações.

Em vez de se usarem fábricas químicas para remover o dióxido de carbono da atmosfera, poderíamos usar a vegetação natural. Cerca de 200 Gt de carbono flui todos os anos para cima e para baixo, entre a superfície terrestre e a atmosfera, como parte de um ciclo sazonal, mais ou menos em equilíbrio. Ao extrair os combustíveis fósseis do solo, o seres humanos adicionam cerca de 8 Gt de carbono (na forma de 30 Gt de CO2) a esse ciclo anual. Cerca de metade desse excesso é absorvido através da fotossíntese. Se conseguíssemos induzir mais fotossíntese, mais CO2 seria removido. É por isso que existe o apelo à plantação de biliões de árvores para salvar o planeta. Mas embora possamos plantar árvores agora, o crescimento da floresta demora décadas. E temos ainda que compreender a quantidade exata de CO2 que as florestas absorveriam, e os impactos ecológicos derivados de vastas áreas de florestação.

Tem havido nos tempos mais recentes um investimento mais forte do governo americano nas tecnologias que permitem a remoção de dióxido de carbono. Sem dúvida que podem fazer-se progressos. Por exemplo, deverá ser possível modificar plantas geneticamente para melhor capturarem e armazenarem CO2 (embora seguramente se seguissem preocupações ambientais por causa da possível propagação dessas plantas modificadas). Mesmo assim, é difícil aceitar que isto seria feito na escala necessária para mitigar significativamente a influência humana sobre o clima.

Falemos agora de outro – talvez o principal – Plano B: a adaptação. São cinco as razões para pensarmos que a adaptação será a nossa principal resposta às alterações climáticas.

  1. A adaptação é agnóstica. Os seres humanos vêm desde há milénios se adaptando às alterações no clima, a maior parte do tempo sem terem a menor noção (além da vingança dos deuses) do que as causava. A informação que temos hoje ajudar-nos-á na adoção de estratégias, enquanto a sociedade pode adaptar-se às mudanças climáticas, quer sejam naturais ou provocadas pelo homem.
  2. A adaptação é proporcional. Medidas modestas podem ser reforçadas se as mudanças climáticas aumentarem ainda mais.
  3. A adaptação é local. A adaptação é naturalmente ajustável às diferentes necessidades e prioridades das populações locais. Isto torna-a também mais praticável politicamente. A adaptação local não requer consensos, compromissos e coordenação globais, que se têm até agora mostrado ilusórios nos esforços de mitigação.
  4. A adaptação é autónoma. As sociedades têm-no feito desde que a humanidade as formou – os holandeses, por exemplo, construíram e melhoraram diques durante séculos, resgatando terra ao Mar do Norte. A adaptação dar-se-á por si própria, quer a planeemos ou não.
  5. A adaptação é efetiva. As sociedades têm prosperado em ambientes que vão do Ártico aos Trópicos. A adaptação às alterações climáticas sempre contribuíram para reduzir o impacto líquido, relativamente à hipótese de não ser feito nada – ao fim e ao cabo, não iríamos alterar as nossas sociedades para tornar as coisas piores!

Como tantas outras coisas, uma adaptação efetiva é mais fácil nas sociedades mais ricas, que têm os recursos institucionais e económicos para atuarem de acordo com as circunstâncias. Os países menos desenvolvidos são mais frágeis. Assim, a melhor maneira de nos adaptarmos globalmente é encorajar o desenvolvimento económico dos países mais atrasados e fortalecer as suas instituições (tais como o estado de direito ou a capacidade de formular e executar estratégias nacionais). Nesse sentido, a tarefa de reforçar a adaptação acaba por ser a de diminuir a pobreza, o que seria sempre algo benéfico por muitas razões para lá das questões sobre o clima.

**************************************************

Notas:

1 Dado que o livro de Steven Koonin, aqui divulgado, foi editado em abril de 2021, o autor não tinha ainda conhecimento do AR6, o qual só seria publicado em 7 de agosto de 2022.

2 IPCC. “Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation (SREX).” IPCC, January 1, 2000. https://archive.ipcc.ch/report/srex/.

3 IPCC. “Special Report on the Ocean and Cryosphere in a Changing Climate.” January 1, 2000. https://www.ipcc.ch/srocc/.

4 IPCC. “Climate Change and Land.” Special Report on Climate Change and Land, January 1, 2000. https://www.ipcc.ch/srcel/.

5 US Global Change Research Program.

6 USGCRP. Climate Science Special Report: Fourth National Climate Assessment, Volume I. US Global Change Research Program, Washington, DC., 2017. https://science2017.globalchange.gov/.

7 USGCRP. “Fourth National Climate Assessment, Volume II: Impacts, Risks, and Adaptation in the United States: Summary Findings.” NCA4, January 1, 1970. https://nca2018.globalchange.gov/.

8 Convenção das Nações Unidas sobre Alterações Climáticas, artigo 1.

9 https://argo.ucsd.edu/about/.

10 https://iopscience.iop.org/article/10.1086/503322/meta.

11 Harde, Hermann. “Radiation Transfer Calculations and Assessment of Global Warming by CO2.” International Journal of Atmospheric Sciences, March 20, 2017. https://www.hindawi.com/journals/ijas/aip/9251034/.

12 Ao contrário do que geralmente se pensa, a maior parte do metano é libertado pela parte da frente dos animais e não pela parte de trás.

13 Como comparação, um cêntimo é apenas treze vezes mais largo do que espesso.

14 Schneider, T., J. Teixeira, C. Bretherton, et al. “Climate goals and computing the future of clouds”. Nature Clim Change 7 (2017): 3-5. https://doi.org/10.1038/nclimate3190.

15 Bulletin of the American Meteorological Society 98 (2017): 589-602. https://journals.ametsoc.org/bams/article/98/3/589/70022/The-Art-and_Science-of-Climate-Model-Tuning.

16 Entretanto publicado, mas ainda no prelo à data da publicação de Unsettled, em abril de 2021. https://www.ipcc.ch/report/ar6/wg1/.

17 IPPC. AR5 WGI, 887.

18 Sherwood, S.C., M .J. Webb, J.D. Annan, K.C. Armour, P.M. Forster, J.C. Hargreaves, et al. “An assessment of Earth’s climate sensitivity using multiple lines of evidence.” Reviews of Geophysics 58 (2020): e2019RG000678. https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2019RG000678.

19 World Meteorological Society. Frequently Asked Questions (FAQ). Accessed November 20, 2020. https://www.wmo.int/pages/prog/wcp/ccl/faq/faq_doc_en.html.

20 https://www.weather.gov/mfl/saffirsimpson.

21 https://www.ncdc.noaa.gov/climate-information/extreme-events/us-tornado-climatology/trends.

22 https://journals.ametsoc.org/waf/article/17/3/354/40126/Deaths-in-the-3-May-1999-Oklahoma-City-Tornado.

23 https://journals.ametsoc.org/bams/article/99/4/689/70305/Global-Precipitation-Trends-across-Spatial-Scales.

24 https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2012GL05288.

25 Global Sea Level Rise: What it Means to You and Your Business” Zurich.com, May 21, 2019.

26 Hille, Karl. “Rising Carbon Dioxide Levels Will Help and Hurt Crops.” NASA, May 3, 2016. https://www.nasa.gov/feature/goddard/2016/nasa-study-rising-carbon-dioxid-levels-will-help-and-hurt-crops.

27 Dusenge, M. E., A. G. Duarte, and D. A. Way. “Plant carbon metabolism and climate change: elevated CO2 and temperature impacts on photosynthesis, photorespiration and respiration”. New Phytologist 221 (2019): 32-49.

28 www. gutenberg.org/files/1270/1270-h/1270-h.htm.

29 Pilke, Roger. “How Billionaires Tom Steyer and Michael Bloomberg Corrupted Climate Science.” Forbes, January 2, 2020.

30 Lomborg, Bjorn. False Alarm: How Climate Change Panic Costs Us Trillions, Hurts the Poor, and Fails to Fix the Planet. New York: Basic Books, 2020.

31 McNutt, Marcia, C. D. Mote Jr., Victor Z. Dzau. “National Academies Presidents Affirm the Scientific Evidence of Climate Change.” The National Academies of Sciences, Engeneering, and Medicine, June 18, 2019.

32 Handler, Philip. “Public Doubts About Science”. Science, June 6, 1980.

33 Feynman, Richard P. “Cargo Cult Science”. Caltech 1974 commencement adress, June 1974.

34 O desenvolvimento dos países industrialmente mais atrasados, combinado com o crescimento populacional, implicará que a procura energética aumente 50% em 2050.

35 Por exemplo, muitos poderão ficar surpreendidos, mas a quantidade de energia proveniente da queima de madeira (a energia por excelência do século XIX) é a mesma hoje do que a utilizada no tempo da Guerra Civil Americana.

**************************************************

Notas breves sobre a Guerra

Foto retirada de https://veja.abril.com.br/mundo/como-a-economia-mundial-sente-os-efeitos-do-ataque-de-putin-a-ucrania/.

1- Ao contrário do que aconteceu no Iraque de triste memória, desta vez os americanos e os ingleses tinham razão. Houve mesmo invasão em larga escala.

2- Como é possível que, depois da Chechénia, do novichok, das execuções, das invasões, da Síria, dos ciberataques, só agora tanta gente no Ocidente tenha percebido quem é, realmente, Putin? E quantos séculos de subjugação tornaram possível que tantos russos não vejam, ou não queiram, ou não possam ver?

3- O povo ucraniano abandonado à sua sorte – que triste sorte! E como fica a nossa consciência nisto? É deprimente.

4- A decisão da Alemanha de abandonar precocemente a energia nuclear foi um erro. Sob vários pontos de vista, um erro crasso.

5- Só em tempo de guerra é lembrado o valor da paz. De resto, esse velho sonho de Kant que deveria constituir a base das relações internacionais – tem pouco eco na agenda das forças políticas mundiais. Urge o desarmamento nuclear. Precisam-se novos Churchill e Eisenhower.

6- Quando distinguimos entre ditaduras e ditadores, quando uns nos são mais simpáticos que outros, deveríamos perceber que algo de errado se passa connosco. Não há ditaduras nem ditadores suaves.

7- A verdadeira dicotomia não é entre esquerda e direita, isso é anacrónico. A verdadeira dicotomia é entre democracia (como a entendemos no Ocidente, a chamada “democracia liberal”) — onde podemos ter a esperança de nos vermos livres de políticos indesejáveis por meios pacíficos — e tirania — onde os ditadores como Putin só podem ser travados com derramamento de sangue.

8- O nacionalismo é uma das piores doenças do nosso tempo.

9- Haverá algum comunista em Portugal que sinta vergonha pela posição do PCP sobre esta guerra? Claro que não. Se sentisse teria de deixar de ser comunista. Teria de apostatar. O comunismo é uma religião.

10- O posicionamento ideológico que procura, se não justificar, pelo menos relativizar a agressão de Putin é revoltante. Quase tanto quanto a própria guerra.

11- Glória ao povo ucraniano! Glória a Navalny e aos russos que se manifestam em Moscovo, S. Petersburgo e outras cidades contra esta guerra, que tem um responsável máximo — o déspota Putin!

**************************************************

Progresso ou degenerescência

A evolução das ideias é semelhante à evolução das espécies. Umas ramificam-se, outras morrem, outras renascem quando se pensava que já estavam extintas. Quando um homem quer difundir as suas ideias, a primeira coisa que faz é fundar uma escola. O pioneiro desta estratégia – que se revelou até hoje incrivelmente bem sucedida – foi Platão, quando criou a sua célebre Academia. Desde aí, as escolas vêm florescendo, dentro das ciências ditas “humanas”, na Filosofia, na Sociologia, na própria Economia, e a sua influência estende-se, talvez surpreendentemente para os mais distraídos, até às ciências ditas “naturais”. (Há sempre quem lute pela integridade da Ciência e essa luta é, enquanto espécie, a nossa maior esperança).

Quase todos nós somos, hoje, mesmo sem o sabermos, discípulos de uma ou outra escola. O homem é um animal religioso, precisa de acreditar em algo, e, nesse sentido, as ideologias transmitidas pelas escolas sociológicas são as religiões modernas, tanto mais fervorosas quanto mais radicais. As ideologias podem ser enquadradas em dois grandes grupos. Os indivíduos que pertencem ao primeiro grupo acreditam que vivemos no melhor mundo de sempre; os membros do segundo grupo, sob forte influência da ideia platónica de degenerescência, acreditam que o mundo corre para o abismo e que, portanto, é urgente salvá-lo. Os do primeiro grupo acreditam mais nas instituições do que nos líderes; os do segundo grupo acreditam em líderes messiânicos que conduzirão as massas – há demasiado tempo encerradas na caverna – à descoberta da verdade.

**************************************************

Vamos a votos

Reflexão eleitoral à mesa do café: o bom rumo de um país é uma navegação à bolina; bordos cerrados para mais rapidamente atingirmos o destino. Quatro, oito, doze ou mais anos no mesmo sentido ou, ao invés, uma mudança de rumo estão dependentes das decisões do eleitorado flutuante, que é quem comanda efetivamente o nosso navio.

**************************************************