Inconclusivo

Steven Koonin e o seu livro Unsettled, divulgado neste artigo. (Foto retirada de: https://clintel.org/fact-checking-steven-koonins-fact-checkers/). A opinião pública mainstream considera que as alterações climáticas provocadas pelo homem são uma realidade que não merece contestação. Steven Koonin mostra que, cientificamente, a influência humana sobre o clima está longe de estar estabelecida. É real, mas também muito difícil de avaliar e medir.

O texto que se segue baseia-se no livro de Steven E. Koonin, Unsettled – What Climate Science Tell Us, What it Doesn’t, and why it Matters, publicado em abril de 2021 (ainda não editado em Portugal) e, em linha com os restantes artigos da categoria “Livros”, é uma síntese deste importante e extremamente atual ensaio científico, contendo, em algumas passagens, citações literais (traduzidas por nós), não podendo, em consequência, ser considerado um texto crítico, antes um artigo de divulgação. Os títulos dos capítulos que se seguem são, inclusive, literalmente transpostos desta obra de Steven Koonin, um físico teórico do Caltech, especialista em clima e energia, e um dos mais conceituados cientistas americanos. Mãos à obra.

**************************************************

Introdução

Apesar de ser verdade que o globo está numa fase de aquecimento, e que os humanos têm alguma influência nisso, sobretudo através da queima de combustíveis fósseis, não é possível confirmar cientificamente, antes pelo contrário, as notícias alarmistas que os media veiculam quase todos os dias, anunciando um desastre ecológico. A ciência climática envolve muitos campos científicos diferentes, abrangendo a física quântica das moléculas; a física clássica do ar em movimento, água e gelo; os processos químicos na atmosfera e nos oceanos; a geologia da terra sólida; e a biologia dos ecossistemas. O estudo climático também comporta o uso de tecnologias sofisticadas, incluindo a criação de modelos nos computadores mais rápidos do mundo, controlo remoto de satélites, análise paleoclimática (que estuda os climas antigos), e métodos estatísticos avançados. Finalmente, temos ainda as áreas relacionadas com a ciência climática – política, economia, e tecnologia energética – focadas na redução das emissões de gases com efeito de estufa. Este enorme leque de conhecimentos e metodologias fazem da ciência climática e energética a mais avançada, e também a mais complexa, atividade científica multidisciplinar.

As mais importantes avaliações sobre o clima vêm dos relatórios produzidos pelo Painel Intergovernamental para as Alterações Climáticas (IPCC – Intergovernmental Panel on Climate Change) das Nações Unidas, criado em 1988. O IPCC (manteremos ao longo do artigo os acrónimos em inglês) produziu o seu primeiro relatório de avaliação em 1990; o quarto relatório (denominado AR4) foi emitido em 2007; o quinto (AR5) em 2013, e o sexto (AR6) em 2021.1 O setor fundamental na elaboração de cada relatório é o chamado “Grupo de Trabalho I” (WG I), que lida com os aspetos físicos do sistema climático, particularmente as alterações observadas em décadas recentes, e com a forma como o clima responde às influências naturais e humanas. Outros grupos de trabalho baseiam-se nas avaliações do WG I para descrever os impactos de um clima em mudança e a resposta da sociedade a esses impactos. Cada grupo de trabalho prepara também um Resumo para Decisores Políticos (SPM – Summary for Policymakers); uma síntese de todos os setores é também publicada. Além da série de relatórios de avaliação (AR), o IPCC também publica relatórios especiais mais restritos, como sejam “Eventos Extremos”2, “O Oceano e a Criosfera”3, ou “Alterações Climáticas e Terra”4.

ExpressãoProbabilidade
Virtualmente certo (Virtually certain)99-100% de probabilidade
Muito provável (Very likely)90-100% de probabilidade
Provável (Likely)66-100% de probabilidade
Tão provável como não provável (About as likely as not)33-66% de probabilidade
Improvável (Unlikely)0-33% de probabilidade
Muito improvável (Very unlikely)0-10% de probabilidade
Excecionalmente improvável (Exceptionally unlikely)0-1% de probabilidade
Escala de probabilidade de IPCC e expressões utilizadas nos relatórios de avaliação (AR).

O governo dos Estados Unidos também emite, independentemente, a sua série de relatórios de avaliação. A Lei de Pesquisa sobre Alterações Globais, de 1990, requer uma Avaliação Climática Nacional (NCA – National Climate Assessment) a cada quatro anos. Esses relatórios são produzidos pelo Programa de Pesquisa sobre Alterações Climáticas dos Estados Unidos (USGCRP)5. Os relatórios da NCA têm, em larga medida, os mesmos propósitos dos ARs do IPCC, embora com um foco maior sobre os Estados Unidos. O conteúdo das NCAs alinha-se, geralmente, com o dos ARs, mas podem ocorrer diferenças de ênfase e linguagem. As três primeiras NCAs foram publicadas em 2000, 2009 e 2014. A quarta, NCA 2014, compreende dois volumes. O volume I, focado na ciência climática física, foi publicado em novembro de 2017, tal como o “Relatório Especial sobre Ciência Climática” (CSSR – Climate Science Special Report)6. O volume II, publicado em novembro de 2018, trata dos impactos e riscos de um clima em mudança, bem como da forma como nos podemos adaptar a essas mudanças7. A quinta NCA é esperada em 2023.

Os AR e NCA são desenhados e revistos por processos semelhantes. A entidade patrocinadora (o IPCC ou o USGCRP) seleciona equipas de especialistas para cada capítulo dos relatórios. Essas equipas produzem esboços sucessivos que são melhorados em resposta a comentários de outros peritos; a NCA também se submete a uma revisão formal levada a cabo por um painel convencionado pelas academias nacionais americanas. O processo completo demora anos. Por exemplo, a primeira reunião dos autores responsáveis pelo AR6 teve lugar em junho de 2018, cerca de três anos antes da data prevista para publicação do relatório. Os relatórios de avaliação apresentam a ciência a não especialistas. Dada a quantidade enorme de autores e de revisões, qualquer leitor poderá, naturalmente, esperar que os relatórios de avaliação e os resumos da literatura de pesquisa são completos, objetivos, e transparentes – o “padrão ouro”. De acordo com Koonin, os relatórios vão de encontro a essa expectativa, e o próprio livro que Koonin escreveu é, em grande parte, baseado neles. Mas uma leitura atenta da maioria dos mais recentes relatórios de avaliação também revela algumas falhas elementares que enganam ou desinformam os leitores em pontos importantes. Quais são essas falhas, como surgiram, como os media as aceitam e divulgam, e o que pode ser feito para as corrigir constitui uma outra dimensão da história da ciência, que importa contar.

Isto mostra que as coisas são bastante mais complexas do que geralmente se pensa. Há, por exemplo, algumas conclusões retiradas dos relatórios de avaliação, quer os das agências governamentais dos Estados Unidos, quer os do IPCC que poderão surpreender muitas pessoas, e que contrariam as manchetes alarmantes e sensacionalistas que quotidianamente vemos na comunicação social. Eis algumas delas.

  • As ondas de calor nos Estados Unidos não são mais comuns agora do que eram em 1900.
  • As temperaturas mais elevadas não subiram nos últimos 50 anos nos Estados Unidos.
  • Os seres humanos não tiveram impacte detectável sobre os furacões nos últimos cem anos.
  • O lençol de gelo da Gronelândia não está a encolher, hoje, mais rapidamente do que há 80 anos.
  • O impacte económico global das alterações climáticas induzidas pelo homem será mínimo, pelo menos até ao final deste século.

1- O que se sabe sobre o aquecimento

Uma vez que o clima é definido por médias relativas a muitos anos, ele muda gradual e lentamente. É necessário, pelo menos, uma década de dados para se definir um clima, e duas ou três décadas mais para identificar uma mudança. Isto está, muitas vezes, para além da memória humana e, por isso, precisamos de registos para não nos equivocarmos. Porém, o que conquista a atenção popular são os eventos extremos, como tempestades e ondas de calor, embora o seu número e intensidade variem de ano para ano e seja a sua média, extraída ao longo de décadas, o que define o clima. A tendência de subida da temperatura tem causas diversas. Uma delas relaciona-se com a) a variabilidade interna do sistema climático – fluxos e refluxos durante décadas, maioritariamente associados às correntes lentas dos oceanos; depois, há b) os fenómenos naturais, como mudanças na luminosidade solar, que forçam (influenciam), por sua vez, mudanças no sistema climático; e, finalmente, de grande interesse para nós, há c) as mudanças e tendências que podem ocorrer devido às atividades humanas.

É de realçar que o termo “alterações climáticas” induz a muitas confusões. A convenção-quadro das Nações Unidas define assim “alterações climáticas”: … uma mudança no clima, atribuída direta ou indiretamente à atividade humana, que altera a composição da atmosfera ao nível global, a qual, em conjunto com a variabilidade natural observada durante períodos comparáveis…8

Esta definição exclui explicitamente as alterações devidas a causas naturais e consubstancia, hoje, o entendimento comum sobre o termo. Desta forma, quando as pessoas ouvem falar de “alterações climáticas”, assumem que se trata de alterações provocadas pelo homem. Paradoxalmente, ou não, a Terra arrefeceu um pouco entre 1940 e 1980, embora a atividade humana tenha aumentado, e é por isso vital perceber porque isso aconteceu, para percebermos também qual é efetivamente a influência humana e que mudanças poderão ocorrer no futuro. Por outro lado, o aquecimento global nos últimos 40 anos não é uniforme. A superfície terrestre aquece mais rapidamente que a superfície dos oceanos e as altas latitudes perto dos polos estão a aquecer mais rapidamente que as baixas latitudes perto do equador. Em geral, as temperaturas mais frias (à noite, durante o inverno, etc.) estão a subir mais rapidamente que as temperaturas mais quentes – o clima está ficando mais suave à medida que o globo aquece.

É claro que há outras coisas importantes para o clima, para além das mudanças de temperatura na superfície ou mesmo mudanças na atmosfera. De facto, a atmosfera é uma parte relativamente menor de um muito maior e mais complexo sistema que inclui a água (oceanos, lagos, etc.), neve e gelo, em terra e no mar, a terra sólida, e coisas vivas (micróbios, plantas, animais e humanos). Os oceanos, cuja profundidade média é de 3.700 metros, são a parte mais importante e mais problemática do sistema climático da Terra. Eles detêm mais de 90% do calor climático e são a sua memória de longo prazo. As condições na atmosfera variam, de dia para dia e de ano para ano, em resposta a um grande número de influências. Os oceanos, por seu turno, mudam, e respondem a mudanças, em décadas ou séculos.

Não é fácil recolher dados úteis dos oceanos para avaliar as alterações climáticas, mas a situação melhorou muito a partir do ano 2000, com a criação do programa Argo9 – robôs à deriva nos oceanos para registarem as suas propriedades – que atingiu cobertura global em 2005, com cerca de 3500 em atividade, operando a 1 km de profundidade, mas descendo de 10 em 10 dias a 2 km, para medirem a temperatura e a salinidade, subindo depois à superfície para transmitirem os dados via satélite, antes de regressarem à sua posição normal a 1 km de profundidade. Apesar da dificuldade em recolher dados nos oceanos antes do Argo, é possível dizer que, de facto, os oceanos têm vindo a aquecer, embora muito modestamente (centésimas de grau por década), logo, o planeta também. É difícil, porém, avaliar a influência humana nesta tendência, uma vez que a subida é constante, mesmo em épocas de menor atividade humana, como sejam os anos entre 1921 e 1946.

Há 20 mil anos a Terra começou a aquecer (cerca de 5º) o que permitiu, desde há 10 mil anos, um rápido desenvolvimento da civilização. Desde há milhões de anos, a Terra alterna períodos de rápido aquecimento com períodos de lento arrefecimento. Estas variações são devidas a pequenas alterações da órbita da Terra em torno do Sol e na inclinação do eixo terrestre. O mais recente período de aquecimento, antes do atual, começou há cerca de 127 mil anos e durou 20 mil anos. Nessa altura a superfície terrestre era até 2º-3º mais quente do que é hoje. Em suma, a questão não é a de saber se a Terra está a aquecer – o que é afirmativo – mas saber qual a influência que os humanos têm nesse aquecimento – o que é difícil de avaliar.

Fraca Influência Humana

A temperatura da Terra resulta do balanço entre o aquecimento devido à luz solar e o arrefecimento derivado do calor irradiado para o espaço. Do lado do aquecimento temos a energia solar que o planeta absorve. À medida que aquece, a Terra emite radiação infravermelha para o espaço, o que aumenta a parte de arrefecimento do balanço. A lei Stefan-Boltzmann, descoberta por volta de 1880 por dois físicos a trabalhar na Áustria, diz-nos que a quantidade de radiação infravermelha que um objeto emite aumenta com a temperatura, de uma forma proporcional e bastante precisa. Assim, à medida que a temperatura do planeta aumenta devido ao aquecimento solar, o arrefecimento devido à radiação infravermelha emitida também aumenta, até o arrefecimento infravermelho ser igual ao aquecimento solar. O termo técnico para esta condição goldilock – quando o planeta não ganha nem perde energia e a sua temperatura é estável – é radiative equilibrium.

Olhemos mais atentamente para ambos os lados deste balanço. Uma vez que a Terra não é completamente negra, ela absorve apenas 70% da luz solar que a atinge. Aos 30% refletidos chama-se albedo, (do latim albus, que quer dizer “branco”). Quando o albedo é mais elevado, a Terra reflete mais luz solar e por isso fica um pouco mais fria e, claro, quando o albedo é mais fraco, a Terra absorve mais luz solar e, logo, fica mais quente. Apesar da média do albedo terrestre ser de 30%, o valor do mesmo num determinado momento depende de que parte da planeta está virada para o Sol (os oceanos são escuros, a parte terrestre é mais brilhante, as nuvens mais brilhantes ainda, e a neve e o gelo são ainda mais brilhantes), e a média mensal varia cerca de 0,01 com as estações (maior em março e menor em junho/julho). A precisão com que se mede o albedo é importante para compreendermos o sistema climático. Se o albedo médio aumentasse de 0,30 para 0,31, devido, por exemplo, a um aumento de 5% da nebulosidade, essa reflexividade adicional compensaria largamente a influência de um aumento para o dobro do CO2 presente na atmosfera.

Existem satélites que medem o albedo, mas há um projeto da JASON que pretende cobrir todo o globo com pequenos satélites para que se consiga medir o albedo com maior precisão. Um método mais antigo, mas ainda assim muito interessante, foi usado por André Danjou, um astrónomo francês, no início dos anos de 1930. Consistia em, através de um filtro apropriado, detetar o brilho da luz solar que incide na Terra, refletida na parte escura da Lua, quando esta está em quarto crescente. Compreender as mudanças da luz, refletida da Terra, na Lua pode ser muito útil para estudar outros planetas que orbitam outras estrelas, os quais são visíveis pela luz que refletem.10

Conhecendo o albedo da Terra (a média do globo e os ciclos diários e sazonais), poderemos determinar o seu equilíbrio de temperatura, através do balanço entre a luz solar absorvida contra o arrefecimento dos infravermelhos. Como vimos, o arrefecimento aumenta ao mesmo tempo que a temperatura aumenta – se a Terra ficar mais quente, os infravermelhos libertam mais calor – funcionando como uma espécie de termostato. Calcular o valor deste equilíbrio – a temperatura média da superfície terrestre – constitui o problema básico de qualquer curso sério dedicado ao clima. Esse valor é de -18ºC (0ºF). Mas este valor está errado, muito abaixo de verdadeiro valor médio global de temperatura, que é de 15ºC (59ºF). O que falta é o isolamento provocado pelos gases com efeito de estufa presentes na atmosfera, os quais fazem subir a temperatura da superfície terrestre para o valor observado. Os gases com efeito de estufa funcionam como as roupas isolantes que os exploradores dos polos terrestres usam. Impedem o calor de sair, e os infravermelhos são impedidos de viajar para o espaço.

Os gases mais comuns presentes na atmosfera terrestre são o nitrogénio (78%) e o oxigénio (21%). Juntos, eles constituem, portanto, 99% da atmosfera seca, e devido às peculiaridades das suas estruturas moleculares, o calor passa facilmente através deles. A maior parte do restante 1% é o gás inerte árgon. Mas, embora ainda menos abundantes, alguns dos outros gases – sendo os mais significativos o vapor de água, o dióxido de carbono, o metano, o óxido nitroso e o ozono – intercetam, em média, cerca de 83% do calor emitido pela superfície terrestre11. Destes gases, o que mais contribui para o efeito de estufa é o vapor de água (+ de 90%), depois, o dióxido de carbono (7%) e, finalmente, todos juntos, metano ozono e óxido nitroso, entre outros, com mais ou menos 3%.

Desde 1750, a concentração de dióxido de carbono aumentou de 0.000280 ppm (partes por milhão) até 0.000410 ppm em 2019, continuando a crescer 2.3 ppm a cada ano. Embora a maior parte da concentração de CO2 seja natural, não há dúvida de que este crescimento resulta da atividade humana, sobretudo da queima de combustíveis fósseis. O aumento de CO2 faz com que o efeito de estufa seja maior e a fração de calor intercetado, que era em 1750 de 82,1%, é hoje de 82,7%. Se duplicássemos a concentração de CO2 de 1750, que como vimos era de 280 ppm, isso resultaria numa concentração de 560ppm, a qual aumentaria a capacidade de interceção do calor para 83,2% (isto em condições de céu limpo, porque as humidade, temperatura, nebulosidade, entre outras, têm influência sobre o calor intercetado). Um tal aumento corresponderia apenas a um incremento de 2,8 moléculas de CO2 por 10 mil moléculas de ar.

A primeira questão que aqui se coloca é a de saber como é que um aumento de menos de 3 moléculas em 10.000, ou seja, um aumento de apenas 0,03%, provoca um aumento 30 vezes maior (1%) na interceção do calor libertado pela Terra em forma de radiação infravermelha. Isto acontece porque a radiação é emitida e dispersada em diferentes comprimentos de onda. Pensemos nestes comprimentos de onda como “cores”, embora não captáveis pelos nossos olhos. O vapor de água, o mais importante gás para o efeito de estufa, interceta apenas algumas cores, mas porque bloqueia quase cem por cento destas, acrescentar mais vapor de água à atmosfera não tornará o isolamento mais forte – seria como acrescentar uma camada a uma janela já pintada de preto. Mas isto não acontece com o dióxido de carbono. Esta molécula interceta algumas cores que o vapor de água não atinge, o que quer dizer que poucas moléculas de CO2 podem ter um efeito muito maior (como uma primeira demão de preto numa janela não pintada).

No entanto, embora o efeito da concentração atual de CO2 seja importante (7,6%), a sua duplicação não altera substancialmente as coisas (um aumento de 0,8%) devido ao efeito de “pintar uma janela preta”, já referido. Isto leva-nos à segunda questão. Porque é que um aumento tão modesto, de cerca de 1%, pode ter tanta importância? Acontece que os modelos do IPPC nos dizem que a duplicação dos níveis de CO2 desde os tempos pré-industriais – causando a mudança de 1% na interceção do calor, já discutida atrás – deve aumentar a temperatura da superfície terrestre em cerca de 3ºC (5,5ºF). Uma vez que a temperatura média da superfície terrestre é de 15ºC (59ºF), um aumento de 3ºC representa um aumento de 20% (3ºC em 15ºC). Mas, na escala Fahrenheit, esta mudança é de 5,5ºF, retirada da média de 59ºF, um aumento de 10%. Ora, porque é que a percentagem de subida da temperatura depende da escala que usamos? Como pode uma subida de 1% na captura de calor produzir um tal efeito colateral?

O problema está mesmo na escala que usamos, seja a de Celsius ou a de Fahrenheit, ambas adstritas às propriedades da água – que gela a 0ºC (32ºF) e ferve a 100ºC (212ºF). Ora, a lei Stefan- Boltzmann que, como vimos, descreve a relação entre o calor irradiado pela Terra e a sua temperatura, baseia-se em temperaturas absolutas, que são medidas pela escala de Kelvin, adstrita ao zero absoluto – a temperatura em que a matéria está tão fria que não emite qualquer calor (0K = -273,15ºC ou 459,67ºF). Assim, a temperatura média da superfície terrestre é de 15ºC (59ºF) a que correspondem 288K. A uma subida de 3ºC (5,5ºF) corresponde uma subida de 3K (as escalas Celsius e Kelvin têm intervalos iguais), o que, sobre 288, dá o valor correto de 1% na capacidade de a atmosfera intercetar o calor quando a concentração de CO2 é duplicada. Deste modo, na escala apropriada, a influência humana revela-se muito modesta.

Mas nem todas as influências humanas provocam aquecimento. Os aerossóis, por exemplo, são finas partículas na atmosfera que refletem a luz solar e formam nuvens refletivas. Juntamente com alterações nos terrenos, com a desflorestação (pastagens são mais refletivas que florestas) aumentam o albedo e exercem uma influência para o arrefecimento que anula cerca de metade do aquecimento provocado pelos gases com efeito de estufa. Causas naturais, como os vulcões, que lançam aerossóis para a atmosfera, onde podem permanecer durante vários anos, também contribuem para o arrefecimento. Mudanças na intensidade solar (originadas pela sua variabilidade interna) podem também alterar a quantidade de luz solar que atinge a Terra. Tudo isto torna complicado avaliar as dimensões natural e humana no que diz respeito ao delicado equilíbrio energético do planeta. A maior influência humana sobre o sistema climático prende-se com a emissão de gases com efeito de estufa. Mas a relação entre essa emissão e a influência que ela tem no clima é mais complicada do que se poderia imaginar.

Emissões Explicadas e Extrapoladas

Dos gases com efeito de estufa que sofrem influência da atividade humana, os mais importantes são o dióxido de carbono (CO2) e o metano (CH4). Apesar do nosso foco estar centrado na redução de emissões, a correspondência entre concentração e emissão não está, de forma alguma, bem estabelecida. A emissão de CO2 pelos humanos é modesta, no contexto do ciclo natural de carbono que se move sobre a crosta terrestre – oceanos, plantas e atmosfera. Como veremos, o aumento de CO2 provocado pelo homem aumentará, sob qualquer cenário, durante décadas. Mas, apesar da precisão reclamada pelos modelos climáticos, o seu impacto é largamente incerto.

Comecemos pelo princípio. A Terra foi formada há 4,5 mil milhões de anos, com uma dotação fixa de carbono. Esse carbono encontra-se hoje em diversos locais no planeta, nos chamados “reservatórios”. O maior reservatório é de longe a crosta terrestre, que contém quase todo o carbono do planeta, cerca de 1,9 mil milhões de gigatons (1 gigaton, Gt, são mil milhões de toneladas). A segunda maior quantidade, cerca de 40 mil Gt, está nos oceanos, quase todo abaixo da superfície. Há também cerca de 2.100 Gt armazenados nas terras, solos e coisas vivas, e 5.000-10.000 Gt em combustíveis fósseis debaixo dos fundos terrestres e marinhos. Os 850 Gt de carbono presente na atmosfera, quase todo na forma de dióxido de carbono, corresponde a cerca de 25% do carbono presente na, ou perto da, superfície terrestre (em solos, plantas e oceanos pouco profundos), mas representa apenas 2% do carbono presente nos oceanos.

Poderosos processos naturais movimentam o carbono terrestre entre esses reservatórios, transformando frequentemente a sua fórmula química. O mais importante destes processos é o fluxo sazonal de cerca de 1/4 do carbono da atmosfera para as plantas em crescimento – que usam a fotossíntese para transformar o CO2 da atmosfera em matéria orgânica, que depois regressa à atmosfera através da respiração das plantas e à medida que essa matéria orgânica decai. Outros processos bastante mais lentos transportam o carbono da superfície para as profundezas dos oceanos e depois transformam-no em rochas, tais como calcário e mármore, formadas a partir de conchas de animais marinhos.

O CO2 emitido através da queima de combustíveis fósseis altera o equilíbrio deste grande ciclo anual, uma vez que o carbono é retirado das profundezas dos solos onde estava isolado através deste processo natural. O uso de combustíveis fósseis aumenta em 4,5% o carbono que circula no ciclo anual. Cerca de metade deste aumento é absorvido pela superfície terrestre (a subida de CO2 fez aumentar bastante a vegetação do planeta) e o remanescente fica na atmosfera, aumentando por esta via a concentração de CO2. Há 5 linhas independentes que provam a influência humana no aumento da concentração de CO2 nos últimos 150 anos, por isso nenhum cientista contesta essa influência:

  • as concentrações ao longo dos últimos 10 mil anos variaram entre 260 e 280 ppm, antes de uma forte subida ter ocorrido em meados do século XIX.
  • esta subida é o que seria expectável pela queima de combustíveis fósseis.
  • esta subida é antecipada em 2 anos no hemisfério norte, onde a queima de combustíveis fósseis é maior, relativamente ao hemisfério sul.
  • a subida do carbono é de um tipo de carbono “leve” 12C, presente nos seres vivos, cujos restos são, como se sabe, os constituintes dos combustíveis fósseis.
  • o oxigénio está a diminuir – embora muito levemente e sem consequências para os humanos – em proporção correspondente ao necessário para transformar o carbono fóssil em CO2.

No entanto, a concentração de CO2 já foi muitíssimo maior do que a que existe hoje. Apenas no período permiano, há 300 milhões de anos, o nível de CO2 era idêntico ao de hoje. De resto, foi sempre muito superior, e apenas há cerca de 175 milhões de anos começou a decrescer até ao século XIX. Nessa altura, em que os níveis de CO2 eram cinco ou dez vezes superiores aos de hoje, a vida de plantas e animais era florescente. Mas eram animais e plantas diferentes. A vida na Terra está agora adaptada a baixos níveis de CO2. O dióxido de carbono é o único gás com efeito de estufa provocado pelo homem com larga influência no clima. E motiva preocupação porque persiste no ciclo atmosfera/superfície terrestre por muito tempo. 60% do CO2 que é produzido hoje permanecerá na atmosfera por mais 20 anos; 30% a 50% permanecerá por um século; e entre 15 a 30% manter-se-á na atmosfera mais de mil anos. Isto quer dizer que pequenas reduções na emissão de CO2 apenas abrandarão o aumento da concentração de CO2 na atmosfera, mas não o anulam. Para estabilizar essa concentração, e consequentemente a sua influência no aquecimento terrestre, teríamos de parar por completo as emissões.

O metano é o segundo gás com efeito de estufa mais importante, no que diz respeito à influência humana. Tem vindo a subir consistentemente desde o início dos anos 80 do século XX, embora um “planalto”, entre 1998 e 2008, intrigue os cientistas e constitua mais uma incerteza no seio da ciência climática. Mas a subida do metano vem de muito mais longe, pelo menos desde há 4 mil anos. As principais diferenças entre o metano e o CO2 são as seguintes.

  • O metano tem uma concentração na atmosfera muito menor (2.000 partes por bilhão – mil milhões em português – enquanto o CO2 tem cerca de 400 partes por milhão).
  • O metano dura apenas 12 anos na atmosfera, embora, depois disso, reações químicas o convertam em CO2.
  • Devido às peculiaridades de como as moléculas interagem com as diferentes cores da radiação infravermelha, cada molécula adicional de metano na atmosfera é 30 vezes mais potente do que a molécula de CO2 no que diz respeito ao efeito de estufa.

As principais fontes de metano na atmosfera são os gases emitidos pelo gado, através da fermentação interna nos seus corpos (29%)12; petróleo e gás (20%); cultivo de arroz (10%); águas residuais (9%); estrume, mineração de carvão, decaimento de materiais em aterros, entre outros.

O futuro do clima terrestre será determinado pela resposta climática, quer à influência humana quer à influência natural, quer à sua variabilidade interna. Vulcões, o Sol e as correntes oceânicas profundas têm mentes próprias, tal como o clima em si mesmo. Quanto a isto, podemos fazer pouco, mas podemos ter uma noção sobre o que os humanos farão nos próximos anos, particularmente no que diz respeito às emissões de gases com efeito de estufa e aerossóis. Face às grandes incertezas sobre as décadas que aí vêm, em vez de fazer previsões credíveis, o IPPC cria cenários que têm o nome complicado de Representative Concentration Pathways ou, simplesmente, RCPs. Um ponto principal a retirar de qualquer cenário é que a influência humana continuará a crescer no curto prazo, mesmo que cessem na totalidade as emissões. Em suma, não é só difícil isolar a influência humana dentro do complexo sistema climático, mas também a relação entre emissões e concentrações na atmosfera torna extremamente difícil moderar as nossas influências.

Muitos modelos confusos

Para tentarem perceber como as coisas se vão desenrolar, os cientistas criam em computador os seus famosos modelos. Mas o que são exatamente os modelos climáticos? A resposta curta é que são programas de computador que correm sob simulações matemáticas do sistema climático. Tal como o estatístico George Box, da universidade de Wisconsin, disse em 1978: Todos os modelos estão errados, mas alguns são úteis. Um problema básico dos modelos climáticos é deduzível das dificuldades atuais das previsões meteorológicas, que não conseguem uma precisão superior a 15 dias, apesar de serem hoje muito mais precisas do que eram há 30 anos. Este problema fundamental foi descrito em 1961 por Ed Lorenz, do MIT. O tempo é caótico e pequenas alterações ao modo como iniciamos o nosso modelo podem conduzir a predições muito diferentes após poucas semanas. Então, não importa quão acuradamente podemos especificar as condições presentes, a incerteza das nossas predições cresce exponencialmente à medida que as projetamos no futuro. Computadores mais poderosos não podem ultrapassar esta incerteza básica.

Todos os modelos climáticos computorizados começam através da cobertura da atmosfera com uma rede tridimensional, tipicamente dez a vinte camadas de caixas empilhadas acima da rede de superfície, em quadrados de 100X100 quilómetros. A rede que cobre os oceanos é semelhante, mas menor, tipicamente 10X10 quilómetros, e mais camadas verticais (até 30 camadas). Com a totalidade da Terra coberta desta forma, há cerca de um milhão de caixas desta rede para a atmosfera e 100 milhões de caixas para o oceano. Uma vez estabelecida esta rede no terreno, os modelos de computador usam as leis da Física para calcular como o ar, água e energia em cada caixa, num dado momento, se movem para as caixas de rede vizinhas, um pouco mais tarde; este lapso de tempo pode ser tão curto quanto dez minutos. Repetindo este processo milhões de vezes, simula-se o clima para um século (pouco mais de 5 milhões de vezes se o lapso de tempo for de 10 minutos). Estes inúmeros lapsos de tempo numa simulação podem dar trabalho, mesmo ao mais poderoso computador do mundo, durante meses. Os investigadores podem alternar entre estes diferentes fatores, dependendo do propósito do modelo em questão. Um dos desafios maiores destes modelos é que apenas usam valores únicos para a temperatura, a humidade, etc., para descrever as condições no interior de uma caixa de rede.

No entanto, vários fenómenos importantes ocorrem numa escala menor do que os 100 kms (60 milhas) das caixas, tais como montanhas, nuvens e trovoadas, e por isso os investigadores têm de construir sub redes para construírem um modelo completo. Por exemplo, fluxos de luz solar e de calor através da atmosfera são influenciados pelas nuvens. Estas desempenham um papel crucial – dependendo do tipo e formação, as nuvens refletem a luz solar ou intercetam o calor, em quantidades variáveis.

Então, porque não construir caixas mais pequenas? Infelizmente, isso iria aumentar dramaticamente a dimensão da computação, desde logo porque teríamos muito mais caixas de rede com que lidar. Mas, além do número de caixas, uma rede mais fina introduz um outro problema: a computação só será acurada se as coisas não mudarem demasiado dentro de um lapso de tempo (ou seja, se não se moverem para lá de uma única caixa de rede). Assim, se a rede for mais fina, o lapso de tempo tem igualmente de ser menor, exigindo mais tempo de computação. Para ilustrarmos isto, uma simulação que dure dois meses para uma rede de 100 kms quadrados, levaria mais de um século se usássemos uma rede de 10 kms quadrados. Este tempo poderia ser reduzido para os mesmos dois meses se tivéssemos um supercomputador cem vezes mais rápido que os atuais – uma capacidade talvez disponível dentro de duas ou três décadas, mas não hoje.

Outro problema que se levanta prende-se com a forma como a nossa grelha divide a Terra em pedaços verticais versus horizontais. A atmosfera e os oceanos são ambos como finas conchas que cobrem a superfície terrestre – a profundidade média dos oceanos (4 kms) é muito pequena quando comparada com o raio da Terra (6.400 kms), bem como a altura da atmosfera (cerca de 100 kms). Para descrever com precisão as variações verticais, as várias dezenas de caixas empilhadas são mais parecidas com panquecas do que com cubos, centenas de vezes maiores em largura do que em altura13. Em geral, as simulações são mais acuradas nas partes superiores da pilha de “panquecas”, mas estas caixas achatadas tornam-se um problema nas partes da atmosfera abaixo dos 10 kms, onde o tempo turbulento ocorre. As trovoadas têm lugar em áreas muito menores do que os 100 kms da nossa rede. Isto é particularmente importante nos trópicos, onde há um significativo fluxo de energia e vapor de água, transportados para a atmosfera pela evaporação da água dos oceanos. Deste modo, são necessárias sub redes que assumam esta “convecção húmida” – a forma como o ar e o vapor de água se movem verticalmente através das caixas achatadas – para se construírem modelos fiáveis. De facto, a maior incerteza da modelagem climática decorre do tratamento das nuvens.14

Qualquer simulação precisa também de ser “iniciada”, ou seja, precisamos de alguma forma especificar as condições do oceano e da atmosfera no início do primeiro lapso de tempo: temperatura, humidade, ventos, etc., em cada caixa da atmosfera, bem como temperatura, salinidade, correntes, etc., em cada caixa de rede do oceano. Infelizmente, mesmo com os meios sofisticados de observação existentes, esse tipo de detalhe não está ao nosso alcance, muito menos estaria nas décadas passadas. Além disso, o nível caótico da simulação tornaria a maioria dos detalhes irrelevantes passadas duas ou três semanas. Assim, a etapa inicial (1º lapso de tempo) capta apenas de forma grosseira as condições de partida. Em cada evento, por razões práticas e fundamentais, é impossível ajustar dezenas de parâmetros para que o modelo corresponda às muito mais numerosas propriedades observadas do sistema climático. As nossas limitações não nos permitem entender as características do clima, nem sequer perto dos níveis de especificidade exigidos.

Entre as coisas mais importantes que um modelo tem de considerar estão os chamados feedbacks. O crescimento da concentração de gases com efeito de estufa que provocam o aquecimento global pode também causar outras mudanças no sistema climático, as quais podem ampliar ou diminuir a sua própria influência nesse aquecimento. Por exemplo, à medida que o globo aquece, há menos neve e gelo na superfície terrestre, o que provoca a diminuição do albedo terrestre. A Terra menos reflexiva irá então absorver mais luz solar, causando ainda mais calor. Um outro exemplo de um feedback é que, à medida que a atmosfera aquece, vai carregar mais vapor de água, o que vai aumentar bastante a sua capacidade de intercetar o calor libertado. Mas mais vapor de água vai também transformar a cobertura de nuvens, aumentando quer a interceção de calor (nuvens altas) quer a reflexividade (nuvens baixas). Neste balanço ganha a reflexividade, e o feedback da rede de nuvens, de alguma forma, diminui o aquecimento direto.

É por tudo isto que os ajustamentos (tuning) são necessários mas perigosos, quer nos modelos climáticos, quer em qualquer sistema complexo. Um artigo de 15 proeminentes cientistas do clima põe as coisas nestes termos:

As escolhas e os compromissos feitos durante os ajustamentos podem significativamente afetar os resultados do modelo… Em teoria o tuning deveria ser levado em conta em qualquer avaliação, comparação ou interpretação dos resultados do modelo… Porquê uma tal falta de transparência? Isto pode acontecer porque a “sintonização” é frequentemente vista como uma parte suja, embora inevitável, da modelação climática, mais engenharia que ciência, um ato de desafinação que não merece ser registado na literatura científica. Também pode haver alguma preocupação em explicar que os modelos são ajustados, pois isto pode fortalecer os argumentos daqueles que questionam a validade das projeções sobre mudanças climáticas. Os ajustamentos podem ser vistos, sem dúvida, como uma inconfessável forma de compensar os erros dos modelos.15

Acresce a tudo isto que os resultados dos diferentes modelos divergem entre si, sendo que, quanto à temperatura média da superfície terrestre, chegam a divergir em 3ºC. Isto é particularmente chocante se tivermos em consideração que 3ºC são três vezes maiores que o valor de aquecimento observado durante o século XXI, valor esse que os próprios modelos buscam explicar e descrever. Dois modelos cuja temperatura de superfície média varie deste modo vai igualmente variar bastante nos seus detalhes. Por exemplo, uma vez que não é possível ajustar a temperatura de congelamento da água (determinada pela natureza), a quantidade de neve e gelo que cobrem a Terra, e consequentemente os albedos, podem ser muito diferentes.

Dado que nenhum modelo bate certo, o resultado médio dos relatórios de avaliação é deduzido de um “conjunto” de algumas dezenas de modelos de diversos grupos de pesquisa espalhados pelo mundo. O CMIP (Coupled Model Intercomparison Project) compila estes conjuntos. O conjunto CMIP3 está na base do relatório de avaliação AR4 do IPCC; por sua vez o CMIP5 sustenta o relatório AR5, de 2013, enquanto o CMIP6 fundamentará o relatório de avaliação conhecido por AR616. Surpreendentemente, alguns dos atuais modelos são menos precisos que modelos antigos, apesar de mais sofisticados. O próprio IPCC, embora numa linguagem asséptica, reconhece não ter ideia do que causa as falhas nos modelos, nomeadamente quando previram metade do aquecimento realmente observado entre 1910 e 1940. Isto é altamente problemático porque o aquecimento observado no início do século XX é comparável ao observado no final do século, o qual, de acordo com os relatórios de avaliação, é atribuído com “elevada confiança” à influência humana. O IPCC reconhece que é difícil quantificar as contribuições da variabilidade interna, das forças naturais ou antropogénicas para este aquecimento.17

A variabilidade interna que o IPCC refere como difícil de quantificar, embora considerado um assunto menor, é de facto um grande problema. Observações climáticas mostram claramente comportamentos repetidos ao longo de décadas e mesmo séculos. Pelo menos alguns deles devem-se a lentas mudanças nas correntes oceânicas e à interação entre o oceano e a atmosfera. O exemplo mais conhecido é o dos fenómenos associados ao El Niño (tecnicamente, El Niño -Southern Oscilation), uma alteração no calor ao longo da região equatorial do Oceano Pacífico, que ocorre irregularmente entre 2 a 7 anos e influencia a meteorologia mundial. Um comportamento lento menos conhecido é a “Oscilação Multidecadal do Atlântico” (Atlantic Multidecadal Oscilation – AMO), que envolve mudanças cíclicas de temperatura (entre 60 a 80 anos) no Atlântico Norte. O Oceano Pacífico mostra um similar, embora não relacionado, comportamento cíclico de cerca de 60 anos. Dado que temos apenas 150 anos de boas observações e registos, comportamentos sistemáticos que ocorrem em escalas de tempo maiores são menos conhecidos – mas podem existir (e quase de certeza que existem) outras variações cíclicas naturais, que ocorrem ao longo de períodos ainda maiores.

Estes ciclos influenciam o clima aos níveis regional e global e sobrepõem-se a qualquer tendência, humana ou natural, como a emissão de gases com efeito de estufa ou os aerossóis de origem vulcânica, e tornam difícil determinar que mudanças observadas se devem à influência humana ou à influência natural. O falhanço, mesmo dos modelos mais recentes, para justificar o rápido aquecimento ocorrido nos anos iniciais do século XX sugere, torna mesmo provável, que a variabilidade interna – os fluxos e refluxos naturais dos sistemas climáticos – tenha contribuído significativamente para o aquecimento que vem ocorrendo nas últimas décadas. O facto de os modelos não conseguirem reproduzir o passado constitui um grande cartão vermelho e degrada a confiança em projeções futuras. Isto reflete-se no ECS – Equilibrium Climate Sensitivity, ou seja, no valor em que subirá a temperatura média da superfície terrestre se a concentração de CO2 hipoteticamente duplicar os 280 ppm da época pré-industrial. Se as emissões se mantivessem ao ritmo atual, essa duplicação aconteceria até ao final deste século. O que acontece é que esse valor não tem agora um grau de certeza maior do que tinha em 1979 (o valor estimado nessa altura era de 3ºC.)

Os modelos dão-nos valores diferentes, que vão dos 2ºC até aos 5,5ºC. Estes altos ECS parecem resultar da sub-rede que inclui a interação das nuvens com os aerossóis nos modelos, algo que não é bem compreendido, mas que inibe o aquecimento, ao aumentar o albedo da Terra. Por outras palavras, os investigadores ajustam os seus modelos ao que eles pensam corresponder ao aumento dos gases com efeito de estufa, ou seja, cozinham os resultados. Num artigo publicado em julho de 2020, vinte cientistas combinaram as abordagens verticais e em grade (juntamente com algumas informações observacionais e de períodos antigos) na tentativa de definir a sensibilidade do clima. Os autores encontraram um intervalo provável para o ECS de 2,6 a 4,1º C, metade do estimado pelo AR5 (1,5-4,5ºC), o que significa que valores extremamente baixos ou extremamente altos são considerados pouco prováveis.18 Não surpreende que tenhamos uma pobre compreensão sobre como o clima vai responder ao aumento das concentrações de gases com efeito de estufa. Quanto mais aprendemos sobre o sistema climático, mais temos noção do quão complicado ele é.

Exagerando no calor

O que vemos quase diariamente na comunicação social são notícias sobre secas, incêndios, cheias, tempestades, etc., “sem precedentes”. Dado que a memória humana é relativamente curta, a maioria das pessoas acredita. Mas a ciência conta-nos uma história diferente. Observações desde há um século indicam que a maioria dos fenómenos meteorológicos extremos não mostram qualquer tendência significativa, e alguns destes eventos tornaram-se, na realidade, menos comuns e severos, mesmo com o aumento da influência humana sobre o clima.

Por outro lado, é difícil detetar mudanças em eventos extremos, bem como atribuí-los à influência humana, devido à baixa qualidade dos registos históricos, à elevada variabilidade natural, a influências naturais difíceis de determinar, e ao desacordo sobre os inúmeros modelos usados. Sobre a dificuldade em determinar a influência humana, a Organização Meteorológica Mundial coloca de forma clara a questão: cada evento, por exemplo um ciclone tropical, furacão ou tufão, não pode ser atribuído a mudanças climáticas provocadas pelo homem, tendo em conta o conhecimento científico atual.19

Nos Estados Unidos, país que tem os registos mais extensos e de maior qualidade sobre a temperatura, os recordes de baixas temperaturas são agora menos comuns, e os recordes diários de temperaturas mais altas não são mais frequentes hoje do que eram há um século. Porque temos então a sensação de que as temperaturas extremas estão a aumentar? Uma das razões é que os relatórios são objeto de múltiplas revisões. Por questões ideológicas, muitas vezes, os dados são deturpados. Por exemplo, um quadro apresentado pelo CSSR – Climate Science Special Report (Relatório Especial sobre Ciência Climática), que mostra o racio do registo diário de recordes de altas temperaturas versus o registo diário de recorde de baixas temperaturas, é enganador, pois leva a concluir que o número de recordes da altas temperaturas está a ocorrer com mais frequência, o que não corresponde à verdade, o que acontece é que o número de recordes de temperaturas mínimas está a baixar mais do que o de temperaturas máximas. Chama-se a isto persuadir em vez de informar. Assim, não surpreende que os media desinformem e não digam a verdade, que é a de que, afinal, os recordes de mínimas estão a diminuir e os recordes de máximas temperaturas quase não se alterou nas últimas décadas.

Terrores de tempestades

De acordo com os media, as tempestades estão a tornar-se mais comuns e mais intensas, e o aumento dos gases com efeito de estufa estão a tornar tudo isto ainda pior. No entanto, os dados e a literatura de pesquisa estão totalmente em desacordo com esta mensagem. No centro desta confusão estão os relatórios de avaliação, que apresentam sumários inconsistentes em relação às suas próprias conclusões. Mas a verdade é que furacões e tornados não mostram mudanças atribuíveis à influência humana. Tecnicamente, “furacão” é o termo usado para um ciclone tropical no Atlântico ou no leste do Pacífico; estas tempestades são chamadas “tufões” no Pacífico Oeste e apenas “ciclones” na Baía de Bengala e no norte do Oceano Índico. Para evitar confusões, Koonin não se faz essa distinção, considera no livro que todos essas tempestades são furacões. Com uma extensão de até algumas centenas de milhas, estes sistemas de tempestade apresentam um centro (“olho”) de baixas pressões, rodeado por uma espiral (contrária ao sentido dos ponteiros do relógio no hemisfério norte e no sentido dos ponteiros do relógio no hemisfério sul) de trovoadas e tornados, produzindo chuva pesada. Quanto mais baixa for a pressão do olho, mais fortes serão os ventos em seu torno. Um furacão apresenta ventos superiores a 119 km/h; se for mais fraco, é chamado “tempestade tropical”, e se for ainda mais fraco é conhecido por “depressão tropical”. Os furacões são categorizados pela sua intensidade através da escala Saffir-Simpson, que vai de 1 a 5. As maiores tempestades (as de categorias 3 a 5) têm ventos superiores a 179 km/h.20

Os furacões crescem de depressões tropicais (áreas de baixa pressão) nascidas sobre os oceanos ao longo do equador. De seguida movem-se no sentido dos polos, dependendo o seu caminho preciso dos ventos regionais; a maioria nunca chega ao solo. Há cerca de 48 furacões por ano em todo o globo. Dois terços ocorrem no hemisfério norte (onde a temporada de furacões vai de junho a novembro) e um terço no sul (de novembro a maio). Em números redondos, cerca de 60% ocorrem no Pacífico, 30% no Índico, e 10% no Atlântico Norte. São muito raros no Atlântico Sul. Os cientistas desenvolveram outras formas de medir as tempestades. Uma delas é a Energia Acumulada do Ciclone (ACE – Accumulated Cyclone Energy), que combina o número de tempestades com a sua intensidade, e outra é o Índice de Energia de Dissipação (PDI- Power Dissipation Index), semelhante à ACE, mas que confere um peso ainda maior às tempestades mais intensas (cada tempestade é medida pelo cubo, ou 3ª potência, da sua velocidade de vento).

As áreas de baixas pressões que se transformam em furacões formam-se a partir da evaporação da água do mar numa zona quente; essa água liberta calor à medida que sobe e se condensa na atmosfera. Assim, podemos esperar um incremento na atividade dos furacões à medida que a superfície do mar aquece. Infelizmente, não é assim tão simples, como se pode comprovar pelos registos de longo prazo dos números anuais e da ACE de furacões no Atlântico Norte. As flutuações de longo prazo da Oscilação Multidecadal do Atlântico (AMO – Atlantic Multidecadal Oscillation), atrás referida, afeta a temperatura da superfície do mar onde se formam os furacões e pode, por isso, aumentar ou suprimir a sua atividade. As condições atmosféricas têm que ser precisas para que um furacão se forme, não apenas a temperatura. Há uma série de outros fatores a ter em conta, como a variação da velocidade do vento e a sua direção com a altitude, ou a presença de poeira do Sahara, nenhum dos quais descritos pelos modelos climáticos.

Como é evidente, o facto de a temperatura não ser o único fator a ter em conta na formação de furacões não quer dizer que o aquecimento, natural ou causado pelo homem, não tenha influência. Tem havido, como sempre há em tudo que tem a ver com o clima, oscilações no número e intensidade dos furacões nos últimos anos, talvez porque o ciclo AMO esteja numa fase alta, mas tal já ocorreu no passado e, se alongarmos o período de registos, verificaremos que houve tempos em que a atividade era pelo menos tão grande como a que temos hoje, mesmo antes da influência humana se tornar significativa. Assim, a maioria dos autores tem “baixa confiança” (low confidence) em que alterações na frequência e intensidade dos ciclones tropicais estejam além do que possa ser atribuído à variabilidade natural. No entanto, os media não dão conta desta realidade, preferindo propagar o alarme não fundamentado. É verdade que os danos económicos provocados pelos furacões estão a aumentar, mas isto acontece porque hoje há mais pessoas e mais infraestruturas valiosas nas zonas costeiras, não porque as características das tempestades tenham mudado no longo prazo.

Seja o que for que o futuro nos reserve, as descrições dos dados sobre furacões, presentes nos relatórios de avaliação, pecam por omissão; violam o que Einstein uma vez disse no edifício da Academia Nacional, em Washington: “O direito da busca pela verdade implica também um dever; não devemos esconder nenhuma parte do que reconhecemos ser verdadeiro”. É claro que os furacões não são as únicas tempestades que causam estragos e ganham manchetes. Vejamos os tornados. O seu número tem aumentado significativamente. Mas isto ilustra perfeitamente os perigos da correlação. Uma simples pesquisa no Google revela-nos que também o números de barcos de pesca ou de filmes violentos duplicou desde 1950 e, com certeza, nenhuma destas tendências se deve a alterações climáticas. No caso dos tornados, a chave para esta “tendência” reside na compreensão de como os dados são compilados – o que é frequentemente tão importante quanto os dados em si. Como são, afinal, os tornados contabilizados?

Hoje em dia os radares detetam tornados muito fracos, distantes mais de 160 kms, mas antes dos radares estarem largamente disponibilizados os tornados fracos nem sempre eram registados. Estes tornados mais fracos nem sempre deixam um rastro de destruição, sobretudo nas áreas escassamente povoadas. A força dos tornados é medida na escala Fujita (Enhanced Fujita Scale), originalmente desenvolvida em 1971, com uma versão aumentada em 2007. A categorização dos tornados vai de EF0 para as tempestades mais fracas até ao EF5, para as que têm ventos acima das 260 mph (milhas/hora). Sessenta por cento dos tornados nos Estados Unidos são hoje da categoria EF0, enquanto em 1950 essa categoria representava apenas 20%. Isto sugere que o aumento do número de tornados se deve à maior contagem de fracas tempestades nas décadas recentes, o que, de acordo com a NOAA (National Oceanic and Atmospheric Administration), é, de facto, o caso.21 De acordo com os registos no terreno, se tivermos em conta apenas os tornados de força EF1 ou superiores, verifica-se que o seu número não varia muito desde 1974. Mas se tivermos em consideração o número de tornados da categoria EF3 ou de força superior, o que se verifica é que o seu número decresceu em cerca de 40% nos 60 anos que se seguiram a 1954.

Os dados também nos dizem que há menos dias/ano com tornados, mas maior número de tempestades nos dias em que estas ocorrem. As causas, naturais ou humanas, que provocaram estas mudanças ao longo das últimas décadas mantém-se um mistério. No entanto, podemos com confiança atribuir à influência humana uma grande mudança relacionada com os tornados: as mortes provocadas pelos tornados caíram mais de dez vezes desde 1987 nos Estados Unidos, o que se deve, em larga medida, aos avisos dos radares.22

Perigos de Precipitação – das Inundações aos Incêndios

As relações entre tempo e clima são complicadas, especialmente para a precipitação, sob a forma de chuva ou de neve. Por exemplo, embora possa parecer contraintuitivo, a subida da temperatura pode afinal contribuir para que neve mais – se um aumento das temperaturas mínimas impedir o congelamento do Oceano Ártico no inverno, mais água será evaporada para a atmosfera. De acordo com os registos, os grandes nevões no mundo desenvolvido têm vindo a decrescer, embora de forma muito lenta e pouco acentuada. Desconhece-se qual a influência humana nesta tendência, se é que existe de todo.

Quanto à precipitação, temos de considerar o seguinte. O volume de água existente na Terra é, essencialmente fixo. Quase todo (cerca de 97%) está nos oceanos, e quase todo o resto encontra-se em Terra – no gelo e na neve (especialmente na Gronelândia e nos lençóis de gelo do Ártico, em lagos e rios, e no subsolo. No entanto, a água terrestre que se encontra na atmosfera tem um papel central no clima, visto que o vapor de água é o mais importante gás com efeito de estufa, e as nuvens contribuem para a maior parte do albedo terrestre. A energia solar movimenta a água entre estes diversos reservatórios e forma o chamado ciclo hidrológico. A maior e mais dinâmica parte deste ciclo é o fluxo de água que sobe da superfície terrestre para a atmosfera (85% deste fluxo advém da evaporação dos oceanos, os outros 15% da superfície terrestre, a maior parte da transpiração das plantas). Essa água mantém-se nas alturas por uma média de 10 dias, antes de condensar e cair de novo, na forma de chuva ou neve (77% cai nos oceanos e 23% no solo terrestre). Globalmente, a chuva é mais intensa perto do equador (onde muita da água evaporada volta à superfície à medida que o ar quente e húmido sobe e arrefece) mas baixa onde o ar seco desce, criando os desertos que flanqueiam o equador.

O lugar mais seco da Terra fica na América do Sul, no extremo norte do deserto de Atacama, no Chile: Arica, onde chove apenas 0,6 mm por ano. O mais húmido é Mawsynram, na Índia, com a média de 11,871 mm/ano. Se todo o resto se mantiver igual, é expectável que o ciclo hidrológico se intensifique à medida que o globo aquece: haverá mais evaporação e o ar quente transportará mais água, conduzindo a mais precipitação. É igualmente expectável que esta precipitação seja mais pesada, com áreas secas a ficarem ainda mais secas e as áreas húmidas ainda mais húmidas, com mais períodos de intensa precipitação. Isto pode levar a inundações em algumas áreas, mas uma vez que as temperaturas mais elevadas devem também aumentar a evaporação, as secas podem também aumentar. Há escasso consenso entre os modelos acerca de como, onde e quando estas alterações têm lugar.

Além disso, é bastante difícil escolher e analisar dados que sejam úteis para testar as expectativas sobre o que pode acontecer, e mesmo até responder a uma questão básica como: “como tem mudado a média de precipitação?” Ao contrário das alterações na temperatura, a precipitação pode variar enormemente em curtas distâncias e em poucos minutos – pode chover em determinado local, embora o tempo esteja perfeitamente seco a 30 kms (ou mesmo 3 kms) de distância. Isto acontece porque, como mencionado atrás, acontecem alterações súbitas nas propriedades da água: em função da temperatura e da quantidade de vapor de água, a água pode condensar e criar precipitação ou não. Assim, ao contrário do que acontece com a temperatura, não há nenhuma forma fácil de combinar os dados sobre precipitação recolhidos pelas estações meteorológicas espalhadas pelo mundo e obter um quadro geral da situação. No entanto, a combinação de dados registados por observações no solo e por satélite permite-nos projetar um quadro global de longo prazo, mais apurado sobre as zonas onde as estações meteorológicas são mais numerosas. Apesar disso, como se mostra num artigo publicado por um grupo de cientistas no Bulletin of the American Meteorological Society, em 2018: … Não parece haver qualquer tendência positiva no volume global de precipitação, devido ao aumento global de temperatura. Porquanto haja tendências regionais, não há evidência de aumento de precipitação à escala global em consequência do aquecimento global observado.23

Outro aspeto de particular importância para o sistema climático, no que diz respeito à precipitação, é a cobertura de neve que aumenta o albedo terrestre. Observações por satélite no hemisfério Norte mostram que há um declínio na cobertura de neve durante a Primavera (e também com algum significado no Verão), como seria expectável num globo a aquecer – especialmente num em que as baixas temperaturas estão a aumentar, enquanto a neve durante o Outono e o Inverno aumentou modestamente. As pequenas alterações no volume de precipitação nos Estados Unidos ao longo dos anos, não alteram a média de incidência de inundações.

As secas são ainda mais difíceis de determinar do que as inundações, uma vez que não resultam apenas da precipitação (ou, antes, da falta dela). Ao contrário, as secas envolvem combinações de temperatura, precipitação, composição e capacidade de escoamento do solo. Atividades humanas, como a irrigação, que esgota a água no solo, ou o esgotamento das terras por excesso de aragem (de “arar” a terra), como aconteceu durante os Grandes Planos americanos nos anos 1930, também jogam um papel. As secas medem-se através do Índice de Gravidade da Seca de Palmer (PDSI – Palmer Drought Severity Index). Secas severas têm acontecido ao longo dos milénios, e os dados, sobretudo através dos registos nos anéis, mostra-nos muitas secas que perduraram por décadas, muitas antes de 1900, incluindo as mega secas de 900 a 1300 AD, e que, portanto, não podem ser atribuídas a influências humanas, mas antes ao aquecimento natural do globo naquela época. O AR5 de 2014 reconhece que “pode dizer-se com elevada confiança que houve secas de maior magnitude e mais longa duração no último milénio, do que aquelas observadas em muitas regiões nos últimos cem anos.

As secas tornam os incêndios mais severos e os grandes incêndios dominam as parangonas dos jornais, que atribuem as causas dos mesmos às alterações climáticas. Apesar disso, os dados mostram-nos que a área ardida, a nível global, diminuiu 25% de 1998 até 2015. Uma das razões para este declínio é atribuída pelos cientistas à atividade humana, nomeadamente à expansão e intensificação da agricultura. Mais uma vez, os modelos são imperfeitos e as previsões incertas. Não se conhece exatamente que papel desempenha a humanidade relativamente a estes aspetos do clima no futuro.

O Nível do Mar Assusta

Depois dos oceanos, a maior reserva de água da Terra está nos lençóis de gelo da Gronelândia e do Ártico. Enquanto numerosos fatores contribuem para pequenas alterações do nível do mar, o que conta mais, o que é mesmo mais importante ao longo do tempo geológico, depende do gelo que se encontra nos solos. Ciclos lentos – variações na órbita da Terra e na inclinação do seu eixo ao longo de dezenas de milhares de anos – alteram a quantidade de luz solar absorvida pelos hemisférios Norte e Sul. Essas alterações causaram grandes oscilações na temperatura global durante milhões de anos. E também provocam o crescimento ou a diminuição dos lençóis de gelo que cobrem os continentes (os intervalos são tecnicamente chamados “glaciações” e “interglaciações”, respetivamente), despejando menos ou mais água nos oceanos, e assim causando a descida ou subida dos níveis do mar. Por exemplo, durante o último período interglacial (pouco gelo), há 125 mil anos, conhecido por Eemian (Eemiano), o nível dos mares era cerca de 6 metros mais alto do que é hoje.

O último Glaciar Máximo ocorreu há cerca de 22 mil anos, altura em que os glaciares continentais começaram a derreter de novo. A Terra encontra-se hoje no interglacial Holoceno, que os geólogos acreditam ter começado há 12 mil anos. De acordo com os dados geológicos, o nível do mar subiu cerca de 120 metros desde o Último Glaciar Máximo, muito rapidamente (120mm por década) até cerca de 7 mil anos atrás, tendo depois essa subida abrandado drasticamente. A questão, portanto, não é a de saber se o nível dos mares está subindo, mas de que forma os seres humanos contribuem (ou não) para isso. Nas últimas três décadas o nível do mar subiu cerca de 3mm por ano, mais do que a média de 1,8 mm desde 1880. No entanto, a média não nos diz nada sobre se ocorreram ou não períodos de maiores subidas, como este dos últimos 30 anos.

Para sermos claros, o nível dos mares sobe à medida que a temperatura do globo sobe. Quando a temperatura de superfície terrestre aumenta, o gelo derrete – e à medida que os oceanos aquecem, a água que contêm expande-se. Os níveis sobem e descem sazonalmente no longo prazo, em resposta aos ciclos orbitais discutidos anteriormente, e em resposta às influências naturais ou humanas. Enquanto as taxas de subida ao longo do século passado tiveram significativos altos e baixos, um globo em aquecimento provoca, indubitavelmente, mais água nos oceanos. O que acontecerá, então, ao nível dos mares, no futuro? A resposta depende sobretudo da quantidade de gelo que derrete na superfície terrestre, à medida que as temperaturas sobem, e também do aumento da temperatura dos oceanos.

No entanto, sabe-se que o derretimento do gelo ao nível global diminuiu desde 1900 e é hoje o mesmo que há 50 anos; a contribuição da Gronelândia para este derretimento atingiu um nível mínimo em 1985 e não é agora mais elevado do que era em 1935. Os cientistas que constroem os modelos deparam-se com um problema fundamental: não compreenderam as alterações que ocorrem na Antártida e na Gronelândia que determinaram o volume dos oceanos e, consequentemente, a subida ou descida do nível dos mares. Os dados sugerem que há ciclos que condicionam o nível das águas, nomeadamente o AMO (Oscilação Multidecadal do Atlântico)24, já referido, sendo expectável que esse nível desça durante as próximas décadas, ao contrário do que é divulgado pela comunicação social.

Em suma, não sabemos o quanto da subida do nível global do mar é devida ao aquecimento provocado pelo homem, e quanto é devido aos ciclos naturais de longo prazo. Há poucas dúvidas de que, ao contribuirmos para o aquecimento do planeta, também contribuímos para a subida do nível dos mares. Mas há pouca evidência de que essa contribuição seja significativa, muito menos catastrófica. A tendência dos humanos construírem cidades nas zonas costeiras também tem contribuído para o aumento do nível dos mares.25

Apocalipses que não são

Os supostos apocalipses, que afinal, não o são, são três:

  • Mortes causadas pelas alterações climáticas.
  • Desastre na agricultura.
  • Desastre na economia

Quanto ao primeiro, é preciso reconhecer que as pessoas não morrem por causa do clima. O clima muda devagar e as sociedades adaptam-se ou migram. Mas as pessoas morrem devido a eventos meteorológicos relacionados com o clima – secas e inundações, tempestades, temperaturas extremas e grandes incêndios, embora tenhamos já visto que estamos longe de ter alguma certeza de que alterações no clima provoquem estes fenómenos. Desde 1930, as mortes provocadas por fenómenos meteorológicos decaíram consecutivamente, sendo hoje menos de metade do que as que ocorriam naquela década. Por outro lado, muitas mortes atribuídas ao clima – como aquelas provocadas pelo cozinhar com madeira e restos de animais e plantas – são na realidade causadas pela pobreza. Não há dúvida de que a poluição afeta o clima (como vimos, os aerossóis provocam o arrefecimento do planeta), mas as mortes devidas à poluição não são causadas pelas alterações climáticas, antes pela própria poluição.

Quanto ao suposto desastre na agricultura, é importante começar por referir que o aumento da concentração de dióxido de carbono tem sido um fator muito relevante para o aumento da produção agrícola, uma vez que impulsiona a taxa de fotossíntese e altera a fisiologia das plantas, fazendo com que usem a água de forma mais eficiente.26, 27 2020 foi o ano-recorde da produção de grãos. Em suma, o que a ciência realmente nos diz é que o colapso nas colheitas derivado do clima é outro apocalipse que, simplesmente, não o é. E, consequentemente, nada indica que possa ocorrer, devido às “alterações climáticas”, um desastre económico.

Fica claro que os media, os políticos e frequentemente os próprios relatórios de avaliação desvirtuam descaradamente o que a ciência diz sobre clima e catástrofes. Essas falhas devem ser atribuídas aos cientistas que escrevem ou reveem os relatórios, os repórteres que acriticamente os refletem, os editores que permitem que tal aconteça, os ativistas e as suas organizações que primem os botões de alarme, e os especialistas cujo silêncio público engrossa o engano.

Quem degradou a ciência e porquê

Há vários responsáveis pela desinformação que passa para o público sobre as alterações climáticas. Eis os principais: os media; os políticos; as instituições científicas; os cientistas; os ativistas e as ONGs; o próprio público. Claro que nem todos os membros destes grupos alinham no alarme geral, mas os que o fazem são suficientes para sustentar essa tendência, que se tornou maioritária e, mais do que isso, uma verdade incontestável na maior parte da opinião pública mundial. Os media são responsáveis porque destacam, na abertura de telejornais ou em parangonas na imprensa, aquilo que vende mais: o alarmismo. Isto é particularmente verdade no que toca às matérias sobre clima e energia. Informar em profundidade não vende, é muito mais rentável a manchete sensacionalista – sobretudo num mundo onde a partilha de notícias nas redes sociais é a parte mais importante do negócio – até porque há sempre, algures no mundo, uma história sobre um qualquer evento meteorológico extremo para contar.

Por outro lado, a maioria dos jornalistas não tem formação científica. E isto é muito importante porque, como vimos, os próprios relatórios de avaliação podem ser mal interpretados, sobretudo por quem não é especialista. Assim, os jornalistas embarcam facilmente na missão de salvar o mundo da destruição humana, considerando o alarmismo correto, mesmo um dever, o qual se deve, em larga medida, ao desconhecimento que têm do desenvolvimento atual da ciência climática. Quanto aos políticos, é preciso notar que ganham eleições agradando ao público, de alguma forma, dizendo o que este quer ouvir. Isto não é novo. Como notou H. L. Mencken’s no seu livro Em Defesa das Mulheres, de 1918:

Todo o propósito da prática política é manter a populaça alarmada (e, consequentemente, ansiosa por segurança), assustando-a com uma série infindável de duendes, a maioria imaginários.28

As ameaças de catástrofe climática – tempestades, secas, subida dos mares, destruição de colheitas, colapso económico – impacta em toda a gente. E essas ameaças podem ser consideradas urgentes (envolvendo um recente evento climático mortífero, por exemplo), mas também suficientemente distantes para que as terríveis previsões de um político sejam postas à prova apenas décadas depois de ele deixar o cargo. Por outro lado, e embora a ciência climática e as questões energéticas associadas sejam complicadas, a complexidade e as suas nuances não se adequam a mensagens políticas eficazes. Assim, a ciência é descartada em favor da Ciência e “simplificada” para uso na arena política, o que permite que as ações necessárias sejam resumidas de forma simples – basta eliminar os combustíveis fósseis para salvar o planeta. É claro que este não é um problema específico do clima, e o eleitorado – que odeia zonas cinzentas – tem a sua quota-parte de culpa.

Alguns políticos tentaram descaradamente minar o processo científico. Michael Bloomberg e Tom Steyer, dois políticos bilionários, tinham o objetivo de “fazer a ameaça climática parecer real, imediata e potencialmente devastadora para o mundo dos negócios.” Conspiraram com alguns cientistas, entre outros, para produzir uma série de relatórios descaracterizando o cenário de emissões extremas RCP 8.5 como “negócio de sempre” (ou seja, um mundo que não se esforça para conter as emissões). Os relatórios foram acompanhados por uma campanha sofisticada para infundir essa noção em conferências e revistas científicas.29 Aqueles que procuram corromper dessa forma o processo científico jogam o mesmo jogo que a multidão anticientífica que eles condenam em voz alta. Felizmente, a fraude está sendo denunciada agora nas principais revistas científicas.30

Finalmente, é prática comum sugerir que muitos dos políticos de direita, que defendem a ideia de “uma farsa da mudança climática”, são influenciados por vínculos a industriais afetados negativamente pela regulamentação ambiental restritiva. Infelizmente, à medida que a indústria das energias alternativas cresce, há incentivos financeiros para que os políticos também exagerem na tónica da catástrofe climática. A ciência não deve ser partidária, mas a interligação da ciência climática com a política, em geral, e com a política energética, em particular, praticamente garantiu que isso iria acontecer.

Quanto às instituições científicas, deveriam merecer o nosso apoio, pois é nelas que se baseia a nossa confiança – e a dos media e dos políticos – no que nos é apresentado como A Ciência. No entanto, quando se trata de clima, essas instituições parecem, frequentemente, mais preocupadas em fazer a ciência encaixar-se numa narrativa, do que em garantir que a narrativa se encaixe na ciência. Já vimos que as instituições que preparam as avaliações oficiais têm um problema de comunicação, sumariando ou interpretando os dados de formas ativamente enganadoras. Outras instituições, ou os seus líderes, exageram também na sua intenção de persuadir em vez de informar. Vejamos, por exemplo, o que disseram os presidentes das Academias Nacionais de Ciência, Engenharia e Medicina, nos Estados Unidos, em 28 de junho de 2019:

Os cientistas sabem, desde há algum tempo, por múltiplas linhas de evidência, que os humanos estão a alterar o clima da Terra, sobretudo através da emissão de gases com efeito de estufa. A evidência dos impactos das alterações climáticas são igualmente claros bem como o seu crescimento. A atmosfera e os oceanos estão a aquecer, a magnitude e frequência de certos eventos extremos estão a aumentar, e o nível do mar está a subir ao longo das nossas costas.31

Mesmo considerando a necessidade de concisão, esta é uma forma enganadora, incompleta e imprecisa de mostrar o que nos diz a ciência climática. Confunde o aquecimento causado pelo homem com mudanças climáticas em geral, sugerindo, erradamente, que as influências humanas são as únicas responsáveis por essas mudanças. Invoca “certos eventos extremos”, enquanto omite o facto de que a maioria deles (incluindo aqueles que afloram mais rapidamente à mente quando se lê a frase “eventos extremos”, como os furacões) não mostram nenhuma tendência significativa. E afirma que “o nível do mar está a subir” de uma forma que não só sugere que isso também é apenas atribuível ao aquecimento causado pelo homem, mas que também omite o facto de que essa subida não é novidade.

Quando a comunicação da ciência climática é corrompida desta forma, isso mina a confiança que as pessoas têm no que o establishment científico diz sobre outras questões sociais cruciais (o COVID-19 é o notável exemplo recente). Tal como Philip Handler, um ex-presidente da Academia Nacional de Ciências, escreveu num editorial de 1980:

É tempo de regressar à ética e às normas da ciência para que o processo político possa decorrer com maior confiança. O público pode perguntar porque ainda não sabemos o que parece vital para a tomada de decisão – mas a ciência manterá o seu lugar na estima do público apenas se admitirmos firmemente a magnitude das nossas incertezas e, consequentemente, afirmarmos a necessidade de mais pesquisas. E perderemos esse lugar se dissimularmos ou se argumentarmos como se todas as informações e entendimento necessários estivessem disponíveis. Os cientistas servem melhor as políticas públicas cingindo-se à ética da ciência, e não à ética da política.32

A verdade é que os cientistas não deveriam ceder à pressão institucional, seja do governo, de uma empresa ou de uma organização não governamental, e nem sequer deveriam recear a pressão dos seus pares. Tal como Richard Feynman afirmou, a integridade científica tem de ser mantida e isso só pode ocorrer se o cientista for imune a pressões: se tiver a sorte de estar em algum lugar onde seja livre para manter o tipo de integridade que descrevi e onde não se sinta forçado, pela necessidade de manter uma posição, ou de apoio financeiro, ou outra qualquer, a perder a sua integridade.33 Porém, no que concerne ao clima e à energia, os cientistas, de várias áreas, caem frequentemente naquilo que se pode chamar “simplificação climática”. E o que causa isto? Talvez a falta de conhecimento sobre o assunto, ou talvez o medo de falar contra os seus pares científicos. Ou talvez seja simples convicção no proclamado consenso, nascida mais de uma fé do que da evidência.

Quanto às ONGs, a imprensa tende a conferir-lhes uma posição de autoridade. Mas também estes são grupos de interesses, com as suas próprias agendas climáticas e energéticas. E são também atores poderosos, que mobilizam apoiantes, arrecadam dinheiro, realizam campanhas e alcançam poder político. Para muitos, a “crise climática” é a sua completa raison d’être. É claro que não há problema em ser-se ativista, e os esforços das ONGs tornaram o mundo melhor de incontáveis maneiras. Mas distorcer a ciência para seguir uma causa é indesculpável, particularmente com a cumplicidade dos cientistas que trabalham nos seus conselhos consultivos. Finalmente, com toda a distorção que ocorre a montante, não surpreende que o público tenha uma visão pseudocientífica. Deste modo, quem divulgue alguns aspetos menos conhecidos dos relatórios de avaliação é imediatamente rotulado de negacionista ou militante de direita, pois a crença nas alterações climáticas consolidou-se na opinião pública como a única posição politicamente correta.

Como restaurar a ciência

A principal proposta de Koonin para restaurar a credibilidade da ciência passa pela criação de uma “Equipa “Vermelha” (Red Team) que deveria ser encarregada de analisar os relatórios de avaliação, tentando identificar e avaliar os pontos fracos. Em contrapartida, outro grupo qualificado, digamos, a “Equipa Azul” (Blue Team), que seria, presumivelmente, constituída pelos próprios autores dos relatórios, teria oportunidade de rebater os pontos fracos encontrados pela Equipa Vermelha. É claro que o IPCC das Nações Unidas, bem como o governo dos Estados Unidos, consideram os seus relatórios incontestáveis, uma vez que são rigorosamente revistos por pares científicos, antes da publicação. Sendo assim, qual a necessidade de um outro nível de revisão? A resposta direta é que – tal como em capítulos precedentes deste artigo foi salientado – esses relatórios apresentam grandes falhas. E uma razão importante para essas falhas prende-se com a forma como os relatórios são revistos. A ciência é um corpo de conhecimento que cresce através de testes, degrau a degrau. Se cada passo for sólido, os investigadores podem alcançar rapidamente resultados espantosos, como o desenvolvimento de vacinas ou moderna tecnologia da informação.

Ao saber que um investigador produziu um novo conhecimento sólido, outros pesquisadores examinam, e muitas vezes desafiam, resultados de experiências ou observações, ou formulam novos modelos e teorias. Foram as medições feitas corretamente? Havia controlos adequados às experiências? São os resultados consistentes com o conhecimento prévio? Quais são as razões para um resultado inesperado? Respostas satisfatórias a questões como estas são indispensáveis para a aceitação de novos resultados no sempre crescente corpo do conhecimento científico. Koonin participou em muitas revisões de pares, ao longo da sua longa carreira científica de 45 anos, às vezes como autor, outras vezes como revisor, outras como árbitro, e umas poucas vezes como editor. O que ele nos diz é que a revisão por pares pode efetivamente melhorar a apresentação de um artigo científico e normalmente captar os erros mais notórios, mas está muito longe de ser perfeita, e não garante de forma alguma que o artigo publicado não contenha erros. Uma avaliação independente dos resultados por outros investigadores, que conduzam estudos alternativos, é uma garantia muito mais forte de que os resultados estão corretos.

Mas um relatório de avaliação não é um artigo de pesquisa – de facto, trata-se de um tipo de documento muito diverso, com um propósito muito diferente. Artigos em revistas científicas são escritos por especialistas para especialistas. Ao invés, os autores dos relatórios de avaliação devem avaliar as validade e importância de uma diversidade de artigos, e depois sintetizá-los num conjunto de declarações importantes, destinadas a não especialistas. Por isso, a “história” do relatório de avaliação importa, como importa a linguagem usada para contá-la – especialmente em algo tão importante como o clima. Os processos para construir e rever os relatórios de avaliação sobre ciência climática não promovem a objetividade. Os funcionários das agências científicas e ambientais do governo (que devem eles próprios ter um ponto de vista) nomeiam ou escolhem os autores, que não estão sujeitos a restrições devidas a conflitos de interesses. Quer dizer, um autor pode trabalhar para uma companhia petrolífera ou para uma ONG que promova a “ação climática”. Isto aumenta as hipóteses de a persuasão ser favorecida, em detrimento da informação.

Um grande número de revisores especializados e voluntários reveem o texto preliminar dos relatórios. Mas ao contrário da revisão por pares dos artigos científicos, os desacordos entre revisores e autores não são resolvidos por um árbitro independente; o autor principal pode optar pela rejeição de uma crítica dizendo, simplesmente, “não concordamos”. As versões finais das avaliações são então objeto da aprovação governamental (através de um processo entre agências para o governo dos Estados Unidos, e reuniões, muitas vezes contenciosas, entre especialistas e políticos, no caso do IPCC). E – um ponto muito importante – os “Resumos para Decisores Políticos” do IPCC são fortemente influenciados, se não mesmo escritos, por governos que têm interesse em promover políticas particulares. Em suma, há muitas oportunidades para corromper a objetividade do processo e da versão final. É por isso que uma Equipa Vermelha é tão necessária. Ela poderia constituir uma importante ferramenta para corrigir os erros no processamento dos relatórios de avaliação.

Seguem-se algumas dicas para quem quer estar bem informado. Se tiver tempo, aprofunde as notícias dos media, pesquisando a fonte da notícia. Resumos dos artigos de pesquisa originais estão disponíveis nas revistas científicas onde aparecem e, para uma pesquisa particularmente importante, o próprio artigo está por vezes disponível online, gratuitamente. Há também alguns blogues que, de uma forma séria e consistente, se debruçam sobre a mais recente ciência climática. Do lado consensual, Real Climate (realclimate.org) é um dos que vale a pena consultar, enquanto o sítio de Judith Curry’s, Climate Etc. (judithcurry.com), alberga discussões sérias de um ponto de vista não consensual.

Mas não há nada como consultar diretamente os dados – que são, afinal, o árbitro de toda a ciência. Dados climáticos são prontamente disponibilizados online pelo governo dos Estados Unidos, pela EPA (em http://www.epa.gov/climate-indicators) e pela NOAA (em http://www.noaa.gov/climate). Assim, se alguém se deparar com uma narrativa acerca da subida do nível do mar, furacões ou temperaturas médias, e quiser escavar mais fundo, pode fazê-lo através de uma simples ligação à internet e uma sensibilidade (que se espera mais apurada após a leitura do presente artigo) sobre quais as questões que verdadeiramente necessitam de resposta.

A quimera da descarbonização

Os cientistas não têm bolas de cristal que lhes digam o que vai acontecer no futuro. Têm apenas os dados, com as suas imperfeições, e a maior ou menor capacidade para aplicar o pensamento crítico, e usar esses dados para identificar, ou mesmo antecipar, problemas e construir as soluções necessárias. As pessoas têm muitas ideias diferentes sobre quais devem ser essas soluções. Todos já ouvimos falar de, pelo menos, algumas delas. Numa lado extremo há os que defendem a eliminação completa das emissões de gases com efeito de estufa durante as próximas décadas, tal como é apoiado por muitos governos, a ONU, e virtualmente todas as ONGs. No outro extremo, há os que dizem que devemos continuar com os nossos negócios como habitualmente, assumindo a posição de que o clima é imune à influência humana, e que nós próprios temos a capacidade de nos adaptar a quaisquer mudanças que possam ocorrer.

Os vários relatórios do IPCC dizem-nos que é urgente reduzir as emissões de gases com efeito de estufa para prevenir os piores impactos das mudanças climáticas causados pelo homem. E dizem-nos também que a “mitigação” das emissões deve ser acompanhada por uma transição para fontes de energia e práticas agrícolas de “baixo carbono”. O objetivo central tornou-se atingir a carbonização zero em meados do século. Embora, em princípio, não existam barreiras intransponíveis para esta redução, múltiplos fatores – técnicos, científicos, económicos e sociais – tornam esta pretensão bastante implausível. Felizmente, não só é extremamente incerto que um desastre climático esteja iminente, como temos estratégias alternativas para respondermos às mudanças climáticas, particularmente a adaptação e a geoengenharia. A resposta mais provável da sociedade às alterações climáticas é, efetivamente, a adaptação humana.

O CO2 acumula-se na atmosfera, não desaparece quando paramos de o emitir, permanece na atmosfera durante séculos, absorvido lentamente pelas plantas e os oceanos. Reduções modestas das emissões apenas atrasarão, mas não eliminam o aumento da concentração do CO2. Tendo em conta o desenvolvimento mundial, é virtualmente impossível uma simples estabilização da influência humana. Muitos decisores políticos acreditam de que apenas necessitamos dos incentivos certos para desenvolvermos e aplicarmos novas tecnologias que levem à descarbonização. Mas os cientistas sabem que existem poderosos constrangimentos físicos que qualquer tecnologia tem de respeitar. Por exemplo, nenhuma política pode contornar os limites fundamentais sobre eficiência energética, impostos pela segunda lei da termodinâmica – não se pode “criar” energia, apenas convertê-la de uma forma para outra, e o processo de conversão sempre incluirá, por si só, uma certa quantidade de energia.

De facto, a população terrestre de menos de 8 mil milhões de habitantes humanos, subirá (sobretudo à custa do mundo em desenvolvimento) para 9 mil milhões em meados do século34. Assim, embora alguns vejam no Acordo de Paris um passo crucial para a mobilização geral no sentido de mitigar as emissões, é difícil fazer algo para reduzir a influência humana, tendo em conta a necessidade de uma redução de 100% apenas para estabilizar a concentração de CO2. É por isso que as metas do acordo não estão a ser atingidas. Elas são claramente irrealistas35, porque as energias renováveis estão muito longe de satisfazer a procura.

Por outro lado, mesmo que a transição para energias renováveis realmente aconteça nos países desenvolvidos, isso fará muito pouca diferença, se é que fará alguma, no clima: os Estados Unidos, por exemplo, emitem apenas 13% dos gases com efeito de estufa. É claro que muitos argumentarão que outros países seguirão o seu exemplo. Mas que probabilidade eles têm para fazer isso, quando a pressão sobre a necessidade de energia é tão alta e os benefícios das reduções tão baixos?

Planos B

À medida que a efetiva mitigação dos gases com efeito de estufa se mostrava cada vez mais difícil, cresceu o nosso interesse por estratégias diferentes para responder às alterações climáticas. Uma delas é a geoengenharia. A outra é, simplesmente, adaptarmo-nos ao clima em mudança. São estes os Planos B. Há pelo menos duas formas de contrariar o aquecimento do planeta. Uma é tornar a Terra um pouco mais reflexiva (aumentando o seu albedo), absorvendo um pouco menos de energia solar. Esta estratégia é denominada “Gestão da Radiação Solar” (SRM – Solar Radiation Management) e poderia ser adequada, quer o aquecimento seja natural ou resultado de influências humanas. A outra é retirar CO2 da atmosfera por forma a compensar as emissões provocadas pelo homem. Esta estratégia é conhecida por CDR – Carbon Dioxide Removal (“Remoção de Dióxido de Carbono”).

Comecemos pelo SRM. Há muitas maneiras de aumentar o albedo, incluindo tornar a superfície terrestre mais brilhante, com “telhados brancos” nos edifícios, plantações alteradas para se tornarem mais reflexivas, clarear o oceano com micro bolhas na superfície, e colocando refletores gigantes no espaço, só para citar algumas. No entanto, criar aerossóis na estratosfera pode ser a forma mais plausível de se conseguir um impacto global, à semelhança do que acontece de forma natural com as grandes erupções vulcânicas. Existe tecnologia suficiente para criar neblina estratosférica, incluindo aditivos do combustível para aviões ou projéteis de artilharia que dispersam o gás sulfeto de hidrogénio (que cheira a ovos podres) a elevadas altitudes. Isto não poderia ser feito de uma vez só. A neblina teria de ser renovada regularmente, anualmente ou a cada dois anos. A quantidade de enxofre que teríamos de enviar para a estratosfera seria apenas cerca de um décimo do que os seres humanos emitem quotidianamente em altitudes muito mais baixas, pelo que os impactos na saúde das pessoas seria mínimo. E os custos do projeto são tão reduzidos que um pequeno país ou mesmo um indivíduo abastado poderiam desenvolvê-lo sem problemas.

Mas a “Gestão da Radiação Solar” (SRM) também tem desvantagens significativas. Em primeiro lugar, se não se renovasse a neblina, a temperatura teria um salto súbito quando o efeito de arrefecimento terminasse (seria como fechar um chapéu de sol na praia). Em segundo lugar, aumentar o albedo não significa o fim do aquecimento provocado pelo efeito de estufa. Os gases com efeito de estufa provocam o aquecimento por todo o globo e a todo o tempo, enquanto as alterações no albedo apenas refrescam quando e onde a luz solar que reflete é significativa; não tem relevância à noite e é pouco significativo no inverno, particularmente nas latitudes mais elevadas. Ou seja, provavelmente os efeitos colaterais podem ser piores, pelo menos nalgumas zonas, que o aquecimento do que o aquecimento que combater. Apesar disso, o SRM merece mais investigação, e o Congresso dos Estados Unidos concedeu recentemente fundos para mais trabalho exploratório. Isso poderá conduzir-nos a uma melhor compreensão do sistema climático.

Em vez de tornarmos a Terra mais reluzente, podemos atenuar o aquecimento removendo diretamente o CO2 da atmosfera. A CDR – Carbon Dioxide Removal (“Remoção do Dióxido de Carbono”) retira o carbono da atmosfera em vez de (ou além de) se emitir uma menor quantidade. Há claras vantagens no CDR. Tornaria a questão de “de quem é este CO2” menos relevante e, logo, menos contenciosa. A atribuição de responsabilidades pelas emissões é um dos maiores impedimentos aos esforços internacionais para a sua redução. Também permitiria a exploração de combustíveis fósseis de acordo com a procura necessária ao desenvolvimento económico e tecnológico (embora alguns considerassem isso um retrocesso). Finalmente, uma vez que o CDR anula diretamente as emissões humanas, haveria poucos efeitos colaterais com que nos preocuparmos.

Não é difícil construir uma fábrica química destinada a capturar o CO2 diretamente da atmosfera. Esta tecnologia é similar àquelas usadas nos sistemas de exaustão das centrais nucleares, embora com o desafio adicional de ter de movimentar uma grande quantidade de ar através do sistema. Assim, as verdadeiras questões são acerca da escala e do custo. A quantidade de carbono que necessita de ser removida para reduzir significativamente a influência humana é assustadora. O consumo global de energia é medida em gigatoneladas (mil milhões de toneladas). Anualmente, o mundo consome cerca de 4,5 Gt de petróleo e 8 Gt de carvão. Assim, uma remoção anual de 10 Gt de CO2 (cerca de 1/3 das emissões atuais) requereria uma infraestrutura correspondente só para capturar e manusear o material. É desnecessário dizer que isto não seria barato. Estimativas recentes indicam que custaria até 100 dólares a captura e compressão de uma tonelada de CO2, todos os anos. E depois teríamos o problema adicional de saber que fazer com o CO2, após o removermos da atmosfera. O mundo de hoje utiliza apenas 0,2 Gt de CO2 a cada ano – cerca de 0,13 Gt para produzir ureia (fertilizante) e 0,08 Gt para aumentar a produção de petróleo (bombear CO2 nos campos de petróleo através de “poços de injeção” ajuda a mover o petróleo do subsolo até aos “poços de produção”). Estes usos correntes de CO2 são 100 vezes menores do que a quantidade que seria necessário remover da atmosfera. Infelizmente, é difícil imaginar novas utilizações.

Em vez de se usarem fábricas químicas para remover o dióxido de carbono da atmosfera, poderíamos usar a vegetação natural. Cerca de 200 Gt de carbono flui todos os anos para cima e para baixo, entre a superfície terrestre e a atmosfera, como parte de um ciclo sazonal, mais ou menos em equilíbrio. Ao extrair os combustíveis fósseis do solo, o seres humanos adicionam cerca de 8 Gt de carbono (na forma de 30 Gt de CO2) a esse ciclo anual. Cerca de metade desse excesso é absorvido através da fotossíntese. Se conseguíssemos induzir mais fotossíntese, mais CO2 seria removido. É por isso que existe o apelo à plantação de biliões de árvores para salvar o planeta. Mas embora possamos plantar árvores agora, o crescimento da floresta demora décadas. E temos ainda que compreender a quantidade exata de CO2 que as florestas absorveriam, e os impactos ecológicos derivados de vastas áreas de florestação.

Tem havido nos tempos mais recentes um investimento mais forte do governo americano nas tecnologias que permitem a remoção de dióxido de carbono. Sem dúvida que podem fazer-se progressos. Por exemplo, deverá ser possível modificar plantas geneticamente para melhor capturarem e armazenarem CO2 (embora seguramente se seguissem preocupações ambientais por causa da possível propagação dessas plantas modificadas). Mesmo assim, é difícil aceitar que isto seria feito na escala necessária para mitigar significativamente a influência humana sobre o clima.

Falemos agora de outro – talvez o principal – Plano B: a adaptação. São cinco as razões para pensarmos que a adaptação será a nossa principal resposta às alterações climáticas.

  1. A adaptação é agnóstica. Os seres humanos vêm desde há milénios se adaptando às alterações no clima, a maior parte do tempo sem terem a menor noção (além da vingança dos deuses) do que as causava. A informação que temos hoje ajudar-nos-á na adoção de estratégias, enquanto a sociedade pode adaptar-se às mudanças climáticas, quer sejam naturais ou provocadas pelo homem.
  2. A adaptação é proporcional. Medidas modestas podem ser reforçadas se as mudanças climáticas aumentarem ainda mais.
  3. A adaptação é local. A adaptação é naturalmente ajustável às diferentes necessidades e prioridades das populações locais. Isto torna-a também mais praticável politicamente. A adaptação local não requer consensos, compromissos e coordenação globais, que se têm até agora mostrado ilusórios nos esforços de mitigação.
  4. A adaptação é autónoma. As sociedades têm-no feito desde que a humanidade as formou – os holandeses, por exemplo, construíram e melhoraram diques durante séculos, resgatando terra ao Mar do Norte. A adaptação dar-se-á por si própria, quer a planeemos ou não.
  5. A adaptação é efetiva. As sociedades têm prosperado em ambientes que vão do Ártico aos Trópicos. A adaptação às alterações climáticas sempre contribuíram para reduzir o impacto líquido, relativamente à hipótese de não ser feito nada – ao fim e ao cabo, não iríamos alterar as nossas sociedades para tornar as coisas piores!

Como tantas outras coisas, uma adaptação efetiva é mais fácil nas sociedades mais ricas, que têm os recursos institucionais e económicos para atuarem de acordo com as circunstâncias. Os países menos desenvolvidos são mais frágeis. Assim, a melhor maneira de nos adaptarmos globalmente é encorajar o desenvolvimento económico dos países mais atrasados e fortalecer as suas instituições (tais como o estado de direito ou a capacidade de formular e executar estratégias nacionais). Nesse sentido, a tarefa de reforçar a adaptação acaba por ser a de diminuir a pobreza, o que seria sempre algo benéfico por muitas razões para lá das questões sobre o clima.

**************************************************

Notas:

1 Dado que o livro de Steven Koonin, aqui divulgado, foi editado em abril de 2021, o autor não tinha ainda conhecimento do AR6, o qual só seria publicado em 7 de agosto de 2022.

2 IPCC. “Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation (SREX).” IPCC, January 1, 2000. https://archive.ipcc.ch/report/srex/.

3 IPCC. “Special Report on the Ocean and Cryosphere in a Changing Climate.” January 1, 2000. https://www.ipcc.ch/srocc/.

4 IPCC. “Climate Change and Land.” Special Report on Climate Change and Land, January 1, 2000. https://www.ipcc.ch/srcel/.

5 US Global Change Research Program.

6 USGCRP. Climate Science Special Report: Fourth National Climate Assessment, Volume I. US Global Change Research Program, Washington, DC., 2017. https://science2017.globalchange.gov/.

7 USGCRP. “Fourth National Climate Assessment, Volume II: Impacts, Risks, and Adaptation in the United States: Summary Findings.” NCA4, January 1, 1970. https://nca2018.globalchange.gov/.

8 Convenção das Nações Unidas sobre Alterações Climáticas, artigo 1.

9 https://argo.ucsd.edu/about/.

10 https://iopscience.iop.org/article/10.1086/503322/meta.

11 Harde, Hermann. “Radiation Transfer Calculations and Assessment of Global Warming by CO2.” International Journal of Atmospheric Sciences, March 20, 2017. https://www.hindawi.com/journals/ijas/aip/9251034/.

12 Ao contrário do que geralmente se pensa, a maior parte do metano é libertado pela parte da frente dos animais e não pela parte de trás.

13 Como comparação, um cêntimo é apenas treze vezes mais largo do que espesso.

14 Schneider, T., J. Teixeira, C. Bretherton, et al. “Climate goals and computing the future of clouds”. Nature Clim Change 7 (2017): 3-5. https://doi.org/10.1038/nclimate3190.

15 Bulletin of the American Meteorological Society 98 (2017): 589-602. https://journals.ametsoc.org/bams/article/98/3/589/70022/The-Art-and_Science-of-Climate-Model-Tuning.

16 Entretanto publicado, mas ainda no prelo à data da publicação de Unsettled, em abril de 2021. https://www.ipcc.ch/report/ar6/wg1/.

17 IPPC. AR5 WGI, 887.

18 Sherwood, S.C., M .J. Webb, J.D. Annan, K.C. Armour, P.M. Forster, J.C. Hargreaves, et al. “An assessment of Earth’s climate sensitivity using multiple lines of evidence.” Reviews of Geophysics 58 (2020): e2019RG000678. https://agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2019RG000678.

19 World Meteorological Society. Frequently Asked Questions (FAQ). Accessed November 20, 2020. https://www.wmo.int/pages/prog/wcp/ccl/faq/faq_doc_en.html.

20 https://www.weather.gov/mfl/saffirsimpson.

21 https://www.ncdc.noaa.gov/climate-information/extreme-events/us-tornado-climatology/trends.

22 https://journals.ametsoc.org/waf/article/17/3/354/40126/Deaths-in-the-3-May-1999-Oklahoma-City-Tornado.

23 https://journals.ametsoc.org/bams/article/99/4/689/70305/Global-Precipitation-Trends-across-Spatial-Scales.

24 https://agupubs.onlinelibrary.wiley.com/doi/10.1029/2012GL05288.

25 Global Sea Level Rise: What it Means to You and Your Business” Zurich.com, May 21, 2019.

26 Hille, Karl. “Rising Carbon Dioxide Levels Will Help and Hurt Crops.” NASA, May 3, 2016. https://www.nasa.gov/feature/goddard/2016/nasa-study-rising-carbon-dioxid-levels-will-help-and-hurt-crops.

27 Dusenge, M. E., A. G. Duarte, and D. A. Way. “Plant carbon metabolism and climate change: elevated CO2 and temperature impacts on photosynthesis, photorespiration and respiration”. New Phytologist 221 (2019): 32-49.

28 www. gutenberg.org/files/1270/1270-h/1270-h.htm.

29 Pilke, Roger. “How Billionaires Tom Steyer and Michael Bloomberg Corrupted Climate Science.” Forbes, January 2, 2020.

30 Lomborg, Bjorn. False Alarm: How Climate Change Panic Costs Us Trillions, Hurts the Poor, and Fails to Fix the Planet. New York: Basic Books, 2020.

31 McNutt, Marcia, C. D. Mote Jr., Victor Z. Dzau. “National Academies Presidents Affirm the Scientific Evidence of Climate Change.” The National Academies of Sciences, Engeneering, and Medicine, June 18, 2019.

32 Handler, Philip. “Public Doubts About Science”. Science, June 6, 1980.

33 Feynman, Richard P. “Cargo Cult Science”. Caltech 1974 commencement adress, June 1974.

34 O desenvolvimento dos países industrialmente mais atrasados, combinado com o crescimento populacional, implicará que a procura energética aumente 50% em 2050.

35 Por exemplo, muitos poderão ficar surpreendidos, mas a quantidade de energia proveniente da queima de madeira (a energia por excelência do século XIX) é a mesma hoje do que a utilizada no tempo da Guerra Civil Americana.

**************************************************

CERN – Centro Europeu de Pesquisa Nuclear

No CERN a ciência é acelerada.

No Centro Europeu de Pesquisa Nuclear (CERN), cientistas de todo o mundo estudam o exótico mundo subatómico das partículas elementares, tentando perceber o que aconteceu nos primeiros momentos do universo. O principal instrumento para o efeito é um anel subterrâneo de 27 kms de circunferência chamado Large Hadron Collider (LHC), o maior colisor de partículas do mundo, ao serviço desde 20081. No seu interior dois feixes de partículas (normalmente protões2, mas também iões de chumbo, que são hadrões), guiados por fortes campos magnéticos3, viajam, em direções opostas, a uma velocidade próxima da velocidade da luz (0,999999991 c). Após muitíssimas voltas, mais de 11.000 por segundo, quando atingem a energia máxima, os protões chocam em um dos quatro pontos de colisão4, ao longo do tubo.5

Num acelerador, as partículas circulam no vácuo, e o vácuo no tubo de feixe do LHC é super elevado para evitar as colisões com moléculas de gás. A pressão nos tubos de feixe do LHC será cerca de cem vezes menor do que na lua. Trata-se do espaço mais vazio do sistema solar.

Réplica em tamanho real de uma secção do LHC, patente na exposição Microcosmos.

Cada vez que dois feixes de protões6 se encontram, alguns protões colidem com energia muito elevada: estes são os vértices primários. A partir desses vértices primários, vértices secundários são criados e assim sucessivamente. Apenas as colisões mais energéticas (os “vértices primários”) são geralmente consideradas e selecionadas pelos chamados “algoritmos de reconstrução”.

Nos pontos de colisão existem grandes detetores, ligados por milhares de cabos7 a um sistema de leitura eletrónica.8 Assim que um impulso é registado, o sistema grava a hora e o local exatos e envia informações para centenas de computadores que trabalham em simultâneo para combinar as informações. Em frações de segundo, o sistema decide se um evento é interessante ou não.

As partículas pesadas que, previsivelmente, resultem das colisões no LHC têm vida muito curta, decaindo rapidamente em partículas conhecidas mais leves. Algumas destas – muões, fotões e eletrões, mas também protões, neutrões e outras – voam através do detetor a uma velocidade próxima da velocidade da luz. Os detetores usam estas partículas mais leves para deduzirem a breve existência das partículas novas e pesadas.9

O tipo de vértices que resultam do encontro de dois feixes de protões. (Imagem retirada de http://lhc-closer.es).

A dissociação das partículas requer energias elevadíssimas e a unidade de energia convencionada para especificar a capacidade de um acelerador de partículas é o eletrão-volt (eV). As colisões no LHC podem atingir os 14 triliões eV, ou seja, 7TeV por protão. (A massa de um protão corresponde à energia de mil milhões eV). O consumo de energia que o funcionamento do LHC exige é tal que, de uma subestação em França, seguem duas linhas de alta tensão (400 Kv) diretamente para o CERN. Um fornecimento de emergência (130 Kv) pode ser disponibilizado pela rede suíça, garantindo o funcionamento dos serviços gerais e dos sistemas de segurança, caso ocorra alguma falha. A fatura elétrica anual ronda os 50 milhões de euros. O custo de construção do LHC rondou os 3000 milhões de euros.

No CERN há também um desacelerador antiprotão dedicado ao estudo da antimatéria. (Quando a matéria e a antimatéria se encontram aniquilam-se para produzir energia). Em 1995, foram aqui criados, artificialmente, anti-átomos.

Embora as principais instalações do CERN, à superfície, estejam na Suíça, a maior parte do LHC está em território francês. A sala de controlo também está em França, em Prévessin, e os detetores, exceto o ATLAS estão igualmente em (ou sob) solo francês. (Imagem retirada de http://lhc-closer.es).

Mas os cientistas que trabalham nestas instalações não se dedicam apenas ao estudo do que se passou antes do primeiro segundo do Universo. A física das partículas tem permitido avanços espetaculares em várias áreas científicas como, por exemplo, na medicina, embora talvez a tecnologia mais conhecida desenvolvida no CERN seja a World Wide Web10, inventada em 1989 para que um número cada vez maior de cientistas partilhasse informações. Só nos últimos dez anos de funcionamento do LHC, os cientistas descobriram 59 hadrões diferentes,11 e confirmaram, ainda que provisoriamente, a existência do Bosão de Higgs12.

São praticamente incontáveis as descobertas que ocorreram no CERN ao longo dos anos. Vários dos cientistas que aqui trabalharam receberam o Nobel da Física. Esta instituição vem cumprindo, ao longo dos últimos 67 anos, o sonho dos pais fundadores13, que foi o de devolver à Europa, após a II Guerra Mundial, o estatuto de região vanguardista em ciência, a nível global.

O Centro Europeu de Pesquisa Nuclear está situado na Suíça, no cantão de Genebra, a menos de 1 km de França. Visitá-lo é uma experiência inesquecível. E gratuita. A exposição “Microcosmos” abre às 8h e encerra às 17:30h. As visitas guiadas (máximo 24 pessoas) ocorrem por ordem de chegada, não há marcações. Nós estávamos lá antes das 8 da manhã.

No seio da exposição Microcosmos. Vale a pena visitá-la detalhadamente.

**************************************************

Notas:

1 Os “colisores” atuais, como o LHC, em que dois feixes de partículas, viajando em direções contrárias, colidem, têm grandes vantagens, pois obtêm energias muitíssimo mais elevadas, relativamente aos “aceleradores” anteriores, em que as partículas colidiam com um alvo fixo. Além disso, o tamanho do colisor está diretamente relacionado com a energia máxima que pode ser obtida. O tamanho exato do LHC é de 26.659 metros.

2 Para “fazer” protões, os físicos injetam hidrogénio gasoso num cilindro de metal, chamado Duoplasmatrom, envolvendo-o em seguida com um campo elétrico para separar o gás nos seus eletrões e protões constituintes. Este processo produz cerca de 70% de protões.

3 Este campo magnético é obtido por meio de ímans supercondutores, construídos a partir de bobinas de cabo elétrico supercondutor que opera sob temperatura muito baixa (cerca de -271º C), inferior à do espaço sideral. Por isso, grande parte do acelerador está ligado a um sistema de distribuição de hélio líquido, que resfria os ímans, bem como outros serviços de abastecimento. O hélio deve fluir sempre e ser resfriado constantemente, retirando todo o calor. O sistema tem de ser capaz de manter constantemente o hélio a baixa temperatura. São precisas 5.000 toneladas de hélio neste íman gigante, o mesmo que a quantidade produzida anualmente em todo o mundo.

4 Esses quatro pontos de deteção têm a seguinte designação: ATLAS; CMS; LHCb; e ALICE. Há ainda dois pontos de colisão mais pequenos: TOTEM e LHCf.

5 Existem oito elevadores que permitem o acesso ao túnel, situado cem metros abaixo do solo, e o trajeto demora cerca de um minuto. Uma vez no túnel, os cientistas e técnicos deslocam-se de bicicleta para circularem ao redor deste, entre os oito pontos de acesso. O LHC é operado automaticamente a partir de uma sala de controlo e, desde que esteja em funcionamento, os técnicos só têm acesso ao túnel para trabalhos de manutenção.

6 Os feixes são consecutivos, separados por 7,5 metros, e têm forma cilíndrica, com 7,48 cm de comprimento e apenas um milímetro de largura, quando estão longe de um ponto de colisão. A sua duração é de 10 horas.

7 Cada um dos filamentos supercondutores (de titânio-nióbio) dentro dos cabos tem cerca de 0,006 mm de espessura, sendo dez vezes mais fino que um cabelo humano comum. Como curiosidade, refira-se que as maiores reservas mundiais de nióbio (mais de 90%) estão no Brasil.

8 A construção destes detetores resultam do que poderíamos chamar “inteligência de grupo”. Os cientistas que trabalham no centro de deteção compreendem a função do sistema, em geral, mas nenhum está familiarizado com os detalhes e funções específicas de cada parte. Os detetores podem ser comparados a enormes câmaras digitais tridimensionais que conseguem tirar até 40 milhões de instantâneos por segundo. Os detetores são construídos por camadas e cada camada possui uma funcionalidade diferente. As internas são menos densas e as externas mais densas e compactas.

9 Os eletrões são muito leves e perdem a energia rapidamente. Os protões, por seu turno, penetram mais nas camadas do detetor. Os muões são as únicas partículas que alcançam as camadas externas do detetor. Há ainda outras partículas que são medidas indiretamente, por exemplo, os neutrões que transferem a sua energia para os protões, sendo estes detetados. Os fotões não deixam rastro, mas, nos calorímetros (que também fazem parte dos detetores), cada fotão transforma-se num eletrão e num positrão, sendo estes então medidos.

10 Foi o cientista britânico a trabalhar no CERN, Tim Berners-Lee, quem, entre 1989 e 1990, inventou todas a ferramentas necessárias para a criação do sistema.

11 Sabe-se, desde 1964, quando Murray Gell-Mann e Georg Zweig propuseram, independentemente, o que é hoje conhecido como o modelo de quark, que os hadrões não são partículas elementares. Eles são compostos por quarks. O estudo de novas composições de quarks é ainda um campo em aberto na ciência das partículas.

12 O bosão de Higgs é uma partícula, detetada no LHC em 2012 e confirmada em 2013, que confere massa às outras partículas e que foi procurada por quase 50 anos (Peter Higgs, um cientista britânico propô-la em 1964). O bosão de Higgs valida o modelo-padrão atual de partículas. A partícula, detetada pelas equipas do ATLAS e também do CMS, interagia e decaía de acordo com o previsto pelo modelo-padrão, além de que, ainda que provisoriamente, se provou que tinha paridade positiva e spin nulo – o que indicava fortemente ser aquele o bosão de Higgs.

13 Os franceses Pierre Auger, Raoul Dautry, François de Rose e Lew Kowarski, o italiano Edoardo Amaldi, e o pai da chamada “Interpretação de Copenhaga”, o dinamarquês, Niels Bohr.

*****************************************************

Fontes:

*****************************************************

Einstein Haus

A Kramgasse, em Berna, na Suíça.

Einstein nasceu em Ulm, na Alemanha, em 1879, mas ainda adolescente transferiu-se para a Suíça, fixando-se em Zurique. Em 1896 renunciou à cidadania alemã, ao que dizem, para fugir à tropa e em 1901 conseguiu a nacionalidade suíça. Einstein ambicionava ser professor do Politécnico de Zurique, mas a relação com os professores, o mau desempenho nas aulas laboratoriais e, sobretudo, as faltas às aulas fizeram-no desistir do curso. Para sobreviver, passou a dar aulas em casas particulares e também, pontualmente, em algumas escolas de Winterthur e Schaffhausen.

A situação de Einstein era difícil, mas um amigo, Grossmann, pediu ao pai que recomendasse Einstein ao diretor da Agência Federal de Patentes, em Berna, Friedrich Haller. Einstein mudou-se para Berna em janeiro de 1902 e conseguiu o emprego em junho do mesmo ano. O salário anual que auferia era de 3.500 francos, o que, juntamente com os ganhos das aulas privadas, lhe permitiu finalmente viver sem sobressaltos.

Logo da Einstein Haus à porta do nº 49 da Kramgasse.

Desde a sua chegada a Berna, Einstein mudou seis vezes de casa, acabando por se fixar (por dois anos) com a mulher, Mileva, e posteriormente também com o segundo filho de ambos, Hans Albert1, no 2º andar da Kramgasse, 49. Einstein viveu neste apartamento de 1903 a 1905 – o ano em que surpreendeu a comunidade científica ao publicar, nos Annalen der Physic, quatro importantes artigos.

Os temas dos quatro artigos eram o efeito fotoelétrico2, o movimento browniano, a teoria da relatividade restrita, e a equivalência entre massa e energia. Estes trabalhos pioneiros que se mantêm ainda hoje marcos incontornáveis no que diz respeito à compreensão física da natureza, proporcionaram de imediato a Einstein o reconhecimento dos mais proeminentes físicos do seu tempo.

O segundo andar. À entrada do apartamento.

Ainda hoje se considera espantoso que Einstein tenha produzido tanto em tão pouco tempo, na verdade em cerca de quatro meses, pois os artigos de 1905 foram todos publicados entre março e junho desse Annus Mirabilis.

(Há quem diga que o afastamento da vida académica foi benéfico para Einstein, pois assim ele pôde pensar livremente e dar asas à sua incrível intuição).

Em 14 de setembro de 2015, as Sociedade de Física Europeia e Sociedade de Física Americana, representados pelos respetivos presidentes, reconheceram o local onde Einstein morou na Kramgasse, 49, a Einstein Haus, como o primeiro Sítio Histórico de ambas as sociedades.3 Na cerimónia, que contou também, entre outros dignitários, com a presença do Dr. Hans-Rudolf Ott, presidente da Albert Einstein Society, proprietária do museu, foi afixada, no 3º andar, uma placa comemorativa.

A sala de estar do pequeno apartamento onde Einstein viveu entre 1903 e 1905.

Nós tivemos o privilégio de visitar, em setembro de 2021, esta casa onde Einstein viveu. A Einstein Haus4, renovada em 2005, cem anos depois do Annus Mirabilis, e decorada ao estilo da época, é constituída pelo apartamento do 2º andar, onde Einstein morou, e pelo 3º andar, onde encontramos uma exposição dedicada às vida e obra deste célebre cientista. A entrada custa 5 CHF e a Einstein Haus está aberta ao público todos os dias da semana, entre as 11 e as 16 horas.

**************************************************

Adenda:

Depois de mais alguns anos em Berna, Einstein regressaria a Zurique e posteriormente à Alemanha, onde ocupou o cargo de Presidente da Sociedade Alemã de Física. Foi neste período que publicou (em 1916), no mesmo periódico de Berlim (Annalen der Physic), a sua teoria da relatividade geral. As descobertas de Einstein, juntamente com a mecânica quântica, constituem hoje a base de toda a Física.

Einstein subverteu para sempre os conceitos, estabelecidos até então, de espaço, tempo, massa e energia, e, graças a ele, a humanidade deu um salto enorme na compreensão do Universo, de que é parte integrante.

Em confronto com o nazismo, Einstein fugiu para os Estados Unidos, onde viveu os seus últimos vinte anos, falecendo na cidade de Princeton em 1955.

Placa conjunta da APS e da EPS no 3º andar da Einstein Haus.

**************************************************

Notas:

1 Sabe-se que Albert e Mileva tiveram uma filha antes, mas o destino desta permanece obscuro. Ao que parece, Einstein, que não queria que se soubesse que tinha uma filha antes de casar-se, mandou Mileva grávida para a Sérvia. De acordo com Malcolm Otero e Santi Giménez, “apesar de mãe e filha terem estado prestes a morrer, Einstein nunca foi vê-las. O que se passou com a menina é um mistério. Alguns biógrafos dizem que morreu muito pequena, outros que foi dada em adoção e outros que viveu até há pouco, em Novi Sad, sob o nome de Zorka Kaufler.” (Malcolm Otero e Santi Giménez, El Club de Los Execrables, Penguin Random House, Barcelona, 2018, p. 146).

2 Por este artigo, em especial, Einstein ganhou o Prémio Nobel da Física de 1921.

3 https://www.aps.org/publications/apsnews/201511/einstein.cfm.

4 Decidimos manter o nome original, em alemão.

**************************************************

Sobre a Liberdade. Um texto de Karl Popper.

Escola Karl Popper em Viena.

Sobre a Liberdade*

I

Pouco se sabe sobre o povoamento humano dos Alpes austríacos, suíços e franceses, que remonta a tempos pré-históricos. Mas devíamos realmente considerar como é que pessoas que cultivavam a terra e criavam gado, se mudaram para a zona intransitável e bravia dos Altos Alpes onde, de início na melhor das hipóteses podiam levar uma existência difícil, pobre, cheia de perigos. A explicação mais provável é que estes povos preferiam uma vida incerta em regiões ermas à subjugação a povos vizinhos mais poderosos. Apesar da incerteza e do perigo, escolheram a liberdade. Muitas vezes gosto de alimentar a ideia de que a tradição de liberdade suíça e tirolesa, em particular, remonta aos tempos do povoamento pré-histórico da Suíça.

Seja como for, é um facto interessante e notório que a Grã-Bretanha e a Suíça, as duas democracias mais antigas da Europa contemporânea, são hoje muito semelhantes no seu amor pela liberdade e na sua prontidão em defendê-la. Porque, em muitos outros aspectos, especialmente nas suas origens políticas, estas duas democracias são fundamentalmente diferentes. A democracia britânica deve o seu surgimento ao sentido de orgulho e independência entre a alta nobreza e o seu desenvolvimento posterior à mentalidade protestante, consciência pessoal e tolerância religiosa – consequências dos grandes conflitos religiosos e políticos associados à Revolução Puritana. A democracia suíça não resultou do orgulho, independência e individualismo de uma alta nobreza, mas do orgulho, independência e individualismo dos agricultores das montanhas.

Estes início e tradições totalmente diferentes levaram a instituições tradicionais bastante diferentes e a sistemas de valores tradicionais bastante diferentes. O que um suíço ou um tirolês espera da vida é, penso eu, geralmente diferente daquilo que um britânico espera da vida. Provavelmente, as diferenças dos sistemas de valores baseia-se em parte na diferença dos sistemas educativos; mas é extremamente interessante a diferença nos sistemas educativos encontrar-se ela própria profundamente enraizada nos contrastes históricos e sociais a que me referi. Na Inglaterra, ainda neste século, a instrução era um privilégio da nobreza e dos proprietários de terras – a fidalguia rural; não dos habitantes das cidades e dos burgueses, mas das famílias donas de grandes extensões de terra, que viviam no campo. Estas famílias eram as detentoras da cultura. É delas também que provêm os académicos e os cientistas (muitas vezes amadores influentes e originais) e os membros das profissões mais qualificadas – políticos, homens do clero, juízes, oficiais militares. Pelo contrário, os grandes titulares da cultura no continente eram os habitantes das cidades; provinham na sua maior parte da burguesia urbana. A educação e a cultura não eram coisas que se herdassem; eram coisas que se adquiriam. A educação e a cultura não eram um símbolo de uma posição social herdada, mas um meio e um símbolo de evolução social, de auto-emancipação através do conhecimento. Isto explica também porque é que a luta vitoriosa contra a miséria na Inglaterra foi uma espécie de continuação das lutas religiosas a um nível diferente – uma luta em que o apelo dos aristocratas e das gentes das cidades à consciência religiosa desempenhava um papel decisivo – ao passo que a luta contra a miséria na Suíça e na Áustria era inspirada pela ideia de auto-emancipação através do conhecimento, pela fantástica visão de Pestalozzi quanto à educação. Apesar de todas estas profundas diferenças, tanto a Inglaterra como a Suíça sabem que existem valores que têm de ser defendidos a qualquer preço e os primeiros entres estes valores são a independência pessoal, a liberdade pessoal. E ambos os países aprenderam que tem de se lutar pela liberdade, e que tem de se defendê-la, mesmo que a possibilidade de sucesso pareça diminuta. Em 1940, quando a Grã-Bretanha lutava isolada pela liberdade, Churchill não prometeu a vitória aos britânicos. “Não posso prometer-vos nada melhor do que sangue e lágrimas”, disse. Essas palavras deram à Grã-Bretanha coragem para continuara a lutar.

Também na Suíça foi apenas uma tradicional determinação para lutar – mesmo contra um inimigo claramente superior, como os Habsburgos e, mais tarde, o Terceiro Reich – que permitiu aos suíços manterem a sua liberdade durante a Segunda Guerra Mundial.

II

Receio bem que os magníficos arredores da nossa querida Alpbach, esta maravilhosa interacção da natureza e da mão do homem, tenham feito que as minhas palavras de abertura fossem um pouco sentimentais e românticas. Sinto-me pois na obrigação de contrabalançar de imediato estas palavras sentimentais e românticas com uma segunda introdução dirigida contra o romantismo – em especial o romantismo na filosofia. E gostaria de começar esta segunda introdução com uma confissão.

É especialmente importante para mim que aquilo que vou dizer não seja considerado verdadeiro na base da confiança. Na realidade, preferiria que isto fosse considerado com o maior ceticismo. Ao contrário de muitos dos meus colegas filósofos não sou um líder percorrendo novos caminhos, anunciando a chegada de novas direções na filosofia. Sou um filósofo perfeitamente antiquado que acredita numa filosofia completamente antiquada: ou seja, a filosofia de tempos antigos, os tempos do racionalismo e do Iluminismo. Como um dos últimos defensores solitários do racionalismo e do Iluminismo, creio na auto-emancipação do homem através do conhecimento – tal como outrora Kant, o maior filósofo do Iluminismo, acreditou, ou como Pestalozzi usou o conhecimento para lutar contra a miséria. Por isso, gostaria de dizer claramente que represento pontos de vista que foram já considerados ultrapassados e totalmente errados há uns 150 anos. Porque foi um pouco antes de 1800 que o Romantismo expôs o Iluminismo [die Aufklärung] como mera “busca sem direção precisa” [die Aufklärerei] ou como Aufkläricht – uma alusão a Kebricht ou “lixo”. Mas infelizmente eu estou tão atrasado que ainda me agarro a esta filosofia obsoleta, ultrapassada. Sendo tão retrógrado, não consigo ver a filosofia do romantismo – principalmente a dos três expoentes do Idealismo Alemão, Fischte, Schelling e Hegel – como algo mais do que uma catástrofe intelectual e moral, a maior catástrofe intelectual e moral que alguma vez atingiu os intelectuais alemães e europeus. Em minha opinião, esta catástrofe intelectual e moral teve um efeito devastador e de descrédito que continua a espalhar-se como uma nuvem atómica. Provocou aquilo a que Konrad Heiden, no seu livro sobre Hitler, chamou há alguns anos, “a época da desonestidade moral e intelectual”.

É Zeitgeist [espírito da sua época] e movimento inspirado num Zeitgeist que ninguém vai conseguir facilmente deter – muito menos um defensor solitário tardio do Iluminismo como eu, bem ciente do poder da moda ou do Zeitgeist, mas que não está disposto a fazer-lhe quaisquer concessões. Ao contrário dos grandes românticos e autoridades contemporâneas, não creio ser tarefa do filósofo exprimir o espírito da sua época. Creio (tal como Nietzsche) que um filósofo tem de estar continuamente a verificar se não terá começado a fazer concessões ao Zeitgeist que possam colocar em risco a sua independência intelectual. Concordo inteiramente com Hugo von Hofmannsthal quando afirma: “A Filosofia deve ser um juiz do seu tempo; as coisas não vão bem quando ela se torna a expressão do espírito do seu tempo.”

III

As minhas acusações contra mim próprio e a minha confissão de que sou um racionalista e um homem do Iluminismo de pouco serviriam se não explicasse em breves palavras o que entendo por racionalismo e por Iluminismo.

Quando falo de racionalismo, não estou a pensar numa teoria filosófica (como a de Descartes) e de forma alguma na crença muito pouco razoável de que o homem é uma criatura puramente racional. Quando falo de razão ou racionalismo apenas me refiro à convicção de que podemos aprender com a crítica dos nosso enganos e dos nosso erros, especialmente com a crítica feita por outros, e por fim também com a autocrítica. Um racionalista é simplesmente alguém para quem é mais importante aprender do que vir a provar-se que está certo; alguém que está disposto a aprender com os outros – não simplesmente apossando-se das opiniões dos outros, mas permitindo de bom grado que os outros critiquem as suas ideias e criticando de bom grado as ideias dos outros. O ênfase aqui reside na ideia de crítica, ou, mais exatamente, discussão crítica. O racionalista genuíno não pensa que ele, ou outra pessoa qualquer, está de posse da verdade; nem pensa que a simples crítica como tal ajuda a chegar a novas ideias. Pensa sim que na esfera das ideias só a discussão crítica pode ajudar-nos a separar o trigo do joio. Tem consciência que a aceitação ou rejeição de uma ideia nunca é uma questão puramente racional; mas acredita que só a discussão crítica pode conferir-nos a maturidade necessária para considerar uma ideia sob cada vez mais aspetos e para fazer um juízo correto dessa ideia.

Esta avaliação da discussão crítica tem também o seu lado humano. Porque o racionalista sabe muito bem que a discussão crítica não é a única relação entre pessoas: que, pelo contrário, a discussão crítica racional é um fenómeno raro nas nossas vidas. Todavia, ele acha que a atitude de “dar e receber”, fundamental para a discussão crítica, é da maior relevância puramente humana. Porque o racionalista sabe que deve a sua razão a outras pessoas. Sabe que a atitude crítica racional só pode ser o resultado da crítica de outros, e que só através da crítica de outros se pode chegar à autocrítica.

A abordagem do racionalista pode ser descrita da forma que se segue. Talvez eu esteja errado e tu certo; de qualquer forma, ambos podemos esperar que, depois da nossa discussão, ambos vejamos as coisas mais claramente do que antes, desde que nos lembremos que o facto de nos irmos aproximando da verdade é mais importante do que quem está certo. Só com este objetivo em mente é que nos defendemos o melhor possível na discussão.

É isto, em suma, o que quero dizer quando falo de racionalismo. Mas quando falo de Iluminismo quero também dizer uma outra coisa. Penso acima de tudo na ideia da auto-emancipação através do conhecimento, na ideia que Kant e Pestalozzi inspiraram. E penso no dever que todos os intelectuais têm de ajudar outros a libertarem as suas mentes e a perceberem a abordagem crítica – um dever que a maior parte dos intelectuais esqueceu desde o tempo de Fichte, Schelling e Hegel. Porque infelizmente é extremamente comum entre os intelectuais querer impressionar os outros e, como disse Schopenhauer, não ensinar mas cativar. Surgem como dirigentes ou profetas – em parte porque se espera deles que surjam como profetas, como proclamadores dos segredos obscuros da vida e do mundo, do homem, da história e da existência. Aqui, como tantas vezes acontece, uma incessante procura produz uma oferta. Procuram-se dirigentes e profetas, por isso não admira que se encontrem dirigentes e profetas. Mas “os homens adultos não precisam de dirigentes”, como uma vez disse H.G. Wells. E os homens adultos deviam saber que não precisam de dirigentes. Quanto aos profetas, acredito no dever de todos os intelectuais de os manter à distância.

IV

O que é que distingue exteriormente a abordagem do Iluminismo da dos autoproclamados profetas? É a linguagem. O pensador iluminista fala de forma tão simples quanto possível. Pretende ser compreendido. Neste aspeto Bertrand Russell é o nosso mestre sem igual entre os filósofos. Mesmo quando não concordamos com ele temos de admirá-lo. Fala sempre de uma forma extremamente clara, simples e direta.

Por que é a simplicidade da linguagem tão importante para os pensadores iluministas? Porque o verdadeiro pensador iluminista, o verdadeiro racionalista, nunca pretende convencer ninguém a fazer nada. Não, nem sequer deseja convencer ninguém: tem permanentemente consciência de que pode estar errado. Acima de tudo, valoriza demasiado a independência intelectual dos outros para querer convencê-los em questões importantes. Prefere provocar a contradição, preferivelmente sob a forma de crítica racional e disciplinada. Não procura convencer mas despertar – desafiar os outros a formarem opiniões livres. A formação de opiniões livres é para ele preciosa: não apenas porque isso nos aproxima a todos da verdade, mas também porque respeita a formação de opiniões livres como tal. Respeita-as mesmo que considere uma opinião assim formada fundamentalmente errada. Uma das razões por que o pensador iluminista não quer convencer ninguém de nada é a seguinte. Ele sabe que, fora do estreito campo da lógica, e talvez da matemática, nada pode ser provado. Podem obviamente apresentar-se argumentos e podem examinar-se criticamente pontos de vista. Mas fora da matemática elementar os nossos argumentos nunca são conclusivos e destituídos de lacunas. Temos sempre de pesar as razões, sempre de decidir que razões pesam mais: as razões a favor de um determinado ponto de vista, ou as razões contra ele. Afinal, então, a formação de opinião contém um elemento de livre arbítrio. E é esse livre arbítrio que torna uma opinião preciosa do ponto de vista humano.

Foi com John Locke que o Iluminismo adquiriu e desenvolveu esta elevada estima pela opinião pessoal livre. Esta foi sem dúvida o resultado das lutas religiosas inglesas e continentais, que acabaram por fazer surgir a ideia de tolerância religiosa. E esta ideia da tolerância religiosa não é de modo algum uma ideia meramente negativa como tantos (por exemplo, Arnold Toynbee) defenderam. Não é apenas uma expressão do desgaste da guerra e uma compreensão de que o terror não oferece a perspetiva da imposição de uma conformidade de credo religioso. Antes, a tolerância religiosa provém precisamente do contrário: de uma compreensão positiva de que uma unanimidade religiosa forçada não tem qualquer valor; que só um credo religioso livremente assumido pode ter algum valor. E esta compreensão leva-nos mais longe. Leva ao respeito por qualquer credo honesto e consequentemente ao respeito pelo indivíduo e pela sua opinião. Nas palavras de Immanuel Kant, o último grande filósofo do Iluminismo, leva ao reconhecimento do valor da pessoa humana.

Ao falar do valor da pessoa humana, Kant queria dizer que todo o ser humano e as suas convicções devem ser respeitados. Kant combinou este preceito com o princípio hilleliano a que se chama corretamente a regra de ouro, mas que em alemão soa bastante banal: “Não faças aos outros aquilo que não gostarias que os outros te fizessem!”. Kant associou intimamente este princípio à ideia de liberdade – a liberdade de pensamento exigida pelo Marquês de Posa, de Schiller, a Filipe II; a liberdade de pensamento que Spinoza procurou justificar, declarando ser esta uma liberdade inalienável que os tiranos, por mais que tentem, nunca podem tirar-nos.

Creio que já não podemos concordar com Spinoza a este respeito. Talvez seja verdade que a liberdade de pensamento não pode nunca ser inteiramente suprimida, mas pode ser suprimida até um ponto bastante considerável. Porque sem uma livre troca de ideias não pode haver verdadeira liberdade de pensamento. Para descobrir se as nossas ideias são sólidas, precisamos que outras pessoas as testem. A discussão crítica é a base do livre pensamento para cada indivíduo. Contudo, isto significa que a liberdade de pensamento é impossível sem liberdade política. E significa também que a liberdade política é condição prévia do livre uso da razão por cada indivíduo.

Tentei explicar em breves palavras o que entendo por racionalismo e Iluminismo. Ao mesmo tempo tentei resumidamente indicar porque é que o racionalismo, tal como eu o entendo, bem como Iluminismo, requer liberdade de pensamento, liberdade religiosa, respeito pelas opiniões honestas das outras pessoas e, finalmente, liberdade política. Mas estou muito longe de afirmar que só o racionalismo ama a liberdade ou é capaz de dar razões para a exigir. Pelo contrário, estou convencido de que existem atitudes inteiramente diferentes, especialmente atitudes religiosas, que exigem liberdade de consciência e que, levando mais longe essa exigência, chegam também ao respeito pelas opiniões alheias e a uma justificação da exigência de liberdade política. E se há pouco, talvez com um pouco de ironia, vos avisei do meu racionalismo ultrapassado, gostaria agora de repetir este aviso com toda a seriedade. Pelo facto de eu ser um racionalista não pretendo converter ninguém. Nem desejo abusar da palavra “liberdade” para tornar outros racionalistas. Mas gostaria de desafiar outros a contradizerem-me; gostaria, se possível, de incitar outras pessoas a verem as coisas a uma nova luz, para que cada um possa tomar a sua própria decisão, da maneira mais livre possível de formar opinião. Todo o racionalista deverá subscrever as palavras de Kant: não se pode ensinar filosofias – no máximo apenas filosofar, o que significa uma atitude crítica.

V

Claro que não sabemos ao certo de onde vem este filosofar, esta atitude crítica. Mas tudo indica que é muito rara e portanto pode reivindicar o valor da raridade (além de outros valores). Tanto quanto se sabe, teve origem na Grécia e foi inventado por Tales de Mileto, o fundador da escola jónica de filosofia natural.

Existem escolas até entre povos bastante primitivos. A tarefa de uma escola é sempre preservar e transmitir os ensinamentos do seu fundador. Se um membro da escola tentar mudar a doutrina, é expulso como herege e dá-se uma cisão. Deste modo, o número de escolas por norma aumenta através de cisões. Mas por vezes, evidentemente, a doutrina tradicional da escola tem de se adaptar a novas condições externas – por exemplo, a um conhecimento recentemente adquirido que se tenha tornado propriedade comum. Nesses casos, a alteração da doutrina oficial da escola é quase sempre introduzida subrepticiamente através da reinterpretação da velha doutrina, para que mais tarde afirmar-se que nada mudou realmente na doutrina. A doutrina recentemente alterada (que não se diz que foi alterada) é atribuída ao mestre que fundou inicialmente a escola. “Disse o próprio mestre”, é o que constantemente se ouve na escola pitagórica.

É pois normalmente impossível, ou invulgarmente difícil, reconstruir a história das ideias de uma escola deste tipo. Porque é parte essencial do seu método que todas as ideias sejam atribuídas ao fundador. Que eu tenha conhecimento, a única escola tradicional que se afasta deste esquema rígido é a tradição da escola jónica de Tales, que ao longo dos tempos se tornou a tradição da filosofia grega e por fim, após o reaparecimento desta filosofia no Renascimento, a tradição da ciência europeia.

Tentemos imaginar por um momento o que significa quebrar com a tradição dogmática de uma doutrina pura da escola e substituí-la por uma tradição de debate crítico, uma tradição de pluralismo, em que muitas doutrinas concorrentes tentam aproximar-se de uma verdade única.

Que foi Tales a dar este passo verdadeiramente histórico, pode ver-se no facto de na escola jónica, e só na escola jónica, os membros tentarem de uma forma bastante aberta aperfeiçoar a doutrina do mestre. Só podemos perceber isto imaginando Tales a dizer aos seus seguidores: “Estes são os meus ensinamentos. É esta a minha conceção das coisas. Tentem aperfeiçoá-la”.

Foi assim que Tales criou uma nova tradição – uma tradição a dois níveis. Primeiro a sua própria doutrina era transmitida pela tradição da escola, tal como o eram as diferentes doutrinas de cada nova geração de seguidores. Segundo, preserva-se uma tradição de criticar o próprio professor e tentar fazer melhor. Nesta escola, portanto, modificar ou ultrapassar uma doutrina era considerado algo de positivo. E essa mudança era registada com o nome da pessoa que a introduziria. Isto tornou pela primeira vez possível uma verdadeira história das ideias.

A tradição de dois níveis que descrevi é a tradição da nossa ciência moderna. É um dos elementos mais importantes do nosso mundo ocidental. Que eu saiba, foi inventada apenas uma vez. Perdeu-se passados dois ou três séculos, mas foi redescoberta pelo Renascimento – essencialmente por Galileu Galilei – passados mais mil e quinhentos anos. É portanto bastante possível que seja destruída e esquecida. E apenas poderá desenvolver-se totalmente onde houver liberdade política.

Embora o racionalismo, tal como o descrevi, continue a ser uma coisa rara, mesmo na Europa, e não possa ser considerado uma das religiões características da Europa e embora as ideias do racionalismo sejam hoje tratadas com soberano desprezo pela maior parte dos intelectuais, o racionalismo de Tales é apesar de tudo uma ideia e uma tradição sem a qual a nossa civilização europeia não existiria. Porque não há nada mais característico da nossa civilização europeia do que o seu zelo pela ciência. É a única civilização que produziu ciências naturais, e a única onde esse facto desempenha um papel bastante decisivo. Mas as ciências naturais não são produto direto do racionalismo; são produto do racionalismo da antiga filosofia grega.

VI

O que até agora fiz foi apresentar-me como racionalista e seguidor do Iluminismo, e tentar explicar o que quero dizer com racionalismo e Iluminismo. Referi também sucintamente que o racionalismo e o Iluminismo postulam liberdade política. Mas seria ridículo identificar o amor pela liberdade com o racionalismo ou com o Iluminismo, ou mesmo afirmar a existência de uma relação muito próxima entre eles.

O desejo de liberdade é claramente algo primitivo, que encontramos já em variadíssimos graus entre os animais – mesmo nos animais domésticos – e em crianças muito pequenas. Mas a liberdade torna-se um problema no campo da política. Porque a coexistência humana significa naturalmente que a liberdade ilimitada para cada indivíduo é uma impossibilidade. Se eu for livre de fazer tudo o que quiser, então também sou livre de privar os outros de liberdade.

A solução de Kant era exigir que o Estado limitasse a liberdade individual apenas na medida necessária para a coexistência humana, e que esta limitação necessária se aplicasse a todos os cidadãos da forma mais igual possível. Este princípio genuinamente kantiano demonstra que o problema da liberdade política é pelo menos conceptualmente solúvel. Mas não nos oferece um critério de liberdade política. Porque muitas vezes, em casos individuais, não conseguimos determinar se uma certa limitação da liberdade é realmente necessária, nem se é um fardo imposto a todos os cidadãos por igual. Necessitamos pois de outro critério que possa ser mais facilmente aplicado. A minha proposta de critério é a seguinte. Um estado é politicamente livre se na prática as suas instituições políticas derem aos cidadãos a possibilidade de mudar de governo sem derramamento de sangue caso haja uma maioria que o deseje. Ou, mais sucintamente: somos livres se pudermos ver-nos livres dos nossos governantes sem derramamento de sangue.

Aqui temos um critério que nos permite distinguir a liberdade política da falta dela ou, se preferirem, uma democracia de uma tirania.

Claro que nada depende das palavras “democracia” e “tirania”. Se, por exemplo, alguém chamasse a alguns estados não livres “democracias” e à Constituição do Reino Unido ou da Suíça uma “tirania” eu não me envolveria numa disputa sobre se esses termos estão certos ou errados. Apenas diria: “Se eu tivesse de usar a vossa terminologia teria de me descrever como inimigo da democracia e amigo da tirania”. Isto evita que uma pessoa se perca em disputas terminológicas; o que é importante não são as palavras mas os verdadeiros valores.

O critério de liberdade política que acabei de propor é um instrumento simples, mas evidentemente algo rudimentar. Particularmente, não nos diz nada acerca da importantíssima questão da proteção das minorias – por exemplo, minorias religiosas, linguísticas ou étnicas.

VII

Estive, com tudo o que disse até ao momento, a tentar criar uma espécie de contexto em que tenham cabimento mais algumas questões relativas à presente situação de liberdade e ao mundo ocidental livre. Formularia então a questão central do seguinte modo:

O que é que a liberdade nos trouxe? O bem ou o mal? Qual deles existe em maior quantidade? O que é que revelam as escalas de medida do bem e do mal?

Considero esta pergunta altamente estimulante e vou tentar responder-lhe tão clara e concisamente quanto possível num conjunto de teses.

A minha primeira tese é que o nosso mundo, o mundo das democracias ocidentais, pode não ser o melhor de todos os mundos políticos concebíveis ou logicamente possíveis, mas é sem dúvida o melhor de todos os mundos políticos de cuja existência temos algum conhecimento histórico. Logo, sou um otimista declarado a este respeito.

Para explicar e justificar esta minha primeira tese otimista permitam-me primeiro que diga que quando elogio os nossos tempos não estou a pensar principalmente no milagre da explosão económica, embora não seja despiciendo que na nossa sociedade cada vez menos pessoas passem fome. O que tenho em mente é uma coisa totalmente diferente. Talvez consiga explicar-me melhor apresentando um contraste. E, 1942, o antigo bispo de Bradford condenou o nosso mundo ocidental como um mundo de Satanás e apelou a todos os ministros da religião cristã para que tomassem parte na destruição desta obra do diabo e para que ajudassem o comunismo de Estaline a vencer. Desde essa altura o caráter satânico de Estaline foi reconhecido pelos próprios comunistas, e durante um breve mas altamente refrescante período o seu caráter satânico foi uma importante componente da linha geral do partido, se não mesmo do programa do partido. Todavia ainda há crentes – e na Inglaterra, mesmo cristãos genuinamente devotos – que continuam a pensar como pensava o antigo bispo de Bradford.

Para expressar claramente a minha otimista primeira tese, gostaria de dizer que, partindo precisamente do mesmo ponto de vista a partir do qual o bispo condenou o nosso mundo ocidental como obra do diabo, eu descrevo-o como o melhor de todos os mundos do qual temos conhecimento histórico.

Para o bispo tratava-se principalmente de uma questão de valores puramente humanos – aquilo a que Kant chamava dignidade humana e disponibilidade humana para prestar auxílio. Considerava que estes valores estavam em risco no Ocidente e assegurados na Rússia. Mas parece-me que, no seu idealismo, não analisou corretamente os factos. Nunca antes houve uma sociedade com tão pouca repressão, em que tão pouca gente seja humilhada e insultada, como a nossa sociedade. Nunca antes tanta gente esteve preparada para fazer sacrifícios para aliviar a fome e miséria dos outros.

Penso portanto que nós, no Ocidente, não temos razão para nos envergonharmos em relação ao Leste. Mas não afirmo que nós no Ocidente não devamos criticar as nossas instituições – pelo contrário. Embora o nosso mundo seja o melhor que houve até ao momento muitas coisas neles estão bastante erradas. E aquilo que conseguimos pode perder-se em qualquer altura. Esse é, e sempre será, um grande perigo. Passo agora à minha segunda tese.

Embora considere o nosso mundo político o melhor dos quais temos conhecimento histórico, devemos ser cautelosos em atribuir esse facto à democracia ou à liberdade. A liberdade não é um fornecedor que entrega as mercadorias da vida à nossa porta. A democracia não garante que se consiga realizar coisa alguma – e não por certo um milagre económico. É errado e extremamente perigoso enaltecer a liberdade dizendo às pessoas que vão certamente ficar todas bem quando forem livres. A forma como alguém singra na vida é em grande medida uma questão de sorte e num grau comparativamente pequeno talvez também de competência, diligência e outras virtudes. O mais que se pode dizer da democracia ou da liberdade é que conferem às nossas aptidões pessoais um pouco mais de influência no nosso bem-estar. Isto conduz-me à minha terceira tese.

Devíamos escolher a liberdade política não por esperarmos uma vida mais fácil, mas porque a liberdade é ela própria um valor fundamental que não pode ser reduzido a valores materiais. Devemos escolhê-la à maneira de Demócrito que disse um dia: “Prefiro uma vida de pobreza numa democracia à riqueza sob uma tirania”, e “A miséria de uma democracia é melhor do que qualquer riqueza sob uma aristocracia ou autocracia, porque a liberdade é melhor do que a escravatura”.

Na minha quarta tese gostaria de ir um pouco mais longe. A liberdade, a democracia, e a nossa crença nelas podem tornar-se desastrosas para nós. É errado pensar que acreditar na liberdade conduz sempre à vitória; devemos estar sempre preparados para poder conduzir-nos à derrota. Se escolhermos a liberdade, então devemos estar preparados para perecer com ela. A Polónia lutou pela liberdade como nenhum outro país. A nação checa estava preparada para lutar pela sua liberdade em 1938: não foi falta de coragem que ditou o seu destino. A Revolução Húngara de 1956 – empreendida por gente jovem que não tinha nada a perder a não ser as suas correntes – triunfou e depois acabou em fracasso.

A luta pela liberdade pode também falhar de outras formas. Pode degenerar em terrorismo, como nas Revoluções Francesa e Russa. Pode levar a uma sujeição extrema. A democracia e a liberdade não garantem uma futura idade de ouro. Não, não escolhemos a liberdade política porque ela nos promete isto ou aquilo. Escolhemo-la porque ela torna possível a única forma digna de coexistência humana, a única forma em que podemos ser totalmente responsáveis por nós próprios. Se concretizamos ou não as possibilidades que ela encerra depende de todo o tipo de fatores – e acima de tudo de nós próprios.

***************************************************

*Texto de um seminário dado em Alpach, a 25 de agosto de 1958, e extraído do livro A Vida é Aprendizagem, pp. 113-126.

***************************************************

Porque dormimos?

Matthew Walker fotografado no seu laboratório do sono. Foto de Saroyan Hamphrey.

Podemos pensar que uma ou duas noites mal dormidas não causam grandes problemas, até porque no fim de semana podemos dormir mais tempo e colocar o sono em dia. Puro engano. Os danos no cérebro e no corpo que a privação do sono provoca não são reparáveis com noites em que durmamos mais para compensar o sono perdido. Pelo contrário, o déficit de sono nunca é recuperável, apenas acumulável. Assim, se dormirmos regularmente menos de sete horas por noite, os danos físicos e mentais, mais cedo ou mais tarde, acabarão por surgir1.

Que tipo de danos? Bom, praticamente todos. As doenças mentais causadas pela falta de sono vão desde a esquizofrenia à doença de Alzheimer, passando pela depressão, o distúrbio bipolar, a ansiedade e o suicídio; e as doenças fisiológicas provocadas pela carência de sono passam, entre outras patologias, pelo cancro, a diabetes, os ataques cardíacos, a infertilidade, a obesidade e a imunodeficiência. Pode parecer exagerado, mas não é: estas conclusões são sustentadas por décadas da melhor investigação científica e têm por base um incontável número de experiências, levadas a cabo um pouco por todo o mundo2. De resto, o livro que aqui analisamos, Porque Dormimos?, é fruto de uma longa investigação (de mais de vinte anos) do seu autor, Matthew Walker.

1- Sono, o enigma desvendado

Até há muito pouco tempo, ninguém sabia exatamente porque dormimos. O assunto era demasiado controverso. Um dos problemas é que se procurava uma função única, um “cálice sagrado” que todos queriam encontrar. As teorias eram diversificadas: o sono é um período em que o corpo conserva energia; dormir é uma oportunidade para oxigenar os globos oculares; dormir é um estado não consciente em que realizamos os desejos reprimidos quando estamos acordados… e havia também quem dissesse o que parecia mais óbvio: dormimos para descansar. Mas, afinal, essa resposta não era assim tão óbvia, pois isso implicaria que um lenhador precisasse de muito mais tempo de sono que um empregado de escritório ou um reformado, o que não é o caso.

Nas últimas duas décadas, porém, as neurociências tiveram um desenvolvimento incrível e contribuíram de forma decisiva para tornar essas e outras respostas obsoletas. O sono é infinitamente mais complexo, relevante e interessante do que se pensava. Sobretudo, é vital: o que quer dizer que a sua carência acarreta graves prejuízos para a saúde. Estas descobertas foram possíveis graças a equipamentos que vieram permitir a realização de ressonâncias magnéticas e tomografias, as quais juntamente com o uso de elétrodos3, tornaram possível detetar as regiões do cérebro que estão (ou não) mais activas4 em determinado momento. Por outro lado, a montagem de laboratórios do sono em universidades e centros de investigação proporcionaram o desenvolvimento de estudos sobre os efeitos, no corpo e na mente, provocados pela privação do sono, a maior parte das vezes comparando os resultados obtidos por um grupo de pessoas que dorme normalmente com os de outro grupo de pessoas privadas de um sono completo5.

E não restam dúvidas: dormimos porque dormir é tão vital como comer, beber ou respirar. De acordo com a mais recente investigação, o sono é “a atividade mais eficaz que podemos levar a cabo para repor diariamente a saúde do nosso cérebro e do nosso corpo – até ao momento é o melhor esforço da Mãe Natureza para contrariar a morte”6. Ou seja, para a ciência atual, a questão já não é a de se saber para que é que o sono é benéfico. Em vez disso, a pergunta que se faz é se existirá alguma função biológica que não beneficie de uma boa noite de sono. E a resposta que milhares de estudos já realizados nos dão é: não, não existe. Por outro lado, todas as patologias são agravadas e muitas causadas pela falta de sono.

2 – O que nos leva a dormir ou ter dificuldade em fazê-lo

Há dois fatores paralelos que, combinados, determinam os períodos do dia em que nos sentimos mais despertos ou sonolentos: o ritmo circadiano (Processo-C) e a pressão do sono (Processo-S), esta determinada pela acumulação de um químico no cérebro chamado adenosina7. Quando o ritmo circadiano está alto e o nível de adenosina baixo (por exemplo, de manhã), sentimos um agradável estado de vigília plena, e estamos prontos para enfrentar as vicissitudes do dia; pelo contrário, quando chega a noite, depois de estarmos 15 horas acordados, o nosso cérebro está inundado com altas concentrações de adenosina, enquanto o ritmo circadiano está a diminuir, baixando os níveis de atividade e alerta. São, portanto, estes os fatores naturais que nos induzem à vigília ou ao sono. Qualquer perturbação num destes (ou em ambos os) processos é prejudicial para o nosso sono e para a nossa saúde.

Além destes processos, há ainda outra substância, uma hormona, que dá o “tiro de partida” para o sono – a melatonina. Esta hormona, libertada por uma glândula situada algures nas profundezas da parte de trás do cérebro chamada pineal, sob ordens do núcleo supraquiasmático (ver nota 9), é libertada na corrente sanguínea enviando uma mensagem clara ao cérebro e ao corpo, “está escuro! está escuro!”, assinalando assim a hora de dormirmos. Após começarmos a dormir, a concentração de melatonina vai diminuindo até se desligar completamente quando a luz do dia emerge da noite. A ausência de melatonina informa o nosso corpo de que o sono foi cumprido e é tempo de vigília. Depois, com o anoitecer, os níveis de melatonina começam a subir até atingirem o pico, iniciando-se assim um novo ciclo.

De salientar que o ritmo circadiano8 não regula apenas os horários do sono, mas também os de comer, beber, as emoções, a quantidade de urina que o corpo produz, a temperatura interior do corpo, o metabolismo e, entre outros, a libertação de inúmeras hormonas. Os ritmos circadianos são variáveis entre espécies mas também entre indivíduos9. No que diz respeito ao sono, há três tipos de pessoas, cada uma com o seu cronotipo, de acordo com os diferentes ritmos circadianos: o “tipo matutino” (constituído pelos indivíduos que despertam mais cedo de manhã e se sentem sonolentas não muito depois do início da noite) que engloba cerca de 40% da população; o “tipo vespertino” (constituído por pessoas que adormecem mais tarde e, logo, acordam mais tarde também) que inclui cerca de 30% da população; e um tipo intermédio, algures entre os dois primeiros, com ligeira inclinação para a vivência noturna, que engloba os restantes 30%.

Há sobretudo duas substâncias que, por serem mais comuns, prejudicam o sono. A cafeína e o álcool. A cafeína bloqueia e desativa os recetores da adenosina, bloqueando, assim, o sinais de sonolência que esta envia para o cérebro. Os efeitos da cafeína começam a sentir-se cerca de meia-hora depois de bebermos um café, por exemplo, mas a sua característica mais problemática é o prolongamento desses efeitos no tempo, em qualquer caso, de várias horas. De facto, a eliminação da cafeína do organismo depende de uma enzima produzida pelo fígado, muito diferenciada entre indivíduos, por fatores genéticos. Assim, há pessoas cuja enzima é mais eficaz a eliminar a cafeína, mas a maioria demora mais de sete horas a eliminá-la da corrente sanguínea. Isso quer dizer que a grande maioria das pessoas que bebem café depois do jantar vai certamente ter dificuldades em adormecer. Já o álcool produz um efeito igualmente nocivo, mas muito mais enganador10. Ao contrário do que muitas pessoas pensam, o álcool não ajuda a adormecer mais depressa e nem sequer proporciona um sono mais profundo. O álcool fragmenta o sono e provoca breves momentos de despertar, embora a pessoa não se aperceba disso. O fígado e os rins demoram horas a degradar e excretar o álcool, de modo que o consumo de bebidas alcoólicas à noite irá inevitavelmente prejudicar o sono.

Para além da cafeína e do álcool (e também outras drogas e o tabaco), outros fatores externos que conflituam com o sono são a iluminação excessiva, sobretudo as luzes LED11, as temperaturas elevadas e os horários prematuros de iniciar as aulas e de pegar ao trabalho. Entrar no trabalho ou na escola às oito da manhã (e às vezes mais cedo) priva milhões de pessoas de dormirem o suficiente, sobretudo os “vespertinos” que, naturalmente, são impelidos a ir para a cama mais tarde. Os prejuízos na saúde das pessoas, e os custos para a sociedade e as empresas, são incalculáveis. É por isso que a fixação de horários diversificados seria uma medida que, além de simples, traria um impacto extremamente positivo, tanto maior quanto mais alargado. Mas existem fatores internos que também prejudicam o sono. Distúrbios psicológicos como a ansiedade e a depressão, entre outros, podem condicionar o sono. Mais grave é quando a falta de sono e esses distúrbios se auto-alimentam, criando um círculo vicioso difícil de quebrar. A solução, de acordo com Walker, não passa pela tomada de comprimidos para dormir, uma vez que estes não nos induzem a dormir naturalmente (impedindo-nos por isso de receber os benefícios do sono), antes funcionam como sedativos e podem mesmo provocar a morte. Mais à frente aludiremos ao que Walker propõe para dormirmos melhor.

3- A ciência do sono

Pode dizer-se que a moderna ciência do sono começou em 1952, quando o professor da Universidade de Chicago Nathamiel Kleitman e o seu aluno Eugene Aserinsky descobriram que temos dois tipos de sono diferentes: NREM e REM12. O primeiro, predominante num primeiro ciclo de sono e o segundo nos últimos ciclos (são considerados cinco ciclos de sono sensivelmente de hora e meia cada, num sono normal de entre sete a oito horas). O sono NREM, quando não existem movimentos rápidos dos olhos, produz ondas cerebrais mais lentas e longas, enquanto o sono REM, quando o movimento ocular é rápido e acompanhado de sonhos, produz ondas cerebrais curtas e rápidas, muito semelhantes às emitidas quando estamos acordados. Ambos os tipos de sono são indispensáveis para a nossa saúde física e mental.

Quando começaram a medir as ondas lentas do sono NREM, nas décadas de 1950 e 1960, os cientistas consideraram que o cérebro estaria ocioso ou até adormecido nesses momentos. Mas isto estava profundamente errado. As ondas cerebrais do sono NREM espalham-se harmoniosamente desde o meio do cérebro, no tálamo, bloqueando a transferência da perceção de sinais exteriores, até ao cimo do cérebro, o córtex. A perda da sensação de consciência explica porque não sonhamos durante o sono NREM e faz com que o córtex descanse, entrando no modo de funcionamento por defeito. É então que as memórias de curto prazo são transportadas do seu local de armazenamento provisório, o hipocampo, para outro mais seguro, o neocórtex. Isto não acontece apenas nos humanos, mas também nos chimpanzés, orangotangos, bonobos, gatos, ratinhos e até nos insetos. Está provado também que o sono NREM, sobretudo na fase 2, melhora as capacidades motoras, daí ser muito importante nas crianças e nos desportistas, entre outros.

É também muito importante perceber o que acontece quando o sono NREM é prejudicado nos indivíduos mais velhos, o que, infelizmente, acontece com grande frequência. Isto tem implicações graves na memória destas pessoas, e está diretamente relacionado com a doença de Alzheimer.13 Finalmente, outro aspeto a ter em conta quanto ao sono NREM é que este atua como calmante, permitindo que o ramo de luta ou fuga do sistema simpático se acalme, diminuindo o risco de pressão alta e a ocorrência de apoplexias. Um bom sono NREM é, portanto, vital.

Sono REMSono NREM
Ondas cerebrais com frequência rápida e caótica.Ondas cerebrais com frequência lenta e sincronizada.
Ondas produzidas em quatro aglomerações distintas do cérebro. Ondas produzidas no centro dos lobos frontais.
Ondas tipo rádio FM.Ondas tipo rádio AM .
Entrada sensorial do tálamo aberta.Entrada sensorial do tálamo fechada.
Corpo totalmente paralisado (atonia).Corpo não-totalmente paralisado.
Com sonhos.Sem sonhos.
Indivíduos com potencial criativo elevado se acordados neste período.Indivíduos pouco ou nada criativos se acordados neste período.
Sem episódios de sonambulismo.Possibilidade de episódios de sonambulismo.
Pouco sensível à temperatura, ao exercício físico e à alimentação.Sensível à temperatura, ao exercício físico e à alimentação.
Diferenças entre os sonos REM e NREM.

Como se pode verificar pelo quadro acima, o sono REM tem características bastante diferentes do sono NREM. Desde logo as ondas produzidas pelo cérebro durante o sono REM, de frequência curta e rápida, são mais semelhantes ao estádio de vigília do que ao período de sono NREM. É por isso que o sono REM é muitas vezes chamado de “sono paradoxal”: um cérebro que parece estar acordado (com partes 30% mais ativas do que no estado de vigília) e um corpo claramente adormecido. Durante o sono REM o corpo perde completamente a tonacidade e os músculos pura e simplesmente paralisam, transformando-nos em prisioneiros dentro do próprio corpo. Isto acontece para que possamos sonhar à vontade. Seria muito perigoso se durante alguns sonhos extremamente movimentados nós próprios nos pudéssemos mover. Assim, a Natureza, através do processo evolutivo, resolveu o assunto obrigando-nos à imobilidade durante os períodos de sono REM.

O sono REM é um estado caracterizado por uma forte ativação nas regiões visuais, motoras, emotivas e autobiográficas do cérebro, e por uma desativação relativa nas regiões que controlam o pensamento racional. Uma questão particularmente importante do sono REM está relacionada com os sonhos, uma vez que só neste modo de sono podemos sonhar. Calcula-se que entre 35% a 55% das preocupações e emoções que experimentamos durante o dia reapareçam à noite quando sonhamos.14 A princípio pensou-se que os sonhos fossem um sub-produto do sono REM, mas posteriormente descobriu-se que os sonhos têm uma função própria. Ou melhor, duas.

A primeira tem que ver com a nossa saúde mental e emocional. De facto, os sonhos fazem um trabalho de terapia noturna: quando sonhamos com experiências traumáticas ou dolorosas sentir-nos-emos mais aliviados e calmos quando voltarmos a recordá-las. Isto acontece porque a única altura das 24 horas do dia em que a concentração de um químico relacionado com o stress, a noradrenalina, é completamente desligado no interior do cérebro, é durante o sono REM.15 A segunda tem a ver com a nossa apetência para a interpretação de expressões faciais, a resolução de problemas e a criatividade.

As áreas do nosso cérebro dedicadas à descodificação dos sinais que nos chegam das expressões faciais são as áreas que o sono REM equilibra durante a noite para que possam estar operacionais na manhã seguinte. Experiências com pessoas privadas de sono REM mostraram que estas tiveram dificuldades em ler expressões faciais, vivenciando um mundo adverso e ameaçador que não correspondia à realidade.16 Finalmente, a função mais extraordinária dos sonhos é a de ampliar a criatividade. Quando sonhamos, o nosso cérebro reúne vastos segmentos dos conhecimentos adquiridos, misturando-os de forma inspirada e, enveredando por atalhos, descobre soluções para problemas anteriormente impenetráveis. É por isso que quando acordamos após um sonho temos uma maior probabilidade de criar peças artísticas valorosas, como poemas ou canções, e maior apetência para resolver problemas, como anagramas. Os exemplos são vastos e variáveis, muitos deles famosos: Mendeleev viu a tabela periódica num sonho; Keith Richards compôs os acordes de “Satisfaction” durante o sono REM;17 Paul McCartney acordou com a melodia de “Yesterday” na cabeça. St. Paul Boux, um poeta surrealista francês, colocava na porta do quarto, antes de dormir, uma placa que dizia: “Não perturbar: poeta trabalhando.”

Esta ligação e mistura criativa de informações é o que distingue o nosso cérebro dos computadores. Os nossos “algoritmos” são diferentes e bem podemos falar de um “algoritmo do sonho”. As pessoas que sonham com um problema têm uma probabilidade muito maior de o resolver do que aquelas que não sonham. O cérebro durante o sonho conjuga a memória recente sobre um determinado assunto com outras antigas relacionadas com o mesmo assunto e ainda outras hipotéticas relações, proporcionando respostas altamente criativas, inacessíveis a quem não sonha.18

Tudo isto nos conduz a um grave problema: tendo em conta 1) que os nossos adolescentes acordam cada vez mais cedo para irem para a escola, 2) que o ritmo circadiano na adolescência se adianta algumas horas e que 3) é no final do nosso sono que prevalece o sono REM com sonhos, estamos a privar os adolescentes das nossas sociedades da qualidade de vida que eles, não apenas enquanto adolescentes mas também na idade adulta, merecem. E porque se adianta o ritmo circadiano dos adolescentes algumas horas? A ciência não tem uma resposta inequívoca, mas Walker avança como uma hipótese a ter em conta: ao diferenciar os sonos dos adolescentes e dos pais, a Natureza está a incentivar a emancipação destes iminentes adultos.19

4- Como dormir melhor

No final do livro, Matthew Walker deixa-nos 12 dicas para melhorarmos o nosso sono, dizendo-nos que, se tivéssemos de escolher apenas uma delas, seria a primeira: manter um horário de sono regular. Além disso, devemos: evitar o álcool, a cafeína e a nicotina; fazer exercício físico, mas não a horas tardias; evitar grandes refeições e demasiadas bebidas à noite; evitar medicamentos que de alguma forma perturbem o sono; não fazer sestas depois das três da tarde; descontrair antes de ir para a cama e, se possível, tomar um banho quente e relaxante antes de dormir; escurecer o quarto e mantê-lo não demasiado quente; não ver televisão nem usar o computador ou o telemóvel antes de adormecer (é preferível ler um livro); evitar as luzes LED; manter uma exposição solar adequada, o que quer dizer que devemos receber bastante luz durante a manhã e expor-nos à luz natural durante, pelo menos, meia-hora durante o dia; desligar as luzes antes de ir para a cama; não ficar acordados na cama se não conseguirmos dormir: se nos mantivermos acordados durante mais de 20 minutos devemos levantar-nos e fazer qualquer coisa relaxante até sentir sono. A ansiedade por não conseguirmos dormir pode dificultar ainda mais o adormecer.

Finalmente, recordemos que uma vida com o sono em dia é sinal de uma vida saudável. Catástrofes como o desastre no reator nuclear de Chernobyl e o encalhe do petroleiro Exxon Valdez, entre tantos outros, foram provocados pela falta de sono.20 E, já agora, se algum dia (ou noite) sentir sono enquanto conduz, por favor, pare. A probabilidade de ter um acidente grave é elevadíssima.

Bom dia, boa noite, bom sono e bons sonhos!

**************************************************

A nossa edição:

Matthew Walker, Porque Dormimos, Editora Desassossego, Lisboa, 2019, 1ª ed.

**************************************************

Notas:

1Depois de dez dias de apenas sete horas de sono por noite, o cérebro fica tão disfuncional quanto estaria depois de 24 horas sem dormir.

2 A importância do sono é hoje reconhecida pela OMS que catalogou a falta de sono abrangente como um epidemia global. E o próprio Guiness Book retirou o recorde da privação do sono do seu livro de recordes, por reconhecer o seu caráter nocivo.

3 Os elétrodos registam sinais emitidos por três regiões distintas: a atividade das ondas cerebrais, a atividade dos movimentos oculares e a atividade muscular.

4 De realçar que o cérebro consome 20% da energia do nosso corpo, embora represente apenas 2% do seu peso total.

5É considerado “sono normal” um sono contínuo com duração entre 7,5 e 9 horas. Uma sesta com duração máxima de hora e meia e que termine antes das 15:00 horas, também é considerada normal e mesmo benéfica.

6Ob. cit., p. 18.

7Logo que acordamos a adenosina começa a acumular-se no cérebro. Quando atinge o seu ponto máximo, sentimos uma vontade irresistível de dormir. Na maior parte das pessoas isto acontece depois de estarem entre 12 a 16 horas acordadas.

8 “Circa” (em torno de) e “diam” (dia). Daí deriva o termo circadiano.

9 Foi possível determinar o ritmo circadiano humano através de experiências em que indivíduos foram privados da luz solar. A mais famosa foi realizada em 1938, quando o professor da Universidade de Chicago Nathaniel Kleitman e o seu assistente Bruce Richardson estiveram 32 dias mergulhados na escuridão profunda da Caverna Mammoth, no Kentucky, uma das mais profundas do planeta. Sabe-se hoje que o relógio circadiano de um humano adulto é de cerca de 24 horas e 15 minutos. São a luz solar e o núcleo supraquiasmático que ajustam o nosso relógio interior para as 24 horas do dia. “Quiasma” significa ponto de cruzamento, e o núcleo supraquiasmático situa-se mesmo por cima do ponto, no centro do cérebro, onde os nervos óticos, com origem nos globos oculares, se cruzam, “decidindo” quando queremos estar acordados ou a dormir.

10 O sono insuficiente durante a infância tem relação direta com o consumo de álcool e drogas na adolescência. “O álcool é um dos repressores mais poderosos do sono REM de que temos conhecimento” (ob. cit., p. 97).

11 Apesar de em 2014 Shuji Nakamura, Isamu Akasaki e Hiroshi Amano terem ganhado o Prémio Nobel da Física pela invenção da luz LED, devido à poupança de energia e à maior longevidade das lâmpadas LED, estas emitem luzes azuis de ondas curtas muito mais próximas da luz do dia do que as velhinhas lâmpadas incandescentes de luzes quentes e amarelas, perturbando assim o sono.

12 REM (Rapid Eye Movement); NREM (Non-rapid Eye Movement).

13 A doença de Alzheimer é provocada pela acumulação de uma proteína chamada beta-amiloide. A Drª Maiken Nedergaard, da Universidade de Rochester, descobriu uma espécie de “rede de esgoto”, a que chamaram sistema glinfático (constituído por células gliais espalhadas pelo cérebro), o qual, à semelhança do que o sistema linfático faz no corpo, limpa as substâncias nocivas do cérebro, nomeadamente os contaminantes metabólicos perigosos gerados pelo trabalho dos neurónios, entre eles a perigosa proteína beta-amiloide, bem como outra proteína denominada “tau” e moléculas de pressão, que se pensa serem a causa da Alzheimer. A carência de sono NREM faz com que essa limpeza não seja eficientemente realizada, provocando a acumulação dos contaminantes metabólicos. Margareth Thatcher e Ronald Reagan, que afirmavam dormir apenas 4 ou 5 horas por noite, contraíram a doença de Alzheimer… Alguém deveria avisar o nosso Presidente!

14 O professor da Universidade de Harvard, Robert Stickgold, chegou a esta conclusão após conceber uma experiência com 29 jovens adultos saudáveis, a quem pediu que registassem o que faziam durante o dia, bem como as suas preocupações emocionais. Pediu-lhes também que registassem os sonhos de que se lembrassem, obtendo, assim, 299 relatórios de sonhos ao longo de 14 dias.

15 O Dr. Murray Raskind, um médico especialista em PSPT (Perturbação de Stresse Pós-Traumático) e doença de Alzheimer, constatou que um medicamento chamado prozonina, que receitava para controlo da pressão arterial de alguns dos seus pacientes, também lhes aliviavam os pesadelos e sonhos dolorosos recorrentes devidos aos traumas de guerra. Veio a revelar-se que a prozonina tinha também o efeito de suprimir a noradrenalina no cérebro, permitindo que os pacientes dormissem mais tranquilamente.

16 Isto é bastante problemático para pessoas que nas suas atividades profissionais, como polícias e pessoal médico, frequentemente têm que avaliar as emoções transmitidas por expressões faciais de inúmeros indivíduos, avaliações em que o erro pode causar uma tragédia.

17 Keith costumava deitar-se com uma guitarra e um gravador ligado ao lado da cama. Numa manhã, quando acordou, sem se lembrar de nada, puxou a fita do gravador atrás e ouviu os primeiros acordes de “I Can Get No Satisfaction”.

18 Uma descoberta relativamente recente (2013) confirmou que há “sonhadores lúcidos”, ou seja, pessoas que conseguem controlar os próprios sonhos. Estes indivíduos representam quase 20% da população.

19 Durante a adolescência, o processo de desenvolvimento da arquitetura cerebral, com a ajuda do sono REM, já está completo. O objetivo agora já não é aumentar a escala, antes reduzi-la, e aqui quem tem o protagonismo é o sono NREM, ajudando na poda das ligações, e no desbaste sináptico que tipicamente acontece na adolescência.

20 Ob. cit., pp. 350-51.

**************************************************

Foto retirada de:

https://www.theguardian.com/lifeandstyle/2017/sep/24/why-lack-of-sleep-health-worst-enemy-matthew-walker-why-we-sleep.

**************************************************

Homo Interstaticus

Homo Biologicus, é o título do primeiro livro do médico francês Pier Vincenzo Piazza.

Todo o organismo tende para um estado de equilíbrio, o estado homeostático. Temos de respirar, comer e beber para manter esse equilíbrio, sendo que a auto-regulação do nosso organismo faz o resto. Há milhões de anos, quando os nossos ancestrais viviam num ambiente em que os recursos alimentares disponíveis eram escassos, a seleção natural, por uma questão de sobrevivência da espécie, “criou” o que hoje chamamos de homem “exostático”, aquele que, em oposição ao homem “endostático” que apenas se alimenta até ficar saciado, come mais do que necessita para repor o equilíbrio momentâneo, isto é, armazena comida no organismo prevenindo momentos futuros de escassez. Tal como beber sem ter sede ou respirar mais do que o necessário, também comer sem ter fome era, naquela período, penoso. Então, a seleção natural teve de “engendrar” uma estratégia para que o organismo dos nossos ancestrais armazenasse o bem mais escasso de que necessitava – comida – e assim nasceu o prazer.

A nossa espécie passou, a partir daí, a ter dois tipos de indivíduos, os “endostáticos” e os “exostáticos”. Estes últimos são os mais propícios a ter todo o tipo de prazeres, desde a vontade incontrolável de comer (daí a praga da obesidade), ao consumo de drogas, passando pelo vício do jogo e a apetência para desportos radicais. Para lá de um sistema endocabinoide mais operante próprio dos “exostáticos”, não existe nada de errado com estes indivíduos. O que acontece é que o processo de seleção natural tem uma escala de milhões de anos e o processo tecnológico humano de transformação dos recursos terrestres (nomeadamente a agricultura) tem uma escala muito menor. Ou seja, os nossos organismos preparados pela natureza para viverem em tempos de escassez, viram-se subitamente rodeados de abundância. Daí que haja tantos indivíduos obesos nas sociedades ocidentais: enquanto “exostáticos”, eles estão “programados” pela natureza para comerem mais do que necessitam e assim armazenarem energia, em prol da sobrevivência da espécie.

Esta dualidade endo/exos da nossa espécie reflete-se também nas visões que temos do mundo. O indivíduo “endostático” tende a ser conservador e o “exostático” progressista. As visões “endostática” e “exostática”, além de se oporem entre si, são limitativas e parciais, não nos permitindo enfrentar com eficácia os graves problemas que o mundo enfrenta, pois tal só é possível se compreendermos, afinal, por que existe essa oposição. Para isso, Piazza, o autor de Homo Biologicus, o livro onde tudo isto se esclarece, propõe um homem novo, com uma nova visão: o homo interstaticus. Com uma abordagem mais abrangente, este novo homem está pronto para sintetizar as visões “endostática” e “exostática”, e assim dar resposta aos problemas que a nossa espécie enfrenta. Por exemplo, não é mais possível, considerar os viciados em drogas (ou noutra coisa qualquer) como pessoas falhas de vontade, uma vez que a sua biologia os impele a ter esse comportamento. Ninguém se lembraria de considerar um esquizofrénico ou um autista como pessoas falhas vontade. Pois o mesmo deve acontecer com os viciados em drogas (das leves às duras, incluindo as mais disseminadas e legais como o álcool e, sobretudo, o tabaco) que, à luz dos conhecimentos científicos contemporâneos, tal como os que padecem de Alzheimer ou Parkinson, são pessoas doentes.

A abordagem aos problemas causados pelas drogas está pois condicionada pelo nosso dualismo. É por isso que a maioria de nós ainda pensa que as drogas consideradas “duras” são as mais perigosas, quando na realidade são as menos tóxicas e as que menos matam. Estas drogas são proibidas em quase todas as sociedades, ao contrário do álcool (proibido apenas em algumas sociedades) e do tabaco (cujo consumo não é proibido em nenhum país), que matam um número de indivíduos muitíssimo superior em todo o mundo, simplesmente por uma razão: porque um viciado em tabaco consegue perfeitamente trabalhar enquanto um viciado em heroína tem grande probabilidade de deixar de ser produtivo. Esta perspetiva utilitarista, que considera o viciado um fraco sem domínio de si mesmo, não nos permite abordar a raiz do problema.

Na verdade, essa visão do homem sem vontade, advém mais uma vez de uma perspetiva dualista ainda presente nas nossas sociedades: a de que somos compostos por duas partes, uma material (o corpo) e outra imaterial (a mente ou a alma). Piazza mostra-nos que tal coisa não existe: a nossa suposta “vontade” é fruto do que se passa no nosso cérebro que, apesar da sua incrível complexidade, é matéria. Somos, de facto, um animal exclusivamente biológico, um organismo com o cérebro proporcionalmente maior, mas ainda assim, um organismo como os outros na natureza. É com consciência das nossas limitações que devemos também abordar o futuro, repensar tudo, incluindo o percurso de guerras e destruição ambiental que vem caracterizando a atividade humana. É necessário um novo ponto de partida e a esperança reside numa abordagem mais abrangente e integral, à luz dos novos conhecimentos científicos sobre a biologia humana, a do homo interstaticus.

**************************************************

A nossa edição:

Homo Biologicus, Pier Vincenzo Piazza, Bertrand Editora, Lisboa, 2020.

**************************************************

Foto retirada de :

https://www.sudouest.fr/2019/09/29/piazza-la-biologie-et-la-vie

**************************************************

A última entrevista

Popper, o filósofo que detestava modas.

No dia 29 de julho de 1994, um dia depois de completar 92 anos, Karl Popper concedeu a entrevista que se segue ao filósofo polaco Adam Chmielewski, na sua casa (de Popper), em Inglaterra1. Tanto quanto se sabe, esta foi a sua última entrevista. Karl Popper viria a falecer seis semanas depois, em 17 de setembro. Aqui fica o registo, traduzido por nós com base no documento, publicado em inglês, de Chmielewski.(file:///C:/Users/User/Downloads/The_Future_is_Open._A_Conversation_with.pdf).

******************************

O Futuro é Aberto

Uma Conversa com Sir Karl Popper

Adam Chmielewski (AC): Sir Karl, por favor aceite os meus melhores votos na passagem do seu nonagésimo segundo aniversário.

Sir Karl Popper(KP): Muito obrigado.

AC: Sir Karl, apesar da sua impressiva idade, o senhor é um filósofo muito ativo. Poderia dizer-me em que é que trabalha atualmente? Está ainda a desenvolver o seu sistema?

KP: Oh, sim. Veja bem, eu sempre trabalho em várias coisas ao mesmo tempo. A minha última publicação foi mais uma contribuição para a nova edição alemã do meu livro “Lógica da Descoberta Científica”. O meu editor alemão sempre quer que eu acrescente qualquer coisa antes que uma nova edição seja publicada, e eu normalmente uso a oportunidade para acrescentar um apêndice. Por isso, recentemente, há uns quinze dias, publiquei o meu vigésimo apêndice à décima edição alemã do livro, que de outra forma apareceria sem nenhuma revisão. O apêndice contém uma nova definição de independência probabilística. Assim, eu trabalho nessas coisas o tempo todo. Estou a trabalhar sobre os pré-socráticos, Parménides, geometria de Aristóteles, e em muitas outras coisas.

AC: Então parece continuar com os interesses expressos no seu famoso artigo “Voltar aos Pré-Socráticos” e nos dois volumes de “A Sociedade Aberta e Seus Inimigos”. Está também a voltar ao seu trabalho sobre Platão, a quem devotou o primeiro e controverso volume da “Sociedade Aberta”?

KP: Oh, sim! Continuo interessado em Platão. Por acaso fiquei recentemente interessado na geometria pré-euclidiana, ou seja, em geometria sem a ideia de um sistema fechado axiomático, e na geometria de Aristóteles. Estou interessado, antes de tudo, no famoso diálogo de Platão, “Ménon”, que, obviamente, não é de todo geometria axiomática. E há algo em Aristóteles que, conceptualmente, é semelhante às ideias de Platão no “Ménon”. A ideia euclidiana tem sido, claro, imensamente importante, por exemplo para os “Principia Mathematica” de Bertrand Russell e Alfred North Whitehead, e por aí fora. Tudo depois de Euclides é axiomático, mas penso que a prova de Platão no “Ménon” é, por assim dizer, uma prova absoluta, não relativa a suposições… Não há suposições ali. Penso que esses tipos de provas matemáticas absolutas, sem suposições, foram fatalmente negligenciadas. Foi uma área negligenciada que é muito importante para mim.

AC: Eu recordo que na sua “Sociedade Aberta”, em notas muito ricas do livro, se referia às ideias matemáticas de Platão, particularmente em “Timeu”…

KP: Em conjunto, a filosofia grega é maravilhosa. Não gosto da ética de Platão, a sua filosofia social é, em parte, extremamente inteligente, mas a sua atitude é autoritária e ditatorial, e não humanitária. Por isso, não gosto da sua atitude moral mas admiro a sua inteligência.

AC: Alguma vez voltou a estudar Hegel, outro “inimigo da sociedade aberta”?

KP: Não! Não! Eu ainda detesto Hegel! Prefiro ler Kant. Tenho algumas primeiras edições dos trabalhos de Kant que consulto frequentemente.

AC: Sobre que aspeto da filosofia de Parménides é que trabalha atualmente?

KP: Acredito que Parménides era um materialista que acreditava que as coisas inamovíveis são reais. Agora, qual era realmente a sua atitude? A minha teoria é que ele acreditava que a vida e a luz não eram reais; mas a morte era real, bem como os objetos imóveis; o corpo morto era, para ele, parte da realidade. Mas a vida é uma ilusão, a luz é uma ilusão, o amor é uma ilusão. Ele fala destas coisas na segunda parte do seu poema, que é dedicado à vida, ao amor e à luz; é, portanto, sobre ilusões, não sobre o que é real. Quando algo é inamovível é real, quando se move não é real. É isto que eu penso ser a sua teoria. Ele aprecia a beleza, a vida, mas todas essas coisas estão indo embora ou desaparecendo. São, por isso, ilusão. É isto que eu penso ser a sua verdadeira filosofia. E penso que ninguém tenha dito isto. Penso que ele era um pensador muito original e interessante, e que era, de facto, um cientista e um astrónomo, um importante investigador em astronomia.

AC: O interesse dele pela astronomia poderia ter sido estimulado pela influência pitagórica…?

KP: Sim, provavelmente. E estava-o guiando, como aconteceu com Einstein.

AC: Pode dizer algo mais sobre isso?

KP: Sim. Einstein acreditava que o universo era determinístico. Ou seja, já existia num espaço quadrimensional, com o futuro e tudo dentro dele. Eu tentei mostrar-lhe que ele estava errado. De qualquer forma, trata-se de um universo-bloco em quatro dimensões, como em Parménides. Foi por isso que apelidei essa visão de “Parménides-Einstein”. É muito fácil a um cientista adotar esse ponto de vista porque se trata realmente de uma forma de materialismo – um universo-bloco como uma unidade tridimensional ou quadrimensional.

AC: Mas você argumentou contra este ponto de vista. Você defendeu que o universo é aberto. Que tipo de argumentos usou para convencer Einstein a abandonar essa visão?

KP: Antes de tudo, nada no mundo inteiro sugere isso. Se você vivesse na Antártida, uma tal visão talvez fosse defensável. Mas a diferença entre o nosso mundo e a Antártida mostra que essa visão é errada. A vida é incrivelmente variada e incrivelmente produtiva, está sempre a produzir coisas novas. É como a música, as artes, que são incrivelmente produtivas e criativas. Mozart, Beethoven ou, se preferir, Chopin – embora, devo confessar, eu não seja particularmente apaixonado por Chopin, também ele era criativo e trouxe algo de novo ao mundo, um novo estilo, uma nova forma de tocar. E o mundo está, da mesma forma, cheio de coisas criativas; mas a atitude determinística do universo-bloco fecha a nossa mente e não nos deixa ver um dos aspetos mais encorajadores e interessantes do mundo.

AC: Há alguns anos, em junho de 1989, assisti à sua palestra, ministrada perante os ex-alunos da London School of Economics, sobre conhecimento objetivo e epistemologia evolucionária. Fiquei com a impressão de que os seus pontos de vista sobre essas questões não mudaram desde a publicação de “Conhecimento Objetivo”.

KP: Desenvolvi-os, mas não os mudei. Nos últimos catorze anos trabalhei muito de perto com um bioquímico, Günther Wächtershäuser, sobre os problemas do gene da vida. Ele é professor de bioquímica evolucionária em Regensburg, na Alemanha.

AC: Quais são os seus novos pensamentos sobre a epistemologia evolucionária?

KP: Antes de tudo, acredito que o princípio da epistemologia não deve ser as observações que fazemos, mas a nossa aprendizagem intelectual; o tópico da epistemologia é este: mudar as nossas teorias, melhorando-as.

AC: Este ponto de vista é um elemento da sua crítica à tradição empirista. A rejeição dessa tradição tem constituído um ponto de partida da sua epistemologia e filosofia da ciência.

KP: Sim, claro. Os nossos sentidos têm uma função biológica a desempenhar e essa função biológica não serve apenas para nos fornecer sensações, mas também para nos dar um conhecimento importante para a vida. Não podíamos fazer nada apenas com sensações. O ponto decisivo não é a observação, mas as expectativas. Estas são biologicamente importantes.

AC: Algo que está dentro de nós, não fora…

KP: Se assim preferir, mas não há uma grande diferença. A expectativa é acerca do que nós cremos encontrar do lado de fora. O nosso conhecimento é para nos ajudar nas nossas ações e no nosso futuro. O nosso conhecimento é feito de expectativas e a nossa vida é baseada nelas. Você não espera que eu tire uma arma do meu bolso e dispare sobre você. A expectativa de que eu o trate pacificamente é fundamental para a nossa conversa e não se baseia na observação, já que você não olhou nos meus bolsos. Temos de nos orientar constantemente em tudo que estamos a fazer ou a não fazer e tudo isso é baseado em expectativas. Temos sempre expectativas sobre o que vai acontecer.

AC: … Que são posteriormente confirmadas ou não…

KP: Estas expectativas são também a base das nossas hipóteses e teorias. Obviamente,o nosso conhecimento é todo acerca disso. Não acerca se isto é ou não é uma laranja, por exemplo. Eu refiro-me a todas estas experiências, se o ovo está aberto por trás ou não. É perfeitamente verdade que, se eu lhe mostrar um ovo, você não vai esperar que ele esteja aberto atrás, claro, mas é o que você espera, não o que você vê. Da mesma forma, você espera que a minha cabeça não esteja aberta atrás, e por aí fora. Então, nós temos de olhar para o nosso conhecimento tendo em mente a sua função, e esta é fundamentalmente a mesma dos animais. Até as plantas esperam que coisas aconteçam, e também elas se ajustam aos eventos futuros.

AC: Neste ponto é natural que eu pergunte: quais são as fontes dessas expectativas?

KP: A fonte das nossas expectativas é em parte o nosso conhecimento inato, por assim dizer, o conhecimento que remonta ao nosso ajustamento darwiniano ao mundo. Uma criança, por exemplo, ajusta-se ao ambiente circundante através do seu conhecimento inato. Aliás, esta é a razão porque a televisão é tão perigosa, porque a televisão faz parte do ambiente da criança e ajusta-se a ela.

AC: De facto, a criança espera que o mundo seja muito parecido com a imagem que a televisão passa – e geralmente fica fortemente dececionada…

KP: Exatamente! Isso é muito perigoso. Tudo o que fazemos está relacionado com a tarefa de um organismo para se ajustar ao meio ambiente. Animais e plantas. Antecipação e expectativa são particularmente importantes para animais que se podem mover. No seu movimento eles têm de antever o que vai acontecer, como um motorista num carro. Se você conduz um carro ou uma bicicleta, você antecipa o que irá acontecer a seguir. É isso que faz a nossa consciência.

AC: Então pode dizer-se que somos apenas um conjunto de expectativas, impulsos e desejos, e que no processo de cumprimento de nossas expectativas e impulsos, nós somos transformados juntamente com essas expectativas e desejos, que são os nossos principais impulsionadores…

KP: Sim, é isso mesmo.

AC: Sir Karl, o senhor é um dos defensores mais ativos do liberalismo, um crítico severo do marxismo e de todos os tipos de historicismo, um porta-voz inflexível da democracia. O senhor dedicou grande parte da sua atividade filosófica ao combate ao comunismo e ao totalitarismo, pregando a defesa da sociedade aberta. Qual foi a sua reação à revolução democrática na Polónia e em outros países da Europa Central, que marcaram a queda do sistema comunista e abriram esses países ao mundo ocidental?

KP: Claro que gostei dessas mudanças. Mas devo dizer que não penso que o marxismo tenha sido definitivamente derrotado. Estou certo de que ele regressará uma e outras vezes. Talvez nem tanto na Polónia, mas seguramente na Rússia. Mas até talvez na Polónia, e mesmo no Ocidente. Penso que as pessoas têm tendência para serem historicistas. Veja, se você olhar para um jornal qualquer, seja em que língua for, verificará que quando alguém escreve sobre política, implicitamente acredita que o político bom, justo e sábio é aquele que antecipadamente sabe o que acontecerá a seguir, aquele que tem o dom da profecia no campo da política. Mas em minha opinião isto representa um fantástico preconceito, um tipo de loucura. Você não pode prever o futuro. O futuro não está fixado, é aberto. Tudo o que pode fazer é tentar adivinhar muito vagamente como será. Você não pode prever quando morrerei: posso morrer hoje, ou posso viver mais cinco anos – você pura e simplesmente não pode prever isso. Nenhum médico que seja realmente consciencioso pode prever o que realmente acontecerá a um paciente, exceto, talvez, em casos extremos. Se você não pode prever quando morrerei, como é possível prever seja o que for acerca de toda a sociedade? Assim, a crença de que o futuro pode ser determinado é, simultaneamente, equivocada e errada. Mesmo se o futuro fosse determinado, poderíamos não ser capazes de o prever; mas não é determinado e não podemos prevê-lo! Acreditar no contrário é ser vítima de uma superstição, uma superstição idiota que é bastante poderosa, um pouco por todo o lado. É por isso que o marxismo não desaparecerá, pois o marxismo não é apenas uma superstição deste tipo – é uma superstição “científica”. Então aparecerá de novo, uma e outra vez.

AC: Em geral, estamos testemunhando agora, apesar dos seus esforços, um forte reaparecimento do historicismo na filosofia contemporânea. Um dos muitos proeminentes pensadores dessa nova onda é Alasdair MacIntyre…

KP: Oh, sim. Eu conheci-o quando ele era muito novo e era um marxista. Fui convidado para um encontro do qual ele também participou. Parece que ele agora é um tomista…

AC: Além disso, em muitas disciplinas filosóficas pode sentir-se uma forte influência das famosas “Investigações Filosóficas” de Ludwig Wittgenstein, sobre quem você sempre foi muito crítico.

KP: Lamentavelmente, é verdade. É terrível. Eu penso que realmente a filosofia contemporânea britânica é muito má… desinteressante… maçadora… O segundo livro de Wittgenstein é extremamente maçador. O seu primeiro livro, “Tratado Lógico-Filosófico” tinha características bem diferentes. Em geral, a filosofia é dominada por diversas modas: historicismo, estruturalismo, novo historicismo, pós-estruturalismo, pós-modernismo e outras – tudo modas filosóficas. Mas a moda em ciência ou filosofia é algo terrível. Está lá, não há nada a fazer. Mas é algo que deveria ser desprezado, não seguido.

AC: Algum dos filósofos britânicos seguiu a filosofia do racionalismo crítico que o senhor iniciou aqui?

KP: Sim, o meu ex-aluno e assistente, David Miller. Ele acabou de publicar um livro sobre o assunto. Chama-se “A Defesa do Racionalismo Crítico”. Ele trouxe-me o livro ontem, como presente de aniversário.

AC: Quando prevê que a tradução alemã do seu livro “Conjeturas e Refutações” seja publicada?

KP: As minhas “Conjecturas”, apenas a primeira metade do livro, estão agora a ser lançadas em alemão. As “Refutações” sê-lo-ão mais tarde. Muitas pessoas tentaram traduzir o livro, mas eu achei todas as traduções péssimas. A tradução tem de ser feita com muita consciência. E eles não o fizeram. Agora foi o próprio editor quem traduziu e remeteu para nós. A senhora Mew fez uma primeira correção, eu fiz uma segunda, e daí resultou um livro muito bom.

AC: É nas suas “Conjeturas e Refutações” que você introduz muitos conceitos filosóficos que foram posteriormente severamente criticados por muitos filósofos da ciência, por exemplo, “verosimilhança”, “corroboração”…

KP: Oh, sim! Tudo na minha teoria da ciência foi criticado, mas todas essas críticas não eram boas. David Miller respondeu a algumas críticas no seu livro, embora eu tenha apenas olhado de relance, porque ele mo deu apenas ontem; e eu também tentei responder-lhes no meu livro “Em Busca de um Mundo Melhor”.

AC: No prefácio que escreveu especialmente para a edição polaca de “Conhecimento Objetivo”, você fez uma menção calorosa a Alfred Tarski. Muitos leitores polacos estão interessados na sua relação pessoal com Tarski, a quem este seu livro é dedicado, bem como com muitos outros representantes da escola de lógica e filosofia de Lvov-Warsaw.

KP: Encontrei-me com Tarski pela primeira vez em Praga há sessenta anos, em agosto de 1934. Foi aí que conheci também Janina [Hossiason-Lindenbaum]. Participei então, pela primeira vez, no Congresso Internacional de Filosofia. O congresso não foi muito interessante, mas foi precedido por uma conferência preliminar, organizada por Otto Neurath, em nome do Círculo de Viena. Depois disso Tarski transferiu-se de Praga para Viena, onde ficou um ano e onde ficámos amigos. Do ponto de vista filosófico, a minha amizade com Tarski foi muito importante para mim. Graças a Tarski compreendi o poder da noção de verdade absoluta e objetiva, e como ela pode ser defendida. Não sei como é hoje, mas naquele tempo as pessoas da Polónia eram mais sérias que as outras. Não quero dizer que não tivessem sentido de humor, não é isso, mas que elas estavam mais seriamente empenhadas em pensar do que pessoas da Áustria, da Alemanha, da Inglaterra, ou de qualquer outro lado. Eram pessoas muito, muito boas e sérias.

AC: Conheceu outro eminente lógico da escola de Lvov-Warsaw, Jan Lukasiewicz?

KP: Sim, era um homem simpático. Gostei muito dele. Conhecemo-nos nos exames de doutoramento de outro lógico polaco, Czeslaw Lejewski. Eu era o supervisor da tese e Lukasiewicz foi convidado para examinador externo.

AC: Como você provavelmente sabe, ele foi ajudado por Heinrich Scholz a fugir da Polónia ocupada pelos nazis e foi-lhe dado, por recomendação do primeiro-ministro da Irlanda, De Valera, ele próprio um matemático, o cargo de professor em Dublin.

KP: Eu conheci Heinrich Scholz. Encontrei-me com ele no Congresso de Paris em 1935, que foi organizado por Otto Neurath. Estou feliz por ele ter ajudado Lukasiewicz, ele não me mencionou isso. Schödinger também esteve na Irlanda e também foi levado por De Valera. O meu professor de física teórica, Hans Türing, quando soube que eu ia a Inglaterra, disse-me para eu visitar Schödinger em Oxford. Isto foi em 1935. Recentemente, fiquei abalado com a morte do meu amigo Jerzy Giedymin, eminente filósofo da ciência polaco, que passou muitos anos em Inglaterra. Não há muito tempo que ele foi visitar a Polónia e aí morreu.

AC: Muitos estudiosos da Polónia e de outros países da Europa Oriental – eu incluído – devem muito a George Soros que fundou uma série de instituições que permitem a troca de ideias, e o contacto entre elas e pessoas no Ocidente. Uma das fundações de Soros tem o nome de “Open Society Foundation,” que é uma alusão ao seu livro “A Sociedade Aberta”. Como vocês se encontraram?

KP: Ele era um aluno meu, há muitos anos. Mas mantivemos sempre contacto. Encontrei-o recentemente durante a minha visita a Praga. Ele também me visitou duas ou três vezes aqui. É sempre um pouco difícil para nós; quer dizer, eu não quero continuar com a relação professor-aluno. Estou muito contente por você ter sido ajudado por ele. Soros ajuda muita gente. Por exemplo, ele forneceu água a Sarajevo quando a cidade estava sitiada…

AC: Um dos seus amigos mais chegados era o laureado com o Prémio Nobel, Friedrich Hayek, que escreveu bastante sobre a teoria do liberalismo e a metodologia das ciências sociais.

KP: Sim, conheci-o por muitos anos. Em 1944, quando eu ainda estava na Nova Zelândia, ele remeteu-me um telegrama oferecendo-me uma cadeira de leitor na London School of Economics. Aceitei o convite e vim para Londres. Deixei a Nova Zelândia mesmo antes de terminar a guerra com o Japão, mas depois da guerra na Europa. O convite chegou enquanto a guerra na Europa ainda decorria. Ocupei o cargo em 1945, e em 1949 fui nomeado Professor de Lógica e Método Científico, também na LSE. Friedrich Hayek era três ou quatro anos mais velho que eu. Fomos muito próximos.

AC: Ambos eram fortes críticos dos regimes totalitários. Friedrich von Hayek era conhecido nos antigos países comunistas como o autor de “O Caminho para a Servidão”. Você é mais conhecido pela “A Sociedade Aberta e seus Inimigos”. Ambos defendiam o liberalismo que, a meu ver, apresentava traços conservadores evidentes. Por exemplo, você, no livro que já mencionei, “Conjeturas e Refutações”, disse que o mundo das democracias liberais do Ocidente, mesmo que não seja o melhor dos mundos possíveis, é certamente o melhor de todos os mundos que existem. Esteve alguma vez tentado a mudar essa visão?

KP: Sim. Sim, mas apenas tentado.

AC: Não mudou então de ponto de vista sobre este assunto?

KP: Não. Quando alguém pretende ser crítico tenta mudar de ideias, pensa nas matérias vezes sem conta. Mas não mudei de opinião.

AC: Mas como você bem sabe, as nações dos países da Europa Central, que passam por um processo de transformação muito doloroso, expressaram repetidamente o seu desapontamento com a política de liberalização económica ali imposta, e nas eleições realizadas recentemente nos países da Europa Central, questionaram inequivocamente essa política. Temos de enfatizar que eles tinham todas as razões para o seu ceticismo; os liberais recém-nascidos na Europa Central deram o seu melhor para merecerem esta resposta. O princípio do mercado livre tornou-se uma receita universal e acrítica para todos os problemas em todas as esferas da vida social, uma panaceia. Atualmente, muitos resultados indesejáveis das tentativas iniciais de reforma são agravados pela surpreendente incompetência dos políticos liberais. A sua corrupção já se tornou lendária. Embora graves limitações do princípio do livre mercado se tenham tornado evidentes, os seus defensores liberais recusam-se a enfrentar os factos – tal como, não há muito tempo, os comunistas fizeram.

KP: Bem, eu ainda acredito que de certa forma é preciso termos um mercado livre, mas também acredito que endeusar o que está fora do princípio do livre mercado é um disparate. Se nós não tivermos um mercado livre, então é bastante óbvio que as coisas que são produzidas não são realmente produzidas para o consumidor. O consumidor pode pegar ou largar. As suas necessidades não são tidas em conta no processo de produção. Mas tudo isso não tem uma importância fundamental. Humanitarismo, sim, tem importância fundamental. Tradicionalmente, uma das principais tarefas da economia era pensar o problema do pleno emprego. Desde aproximadamente 1965, os economistas desistiram disso; acho isso muito errado. Tal não pode ser um problema insolúvel! A nossa primeira tarefa é a paz, a segunda é conseguir que ninguém tenha fome, e a terceira é tentar o pleno emprego. A quarta tarefa é, claro, a educação.

AC: Eu pensei que você diria isso. Acontece porém que no mundo contemporâneo – mesmo na melhor parte dele – nenhuma dessas tarefas é fácil de realizar. Que tipos de problemas vê como obstáculos à concretização da tarefa da educação?

KP: Presentemente, o que mais faz perigar os esforços na educação é a televisão. A educação simplesmente não consegue prosseguir se deixarmos a televisão fazer o que quiser. É impossível que a educação funcione em confronto com a televisão, a menos que esta reconheça que tem também uma tarefa educacional que ultrapassa o mero entretenimento. Caso contrário, não podemos ter educação. Do ponto de vista democrático, a televisão deve ser controlada, pela simples razão de que o seu potencial poder político é quase ilimitado. Se você for dono da televisão, pode fazer aquilo que quiser. E um tal poder tem de ser controlado. A minha proposta é olhar para o problema do controlo televisivo à semelhança do controlo exercido sobre o pessoal médico. Os médicos também precisam de ser controlados, e eles fazem isso, em grande parte, por si mesmos. Por exemplo, têm de ter uma certa educação. O mesmo se aplica ao sistema de controlo dos advogados, que têm a sua própria organização que os controla. Graças a este sistema de controlo, os advogados não roubam o dinheiro dos seus clientes e os médicos não matam os seus pacientes. É preciso integrar toda a gente que trabalha para a televisão num qualquer tipo de organização semelhante. Essas pessoas teriam de se tornar membros de tal organização com base em alguma educação, depois de submetidos a exames apropriados para avaliar a sua consciência das tarefas educacionais e do seu grau de responsabilidade. Teriam de aprender que a sua influência é muito grande e a sua responsabilidade é igualmente grande. É responsabilidade pela nossa civilização. O seu primeiro objetivo seria a luta contra a violência. E, de acordo com estes princípios, se alguém fosse considerado irresponsável, a sua licença poderia ser-lhe retirada. Sem este sistema de regulação estamos a entrar no caos, violência e crime. A crescente onda de crimes é largamente induzida pela televisão.

AC: Como entende o papel das igrejas nas sociedades contemporâneas?

KP: Essa é uma pergunta muito importante. As igrejas fizeram demasiada política e muito pouco no apoio a pessoas que necessitam de ajuda espiritual. A Polónia, claro, é quase completamente católica. Eu penso que a Igreja Católica cometeu muitos erros… muitos erros sérios… O primeiro grande erro foi cometido em 1890 quando o papa se tornou infalível. Foi um desenvolvimento muito tardio – desnecessário, contra a tradição, a história e o senso comum. Então, claro, temos a sua atitude em relação ao controlo familiar, ao planeamento familiar, e por aí fora. A posição da Igreja Católica sobre estes assuntos é muito perigosa e irresponsável. Tomemos como exemplo a Igreja de Inglaterra. Está quase completamente envolvida na política, uma política muito imatura. Tradicionalmente, a igreja, incluindo a Igreja de Inglaterra, tem sido um veículo de educação, de literatura, de história, de boas tradições; mas agora, é incrível como as pessoas da Igreja não têm educação; essas pessoas são terríveis, não sabem nada acerca da sua própria história, da sua própria tradição. As melhores tradições religiosas estão na América, embora até na América algumas igrejas e instituições religiosas possam ser assustadoras…

AC: Recordemos aqui acontecimentos muito recentes em Waco, Texas, onde muitas pessoas, seguidoras de David Koresh, morreram numa terrível explosão…

KP: Sim. E na Alemanha a Igreja, durante as primeira e segunda grandes guerras, foi absolutamente terrível. O líder da igreja protestante alemã disse coisas como ” a guerra é a guerra de Deus”, e todos afirmaram que tinham conhecimento íntimo dos planos políticos de Deus. Foi terrível… E tudo isto teve as suas consequências. As igrejas realmente falharam. É muito triste…

AC: Como primeira prioridade, você mencionou a paz. Mas agora, justamente quando uma parte do mundo se libertou pacificamente da opressão totalitária, testemunhamos terríveis conflitos no Sul da Europa…

KP: … e em África, e em breve teremos noutros lugares. Os nossos políticos não levam suficientemente a sério a sua tarefa. Parecem não ver quão importante ela é. Os políticos falharam. Eu penso que politicamente perdemos uma grande oportunidade. Os países ocidentais deveriam ter feito uma oferta aos russos. Deveríamos ter-lhes dito: “Olhem para a nossa parte do mundo. Vivemos todos em paz, estamos em paz com o Japão, com a China, com todos. Vocês não querem juntar-se-nos?” Realmente deveríamos ter feito tal oferta no tempo certo, por volta de 1988. Mas isso não foi feito. E desde o colapso da União Soviética que somos nós quem está preocupado… Mas os filósofos também falharam, também mostraram a sua irresponsabilidade. Em geral, as coisas não parecem muito boas nos nossos dias.

AC: Você não parece realmente muito otimista. Isto quer dizer que abandonou a sua atitude ativista e otimista? É ainda um otimista, como afirmou tantas vezes nos seus livros?

KP: Sim, apesar de tudo isto mantenho-me um otimista em relação ao mundo. É nosso dever sermos otimistas. Apenas deste ponto de vista podemos ser ativos e fazer o que pudermos. Se formos pessimistas, já desistimos. Precisamos manter-nos otimistas, temos de ver como é maravilhoso o mundo, e tentarmos fazer o que pudermos para melhorá-lo.

**************************************************

Notas:

1 Ao que parece, Karl Popper gostava de receber os amigos na sua casa em Kenley, no sul de Londres, a sua última morada em Inglaterra. João Carlos Espada foi um dos que o visitaram por diversas vezes, entre muitos outros. Os relatos sobre esses encontros, para quem admira Popper, são documentos preciosos. Um registo de um desses encontros, desta feita por ocasião do nonagésimo aniversário de Popper, foi publicado em 1992 no magazine “Intellectus”, do Instituto de Ciência Económica de Hong Kong. Esse artigo é escrito por Eugene Yue-Ching Ho, tal como nós, um confesso admirador de Karl Popper. Esse registo pode ser lido em: http://www.tkpw.net/hk-ies/n23a/?fbclid=IwAR2Lc6lnOK-nNDzR5Gk2SOfyR3BCAoJRnvk_9-974LngVeEqHCbU9DrlH2M.

**************************************************

Foto retirada de: http://www.justificando.com/2017/08/18/paradoxos-da-democracia-popper-e-critica-liberal-ao-liberalismo-ingenuo/.

**************************************************


Popper

Há 118 anos, nascia, em Viena, Karl Raimund Popper. Filósofo, dedicou a sua vida à pesquisa sobre várias matérias, sobretudo ciência, por acreditar que o método científico é o que mais nos pode aproximar da verdade. Saber o que é a ciência foi, portanto, um dos objetivos mais importantes da sua epistemologia. Tão importante que ele próprio desenvolveu critérios de demarcação para afastar a pseudociência da ciência verdadeira, dando como exemplos de não-ciência o marxismo, a psicanálise e o adlerianismo, correntes muito em voga na sua época. Um dos critérios de demarcação científica é a testabilidade. Ao não serem testáveis, marxismo, psicanálise e adlerianismo não podem ser científicos. Claro que, ainda hoje, os defensores dessas doutrinas usam todos os subterfúgios possíveis para as justificarem, mas essa é precisamente a atitude anti-científica, pois o que o cientista deve fazer é testar por todos os meios as suas teorias e tentar falsificá-las, por forma a aquilatar da sua validade. Foi o que sempre fez Einstein, e é por isso que Popper tanto o admirava, apesar de nem sempre concordar com ele. No fundo, o que Popper mais gostava em Einstein era a sua honestidade intelectual.

No campo da sociologia, a filosofia de Popper é a uma tentativa de evitar a guerra entre as nações e a violência entre os homens. Popper abominava a violência e achava que esta, embora impossível de erradicar, podia ser largamente evitada. Isso só é possível nas sociedades livres e democráticas, aquelas em que os governantes são depostos sem derramamento de sangue. Além disso, as sociedades democráticas são as únicas em que o poder está disperso (quanto mais melhor) e não apenas nas mãos de um único homem, ou de um pequeno grupo ou da direção de um qualquer partido. Nas sociedades liberais o poder deve ser exercido e controlado, tanto quanto possível, por instituições e não por pessoas. Por fim, as sociedades livres e democráticas são igualmente as únicas passíveis de serem melhoradas e aquelas em que cada um de nós, não apenas quem detém o poder, pode efetivamente contribuir para o seu melhoramento. É, aliás, isso que vem acontecendo: são os países livres e democráticos aqueles que mais melhoram e reformam, aqueles que atingiram os mais elevados níveis de desenvolvimento social na história da humanidade. Se formos honestos, reconheceremos que, apesar dos erros cometidos, vivemos no melhor mundo de sempre. Claro que o desenvolvimento criou problemas imprevistos, alguns bastante graves, como sabemos. Mas depende inteiramente de nós, não de um qualquer iluminado, resolvê-los. É por isso que liberdade requer responsabilidade, e todos carregamos, de ambas, a nossa quota-parte. A construção de um mundo melhor continua, na parte que nos toca, nas nossas mãos.

**************************************************

Foto retirada de: https://wsimag.com/es/cultura/61187-karl-popper-y-la-sociedad-abierta

**************************************************

Popper e Llosa

Mario Vargas Llosa, premiado com o Nobel da Literatura de 2010, foi convidado para vir a Lisboa, em outubro de 2016, e encerrar um ciclo de oito conferências dedicadas ao tema “Que Democracia?”, organizado pela Fundação Francisco Manuel dos Santos. Apesar desta conferência ter quase quatro anos, o seu tema é atual. Decidimos publicá-la na íntegra, porque a influência da filosofia política de Karl Popper, que aliás não é escondida, antes salientada, no discurso de Llosa é notável. Esta charla pode mesmo constituir uma boa introdução ao pensamento político de Popper para um(a) iniciado(a). Lamentavelmente, este vídeo foi apagado do youtube. Em alternativa, deixamos um discurso proferido por Llosa numa cerimónia em que foi agraciado com o título de doutor honoris causa, um dos muitos que lhe foram outorgados, neste caso, na Universidade Diego Portales, no Chile. A influência de Popper no pensamento de Vargas Llosa é iniludível, e está bem patente dentro do minuto 43 deste vídeo quando Llosa afirma: “a leitura de A Sociedade Aberta e Seus Inimigos mudou inteiramente a minha vida”.1

Nota:

1 No seu mais recente livro, Mario Vargas Llosa refere, além de Popper, outros autores que influenciaram o seu pensamento. São eles, por ordem de apresentação: Adam Smith, José Ortega e Gasset, Friedrich August von Kayek, Raymond Aron, Sir Isaiah Berlin e Jean-François Revel.

**************************************************

A nossa edição:

O Apelo da Tribo, Mario Vargas Llosa, Quetzal, Lisboa, 2019.

**************************************************

O Atiçador de Wittgenstein

Wittgenstein e Popper. Vienenses de origem judaica, foram contemporâneos e viveram em Inglaterra. Mas as suas visões do mundo eram radicalmente diferentes.

Quase todos os que se interessam por Filosofia já terão tido conhecimento do episódio ocorrido na sala H3 do King’s College, em Cambridge, na noite de 26 de Outubro de 1946, entre Karl Popper e Ludwig Wittgenstein. Há versões para todos os gostos sobre o que aconteceu e até a um livro já foi dado o título que também usámos neste artigo: “O Atiçador de Wittgenstein”[1]. Mas, mais do que o fait divers que se instalou em torno desse episódio, estamos interessados no que, do ponto de vista filosófico, separava os dois autores. Popper sempre foi muito crítico em relação à filosofia da linguagem e, logo, de Wittgenstein, o seu mais eminente representante. Também nós, sem escondermos que, em larga medida, somos influenciados por Popper, já nos debruçámos, em outro artigo deste blogue, sobre as principais obras de Wittgenstein, a saber, o Tratado Lógico Filosófico e as Investigações Filosóficas[2]. É indisfarçável, pois, a nossa simpatia pela posição de Popper, que não pretendemos esconder. Na autobiografia intelectual[3], Popper refere-se várias vezes ao seu compatriota e, numa secção desse livro, conta o que se passou dentro da sala H3, apinhada de estudantes, professores e curiosos. Claro que se trata da versão de Popper, uma entre várias, sobre o que aconteceu, e é possível que contenha falhas, pois não é crível que alguém recorde exatamente todos os detalhes do que se passou. Porém, acreditamos que as falhas que possam ocorrer sejam devido a isso mesmo – alguma imprecisão de memória – pois não passa pela cabeça de quem tenha estudado a obra de Karl Popper, duvidar da sua honestidade intelectual. Eis, pois, o que Popper transcreve na sua autobiografia[4].

No princípio do ano escolar de 1946-47 recebi um convite do Secretário do Clube de Ciências Morais, de Cambridge, para ler um artigo sobre um “quebra-cabeças filosófico”. Era perfeitamente claro que se tratava de uma formulação de Wittgenstein, e que por detrás dela estava a tese filosófica de Wittgenstein de que não existem problemas genuínos em filosofia, mas apenas quebra-cabeças linguísticos. Dado que esta tese se encontrava entre as minhas aversões de estimação, decidi falar sobe “Existem Problemas Filosóficos?”. Comecei o meu artigo (lido em 26 de Outubro de 1946, no gabinete de R.B. Braithwaite no King’s College) exprimindo a minha surpresa por ser convidado pelo Secretário para ler um artigo “abordando um quebra-cabeças filosófico qualquer”; e salientei que, ao negar implicitamente que existem problemas filosóficos, quem quer que tivesse escrito o convite tinha tomado partido, talvez sem se dar conta, numa questão criada por um genuíno problema filosófico.

Não preciso de dizer que a intenção desta afirmação era apenas uma introdução desafiadora e, de certo modo, bem disposta, ao meu tópico. Mas precisamente nesse momento, Wittgenstein deu um salto e disse alto e, ao que me pareceu, zangado: “O Secretário fez exactamente o que lhe disseram. Agiu sob as minhas instruções.” Não dei importância a isto e prossegui; mas resultou daqui que pelo menos alguns dos admiradores de Wittgenstein lhe deram importância e, como consequência, tomaram a minha observação, que tinha a intenção de ser uma piada, como uma queixa séria contra o Secretário. E o mesmo fez o pobre Secretário, como se pode ver pelas actas em que relata o incidente, acrescentando uma nota de rodapé: “Esta é a forma de convite do Clube.”

Contudo, prossegui dizendo que se pensasse que não existem problemas filosóficos genuínos, certamente que não seria filósofo; e que o facto de muita gente, ou talvez toda a gente, adoptar impensadamente posições indefensáveis para muitos, ou talvez todos, os problemas filosóficos, fornecia a única justificação possível para ser filósofo. Wittgenstein voltou a dar um salto, interrompendo-me, e dissertou longamente sobre quebra-cabeças e sobre a inexistência de problemas filosóficos. Num momento que me pareceu apropriado, interrompi-o, apresentando uma lista que tinha preparado de problemas filosóficos como estes: Conhecemos coisas por meio dos nossos sentidos? Obtemos os nossos conhecimento por indução? Estes problemas foram afastados por Wittgenstein como sendo mais lógicos do que filosóficos. Referi então o problema de saber se existem infinitos potenciais, ou mesmo reais, um problema que afastou como sendo matemático. (Esta rejeição consta das actas.) Mencionei então os problemas morais e o problema da validade das regras morais. Nesse ponto, Wittgenstein, que estava sentado perto da lareira e tinha estado a brincar nervosamente com o atiçador, que por vezes usava como a batuta de um maestro para sublinhar as suas asserções, desafiou-me: “Dê um exemplo de uma regra moral!” Retorqui: “Não ameaçar os conferencistas visitantes com atiçadores.” Ao que Wittgenstein, num acesso de raiva, largou o atiçador e saiu da sala, batendo com a porta.

Fiquei realmente muito penalizado. Admito que fui a Cambridge esperando provocar Wittgenstein a defender o ponto de vista de que não existem problemas filosóficos genuínos e com a intenção de o combater nesse ponto. Mas nunca tive a intenção de o irritar; e foi uma surpresa para mim descobri-lo incapaz de compreender um dito de espírito. Só mais tarde compreendi que era provável que ele achasse, de facto, que eu estava a brincar e que isso o tenha ofendido. Mas embora quisesse tratar o meu problema com boa disposição, eu falava a sério – talvez mais do que o próprio Wittgenstein, dado que, afinal, ele não acreditava em genuínos problemas filosóficos.


******************************

Notas:

[1] David Edmonds & John Eidinow, “Wittgenstein’s Poker: The Story of a Ten-Minute Argument Between Two Great Philosophers”, Harper Collins Publishers, 2002.

[2] https://ilovealfama.com/tag/wittgenstein/

[3] Karl Popper, “Busca Inacabada: Autobiografia Intelectual”, Esfera do Caos, Lisboa, 2008, 1ª ed.

[4] Ob. cit., pp. 172-4.

*******************************

Fotos retiradas de:

  • goodreads.com
  • canterbury.ac.nz

*******************************