Showing posts with label leituras pela manhã. Show all posts
Showing posts with label leituras pela manhã. Show all posts

March 04, 2025

Leituras pela manhã - O problema dos gurus da pedagogia




O problema dos gurus da pedagogia


Estes aspirantes a insurgentes oferecem pouco mais do que procedimentos burocráticos mortíferos.

por Justin Sider

Em 1903, George Bernard Shaw escreveu O Homem e o Super-Homem, uma comédia de costumes que apresenta o personagem Jack Tanner - político incendiário, descendente de Don Juan e autor de The Revolutionist's Handbook and Pocket Companion. Shaw produziu os escritos revolucionários da sua personagem como um apêndice à peça publicada, que termina com Maxims for Revolutionists, uma série de epigramas sardónicos mas sem vida, situados algures entre Nietzsche e Wilde, sobre uma variedade de assuntos, incluindo o imperialismo, o casamento, a idolatria e a forma correcta de bater numa criança. 

Apenas um epigrama sobreviveu na cultura popular, arrancado do seu panfleto e atribuído agora mais frequentemente a Shaw do que à sua personagem: Quem pode, faz. Quem não pode, ensina.

É compreensível que professores e catedráticos raramente aceitem a piada. (Uma pesquisa rápida no Google sobre a frase traz páginas e páginas de refutações sem humor). E, claro, o apotegma de Tanner, visto directamente, é simplesmente falso. Ensinar é uma vocação digna, e uma boa instrução é uma habilidade difícil de dominar.

A expressão vem, no entanto, à mente quando se confronta o trabalho prolífico dos gurus da pedagogia da academia contemporânea - os autodenominados especialistas em aprendizagem cujos livros e colunas de conselhos se tornaram uma caraterística familiar do ensino superior atual, conduzindo os professores pelos caminhos correctos traçados pela teoria da educação mais actualizada. 

Que conhecimentos sobre o ensino possuem estes aspirantes a professores?

Um trabalho recente vem de Joshua R. Eyler, director do Centro para a Excelência no Ensino e Aprendizagem e professor assistente, clínico de formação de professores na Universidade do Mississippi, que pretende revelar os danos causados aos alunos pelo nosso apego às notas. 

Em Failing Our Future: How Grades Harm Students, and What We Can Do About It, Eyler pretende esclarecer as coisas sobre a avaliação: As notas não são apenas inúteis ou contra-producentes, mas perigosas para os nossos alunos e para o empreendimento da pedagogia.

Failing Our Future pode ser tomado como um livro profundamente humano, e Eyler escreve com compaixão sobre a relação ansiosa dos estudantes com a avaliação. 

Estes alunos, observa com razão, foram treinados pelo nosso sistema actual para verem as notas como o objetcivo e não como o subproduto da educação. Na medida em que Failing Our Future tenta resolver este problema - a má valorização das notas - poder-se-ia estar grato pelo esclarecimento de Eyler. Mas o livro simplesmente não consegue manter esse foco. O seu olhar desliza quase de imediato do difícil problema de como chegámos a esta posição para a ideia, muito mais excitante e vendável, de que as notas são, de alguma forma, inerentemente viciosas (Eyler chama-lhes “problemáticas”, à la mode). Para alimentar este argumento, Eyler serve um prato de piedades das cozinhas sombrias do discurso pedagógico contemporâneo.

Por entre as capas de Failing Our Future, os leitores encontrarão um mundo de estranhos bathos. Histórias com pouco senso comum, estudos psicológicos duvidosos sobre a motivação que são usados com absoluta confiança e uma declaração moral é anexada até ao material mais neutro. Failing Our Future deve ser lido não tanto como um argumento, mas como um sintoma. Porque é que tanta conversa profissional sobre o ensino soa assim hoje em dia? Que circunstâncias institucionais peculiares o produziram? 

Depois de alguns clichés sobre as notas como “letras escarlates” e uma breve história da classificação no ensino americano, Eyler oferece uma série de capítulos que cobrem a “assustadora lista de efeitos” que as notas têm nos nossos alunos. 

O argumento de Failing Our Future tem três eixos centrais: (1)As notas não oferecem uma representação objetiva da excelência dos alunos (ou da ausência dela). (2)As classificações “impedem significativamente o processo de aprendizagem”, pois entorpecem a motivação e punem o insucesso, que é em si mesmo essencial para a aprendizagem. (3)As notas prejudicam as crianças física, emocional e psicologicamente, agravando a crise de saúde mental dos jovens de hoje. 

Para substituir esta prática perniciosa, Eyler aponta os leitores para um conjunto diferente de manuais revolucionários: os do movimento de reforma das classificações, que complementa com uma “investigação informada”.

Failing our Future pode, por vezes, ser claro sobre a forma como as estruturas institucionais distorceram a experiência da avaliação. Veja-se, por exemplo, a discussão de Eyler sobre os “portais de avaliação”, um artefacto da iniciativa No Child Left Behind. Estes sistemas de classificação online permitem que os alunos e os pais monitorizem as notas em qualquer altura do semestre. Actualizações constantes e acesso constante são agora omnipresentes no ensino primário e secundário. 

Os educadores universitários têm sistemas semelhantes, embora, obviamente, só os alunos e não os pais os possam utilizar. (A minha própria instituição quer que mantenhamos os alunos actualizados sobre as suas notas através da ferramenta de classificação do Canvas). O suposto objectivo, tal como acontece com os relatórios obrigatórios de notas intercalares e outros tipos de responsabilização semelhantes, é apanhar os alunos em risco de reprovação.

Eyler argumenta que o acesso constante a portais de classificação “cria uma condição em que as crianças e os adolescentes não podem escapar ao escrutínio e são constantemente confrontados com a pressão para fazer melhor”. Isto parece correcto. Estes sistemas têm em comum com outros terrores algorítmicos da nossa era viciada em ecrãs a tendência para deixar que o mundo dentro do portal se sobreponha ao mundo à nossa frente, para dar ao virtual uma importância desmesurada e prejudicial nas nossas vidas. Os meus próprios alunos exprimem por vezes frustração quando as notas não estão disponíveis instantaneamente, o que parece, por vezes, uma queixa de um cliente e, por vezes, um sintoma de abstinência.

Eyler descreve os portais, com um toque de melodrama, como “uma versão académica do Big Brother”. Este tipo de pensamento desliza facilmente do cepticismo razoável para a paranoia foucaultiana. Eis Eyler sobre a utilização das notas como uma “tecnologia de vigilância” - ou seja, como uma medida de assiduidade ou participação:

Mesmo quando parecem inócuas, as notas impõem o cumprimento de um conjunto de normas e funcionam para punir os desvios a essas normas. Pense nisto por um momento. Os alunos do ensino básico recebem normalmente notas muito específicas pela forma como se comportam, sendo a docilidade recompensada com autocolantes e doces e a indisciplina repreendida. À medida que os alunos crescem, as notas de assiduidade e participação destinam-se a reforçar os comportamentos prescritos. As penalizações por faltar a prazos ou por não cumprir a contagem de palavras de um trabalho funcionam da mesma forma. Nada disto tem a ver com a aprendizagem da matéria, mas tudo isto promove um ethos de vigilância em que o professor é encarregado de controlar o cumprimento.

Esta passagem funciona através da magia do seu léxico, uma paródia da crítica literária de 1988. As crianças não são “bem comportadas”; são “dóceis”. Assistir às aulas é uma forma de “conformidade”. Esta é a mesma pseudo-lógica febril que leva os professores adultos a acusarem-se mutuamente de “serem polícia” sempre que alguém admite controlar a assiduidade dos alunos ou proibir telemóveis nas aulas.

Que outras práticas padrão caem neste poço de gravidade moral? As curvas de classificação, por exemplo. Tirar a média da turma num exame e depois distribuir as notas por cima e por baixo acaba por ter, segundo Eyler, ligações perturbadoras com a ciência racial:

Muitos dos que implementam a classificação baseada em normas fazem-no porque acreditam, ou foram seduzidos, por afirmações de que a inteligência se insere numa distribuição normal nas populações. Esta estrutura defeituosa e pseudo-científica sugere essencialmente que algumas pessoas terão sempre uma inteligência e uma capacidade de aprendizagem médias, outras terão um nível de inteligência classificado como acima da média e outras terão um nível de inteligência classificado como abaixo da média. Este tipo de distribuição normal é normalmente ilustrado como uma “curva em forma de sino”. Chamamos-lhe curva de sino porque, bem, parece um sino quando a vemos num gráfico, mas também por causa de um livro infame com o mesmo nome, publicado em 1994 por Richard J. Herrnstein e Charles Murray... Basta dizer que um modelo de classificação que utiliza uma curva de sino como base estatística e filosófica é injusto desde o início, porque toma como ponto de partida a noção errada de que alguns alunos, em virtude da sua biologia, ficarão sempre abaixo da média na curva.

Não lhes chamamos “curvas de sino” por causa do famoso livro; a expressão tem sido utilizada para visualizar a distribuição normal há muito tempo. Há problemas reais com as curvas de notas - incluindo a incapacidade de respeitar a variação de desempenho entre diferentes grupos de alunos e a tendência para colocar os alunos uns contra os outros - mas o facto de um livro infame ter usado a "curva de sino" como metáfora central não implica que os professores que fazem curvas de notas sejam biologicamente deterministas. O problema com o argumento de Eyler não é o facto de a curva de notas ser uma prática intocável (longe disso), mas sim o facto de a sua atitude moral contra essa prática ser tão desequilibrada.

Um dos lugares-comuns mais persistentes entre os pedagogos é que a inflação das notas é um mito. Em 2002, nestas páginas, Alfie Kohn objectou: “O ónus de demonstrar que essas notas mais altas não são merecidas recai sobre os críticos, que podem citar uma série de explicações alternativas. Talvez os alunos estejam a entregar trabalhos melhores. Talvez os professores fossem demasiado mesquinhos com as suas notas e se tenham tornado mais razoáveis.” Claro - quero dizer, talvez! Nenhum destes autores nega que as notas tenham, de facto, subido. A sua raiva envolve uma objeçcão semântica: As notas podem ser mais altas, mas não estão inflacionadas. Eis a versão de Eyler para este velho boato:

Uma vez que as notas não são instrumentos de avaliação fiáveis, podemos também pôr em causa quaisquer afirmações de que a inflação de notas é galopante nas nossas escolas e universidades. A inflação das notas - a noção de que as notas são artificialmente mais elevadas actualmente do que no passado - é uma ameaça fantasma. Para se poder argumentar que as notas estão inflacionadas, seria necessário, em primeiro lugar, que existissem referências objectivas para a aprendizagem num determinado curso, em todos os contextos em que esse curso é ministrado, e que houvesse acordo entre um grande número de professores e instituições de ensino quanto aos critérios de avaliação dessas referências.

Já existem provas claras de que as notas aumentaram em todas as instituições de ensino superior, comprimindo as médias para as gamas A e B, mas os negacionistas da inflação, como Eyler, preferem a evasão à contra-argumentação sobre a questão da inflação das notas - um fracasso especialmente preocupante numa altura em que os estudantes estão comprovadamente menos preparados para a universidade do que no passado. 

Os GPAs médios não subiram, como sugere Kohn, apenas porque o pequeno coração do Dr. Grinch cresceu três tamanhos num dia. Qualquer professor honesto dos Estados Unidos pode falar facilmente de uma variedade de forças que estão a provocar a inflação das notas: a concentração das escolas nas taxas de retenção e de graduação, a ascensão do estudante como consumidor, os efeitos de distorção das avaliações do ensino e até a força recursiva das próprias médias mais elevadas.

Um dos pontos mais baixos do livro surge com uma discussão sobre a crise de saúde mental entre os jovens de hoje. Eyler começa com estatísticas sobre a depressão e o suicídio entre adolescentes e estudantes universitários e, em seguida, observa que os jovens referem o stress académico como uma das principais preocupações. 

Conclui, portanto, que as notas estão a levar os jovens à depressão e ao suicídio. Eyler afirma que “não é suficientemente descarado para sugerir que as notas desempenham aqui um papel primordial”, mas sugere exactamente isso num post do blogue Inside Higher Ed, incorporado neste mesmo capítulo: “As taxas de ansiedade, depressão e mesmo de ideação suicida aumentaram drasticamente, e o stress académico associado às notas é uma das principais causas desta escalada.” Nada no capítulo contraria esta posição, exceto a advertência de uma frase de Eyler. Entretanto, aguarda-se a sua arma fumegante.

A certa altura, Eyler aponta para inquéritos de diagnóstico gerados pela Healthy Minds Network, cujas respostas aparentemente revelam elevados níveis de depressão entre os estudantes universitários. (Serão estes inquéritos, de facto, informativos? Podem os inquéritos, mesmo os de “diagnóstico”, oferecer estatísticas significativas para a saúde mental, para além da avaliação clínica?) Eyler explica virtuosamente que “a utilização deste tipo de avaliações de saúde reforça a perspectiva medicalizada através da qual a sociedade tende a ver a doença mental”, e depois utiliza os dados na mesma, chamando-lhes “robustos e reveladores”.

Esta descrição melodramática é um tique estilístico ao longo de todo o livro; pouco depois de partilhar este relatório “robusto e revelador”, Eyler classifica o “silêncio” sobre a ligação entre as notas e a saúde mental como “preocupante e estrondoso”.  O pânico está nos adjectivos utilizados.

Ao longo do livro, Eyler tenta apresentar um argumento contra as notas, suscitando o pânico em relação a potenciais danos. A palavra “danos” aparece, como tem acontecido no discurso popular durante a última década, para colocar um dedo na escala da urgência. 

O que é finalmente mais desanimador é o facto de, no final, Eyler quase compreender o problema, tal como ele é: não as notas, em si, mas a relação dos alunos com as notas (e talvez também a dos professores). 

Que as notas não são letras escarlates, que não são juízos de valor ou de carácter, que a sua permanência é ilusória - tudo isto é certamente algo que muitos estudantes poderiam aprender. Mas quando as soluções finalmente chegam, na segunda metade do livro, resumem-se a um ensaio de técnicas parentais (por exemplo, garantir que os adolescentes dormem o suficiente; elogiar os filhos pelos seus esforços, não pela nota em si) e a um levantamento em estilo buffet de métodos alternativos de avaliação dos empresários e místicos do movimento de reforma das notas.

Se considerarmos um texto como o de Eyler apenas como um conselho vindo do fundo do corredor, por assim dizer, podemos de facto encontrar dicas e estratégias úteis nos muitos livros, ensaios, blogues e colunas de opinião produzidos por estes reformadores. Um colega em quem confio, por exemplo, confia em Specifications Grading, de Linda B. Nilson: Restoring Rigor, Motivating Students, and Saving Faculty Time, de Linda B. Nilson.

Independentemente do que se pense das suas soluções, muitos reformadores estão atentos aos desafios que os estudantes universitários enfrentam atualmente - défices de atenção, dificuldades com as competências básicas de nível universitário e uma relação transacional com a educação, entre outras questões. 

É possível encontrar nas páginas destes livros uma série de ferramentas úteis para lidar com os desafios actuais da sala de aula.

No entanto, os gurus da pedagogia oferecem mais do que apenas ferramentas e conselhos. Embora apresentem os seus argumentos como objectivos, afirmações “informadas pela investigação” sobre como aprendemos e, portanto, como devemos ensinar, o que oferecem é um programa ideológico - do qual outros professores devem discordar. 

Essa ideologia aparece primeiro como estilo, uma mistura de linguagem de marca emprestada da psicologia pop, do discurso terapêutico, dos mantras progressistas e do jargão empresarial. Adoptar uma “mentalidade de crescimento”. Perseguir a “excelência e a inovação”. Cultivar a “esperança radical”. Redescobrir a “aprendizagem autêntica”. Fútil e implicitamente condescendente - sabia que o seu ensino não era autêntico? - esta expressão é tão implacável como um cartaz motivacional.

Consideremos a “aprendizagem autêntica”. Fiquei perturbado ao descobrir que esta frase dá nome a um sub-campo atual da teoria da pedagogia. Refere-se geralmente à aprendizagem através da experiência, como no caso do ensino de línguas por imersão, embora não exista, obviamente, uma definição consensual. Como poderia haver? 

A "aprendizagem autêntica", tal como a autêntica identidade pessoal, não é tanto um objecto definido como uma fábula de descontentamento. O seu valor reside na facilidade de denegrir as alternativas aos métodos dos seus praticantes - alternativas implicitamente classificadas como retrógradas, ineficazes e reaccionárias. (O termo preferido entre os gurus é “educação tradicional”.) Quem é que não quer “autenticidade” ou “inovação”? Este estilo de discurso não deriva do discurso académico mas da tagarelice auto-mistificada da classe dos consultores.

A descida da abstração gasosa para os aspectos práticos da reforma mal melhora o quadro. Rubricas, resultados de aprendizagem, contratos de classificação, sistemas de classificação alternativos - são algumas das soluções radicais que se oferecem. Segundo Eyler, estas ferramentas prometem dissociar a aprendizagem da avaliação, tornar as normas transparentes e, assim, aliviar a ansiedade dos alunos. Os alunos consultam simplesmente a grelha de avaliação e cumprem as normas especificadas. No entanto, os nossos alunos já estão bem treinados - demasiado bem treinados - neste modelo de ensino, e podemos ver os danos que isso causou.

Num artigo recente do The Chronicle, Ethan Hutt, professor associado de educação na Universidade da Carolina do Norte em Chapel Hill, manifesta a sua frustração pela forma como os alunos respondem actualmente aos trabalhos de escrita: “Hutt gostaria de dar um trabalho que fosse assim: Escolham um tema, escrevam um ensaio e digam algo interessante. Mas ele acha que não consegue - nem mesmo com os seus alunos de doutoramento”. Condicionados por grelhas e rubricas, são incapazes “de se envolverem na escrita de uma forma diferente, como meio de desenvolverem ideias e aperfeiçoarem o seu pensamento”.

O objetivo dos reformadores, como escreve Eyler em tons vagos e utópicos, é “um mundo em que as crianças tenham a liberdade de aprender sem julgamento, de explorar sem medo e de procurar sem consequências”, mas as suas listas de normas e contratos exigentes produzem algo muito diferente. 

A adopção de rubricas e de classificações baseadas em normas nas escolas primárias e secundárias destruiu a independência dos alunos e deu-lhes a impressão de que a aprendizagem não é mais do que uma lista de competências, demonstradas e depois verificadas. (Não admira que a IA seja tão apelativa para os estudantes: A sua lógica de inputs e outputs não parece muito diferente da educação que muitos receberam até agora). Enquanto os reformadores imaginam o seu objectivo como uma espécie de insurreição - “Porque não sonhar com a revolução?” pergunta Eyler no seu epílogo - o que eles oferecem, em vez disso, é um processualismo burocrático e paralisante.

Este programa emerge, em parte, do enquadramento psicológico de que dependem tipicamente escritores como Eyler. Ao ligar a sua argumentação a estudos de psicologia, Eyler dá às suas reformas um verniz de objectividade. Se é de facto assim que os seres humanos se motivam, ficam curiosos, absorvem e retêm informação, ou adquirem novas competências, então qualquer ensino que ignore as lições de Eyler deve ser menos “eficaz”.

No entanto, a psicologia é ela própria uma disciplina complicada, com os seus próprios métodos e conceitos contestados, susceptível de revisão e até de erros embaraçosos, e a apropriação sem arte destes estudos para outras disciplinas pode correr muito mal. Uma exposição recente sobre psicologia empresarial no The Atlantic oferece um conto de advertência, enquanto o exemplo mais notório na educação é provavelmente a noção já completamente desmascarada, mas tenaz, de “estilos de aprendizagem”.

Através da sua dependência da psicologia, o discurso pedagógico no modo de Eyler abstrai a prática do ensino das idiossincrasias das disciplinas individuais e dirige-se para uma imagem geral de algo chamado Aprendizagem

Na perspetiva da Aprendizagem, seria ingénuo imaginar que os professores de matemática ou de literatura compreendem o ensino das suas próprias disciplinas, que podem saber melhor como ensinar equações diferenciais ou Macbeth de Shakespeare. Outros professores podem ser especialistas em literatura ou matemática, sociologia ou história da arte, mas não são, de forma alguma, especialistas em Aprendizagem. Esse conhecimento pertence aos próprios especialistas em pedagogia.

Quem são estes lamas do ensino superior? Alguns são actuais ou antigos administradores e professores, justamente frustrados com a educação americana atual. Outros são professores de várias disciplinas. 

Susan D. Blum, por exemplo, editora da antologia Ungrading, é professora de antropologia na Universidade de Notre Dame. Alguns são “consultores educacionais” independentes: Starr Sackstein, autora de Hacking Education, é diretora de operações da Mastery Portfolio, uma “start-up de tecnologia educativa”, e Joe Feldman, autor de Grading for Equity, é diretor executivo do Crescendo Education Group

O facto de professores e catedráticos - particularmente nas faculdades de ciências da educação - se preocuparem seriamente com a prática do ensino, estudarem as suas condições e proporem soluções é inteiramente apropriado. No entanto, quando os consultores aparecem, pode estar-se perante uma verdadeira extorsão.

Um número considerável de gurus trabalha em universidades, embora fora das unidades académicas normais. Em vez disso, residem em institutos dedicados a ajudar os professores a melhorar o seu ensino. Eyler é o diretor do Centro de Ensino e Aprendizagem da Universidade do Mississipi. Outras instituições possuem nomes tão ambiciosos como o Gabinete de Eficácia e Inovação do Ensino ou o Centro para Novas Concepções de Aprendizagem e Estudos. A maioria chama-se simplesmente “Centro de Excelência de Ensino”. A sua função é oferecer apoio ao ensino: recursos e workshops para ajudar os professores com planos de aulas, tarefas, programas de estudo e envolvimento na sala de aula.

Estes recursos podem ser verdadeiramente valiosos para os docentes em dificuldades, embora valha a pena perguntar o que é que a presença de tais centros diz sobre o ensino superior atual. Uma resposta é que reflectem uma crise geral de fé na universidade enquanto tal. A linguagem sempre presente da inovação - como podemos estar sempre a melhorar, inquietos como tubarões - implica que nunca soubemos bem como ensinar, nunca fomos adequados a essa tarefa.

Esta é talvez a caraterística mais perturbadora do livro de Eyler e do discurso e instituições que o produziram. Embora reformadores como Eyler se apresentem frequentemente como activistas progressistas, são, à sua maneira, tão cépticos em relação ao ensino superior como os seus críticos de direita. 

Os ataques dos reformadores ao “ensino tradicional” são particularmente desanimadores no contexto das nossas crises actuais. As faculdades, outrora uma das maiores instituições públicas dos Estados Unidos, estão em dificuldades, enfrentando cortes drásticos de financiamento e ataques à liberdade académica. A confiança dos americanos no ensino superior caiu a pique em todo o espectro político. A IA está a causar estragos na composição de, bem, tudo - desde os ensaios universitários ao código informático. No momento em que escrevo, a actual administração política planeia encerrar ou paralisar o Departamento de Educação. Entretanto, nas páginas de Failing Our Future, Joshua R. Eyler exige um ataque à “miragem do rigor e à inércia do status quo”.

Em Failing Our Future, o rigor é sempre uma ilusão ou uma vigarice - o que nos leva finalmente de volta à classificação. 

O problema pode estar simplesmente no que se pede às notas. A cena de juízo representada pela classificação é uma parte inevitável (e valiosa) do ensino, e a tentativa de Eyler et al. de racionalizar e rubricar esse juízo de forma tão completa que ele efetivamente desapareça está condenada ao fracasso. 

Na verdade, o facto de as notas envolverem alguma medida de juízo subjetivo não as torna arbitrárias ou sem valor. São apenas produtos de uma avaliação feita num contexto específico - ou seja, a sala de aula de um professor específico. (A maioria dos alunos, aposto, já compreende que alguns A's valem mais do que outros e que isto não é uma crise nacional). A incapacidade de reconhecer este facto - por parte dos professores ou dos alunos, dos administradores, dos reformadores ou dos empregadores - não é culpa das notas. Pode-se até manter o valor das notas tradicionais, concordando com Eyler que elas não oferecem um padrão imutável e objetivo de excelência. Mas este livro também não o faz. Eu dar-lhe-ia um D.

The Problem With the Pedagogy Gurus


February 23, 2025

Leituras pela manhã - O fosso, artificial, entre as Humanidades e as Ciências





Para além da causalidade


Para colmatar o abismo entre as humanidades e as ciências, talvez tenhamos de recorrer a um domínio inesperado: a matemática

por Gordon Gillespie - atuário, gestor de riscos quantitativos e cientista de dados. Doutorado em filosofia, é autor do livro em língua alemã 'The Oracle of Numbers: Uma Breve Filosofia da Matemática' (2023). Vive na Alemanha.

Editado porSam Dresser

Em 1959, o escritor e físico inglês C.P. Snow proferiu a conceituada Rede Lecture na Universidade de Cambridge. Regalados com champanhe, os presentes não faziam ideia de que estavam prestes a ser alvo de um acto de desordem. 

Snow diagnosticou uma fractura de ignorância mútua no mundo intelectual do Ocidente. De um lado estavam os “intelectuais literários” (das humanidades) e do outro os “cientistas” (da natureza): as tão faladas “duas culturas”. 

Snow fundamentou o seu diagnóstico com episódios de intelectuais literários respeitados que se queixavam da iliteracia dos cientistas, mas que, por sua vez, nunca tinham ouvido falar de uma afirmação tão fundamental como a segunda lei da termodinâmica. E falou de mentes científicas brilhantes que podiam saber muito sobre a segunda lei, mas que estavam no limite de não conseguirem ler Charles Dickens, quanto mais um “escritor esotérico, emaranhado e duvidosamente gratificante (...) como Rainer Maria Rilke”.

Mais de sessenta anos depois da diatribe de Snow, a clivagem quase não diminuiu. Para não variar, a maioria dos cientistas naturais continua a considerar as humanidades como uma pseudociência que carece de normas epistémicas elementares. Numa conferência de 2016, o famoso físico teórico Carlo Rovelli lamentou “a atual ideologia anti-filosófica”.

E citou colegas eminentes, como o Prémio Nobel Steven Weinberg, Stephen Hawking e Neil deGrasse Tyson, que diziam que “a filosofia está morta” e que só as ciências naturais podem explicar como o mundo funciona, e não “o que se pode deduzir da poltrona”. Entretanto, muitos académicos de humanidades vêem os cientistas como investigadores pedantes da natureza, que podem produzir resultados práticos e úteis, mas que são cegos para as ideias verdadeiramente profundas sobre o funcionamento do mundo (cultural). 

No seu livro best-seller The Fate of Rome (2017), Kyle Harper mostrou de forma convincente que as alterações climáticas e as doenças foram factores capitais que contribuíram para a queda final do Império Romano. A maioria dos colegas historiadores de Harper tinha simplesmente negligenciado esses factores; em vez disso, tinham-se concentrado apenas nos factores culturais, políticos e socio-económicos.

No meu próprio livro, The Oracle of Numbers: Uma Breve Filosofia da Matemática (2023), actualmente apenas disponível no original alemão, tentei contrariar este paroquialismo intelectual. Durante a minha formação académica em matemática, física e filosofia, assisti a muitos casos desta estreiteza de espírito e sempre me perguntei porque é que pessoas altamente inteligentes nestes campos se resguardavam de grandes conhecimentos dos outros campos. Quis motivá-los, e ao público curioso em geral, a abrirem as suas mentes e a verem que a busca interminável de uma melhor compreensão do mundo segue muitos caminhos.

Ludwig Wittgenstein disse um dia: “Quero mostrar o colorido da matemática”. Neste espírito, coloquei a matemática no centro do meu projetco porque, na minha opinião, a matemática procura mais destes muitos caminhos do que qualquer outra disciplina intelectual. Está profundamente ligada tanto às ciências naturais como às ciências humanas. Faz a ponte entre elas, e fá-lo pondo em causa certos dogmas metafísicos e epistemológicos, como se verá a seguir.

A divisão entre as duas culturas não é apenas uma questão académica. Trata-se, acima de tudo, de dois pontos de vista opostos sobre a ligação fundamental entre a mente e a natureza. 

Segundo um dos pontos de vista, a natureza é regida por um sistema de leis abrangente. Esta imagem está subjacente ao paradigma explicativo da determinação causal por forças elementares. À medida que a física se tornava a principal ciência no século XIX, o paradigma causal era cada vez mais visto como a forma universal de explicação. Nada do que é real fica fora do seu alcance. De acordo com este ponto de vista, todos os fenómenos podem ser explicados por uma cadeia (ou teia) causal mais ou menos complexa, cujos elos podem, por sua vez, ser rastreados, em princípio, até às forças naturais básicas. Qualquer coisa - incluindo qualquer aspeto da mente humana - que escape a este paradigma explicativo simplesmente não faz parte do mundo real, tal como os “presságios” da superstição ou as “projecções astrais” da astrologia.

Do ponto de vista oposto, a mente humana - seja ela individual ou colectiva - pode muito bem ser considerada separadamente dos seus fundamentos físicos. É claro que se admite que a mente não pode funcionar sem o cérebro, pelo que não é totalmente independente das forças naturais e da sua dinâmica. Mas os acontecimentos de significado cultural podem ser explicados como efeitos de tipos muito diferentes de causas, nomeadamente psicológicas e sociais, que operam numa esfera completamente distinta da das forças naturais.

Estes entendimentos divergentes estão na base das visões do mundo de cada cultura. Os realistas ingénuos - principalmente os cientistas naturais - gostam de salientar que a natureza já existia muito antes da humanidade. A natureza está ordenada de acordo com leis que funcionam independentemente da presença ou não de seres humanos para a observar. Assim, a ordem natural do mundo deve ser predeterminada independentemente da mente humana. 

Por outro lado, os idealistas ingénuos - incluindo os construtivistas sociais, que se encontram sobretudo nas ciências humanas - insistem que toda a ordem é uma ordem conceptual, que se baseia apenas no pensamento individual ou colectivo. Como tal, a ordem não é independente da mente humana e é ambígua, tal como a mente humana é ambígua nas suas diversas manifestações culturais.

A matemática é mediadora de uma visão conciliatória que evita o erro do realista ingénuo e do idealista ingénuo.

O choque de culturas entre as ciências humanas e as ciências naturais reacende-se constantemente devido a duas imagens que retratam de forma muito diferente a inter-relação entre a mente e a natureza. Para conseguir a paz entre as duas culturas, é necessário ultrapassar as duas visões. Temos de reconhecer que a ordem natural e a ordem mental das coisas andam de mãos dadas. Nenhuma delas pode ser totalmente compreendida sem a outra. E que nenhuma delas pode ser rastreada até à outra.

O realista ingénuo e o idealista ingénuo caem no mesmo erro, embora em direcções opostas - o que nos leva de certa forma à essência do desacordo entre as duas culturas. Ambos confundem determinação com explicação

A “determinação” refere-se ao aparecimento de um fenómeno do mundo real através de uma rede mais ou menos complexa de relações de causa e efeito. Por exemplo, quando a física das partículas nos diz que a aurora boreal resulta da colisão de ventos solares com a atmosfera terrestre, obtemos uma explicação do fenómeno luminoso ao ser-nos apontado o seu principal factor causal determinante. 

Do mesmo modo, quando a investigação psicológica nos informa sobre os efeitos potencialmente duradouros dos traumas, podemos explicar o comportamento das vítimas de abusos na infância, em certa medida, como resultado da influência das memórias reprimidas nas suas acções. 

Ora, o realista e o idealista - o cientista e o intelectual literário - concordam que explicar um fenómeno significa sempre, no fundo, revelar essas relações causais determinantes. Os seus pontos de vista diferem apenas no facto de, para o realista, a rede causal estar enraizada numa base natural sólida, enquanto para o idealista a base é conceptual e, portanto, dependente de uma incorporação cultural contingente.

O melhor mediador de uma visão conciliatória que evite o erro do realista ingénuo e do idealista ingénuo é a matemática. A matemática dá-nos uma prova brilhante de que a compreensão de um determinado aspecto do mundo nem sempre se resume à descoberta de uma intrincada rede causal, nem mesmo em princípio. Determinação não é explicação. E a matemática, correctamente compreendida, demonstra-o de uma forma que nos permite ver claramente a dependência mútua da mente e da natureza.

Porque as explicações matemáticas são estruturais, não causais. A matemática permite-nos compreender aspectos do mundo que são tão reais como a aurora boreal ou o comportamento das pessoas, mas que não são efeitos de quaisquer causas. A distinção entre formas de explicação causais e estruturais tornar-se-á mais clara a seu tempo. 

Para começar, veja-se este exemplo. Pensemos num pai moribundo que quer transmitir o seu único bem, um rebanho de 17 cabras, aos seus três filhos. Não o pode fazer. Não é porque haja forças físicas ou psicológicas ocultas que impeçam tal acção. A razão é simplesmente o facto de 17 ser um número primo, logo não divisível por três.

Aqueles que se lembram da matemática apenas como uma disciplina escolar aborrecida, que consiste sobretudo em aplicar fórmulas desmotivadas no contexto de exercícios sem inspiração, serão naturalmente cépticos quanto à minha afirmação de que a matemática pode colmatar o fosso entre as duas culturas. A apresentação habitual da matemática ao grande público fá-la aparecer, na melhor das hipóteses, como uma disciplina auxiliar útil para as ciências naturais e tecnológicas ou, na pior, como uma curiosa colecção de truques lógicos engraçados. Como é que uma tal disciplina pode contribuir para uma melhor compreensão da inter-relação entre a mente e a natureza?

Uma primeira ideia é dada pela geometria Riemanniana, cujos fundamentos foram lançados em meados do século XIX por Bernhard Riemann, com base no trabalho do seu professor Carl Friedrich Gauss. Gauss estava fascinado com a curvatura intrínseca em qualquer ponto do interior de uma superfície lisa e isto mantém-se mesmo depois de ser enrolada num telescópio de brincar; a curvatura aparente é meramente extrínseca, existe apenas em relação ao espaço tridimensional circundante. Em contrapartida, a superfície de uma esfera tem uma curvatura intrínseca diferente de zero em todo o lado. A superfície não parece apenas torta, ela é realmente torta - em si mesma, por assim dizer.

Riemann elevou o conceito de curvatura intrínseca de Gauss a mais do que duas dimensões. Desde então, é possível perguntar de forma significativa e precisa se o “espaço à nossa volta é curvo em si mesmo”. Antes de Riemann, isto teria sido uma sequência de palavras sem sentido, na melhor das hipóteses com alguma força associativa nas mãos de um poeta talentoso. A geometria de Riemann tornou concebível o que antes era não só inimaginável, mas impensável no verdadeiro sentido da palavra.

O exemplo da geometria Riemanniana não só demonstra a capacidade da matemática para alargar os nossos horizontes intelectuais com novas perspectivas. Mostra também como esta vantagem intelectual-estética pode produzir benefícios científicos e até práticos inesperados: forneceu os recursos conceptuais de que Albert Einstein precisava para desenvolver a sua teoria geral da relatividade. Assim, Einstein foi capaz de ver a gravidade não como uma força que faz com que os objectos materiais se atraiam uns aos outros, mas como um elemento puramente geométrico, ou seja, estrutural, do Universo. O Universo é curvo em si mesmo. E, desde o Big Bang, tem-se expandido, mas não para um espaço circundante pré-existente. O Big Bang não foi uma explosão que ejectou matéria para o exterior (causal); simplesmente não havia e não há “exterior”. Em vez disso, o Universo está a expandir-se no sentido de uma certa mudança contínua da sua curvatura intrínseca (estrutural).

É graças a Einstein e a Edwin Hubble que o sabemos e o podemos utilizar para coisas úteis como o GPS. Mas é apenas graças a Riemann que podemos pensar nisso.

A diferença entre explicações causais e estruturais torna-se mais clara no que diz respeito à concepção de “idealismo transcendental” de Immanuel Kant, tal como foi apresentada na sua Crítica da Razão Pura (1781). 

Para Kant, a experiência empírica só é possível dentro de um determinado quadro conceptual, que, por sua vez, não surge da experiência empírica, mas constitui a mente humana. E uma parte crucial desta estrutura é a geometria euclidiana. O mundo não é “em si” povoado por objectos delimitados espacial e temporalmente que interagem uns com os outros de várias maneiras. Segundo Kant, o mundo está estruturado desta forma porque a mente humana só é capaz de o apreender desta forma, e apenas desta forma. A geometria euclidiana, como ele acreditava (ainda não conhecia a geometria Riemanniana), determina as dimensões espaciais desta ordem. Assim, a geometria é tanto um estudo de uma característica elementar da nossa mente como do espaço que nos rodeia.

O idealismo transcendental de Kant não sofre apenas do facto de a geometria euclidiana não ser tão constitutiva como ele pensava. Mais grave ainda, a sua concepção do conhecimento empírico, como um acto de compreensão através do qual “juízos” conceptualmente formados emergem miraculosamente de meras “sensações”, permanece completamente obscura, como até os leitores bem intencionados da Crítica têm de admitir.

Mas podemos atribuir a Kant pelo menos uma ideia fundamental: a mente e o mundo não são esferas separadas que devam primeiro ser ligadas, pelo que se coloca a questão de saber como é que isso pode ser conseguido exatamente. Pelo contrário, ambos dependem um do outro.

Tal como o mundo não prescreve simplesmente estruturas espaciais, temporais e outras que a nossa mente tem depois de decifrar, a mente não é livre de impor qualquer estrutura ao mundo à sua vontade. Isto é demonstrado de forma impressionante pela matemática, que, apesar da falta de restrições empíricas, não cai na especulação selvagem.

A matemática escapa ao paradigma causal da explicação. As suas explicações são de um tipo muito diferente das explicações em termos de causa e efeito, como mostra um outro olhar sobre a relação entre a geometria e a física. 

Dez anos antes da sua teoria geral da relatividade, Einstein tinha, em 1905, apresentado a um mundo estupefacto a sua forma preliminar, a teoria especial da relatividade. E nesta teoria, uma forma especial de geometria Riemanniana concebida por Hermann Minkowski desempenha um papel fundamental, com consequências bastante peculiares. A mais notória é o chamado “paradoxo dos gémeos”. Um par de irmãos gémeos candidatou-se a participar numa missão espacial, mas apenas um deles foi seleccionado. O objectivo da missão é viajar até às regiões mais longínquas do espaço, graças à mais recente tecnologia de foguetões, quase à velocidade da luz. Quando o irmão selecionado regressa à Terra, ainda jovem, vai visitar o irmão e reencontra um homem velho.

É bastante comum explicar este “paradoxo” como uma consequência das forças de aceleração que actuam sobre o irmão viajante no seu foguetão. (Ver, por exemplo, as Lectures on Physics de Richard Feynman.) E, de facto, parece muito plausível, e mesmo inevitável, assumir que alguma causa física deve ser responsável pela diferença de idades. Mas isso é falso, a verdadeira razão reside no quadro estrutural em que as forças ocorrem: a geometria do espaço-tempo. O espaço e o tempo não podem ser considerados separadamente, antes estão interligados numa estrutura comum abrangente. E dentro desta estrutura, o caminho, ou “linha do mundo”, do astronauta na missão é simplesmente mais curto do que o do seu irmão na Terra. Isto não é uma causa, mas - nos termos de Kant - um aspecto básico da nossa estrutura explicativa transcendental.

A matemática põe em evidência os limites da explicação científica natural. Isto torna-se ainda mais claro quando pensamos como surgiu a ideia de uma teoria física totalmente explicativa ou de uma “fórmula do mundo”. Por outras palavras, como é que os cientistas chegaram a acreditar, ou pelo menos a esperar, que existe uma descrição matemática da natureza ao nível mais fundamental, com a qual todos os fenómenos do mundo são explicáveis, no sentido em que toda a sua história causal pode ser derivada de leis básicas, pelo menos em princípio?

O ponto de partida foi a visão mecanicista do mundo, segundo a qual todos os sistemas físicos são constituídos por partículas minúsculas e indivisíveis que interagem entre si, como bolas de bilhar, por colisão direta ou através de forças remotas. Foi o modelo matemático da mecânica clássica de Isaac Newton que deu a esta ideia o seu lugar, em conjunto com a sua lei da gravidade. O modelo de Newton permitiu-lhe explicar de forma uniforme uma espantosa riqueza de fenómenos muito diferentes, como os movimentos dos planetas em torno do Sol e a queda das maçãs das árvores.

Antes de Newton, ninguém pensava numa teoria física “que explicasse tudo”. Havia vários fenómenos naturais para os quais se procuravam explicações individuais. Por exemplo, a “teoria do epiciclo” de Ptolomeu, que se baseava em movimentos circulares complexos e aninhados, era responsável pelos movimentos dos planetas em torno da Terra. Foram dadas explicações completamente diferentes para a queda de objectos na Terra. Mas foi então que Newton entrou em cena com o seu modelo - e com ele o “demónio de Laplace”. Esta figura, apresentada por Pierre-Simon Laplace em 1814, não só conhecia as leis de Newton, como também a localização e a velocidade de todas as partículas do Universo num dado momento, bem como as forças que sobre elas actuavam. Segundo Laplace, isto permitia ao demónio calcular o estado exacto de todo o Universo em qualquer momento do tempo, fosse no futuro ou no passado.

É claro que, para Laplace e os seus contemporâneos, o demónio era uma mera figura de ficção, mas com um núcleo verdadeiro. Se um sistema físico puder ser considerado como “fechado”, ou seja, como um sistema cujas interacções com o seu ambiente são negligenciáveis, um cientista pode, em princípio, prever o comportamento do sistema com uma precisão arbitrária. Tudo o que tem de saber com precisão suficiente são as forças que actuam no sistema, bem como a distribuição espacial inicial dos componentes elementares do sistema e as suas velocidades no momento relevante. Um tal cientista demoníaco possuiria aquilo com que o Dr. Frankenstein sonhou: controlo “absoluto” e penetração do funcionamento de qualquer sistema físico, incluindo os seres humanos e os seus processos de vida e pensamento.

É o que parece, mas é uma falácia. O demónio de Laplace pode prever com exactidão o comportamento de qualquer sistema físico e pode também deduzir em pormenor o estado do sistema em qualquer momento do passado. Mas mesmo o demónio não compreende todos os aspectos do comportamento do sistema. Mais uma vez, determinação não é explicação. 

Tomemos, por exemplo, a altura de cada adulto em Paris. O demónio de Laplace pode calcular o comprimento exacto do corpo de todos os parisienses adultos. E pode explicar, para cada um deles, exactamente como os seus genes, dieta e outras influências ambientais os levaram a atingir as suas respectivas alturas. Outro exemplo: se atirarmos muitas moedas para o ar de uma só vez e observarmos o número de moedas que mostram cara depois de caírem no chão, e se repetirmos isto muitas vezes, o demónio pode prever, para cada iteração e para cada moeda, se vai dar cara ou coroa. E o demónio pode explicar em pormenor como cada resultado foi determinado causalmente.

Mas há um facto que o demónio não consegue explicar. Se traçarmos num diagrama as frequências com que ocorrem os diferentes comprimentos de corpo ou contagens de caras, o resultado é, em ambos os casos, uma curva em forma de sino aproximada. Porquê? As forças que actuam em ambos os casos são obviamente muito diferentes. No entanto, as distribuições globais das alturas e das contagens de cabeças são muito semelhantes. O demónio de Laplace não pode explicar este facto, pelo menos se o seu conhecimento teórico se limitar às leis da natureza causalmente determinantes.

A chave para uma explicação é o teorema do limite central, um resultado fundamental da teoria matemática das probabilidades. O teorema afirma que, sob condições apropriadas, uma certa versão da média de uma amostra converge para a chamada distribuição normal padrão (visualmente, a curva em forma de sino). Mas a teoria das probabilidades não está vinculada a essas leis naturais. Em particular, o teorema do limite central não decorre delas. O demónio de Laplace nem sequer conseguiu formular o teorema.

Para enunciar o teorema, são necessários conceitos muito diferentes dos do cálculo diferencial, que são essencialmente suficientes para as leis da natureza, pelo menos na sua forma newtoniana.

A física sofreu muitas alterações desde Laplace, nomeadamente o aparecimento da teoria da relatividade e da mecânica quântica. 

Hoje sabemos que o mundo não é povoado por pequenas bolas de bilhar indivisíveis, das quais todos os objectos materiais são compostos de forma mais ou menos complexa. E o modelo de Newton é falho apenas na sua base geométrica. Mas isso não altera o argumento. Mesmo que estes dois pilares actualmente incompatíveis da física - a relatividade e a física quântica - possam um dia ser reunidos numa teoria unificada, continuará a haver explicações matemáticas para fenómenos físicos (por exemplo, a distribuição normal aproximada dos comprimentos dos corpos numa população ou a contagem de caras em lançamentos repetidos de uma moeda) que não decorrem da teoria unificada.

No seu discurso sobre as “duas culturas”, Snow colocou a matemática claramente no campo das ciências. Mas, como vimos, a matemática não adere ao paradigma explicativo da determinação causal. Este facto distingue-a das ciências naturais. No entanto, a matemática diz-nos muito sobre a natureza. Segundo Kant, fá-lo porque nos diz muito sobre a mente humana. A mente e a natureza são facetas inseparáveis do mundo que habitamos e concebemos. Então, porque é que as humanidades não hão-de ser também consideradas uma ciência? Podem dizer-nos tanto sobre esse mundo, a um nível fundamental, como as ciências naturais. A matemática demonstra-o claramente.

Alguns realistas ingénuos gostam de fazer uma jogada inteligente. Como adeptos persistentes do cientismo - ou seja, da doutrina metafísica segundo a qual apenas os conceitos e métodos de investigação utilizados pelas ciências naturais, ou mais especificamente pela física, podem explicar o que é real - atribuem simplesmente à teoria unificada tudo o que poderia eventualmente revelar-se uma parte “útil” da matemática, actualmente ou no futuro. 

Porém, este truque semântico não resolve o problema básico do cientismo: o mundo está estruturado de diversas formas e em muitos graus diferentes de abstracção. No nível mais fundamental estão as relações que determinam a ordem espacial e temporal dos acontecimentos. Dentro desta estrutura geométrica, surgem intrincadas e diversas estruturas causais que nos permitem, se suficientemente bem compreendidas, explicar muitos dos fenómenos que delas emergem. Mas há também estruturas mais abstractas, por exemplo, as da teoria das probabilidades, ou da psicologia, da sociologia, da linguística, etc. E não há nenhum critério científico, entendido no sentido restrito de cientismo, que nos possa dizer quais destas estruturas moldam efetivamente o mundo e quais são as que apenas escolhemos para ver o mundo através delas.

Os realistas ingénuos que afirmam que só as ciências naturais podem captar a estrutura do mundo enfrentam um dilema. Ou reduzem o papel da matemática a um mínimo e afirmam que só são admissíveis os modelos matemáticos que se referem a estruturas previamente determinadas pelas ciências naturais. Nesse caso, porém, estão comprometidos com uma posição implausível, segundo a qual as relações abstractas de nível superior, tal como são estabelecidas, por exemplo, pelo teorema do limite central, são meras “projecções” sobre o mundo - não uma parte essencial dele. Ou então também reconhecem essas relações como “científicas”. Mas então têm de apresentar um argumento convincente sobre a razão pela qual, de todas as disciplinas não empíricas, conceptuais e analíticas, cujos padrões de validade são fundamentalmente diferentes dos das ciências naturais, apenas a matemática deve ser admitida no ilustre círculo das “verdadeiras ciências”.

Não tenho conhecimento de nenhum argumento deste género. Existem, de facto, padrões racionais pelos quais podemos distinguir estruturas verdadeiras de estruturas meramente imaginárias; padrões sobre o que constitui uma medida objectiva, uma observação fiável, uma dedução válida ou um argumento convincente. No entanto, estes padrões são muito mais complexos e discursivos do que os proponentes do cientismo querem admitir.

Afirmar simplesmente do púlpito que só são verdadeiras as estruturas que têm de aceitar como verdadeiras para evitar a primeira alternativa do dilema, a redução do papel da matemática a um mínimo completamente implausível, não é muito convincente.

A matemática mina o paradigma explicativo causal não só nas suas manifestações científicas naturais, mas também nos seus usos nas humanidades. 

Damos explicações para uma grande variedade de fenómenos através de causas ocultas com demasiada frequência e rapidez, quando a simples admissão de que não há explicação seria não só mais honesta, mas também mais sensata. 

Wittgenstein falou da doença de querer explicar. Esta doença manifesta-se não só nas nossas trocas privadas quotidianas e nos habituais debates públicos, mas também no discurso académico das ciências humanas. Quando confrontados com o pensamento e o comportamento humano individual ou coletivo, é tentador assumir apenas alguns factores subjacentes responsáveis pelo pensamento e pelo comportamento. Mas, na maior parte das vezes, não existe um conjunto de factores tão simples e analisável. Em vez disso, existe um vasto número de factores naturais, psicológicos e sociais que são todos igualmente relevantes para o aparecimento do fenómeno que se pretende explicar. Talvez um computador topo de gama possa incorporar todos estes factores numa grande simulação. Mas uma simulação não é uma explicação. Uma simulação permite-nos prever, mas não nos permite compreender.

O objetivo das ciências humanas não deve ser o de identificar as causas de todos os fenómenos que investigam. A ascensão e queda de impérios, as ramificações económicas e sociais de inovações tecnológicas significativas, o impacto cultural de grandes obras de arte são frequentemente produtos de processos irredutivelmente complexos e caóticos. Nestes casos, tentar imitar as ciências naturais, estipulando alguns factores determinantes principais, é um esforço fútil e enganador.

Mas a matemática mostra que, para além do caos causal, pode haver ordem de um tipo diferente. O teorema do limite central permite-nos ver e explicar uma regularidade comum num vasto leque de processos naturais causalmente muito diferentes, mas igualmente complexos. Tendo em mente este e muitos outros exemplos de explicações matemáticas estruturais de fenómenos no domínio das ciências naturais, parece plausível que a abstração matemática, ou matematicamente inspirada, possa também ter aplicações frutuosas nas ciências humanas.

Não se pretende, de modo algum, promover uma imitação acrítica da matemática nas ciências humanas e sociais. (A superabundância de modelos econométricos simplistas, por exemplo, é um enorme sinal de alerta). Pelo contrário, pretende-se motivar os académicos destas áreas a refletir mais sobre onde e quando as explicações causais fazem sentido. A complexidade nem sempre pode ser reduzida a uma explicação causal ou narrativa compreensível.

Pelo contrário, muitas vezes as investigações mais esclarecedoras não são as que propõem novos factores como os verdadeiros explicadores, mas as que mostram, através de uma análise meticulosa, que estão em jogo muito mais factores do que se pensava anteriormente. Isto, por sua vez, deve motivar os académicos a procurar aspectos do seu tema de interesse para além da causalidade que sejam relevantes e passíveis de formas estruturais de explicação. Para além da teoria das probabilidades, os métodos teóricos do caos e a teoria dos jogos vêm à mente como subdisciplinas matemáticas com aplicações potencialmente frutuosas a este respeito.

No entanto, o ponto principal da nossa discussão não é o facto de as aplicações matemáticas nas ciências humanas poderem colmatar o fosso entre as ciências naturais e as ciências humanas. O que está em causa é que a matemática, não pertencendo de facto a nenhum dos dois campos, mostra-os desde logo em pé de igualdade. O paradigma científico natural de explicação não é o modelo que qualquer forma respeitável de investigação tem de seguir. A matemática mostra que as causas naturais não podem explicar todos os fenómenos, nem mesmo todos os fenómenos naturais e nem mesmo em princípio. Por isso, não é necessário que as ciências humanas, as “ciências do espírito”, procurem sempre explicações através de causas que possam ser “reduzidas” a forças naturais mais elementares.

Além disso, a matemática mostra que a causalidade, seja de que tipo for, não é a única base possível sobre a qual qualquer forma de explicação tem de assentar. Tomemos como exemplo as relações semânticas entre muitos dos nossos enunciados. Não é de todo claro que estas possam ser explicadas em termos de causas psicológicas ou de quaisquer outras causas. Não é irracional acreditar que o mundo é irredutivelmente estruturado, em parte, por relações semânticas, tal como é estruturado por relações probabilísticas.

Esta visão indica uma possível reconciliação entre as ciências naturais e as ciências humanas. Refere-se implicitamente a algo que Richard Rorty exprime explicitamente em Philosophy and the Mirror of Nature (1979) da seguinte forma:
A intuição por detrás da distinção tradicional entre natureza e espírito, e por detrás do romantismo, é que podemos prever os ruídos que sairão da boca de alguém sem saber o que significam... Esta intuição é bastante correcta... [Mas] isto não se deve ao facto de qualquer coisa ser, em princípio, imprevisível, e muito menos a uma divisão ontológica entre natureza e espírito, mas simplesmente à diferença entre uma linguagem adequada para lidar com neurónios e uma adequada para lidar com pessoas.
A divisão entre as ciências naturais e as humanidades não resulta do suposto facto de apenas serem reais os fenómenos mentais explicáveis em termos científicos naturais. A divisão também não se deve a uma ordem mental extra-natural, determinada por relações causais de um tipo muito diferente das estudadas nas ciências naturais. O mundo mental e o mundo físico são um e o mesmo mundo, e as respectivas ciências lidam com diferentes aspectos deste mundo. Se bem compreendidas, na medida em que tratam dos mesmos fenómenos, não fornecem descrições concorrentes mas complementares desses fenómenos.

A matemática fornece a prova mais impressionante de que uma verdadeira compreensão do mundo vai para além da descoberta de relações causais - sejam elas constituídas por forças naturais ou culturais. Vale a pena olhar mais de perto para esta prova. Com efeito, ela descreve em cores particularmente vivas o laço que liga o espírito à natureza. Kant entendeu esta ligação como “transcendental”. O falecido Wittgenstein, por outro lado, demonstrou a sua ancoragem na linguagem - não no sentido de uma prática puramente verbal e escrita, mas no sentido de uma prática abrangente de acções cujos elementos mentais e corporais não podem ser separados de forma clara. Nas palavras de Wittgenstein, “comandar, interrogar, contar, conversar fazem tanto parte da nossa história natural como andar, comer, beber e brincar”.

A matemática também faz parte desta prática. Assim, como qualquer ciência, está inseparavelmente enraizada tanto na natureza como no espírito humano. Ao contrário das outras ciências, este duplo enraizamento é evidente no caso da matemática. Basta ver onde reside: para além da causalidade.

https://aeon.co/essays/to-better-understand-the-world-follow-the-paths-of-mathematics


December 28, 2024

Quem é o 'eu' e porque é que isso importa

 



Fazer amizade com os seus “eus” passados e os do futuro

É o que os psicólogos chamam de auto-continuidade, e pode melhorar a sua saúde e bem-estar

Por Katherine Ellison

Quando lhe perguntaram porque é que só começou a escrever romances aos 30 anos, o célebre escritor checo Milan Kundera disse que não tinha a experiência necessária quando era mais novo. “Não gostaria de ver esse idiota que eu era”, acrescentou.

Muitos de nós olhamos para o nosso passado e estremecemos ao recordar a nossa imaturidade. Variamos bastante no grau em que nos sentimos amigáveis e ligados tanto ao nosso antigo como ao nosso futuro eu. Os psicólogos chamam a esta caraterística auto-continuidade e sugerem que tem um enorme peso na determinação do nosso bem-estar a longo prazo.

Nos últimos anos, cada vez mais estudos têm demonstrado que um sentimento de coerência entre o nosso passado e o nosso presente pode reforçar a saúde mental e, em particular, a resiliência emocional. Por outro lado, a nossa ligação ao nosso “eu” futuro pode influenciar escolhas com impacto a longo prazo no nosso bem-estar futuro, desde o controlo da nossa alimentação até à poupança para a reforma.

A autocontinuidade, diz a gerontóloga Corinna Löckenhoff, da Universidade de Cornell, que investiga esta caraterística, dá-nos “uma compreensão de onde viemos e para onde vamos. Dá-nos uma direção, um objetivo e uma identidade”.

Empoleirados no presente

O psicólogo do século XIX, William James, comparou a experiência humana a estar empoleirado numa sela “a partir da qual olhamos em duas direcções para o tempo”. Mas os investigadores modernos descobriram que a capacidade - ou vontade - de olhar significativamente em qualquer direção varia de pessoa para pessoa, tal como outras caraterísticas psicológicas, como ser extrovertido ou introvertido.

Algumas pessoas sentem um grande grau de sobreposição e continuidade com o seu “eu” futuro e outras nem sequer pensam nesse “eu”, sentindo-se quase como um estranho”, afirma o psicólogo Hal Hershfield da Universidade da Califórnia, em Los Angeles.

A maioria dos estudos sobre a auto-continuidade olha para o futuro e não para o passado. Normalmente, os investigadores medem a auto-continuidade futura perguntando às pessoas até que ponto se sentem semelhantes a um eu futuro imaginado. Num estudo de 2009 com 164 pessoas, Hershfield e a sua equipa utilizaram uma série de diagramas de Venn, com dois círculos que se sobrepunham em vários graus. Pediu-se aos participantes que escolhessem o par de círculos que melhor descrevesse a semelhança e a ligação que sentiam consigo próprios 10 anos no futuro. As respostas das pessoas variaram entre uma sobreposição quase nula e uma sobreposição quase total.

As diferenças entre as pessoas dependem de uma série de factores, para além das influências básicas da natureza e da educação. Os estudos indicam que as pessoas mais velhas, cujos horizontes temporais esperados são mais curtos, tendem a ter um maior sentido de auto-continuidade, tal como os membros das culturas do Leste Asiático, que, como especulam alguns académicos, tendem a ter uma visão do mundo mais holística e interligada. Mas os investigadores descobriram que as pessoas que lutam contra a depressão, a pobreza e os traumas de infância tendem a sentir-se menos ligadas ao seu “eu” futuro.


Homem da manhã vs. Homem da noite

O grau de coerência que sentimos connosco próprios ao longo do tempo pode apoiar-nos ou sabotar-nos. As pessoas com uma ligação mais forte com o seu “eu” futuro podem estar mais dispostas a pagar custos a curto prazo por benefícios futuros, e vice-versa.

O comediante Jerry Seinfeld ilustra o conflito no seu riff sobre o facto de o tipo da manhã sofrer sempre com as palhaçadas do tipo da noite: “Levantamo-nos de manhã, o despertador toca, estamos exaustos e grogues”, diz ele. “Odeio o tipo da noite! É que o Tipo da Noite lixa sempre o Tipo da Manhã. ...”

A mesma tensão é evidente no fracasso mais amplo e mais sério de muitos americanos em economizar para a aposentadoria. Num inquérito realizado em 2022 a mais de 1.100 reformados, 70% afirmaram que gostariam de ter começado a poupar mais cedo. Hershfield afirma que esta crise emergente foi o que o levou a centrar a sua investigação na auto-continuidade e nas suas consequências comportamentais. Ele e outros descobriram que as pessoas com mais auto-continuidade têm maior probabilidade de se envolver em comportamentos que proporcionam benefícios futuros, incluindo não só poupar para a reforma, mas também cuidar melhor da sua saúde no presente.


A investigação de Hershfield sugere que as pessoas com uma maior auto-continuidade têm também mais probabilidades de se comportarem de forma ética e responsável. 

Um sentimento mais forte de conexão com o futuro eu também pode levar as pessoas a um comportamento ambientalmente responsável. Num estudo de 2022, os investigadores recrutaram 175 estudantes universitários de uma universidade pública americana anónima, distribuindo-os aleatoriamente por três grupos: um que foi encorajado a visualizar-se a si próprio aos 60 anos e os outros a visualizar-se a si próprios, ou a outra pessoa, no momento presente. Depois, todos os estudantes jogaram um jogo em que podiam apanhar peixes simulados de uma piscina.

A experiência revelou que os estudantes que se concentravam no seu futuro limitavam o número de peixes que tiravam em cada ronda para conservar a piscina durante mais tempo, enquanto os que se concentravam no presente tinham mais probabilidades de esgotar rapidamente a piscina.

Escreva uma carta a si próprio e depois escreva de volta

Durante mais de uma década, os cientistas procuraram formas de manipular a auto-continuidade dos participantes num estudo para tentar levá-los a comportarem-se de forma mais prudente. Os cientistas relataram o seu sucesso com uma variedade de abordagens, incluindo fazer com que as pessoas interajam com uma versão mais antiga de si próprias gerada por computador, por vezes com a ajuda de óculos de realidade virtual.

Mais recentemente, um novo programa chamado Future You, desenvolvido no Instituto de Tecnologia de Massachusetts, oferece aos jovens a oportunidade de conversar com uma simulação online, gerada por IA, de si próprios aos 60 anos. Um estudo recente, realizado com 344 participantes, revelou que os utilizadores que interagiram com o seu futuro “eu” relataram “maior auto-continuidade futura” e, talvez como consequência, uma ansiedade significativamente menor, em comparação com os que não o fizeram.

O Future You é uma versão de alta tecnologia de uma técnica há muito praticada por professores e conselheiros do ensino secundário que incentivam os alunos a escrever cartas aos seus futuros eus, como se estivessem a escrever a um amigo por correspondência. Num estudo piloto com estudantes do ensino secundário no Japão, a psicóloga social Anne E. Wilson, da Universidade Wilfrid Laurier, em Ontário, levou o exercício um passo mais além. Ela e o seu colega Yuta Chishima deram instruções aos estudantes que tinham escrito a carta ao seu “eu” futuro para lhe responderem como imaginavam que o seu “eu” futuro o faria.


Segundo os investigadores, escrever uma carta do futuro fez com que os estudantes se sentissem mais ligados ao seu “eu” futuro. Um mês mais tarde, os estudantes que escreveram uma carta na perspetiva do seu “eu” futuro referiram “um planeamento mais intensivo da carreira e uma maior vontade de estudar arduamente na escola, mesmo quando as tentações acenam”, em comparação com os estudantes que escreveram apenas uma única carta, segundo Wilson e Chishima.

É certo que há alturas em que um horizonte mais curto pode ser útil, observam os investigadores da Universidade de Southampton, no Reino Unido, na Annual Review of Psychology de 2023. Por exemplo, um sentimento demasiado forte de continuidade com o passado pode dificultar os esforços no presente para abandonar os “custos irrecuperáveis” - investimentos já feitos num plano ou projeto condenado - relatam.

O mesmo se pode aplicar ao abandono de um mau hábito, como a toxicodependência. “Um passado mau pode ser como uma âncora para alguém”, diz Wilson. “Por exemplo, 'Se falhei nisto no passado, significa que vou falhar nisto no futuro'.

“Por outro lado”, acrescenta Wilson, ”um passado mau pode ser algo com que se aprende e que nos permite descobrir estratégias diferentes para o futuro, para não continuarmos a cometer os mesmos erros.” Talvez como Milan Kundera, que repudiou com tanta força o homem que era na casa dos 20 anos e morreu aos 94 anos, em 2023, depois de uma longa e célebre carreira de escritor.

Viver ou morrer? Qual é o “eu” que escolhe?

Uma das questões mais espinhosas relacionadas com a auto-continuidade é a forma como as opiniões das pessoas sobre a vida ou a morte se podem alterar perto do fim da vida.

As mentes tendem a mudar em circunstâncias extremas. Quando os investigadores perguntaram a pessoas saudáveis se, hipoteticamente, concordariam com um tratamento rigoroso de quimioterapia que lhes prolongasse a vida por três meses, apenas 10% disseram que sim, observa o psicólogo Hal Hershfield da UCLA. Mas quando se perguntou aos doentes com cancro, a percentagem mais do que quadruplicou.

Nos últimos anos, milhões de americanos idosos têm vindo a redigir directivas antecipadas, muitos deixando instruções para que possam morrer sem intervenções se adoecerem depois de sofrerem de demência, partindo do princípio de que, nesse caso, a vida não valeria a pena.

Mas o que acontece se, tal como os doentes com cancro, mudarem de ideias? E se o seu “eu” mais jovem não tiver previsto como o seu “eu” mais velho se poderia agarrar, ou mesmo desfrutar, de qualquer vida que lhe restasse?

“Isto levanta a questão: Em quem devemos confiar? Quem é o “verdadeiro” eu?”, diz Hershfield. “O eu que concebeu o plano ou o eu que existe num dado momento, mesmo que esse eu esteja a sofrer de demência?”


December 19, 2024

O primeiro Natal no Japão foi português

 


O primeiro Natal do Japão

O primeiro Natal, segundo os jesuítas de Yamaguchi, foi uma celebração do século XVI num templo budista convertido, com cânticos à meia-noite.

por Joji Sakurai

A folding screen depicts Portuguese sailors arriving in Japan. | MUSEU NACIONAL DE ARTE ANTIGA


Numa carta enviada aos irmãos portugueses, o missionário jesuíta Pedro de Alcacova escreve sobre uma missa cantada aos crentes japoneses em 1552: “As nossas vozes não eram boas mas os crentes cristãos rejubilaram.”

Era véspera de Natal em Yamaguchi, e a paciência, se não mesmo a fé, dos novos convertidos japoneses pode ter sido posta à prova depois de os missionários nanban (“bárbaros do sul”) terem cantado uma música duvidosa que se transformou numa leitura das Escrituras que se prolongou pela noite dentro e que recomeçou para outro dia com o “cantar do galo”.

Este foi o primeiro Natal de que há registo no Japão e, na Yamaguchi subtropical, no extremo sul de Honshu, a celebração do nascimento da virgem foi, de certa forma, também um encontro de virgens: foi um prazer surpreendente (diz o relato jesuíta), juntamente com a primeira música vocal ocidental ouvida no Japão. 

São Francisco Xavier - o jesuíta que levou o cristianismo para a Ásia - tinha desembarcado nos domínios japoneses de Satsuma apenas três anos antes, conquistando o favor dos senhores daimyō e, com isso, a permissão para procurar convertidos. O Japão estava ainda a décadas de distância das perseguições aos cristãos iniciadas pela política de reclusão do xogunato Tokugawa - o pano de fundo do grande romance de Shusaku Endo, “Silêncio”, recentemente adaptado a filme por Martin Scorsese.

O fascínio mútuo - juntamente com os interesses comerciais e estratégicos - continuava a ter um lugar de destaque. Os daimyō da região convidavam os missionários a regressar a casa para aprenderem mais sobre o Ocidente e para obterem vantagens comerciais, enquanto Xavier procurava amigos nas altas esferas para o ajudarem a ganhar conversões nas mais baixas. Foi um período de trocas notáveis e muitas vezes cordiais para ambas as partes, embora já nessa altura os pregadores jesuítas de rua estivessem sujeitos a cuspidelas, zombarias e pancadas dos transeuntes.

O Natal de 1552 dificilmente poderia ter sido mais diferente dos Natais que conhecemos actualmente. A conhecida iconografia natalícia - árvores de Natal, renas, azevinho e afins - ainda não estava estabelecida em nenhum lugar do mundo (e, naturalmente, não havia o sopro do comercialismo que marca as festividades natalícias actuais). O cenário deste Natal foi o templo budista Daido-ji abandonado, convertido em casa de culto e alojamento dos jesuítas. Seria um dos primeiros nanban-dera do Japão, ou templos bárbaros do sul, nome dado às igrejas cristãs improvisadas alojadas em edifícios budistas, com shoji e engawa (um tipo de terraço) e, muitas vezes a única diferença visual exterior, uma cruz erguida sobre as telhas kawara.

Na véspera de Natal, os crentes japoneses eram convidados a passar a noite nos alojamentos dos jesuítas, enchendo o local enquanto embarcavam numa noite inteira de hinos, sermões, leituras das escrituras e missas. Para os leitores de hoje, pelo menos, o relato de Alcacova parece ser uma experiência bastante cansativa, embora não haja razão para duvidar das numerosas referências do missionário à “grande alegria” dos japoneses convertidos. Desde o anoitecer até ao amanhecer, os recém-convertidos foram brindados com sermões e leituras sobre “Deus”. Durante toda a celebração, houve nada menos que seis missas.

O Padre Juan Fernandez, um importante jesuíta que escreveu o primeiro léxico de japonês do Ocidente, abria as sessões de escritura da meia-noite. Quando a sua voz se tornou cansativa, foi substituído por “um jovem japonês conhecedor da nossa língua”, escreve de Alcacova. Ao romper da aurora, Cosme de Torres - chefe da missão jesuíta depois da partida de Xavier para a Índia - dirigiu uma nova missa, enquanto outro padre lia passagens dos Evangelhos e das Epístolas. Depois desta noite de imersão cristã, os fiéis foram autorizados a regressar a casa, provavelmente trocando saudações de “Natal”.

Japan’s Christian era came to an end in 1639 when Shogun Tokugawa Iemitsu issued the final closed country edict banning all interaction with Catholic lands. | PUBLIC DOMAIN


No entanto, isso não foi o fim. Em breve, os japoneses convertidos voltaram para mais, assistiram a mais uma missa e ouviram sermões sobre a Criação e a vida de Cristo.
“Numa terra onde éramos frequentemente chamados de demónios e outras coisas do género”, escreve de Alcacova, ”demos graças ao Senhor por termos encontrado tantos bons cristãos.”

Depois chegou a hora da refeição - e, segundo o relato de Alcacova, foi uma refeição popular. Havia tanta gente ansiosa por participar, diz a carta, que “era difícil encaixar toda a gente nos aposentos”.

Os fiéis japoneses e os irmãos jesuítas - juntamente com um punhado de não-cristãos - sentaram-se juntos para a refeição preparada pelos líderes japoneses do rebanho. A congregação distribuiu depois comida aos pobres, um método eficaz de ganhar novas almas.

Este Natal de 1552 é muitas vezes chamado “o primeiro Natal do Japão”. Isso é provavelmente enganador. Segundo os historiadores Klaus Kracht e Katsumi Tateno-Kracht, Xavier não teria certamente deixado passar a oportunidade de celebrar um Natal em solo japonês entre a sua chegada a Satsuma, atual província de Kagoshima, em 1549, e a sua partida para a Índia, em 1552. Não existe qualquer registo de tal acontecimento. A carta de De Alcacova, escrita aos irmãos em Portugal, é simplesmente o primeiro relato existente de um Natal celebrado no Japão.

Infelizmente, o relatório do jesuíta não faz qualquer referência ao que se comia no dia de Natal. No entanto, um vislumbre tentador da gastronomia dos primeiros dias de festa cristãos no Japão surge numa carta escrita pelo missionário Gaspar Vilela em 1557. Descreve uma Páscoa para a qual foi importada uma vaca e foram servidos aos fiéis carne de vaca e arroz (talvez um precursor do gyūdon). Isto teria sido exótico para os convertidos, porque comer carne de vaca, na altura, não fazia parte da vida dos japoneses. No entanto, diz a carta, “todos comeram com grande contentamento”.

Os relatos dos jesuítas sobre os Natais japoneses dos anos seguintes seguem mais ou menos o mesmo padrão.

“Homens e mulheres de alta classe reuniram-se em grande número na residência sacerdotal”, escreve o missionário Duarte da Silva numa carta sobre o Natal japonês de 1553, também na cidade de Yamaguchi. “Desde a uma da manhã, ouviram histórias da Bíblia - a criação do céu e da terra e o pecado do homem, depois o dilúvio de Noé, a separação das línguas, o início da adoração de ídolos, a destruição de Sodoma, a história de Nínive, a história de José, filho de Jacob, o cativeiro na Babilónia, os 10 mandamentos de Moisés e a fuga do Egito, depois o profeta Eliseu, Judite, a estátua de Nabucodonosor - segundo os tempos - e, finalmente, a história de Daniel que nos levou à calada da noite. ” Esta instrução prolongada sobre as histórias do Antigo Testamento destinava-se a realçar a necessidade do advento de Cristo - que os japoneses convertidos conheceram durante a segunda metade da noite.

Houve, no entanto, algumas novidades que se desenvolveram nesses primeiros Natais japoneses com o passar dos anos. Primeiro, os crentes japoneses introduziram um costume de troca de presentes no dia de Natal - e isto foi visto pelos missionários jesuítas como algo exótico, uma parte da tradição japonesa em vez da sua própria.

De seguida, os jesuítas começaram a organizar peças de Natal para dar vida às histórias dos evangelhos. Torres e os seus irmãos pensaram que seriam mais fáceis de digerir do que longas sessões de leitura da Bíblia, um instrumento prometedor para difundir a fé. Tinham razão. As peças foram um sucesso tão grande que alguns relatos recordam que o teatro de Natal chegou a atrair 2.000 pessoas. Entre elas havia não-cristãos que vinham para um pouco de entretenimento e talvez pela comida. Os jesuítas encorajavam isto como forma de expandir a missão. Por vezes, porém, a procura de lugares nos tradicionais camarotes sajiki era tão grande que os jesuítas tinham de limitar a entrada “a pessoas que tivessem sido apresentadas pelos fiéis cristãos”.

A primeira destas peças de Natal teve lugar em Bungo - atual província de Oita - em 1560. As pessoas deslocavam-se de cidades e aldeias distantes para assistir ao evento. Encenada por crentes japoneses, a peça contava a história de Adão e Eva, e uma árvore decorada com maçãs de ouro foi colocada no meio do palco, de acordo com uma carta de Juan Fernandez. O cenário também incluía um estábulo e um presépio para simbolizar o nascimento de Cristo. O encanto hipnótico da representação era tal que, quando Lúcifer tentou Eva debaixo da macieira, os espectadores - homens, mulheres e crianças - terão desatado a chorar. A angústia aumentou quando um anjo apareceu e conduziu Adão e Eva para fora do Jardim do Éden.

Para os espectadores, o alívio só veio quando o anjo reapareceu diante do primeiro homem e da primeira mulher - com as roupas que lhes foram dadas por Deus - e os consolou com a notícia de um dia distante de salvação.

Esta foi a época do apogeu do cristianismo no Japão. Foi um período que durou cerca de um século, durante o qual se calcula que os missionários jesuítas tenham conseguido várias centenas de milhares de convertidos e que Omura Sumitada, o primeiro dos daimyō convertidos ao cristianismo, tenha concedido autoridade sobre Nagasaki. 

A religião ganhou terreno durante o período Sengoku do Japão, de domínios em guerra, em que os jesuítas encontraram poderosos protectores daimyō na ausência de uma autoridade centralizada. Alguns senhores feudais, como o formidável Otomo Sorin, senhor de Bungo, em Kyushu, tornaram-se católicos romanos, pelo menos em parte, por calcularem que isso iria aumentar a sua riqueza e poder.

“Sempre encontrou muitas vantagens no navio dos portugueses”, escreve Alessandro Valignano, um proeminente jesuíta italiano. Até o ateu Oda Nobunaga - o primeiro dos grandes unificadores do Japão - deu audiências aos jesuítas e concedeu-lhes licença para pregar em Quioto.

Foi Ouchi Yoshitaka, o poderoso e culto daimyō do domínio Suo, que concedeu o complexo do templo Daido-ji a Xavier no ano anterior ao primeiro Natal registado no Japão. A dádiva foi tanto mais notável quanto o primeiro encontro entre Xavier e Ouchi não tinha corrido bem, segundo o historiador John Dougill, autor de “In Search of Japan's Hidden Christians”. 

Ao chegar, em trajes de mau gosto, à audiência no castelo de Ouchi, Xavier denunciou a sodomia como um dos três grandes pecados que afligiam o Japão, juntamente com o aborto e o infanticídio. Ouchi retirou-se furioso. Não era imune, supõem os estudiosos, ao gosto generalizado dos senhores feudais pelos rapazes samurais. Xavier fez as pazes no ano seguinte, vestido de forma resplandecente com um cossaco de seda e levando presentes ocidentais como “vidro lapidado, um serviço de mesa, vinho português, um par de óculos e um telescópio”, segundo o relato de Dougill. Pouco depois, os jesuítas receberam autorização para estabelecer a sua primeira missão no Japão.

A história virou-se contra os cristãos no Japão, quando Toyotomi Hideyoshi e Tokugawa Ieyasu concluíram a unificação do Japão. Estes consideravam o cristianismo uma ameaça ao seu poder secular - em parte uma herança de anteriores revoltas religiosas budistas - e começaram as perseguições. Os cristãos foram torturados e obrigados a apostatar pisando uma imagem de Cristo em forma de fumie; os que se recusaram foram crucificados. A era cristã do Japão chegou ao fim definitivo em 1639, quando o Shogun Tokugawa Iemitsu emitiu o último decreto sakoku - ou país fechado - proibindo qualquer interação com terras católicas.

Há uma passagem-chave em “Silêncio”, de Endo, que capta de forma pungente o dilema da aventura cristã do início da modernidade no Japão. O herói Sebastião Rodrigues, um missionário jesuíta apaixonado, confronta Cristovão Ferreira, um líder jesuíta que apostatou sob tortura e passou a viver num conforto quase igualmente torturado sob a vigilância cuidadosa das autoridades Tokugawa.

An illustration depicting members of the first Japanese Embassy to Europe in 1586. | PUBLIC DOMAIN

“Quando vocês vieram para este país, havia igrejas por todo o lado”, diz Rodrigues, ‘a fé era perfumada como as flores frescas da manhã e muitos japoneses disputavam entre si o baptismo, como os judeus que se reuniram no Jordão’.

Ferreira responde: “E se o Deus em que acreditavam esses japoneses não fosse o Deus da doutrina cristã? O que os japoneses daquele tempo acreditavam não era o nosso Deus. Eram os seus próprios deuses”.

Ferreira está a falar de uma anomalia que iria colorir o destino do cristianismo no Japão. O conceito de Deus, sob a orientação do guia japonês analfabeto de Xavier, Anjiro, foi apresentado aos japoneses como “Dainichi” - ou “Grande Sol” - uma manifestação de Buda no Japão.

De acordo com o historiador George Elison, Anjiro disse erradamente a Xavier que “os japoneses acreditavam num Deus pessoal que castigava os maus e recompensava os bons, o criador de todas as coisas”. No entanto, Xavier tinha apenas Anjiro como fonte de conhecimento da cultura japonesa, e começou a sua carreira missionária na nova terra pregando a doutrina de Dainichi. Só depois de discussões com estudiosos budistas terem revelado o seu erro é que Xavier passou a ensinar a palavra “Daiusu” - Deus - mas o mal já estava feito.

“O perigo”, escreve Elison na sua obra seminal Deus Destruído, "era que as crenças antigas permanecessem ligadas à terminologia adoptada, ficando submersas sob a superfície da nova terminologia em vez de serem apagadas".

À medida que o cristianismo era levado para a clandestinidade - e os crentes eram forçados a ir para aldeias isoladas nas montanhas, fingindo aderir ao budismo - a religião foi-se afastando ainda mais da fé adoptada. Os kakure-kirishitan, ou “cristãos ocultos”, adoptaram elementos do culto dos antepassados e ocultaram a figura do deus proibido dentro de altares budistas, envoltos em tecido.

E, no entanto, o “Silêncio” de Endo - um romance comovente para pessoas de qualquer fé ou sem fé - aponta para uma qualidade redentora na experiência cristã no Japão. É uma obra de coragem e beleza que transmite uma visão universal da existência humana, na qual as culturas colidem no meio das circunstâncias mais extremas e emergem para encontrar uma medida de esperança no desespero.

“A verdadeira religião”, escreve Endo noutro romance, Escândalo, "deve ser capaz de responder às melodias sombrias, aos sons defeituosos e hediondos que ecoam do coração do homem".


December 03, 2024

Leituras pela manhã - A nostalgia já foi uma doença. Agora estamos todos infectados.

 


“É alérgico ao século XX?”, pergunta um anúncio daquilo que só pode ser descrito como um culto de saúde no filme de terror de Todd Haynes, Safe, de 1995. A protagonista do filme, que tem um colapso na lavandaria e desenvolve uma sensibilidade incapacitante aos materiais sintéticos do seu sofá, responde afirmativamente e em agonia. No seu desespero para escapar aos detritos químicos da vida contemporânea, retira-se para um complexo que é simultaneamente fisicamente remoto e claramente anacrónico. Safe segue a sua tentativa condenada de escapar à fonte da sua doença - a própria modernidade.

Nos últimos anos, os conservadores contraíram uma doença semelhante. Nas nossas costas, prometem Make America Great Again, enquanto do outro lado do Atlântico, os arquitectos do Brexit declararam que queriam Take Back Control. Mas os reacionários não são os únicos que sofrem de uma alergia ao presente. Como a teórica cultural russa Svetlana Boym propôs no seu estudo clássico, O Futuro da Nostalgia (2001), a saudade do passado é uma “condição moderna incurável”, uma doença que nos aflige a todos.

Três novos livros sobre a nossa relação com a história põem à prova o diagnóstico provocador de Boym. No seu novo estudo, Nostalgia: A History of a Dangerous Emotion, a historiadora Agnes Arnold-Forster faz eco de Boym, referindo que os médicos do século XIX viam a nostalgia como um produto da agitação que acompanhou o advento do capitalismo industrial. 

No entanto, segundo o historiador Tobias Becker, é a patologização da nostalgia, e não a emoção em si, que é uma invenção relativamente recente. Na sua monografia seca mas informativa, Yesterday: A New History of Nostalgia, Becker argumenta que sempre ansiámos por épocas passadas - mas que nem sempre venerámos ‘a ideia de progresso universal’.

Em A invenção da pré-história, Geroulanos mostra que as representações do passado, tanto melancólicas como desdenhosas, foram utilizadas para justificar atrocidades no presente. “As origens humanas não são meras abstracções, nem são meros estímulos para experiências de pensamento e pura investigação científica. Promessas e violência têm sido regularmente desencadeadas em seu nome.” 

The Invention of Prehistory não é exatamente uma história da pré-história; é uma história da forma como vários relatos da pré-história foram utilizados politicamente. Tal como os livros de Arnold-Forster e Becker, este livro complica a narrativa cada vez mais generalizada que pinta a saudade do passado como um passatempo exclusivamente conservador.

A nostalgia é uma doença universal para a qual não existe remédio eficaz e, ao longo da sua longa história, tem servido objectivos politicamente diversos. Os esquerdistas, tal como os marxistas que sonhavam com o “comunismo primitivo” e os socialistas que celebrizaram o New Deal americano, estiveram outrora entre os mais eficazes fornecedores de nostalgia. 

A nossa única opção é arrancar o passado - e, consequentemente, o futuro - àqueles que o deformaram. 

Segundo Arnold-Forster, que se propôs escrever “a biografia de uma emoção”, a nostalgia começou a sua vida, não como uma emoção, mas como uma doença. A palavra foi cunhada em 1688 pelo médico alsaciano Johannes Hofer. A partir de nostos, que em grego significa “regresso a casa”, e algos, que em grego significa “dor”, Hofer elaborou um diagnóstico para os soldados europeus que sofriam de saudades agudas de casa quando as missões os obrigavam a sair da sua terra natal.

A nostalgia de Hofer não era o caso piegas e sentimental que aflige as crianças nos acampamentos de Verão. Era uma doença potencialmente fatal que causava, segundo Arnold-Forster, “palpitações cardíacas, contusões e demência”. “Ajustes na dieta, banhos quentes e uma mudança de circunstâncias” eram suficientes para tratar casos leves, mas os nostálgicos mais graves exigiam ‘sangrias e purgantes’. A única cura para os mais doentes era um regresso apressado à terra natal.

Inicialmente, a nostalgia era vista como um infortúnio tipicamente suíço. Em breve, porém, a doença tornou-se um mal internacional e, por volta de 1800, escreve Arnold-Forster, “era uma das condições médicas mais estudadas” no Ocidente.

Desde o início, esteve ligada às indignidades e degradações da modernidade. Até os comentadores contemporâneos o observaram: Arnold-Forster observa que os médicos do século XIX se preocupavam com o facto de a nostalgia estar a alastrar à medida que “as viagens e a emigração se tornavam uma parte menos negociável da vida quotidiana”. Por outras palavras, era um sintoma da globalização.

Era também um sintoma de nacionalismo - e não apenas porque os europeus começaram a sucumbir aos desregramentos do patriotismo na mesma altura em que Hofer começou a preocupar-se com as saudades letais de casa. 

O nacionalismo não só produziu a nostalgia como a exigiu. De facto, como Geroulanos argumenta, as nações começaram a inventar as suas origens raciais com uma vingança no final do século XVIII, e nenhuma com tanta veemência como a Alemanha. A descoberta de escritos romanos perdidos sobre os “bárbaros” - e algumas especulações altamente promíscuas sobre as “línguas indo-germânicas”, que os linguistas chauvinistas acreditavam ser a língua ur europeia - conspiraram para produzir o mito do “antigo nobre selvagem ‘alemão’”. “Filósofos, juristas e folcloristas alemães” apelaram igualmente a uma fantasia da pré-história alemã ‘para dar à sua cultura um valor unificador’. Esta manipulação do passado acabaria por culminar nas ilusões do regime nazi.

Mas a nostalgia não foi a única emoção que deu origem à violência racializada. Ao longo dos séculos XVIII e XIX, várias ideologias promoveram a ideia de que os povos indígenas eram vestígios de uma forma de vida obsoleta. 

Charles Darwin pode ter rejeitado a noção de hierarquia racial biológica, mas abraçou a visão igualmente desagradável de que “algumas culturas tinham evoluído mais do que outras”, segundo Geroulanos. 

No início dos anos 1900, a nostalgia tinha-se tornado um alimento para os freudianos, fascinados pelas feridas psíquicas da infância. Foi no divã do analista que a nostalgia adquiriu as conotações temporais que conserva atualmente. Um psicanalista perspicaz sugeriu, segundo Arnold-Forster, que “a nostalgia era o instinto que nós, humanos, temos em comum com os pombos-correio”. No entanto, ao contrário das capacidades de navegação das aves, a nostalgia era uma resposta desadaptativa. As suas vítimas eram regressivas e confusas, “incapazes de se adaptarem aos tempos modernos e às novas tendências”. Na década de 1970, a transformação da nostalgia estava completa. Nas palavras de Arnold-Forster, tinha-se metamorfoseado num “problema cultural, mais do que num problema clínico”.

Era um problema cultural, em parte, porque tinha sido anunciado como tal: O empresário e futurista Alvin Toffler alertou para uma “onda de nostalgia” no seu livro best-seller de 1970, Future Shock, e a imprensa publicou dezenas de artigos de fôlego com títulos como Everybody's Just Wild About Nostalgia e How Much More Nostalgia Can America Take?

Ainda assim, havia um núcleo de verdade nesses relatórios. Os americanos e os britânicos (e, em menor grau, os europeus de todo o continente) estavam realmente a recuperar da instabilidade vertiginosa dos anos 60, incorporando activamente o passado nas suas vidas pessoais - vestindo modas retro, participando em reconstituições históricas (ou, no Reino Unido, em “concursos” realizados em trajes históricos), investigando a história da família e interessando-se por antiguidades e relíquias.

Uma indústria de nostalgia vergonhosamente exploradora surgiu nos Estados Unidos e na Grã-Bretanha, à medida que os publicitários se esforçavam por tocar no coração dos consumidores. Arnold-Forster descreve um anúncio representativo da sopa de tomate Heinz de 1981, que “começava com a injunção: ‘Lembra-te da tua primeira tigela de sopa’. As imagens da tigela de sopa de uma criança a ser enchida com líquido vermelho contrastam com o slogan falado, 'Nunca esqueces quem amas'”. É certo que noutros locais os desenvolvimentos foram muito menos inócuos. Na Alemanha, um fascínio sinistro pela parafernália nazi floresceu brevemente no final da década de 1970.

Mas, como afirmam Becker e Arnold-Forster, grande parte da onda de nostalgia era claramente inofensiva. O que explica, então, a sua péssima reputação? Porque é que os comentadores de elite e os historiadores académicos estavam tão empenhados em desvalorizar os museus de história local como sentimentais e em ridicularizar os genealogistas amadores como irracionais e regressivos? 

As críticas à nostalgia também escondiam “uma defesa velada da ideia moderna de progresso”: Para os defensores da lógica implacável do progresso, “um interesse no passado, não como um estado a ser ultrapassado, mas como algo de valor, algo digno de conservação ou de servir de modelo, só pode ser irracional e patológico”. Na antipatia pela nostalgia está implícito um otimismo triunfalista em relação à trajetória humana.

Como Geroulanos demonstra de forma tão decisiva, muitos grupos ao longo da história - e não menos os nazis - “basearam-se em teorias das origens como justificação para governar e matar”. A maior parte dos projectos racistas e genocidas só podem ser explicados com referência ao mito e à memória hiperactiva.

No entanto, se a investigação de Arnold-Forster é meticulosa e a sua prosa é convidativa, a sua defesa final da nostalgia não é totalmente adequada. Observa que, nos últimos anos, neurocientistas e psicólogos descobriram formas do sentimento “aumentar a auto-estima” e “promover um sentido de ligação social”. 

Os nostálgicos reflexivos “resistem à pressão da eficiência eterna e deleitam-se sensualmente com a textura do tempo não mensurável por relógios e calendários”. Eles demoram-se e, assim, desafiam um mundo obcecado pela pressa e pela produtividade.

Vimos que os críticos da nostalgia são defensores do progresso. Os nostálgicos restaurativos são, portanto, fugitivos do ritmo voraz da modernidade. “A nostalgia”, recorda-nos Boym, ‘é uma rebelião contra a ideia moderna do tempo’, uma recusa ‘de se render à (...) irreversibilidade’. 

O nostálgico é alérgico não apenas ao século XXI, mas à marcha inexorável do próprio tempo. É irremediavelmente utópico, irremediavelmente insatisfeito com a sorte humana - e o que é que, no fim de contas, é menos conservador do que isso?

Becca Rothfeld in 
washingtonpost.com/books/