Arquivo da tag: Ciência

image_pdfimage_print

“Estado da Arte”: Mecânica Quântica

Epistemologia e Ciência | 16/11/2015 | | IFE CAMPINAS

image_pdfimage_print
O programa Estado da Arte é produzido e apresentado por Marcelo Consentino, presidente do IFE e editor da revista Dicta & Contradicta. A cada edição três estudiosos põem em foco questões seminais da história da cultura, trazendo à pauta temas consagrados pela tradição humanista.
A seguir apresentamos a edição que foi ao ar em 07 de maio de 2015

Mecânica Quântica

Blue_drop

 

Ao fim do século XIX um jovem alemão, contemplando a carreira acadêmica, foi desaconselhado a se empenhar na física. À época o edifício da mecânica clássica erguido por Newton, Maxwell e outros parecia tão bem acabado, que cientistas como Lord Kelvin acreditaram que todas as grandes ideias da física já haviam sido descobertas, só restando trabalhar adornos e pormenores. Por sorte o estudante recusou o conselho e em 1900, já professor de física em Berlim, diria a seu filho que fez uma descoberta tão importante quanto as de Newton. Por mais que soasse grandiloquente, Max Planck falava a pura verdade. Buscando sair de um dilema em relação ao fenômeno da radiação, ele sugeriria que a emissão ou absorção subatômica se dá na forma de quantidades discretas de energia ou quanta.

A mecânica quântica descreve um mundo fantástico e desconcertante, onde uma partícula elementar parece ora se propagar como uma onda, ora surgir em dois lugares ao mesmo tempo, ora desaparecer em um e reaparecer em outro, ou mesmo interagir com uma outra partícula à distância, um fenômeno que o próprio Einstein – autor de um passo decisivo na teoria quântica ao demonstrar que também a luz é composta por quanta, ou fótons – previu em hipótese, mas que preferiu rejeitar como “assustador demais” para ser validado por um físico. As teorias sobre porque as coisas são assim variam das mais extravagantes, como a de uma pluralidade de mundos simultâneos, às mais prosaicas, como uma falha nos nossos cálculos, e não surpreende que o físico teórico Richard Feynman dissesse: “creio que posso afirmar com segurança que ninguém entende a mecânica quântica”.

Apesar disso, o aparato matemático quântico ainda é incomparável na sua capacidade de previsão, cada dia mais precisa, do comportamento das partículas elementares. E malgrado todos os desafios à nossa lógica ordinária e todas as controvérsias sobre porque o universo microscópico é assim, os resultados de laboratório só fazem confirmar: ele é assim – até que se prove o contrário, a matéria da qual todas as coisas são feitas é assim: fantástica e desconcertante.


Convidados

– Maria Cristina Batoni Abdalla: professora de Teoria Geral das Partículas e Campos da Universidade Estadual Paulista e autora de O Discreto Charme das Partículas Elementares.

– Osvaldo Pessoa: professor de História e Filosofia da Ciência da Universidade de São Paulo e autor de Conceitos de Física Quântica.

– Walter Pedra: professor do Departamento de Física Matemática da Universidade de São Paulo e coordenador do grupo de pesquisa de “Termodinâmica de Sistemas Quânticos de Corpos Não-Simétricos”.


Referências

  • Teoria Quântica (Quantum Theory – A Very Short Introduction) de John Polkinghorne (L&PM Pocket).
  • A Realidade Quântica (Quantum Reality – Beyond the New Physics) de Nick Herbert (Ed. Francisco Alves).
  • Dance of the Photons – From Einstein to Quantum Teleportation de Anton Zeilinger (Farrar, Straus and Giroux).
  • Teoria Quântica – Estudos Históricos e Implicações Culturais organizado por O. Freire Jr., O. Pessoa Jr. e J.L. Bromberg (Eduebp).
  • O Discreto Charme das Partículas Elementares de Maria Cristina Abdalla (Unesp).
  • “Fisica Quantistica” na Enciclopedia Filosofica Bompiani.
  • Quantum Mechanics” na Stanford Encyclopedia of Philosophy.
  • Les indispensables de la mécanique quantique de Roland Omnés (Odile Jacob).
  • Foundation of Quantum Mechanics organizado por B. D’Espagnat (Academic Pr.).
  • Quantum Theory and Measurement de A. Wheeler e W.H. Zurek (Princenton University Press).
  • The Conceptual Development of Quantum Mechanics de Max Jammer (McGraw Hill)
  • Mysteris, Puzzles and Paradoxes in Quantum Mechanics organizado por T.J. Coutts (AIP Conference Proceedings).
  • Lectures on Quantum Mechanics” videoconferência de Leonard Susskind.
  • O Problema da Interpretação da Mecânica Quântica” videoconferência de Walter Pedra.

Produção e apresentação
Marcelo Consentino

Produção técnica
Jukebox

Fonte: http://oestadodaarte.com.br/mecanica-quantica/

Entre a arte e a ciência (por Roger Scruton)

Artes | 23/07/2015 | | IFE CAMPINAS

image_pdfimage_print
"View of Beirut", 1861, Edward Lear

“View of Beirut”, 1861, Edward Lear

 

Quando Mohamed Atta enfiou o vôo 11 da American Airlines na torre norte do World Trade Center, no dia 11 de setembro de 2001, deu expressão ao seu ressentimento para com tudo o que aquele prédio simbolizava: o triunfo do materialismo secular, o sucesso e a prosperidade da América, a tirania do mercado financeiro e a hybris da cidade moderna. Exprimia também um antigo rancor para com o modernismo arquitetônico, rancor que já havia manifestado na sua dissertação de mestrado para a Faculdade de Arquitetura da Universidade de Hamburgo. O tema dessa dissertação foi a antiga cidade de Aleppo, danificada pela implacável perseguição movida pelo presidente sírio Hafiz al-Assad contra a Fraternidade Muçulmana e danificada ainda mais pelos arranha-céus que apagam os contornos das ruas antigas e se erguem bem acima dos dedos finos e implorantes das mesquitas. A sucata do modernismo representava, para Atta, um símbolo da impiedade do mundo moderno e do seu desprezo brutal pela cidade muçulmana.

As antigas cidades do Oriente Médio, captadas nos belos desenhos e aquarelas de Edward Lear, eram lugares onde comunidades muito unidas se abrigavam em torno das mesquitas e onde os minaretes tocavam o céu num gesto de oração contínua. Eram lugares de piedosa laboriosidade, e as suas vielas, pátios e bazares – o pano de fundo típico das narrativas árabes, das Mil e uma noites até os romances de Naguib Mahfouz – ocupam um lugar inamovível na memória dos muçulmanos, especialmente daqueles que, como Atta, se encontram flutuando entre estranhos nas ruínas de concreto da cidade ocidental.

Hoje, essas cidades antigas do Oriente Médio estão muito diferentes, com as mesquitas pateticamente esmagadas pelos arranha-céus gigantescos, os antigos pátios comprimidos entre prédios de apartamentos populares e as vielas rasgadas por avenidas. Apesar de as causas desse desastre social e estético serem muitas – uma delas a superpopulação, outra a corrupção e, no caso da Arábia Saudita, a especulação imobiliária da família Bin Laden -,
não se pode negar que o modernismo arquitetônico tem a sua parcela de culpa. Foi o projeto insano de Le Corbusier para Argel que lançou a idéia de que as antigas cidades muçulmanas poderiam ser completamente remodeladas sem se levar em conta nenhuma das necessidades religiosas e sociais da população. Embora somente uma horripilante parte do projeto tenha sido construída, este é, no entanto, estudado assiduamente nas escolas de arquitetura como uma das grandes “soluções” para um problema que ninguém havia percebido antes de Le Corbusier.

O “problema” consistia em como encaixotar as pessoas numa cidade e depois permitir que elas se movessem livremente por ela. A solução do arquiteto foi construir pistas elevadas para carros enquanto a população se amontoava em blocos de apartamento debaixo delas. Casas e vielas antigas deviam ser demolidas e edifícios comerciais gigantescos deviam ser construídos à beira-mar, reduzindo a nada mesquitas e igrejas. O prefeito da cidade, eleito pelos moradores, opôs-se a esses planos, o que levou Le Corbusier a aproximar-se do governador não-eleito da província (um francês) para pedir-lhe que passasse por cima do prefeito. “O projeto deve prevalecer”, escreveu. “É o plano que está certo. Ele proclama realidades indubitáveis”. E ainda em 1941, como líder da Comissão Nacional de Construção Civil do governo de Vichy, insistia em classificar os seus planos para Argel como prioridade máxima.

Nunca ocorreu a Le Corbusier que a natureza congestionada de uma cidade muçulmana é o subproduto natural de um modo de vida. Pátios e vielas exprimem a própria alma dessa comunidade – uma comunidade que pára cinco vezes ao dia para rezar, que se define a si própria pela obediência e pela submissão e que se refugia na família sempre que as coisas se complicam. São justamente as avenidas e os edifícios que matam a cidade muçulmana e enviam os seus filhos para o estrangeiro, cheios de ódio e sede de vingança – como Atta – contra o modernismo que os desenraizou.

* * *

Quando a cidade de Nova York, na esteira do terrível crime de Atta, começou a pensar na reconstrução do ground zero, não faltaram sugestões sobre o que se deveria fazer. A minha preferida era o projeto de Alexander Stoddart e outros, proposto nas páginas do City Journal. Este projeto envolvia um retorno à escala e à densidade da parte mais antiga do baixo West Side, e a restauração de um bairro de finalidade mista, residencial e comercial; o principal espaço público seria a rua, ao invés dos assépticos parques e praças. O antigo calor e aconchego dos bairros de Nova York voltariam a instalar-se por meio do frutífero entrelaçamento do trabalho com a residência e o lazer.

Projetos como esse, porém, não atraem a atenção das autoridades municipais, uma vez que quase todas procuram símbolos que mostrem quão esclarecidas são, e a maioria delas engoliu a doutrina de que a arquitetura é uma arte que deve ter como meta a sua própria vanguarda. Cidades que contam com corporações de alto nível profissional e financeiro para financiar os seus projetos, confiam-nos a um grupo cada vez menor de arquitetos-superstars escolhidos em função da sua capacidade de chocar o gosto dos cidadãos comuns com edifícios que se tornam causes célebrespor recusarem ostensivamente qualquer integração com a vizinhança.

A maioria desses arquitetos-superstars – Daniel Libeskind, Frank Gehry, Richard Rogers, Norman Foster, Peter Eisenman, Rem Koolhaas – adquiriu todo um repertório de blablablá pretensioso para mostrar claramente a sua genialidade àqueles que, de outra maneira, não o perceberiam. Ao gastar o dinheiro que pertence a eleitores ou acionistas, as pessoas deixam-se facilmente convencer por esse jargão, pois estimula a sua vaidade levando-as a acreditar que investem numa obra-prima original e revolucionária. Não surpreende, pois, que o prefeito Michael Bloomberg, o então governador George Pataki e o arrendatário Larry Silverstein tenham sido atraídos pelo projeto de Daniel Libeskind, que consistia em substituir as torres do World Trade Center por um fantástico conjunto de caixas de vidro assimétricas, uma delas dotada de uma sinuosa “Torre da Liberdade” que atingiria exatamente 1776 pés quando se acrescentasse no seu topo uma antena de rádio, também esta deslocada com relação ao centro do edifício.

Libeskind, o arquiteto do Museu Judaico de Berlim, é conhecido por projetar edifícios que são esculturas expressionistas, construídos para desafiar a gravidade, a estabilidade e a comunidade, e que envolvem custos enormes e geralmente imprevisíveis na sua construção. Foi este último fator que persuadiu Bloomberg, Pataki e Silverstein a confiar o projeto a Skidmore, Owings e Merrill, na intenção de torná-lo econômica e estruturalmente viável. Foi o que a empresa fez, descartando pura e simplesmente os planos de Libeskind e recomeçando do zero, a fim de produzir uma tediosa fileira de torres sem beleza alguma, alinhadas ao redor de um espaço aberto sem propósito nenhum –
a velha solução da Bauhaus, que tem desagradado a todos em todo o mundo, de Vladivostok a Los Angeles, da Cidade do Cabo a Aberdeen.

Libeskind é um dos alvos de John Silber em Architecture of the Absurd (“Arquitetura do absurdo”), um franco ataque aos arquitetos-superstars e aos seus projetos dispendiosos e auto-afirmativos [1]. Silber é reconhecidamente uma autoridade na moral e na filosofia da religião de Kant, e também um acadêmico que, sem nunca esconder a sua opinião de ninguém que lhe cruzasse o caminho, pôs a Universidade de Boston entre as melhores do país durante a sua administração. Além disso, é filho de um arquiteto e passou muitos dos seus anos de formação no escritório do pai, aprendendo as técnicas de um ofício que nunca viria a praticar. Aposentado, retorna agora a esse seu interesse juvenil e produz uma argumentação vivaz e convincente contra o culto do “gênio”, que teria exercido uma influência perniciosa sobre a arquitetura moderna.

A arquitetura, segundo Silber, não é uma arte “privada” como a poesia, a pintura e a música, cujas inovações podem ser oferecidas aos “iniciados” sem maltratar o gosto e as expectativas de nós outros. É uma realização pública, com um impacto inevitável sobre todos os que fazem uso da cidade e das suas ruas. Deve satisfazer o cliente, mas igualmente o público, que só deseja uma arquitetura que combine bem com as redondezas. Silber não é avesso ao modernismo e faz elogios (bem mais ardentes do que eu jamais me animaria a fazer) ao festejado edifício Seagram, de Mies van der Rohe, que se tornou o modelo de todos os prédios de escritório de vidros escuros encontrados em qualquer lugar da Europa e da América. O seu verdadeiro alvo é a egolatria, especialmente a egolatria que busca a originalidade em detrimento da harmonia e lança toda a humildade aos quatro ventos em nome da necessidade urgente de “aparecer”. Foi isso, pensa Silber, que culminou no culto ao gênio – um culto que pode ter sido importante na revitalização de artes como a poesia, a pintura e a música, mas que não tem cabimento na arquitetura.

Sim, não há dúvida de que há arquitetos que são geniais: Michelangelo, Palladio e mesmo Frank Lloyd Wright. Mas uma cidade não é obra de gênios. É obra de humildes artesãos e efeito colateral do seu contínuo diálogo consigo mesma. É um tecido em constante crescimento, remendado e costurado à medida que os nossos costumes mudam, de modo que a ordem surge pela “mão invisível” dos desejos que as pessoas têm de se relacionarem com os seus vizinhos. É isso o que produz cidades como Veneza e Paris, onde mesmo os mais grandiosos monumentos – San Marco, Notre Dame, a praça Vendôme, a Scuola di San Rocco – confortam os olhos e irradiam um sentido de pertença. No passado, os gênios faziam o máximo para que houvesse harmonia entre o seu projeto e a rua, o céu e o espaço público – como Michelangelo em São Pedro -, ou criavam, como fez Palladio, todo um vocabulário que fosse a língua franca de uma cidade em que todos pudessem sentir-se em casa.

Em contrapartida, a nova arquitetura do absurdo, exemplificada pelo insanamente dispendioso e bombástico Museu Guggenheim de Gehry em Bilbao, é projetada para desafiar a ordem dos arredores, para destacar-se como a obra de um artista inspirado que não constrói para as pessoas, mas “esculpe o espaço” em função das suas próprias finalidades expressivas. Silber não esconde a sua ira perante esse tipo de presunção e usa palavras duras e impactantes para falar do Stata Center do MIT projetado por Gehry, um edifício que, precisamente por pretender ridicularizar os velhos conceitos de paredes e janelas, já está cheio de vazamentos e rachaduras nas junções. A denúncia feroz de Silber detalha todas as deficiências do prédio, incluídos os custos muito maiores do que o orçamento inicial e os gastos necessários para a manutenção.

Mas a crítica mais forte é, de longe, a que evoca a figura de Le Corbusier – que, como Gehry, tinha a mesma concepção apriorística da construção e também se via a si próprio como um gênio revolucionário. Uma vez que o Stata Center devia abrigar todos os pesquisadores altamente qualificados que o MIT vai colecionando, Gehry decidiu projetar um interior que os encorajasse a interagir, a compartilhar idéias, a amplificar a criatividade mútua, permitindo-lhes passar as idéias de sala em sala como se fossem bolas de futebol. Livrou-se assim das paredes internas, tornou transparentes todas as divisões e expôs tudo em espaços abertos, desagradáveis e vazios por causa das cores infantis de supermercado que gritam pelos corredores abertos. Esse tipo de apriorismo da parte de um arquiteto que jamais se deu ao trabalho de observar outros membros da sua espécie, lembra os projetos de Le Corbusier para um hospital em Veneza, no qual não devia haver janelas e todas as portas se abririam para dentro, o que fomentaria a absoluta tranqüilidade de que nasce (segundo o arquiteto) a convalescença. Na vida real, porém, pesquisadores precisam de paredes, privacidade e solidão, se queremos que algum dia produzam idéias que possam passar para os seus colegas, assim como os doentes precisam de luz, ar e contato com a vida exterior, se queremos que melhorem.

São convincentes as críticas que Silber faz a Gehry e Libeskind, e ainda mais a sua rejeição absoluta de Josep Lluís Sert, ex-decano da Harvard Design School, clone de Walter Gropius e seguidor de Le Corbusier, que atulhou Boston e Cambridge dos seus grotescos e desagradáveis monumentos a si mesmo e destruiu a Universidade de Boston com a repulsiva torre da Faculdade de Direito. O que, diga-se de passagem, me levou a perguntar por que Silber não a mandou demolir quando foi reitor de Boston, pois, embora a demolição de um edifício modernista seja cara, os gastos logo se recuperam com os reduzidos custos de manutenção de um edifício tradicional edificado em sua substituição. Por animador que seja o livro de Silber, mais animadora e ainda mais necessária para o ambiente cultural dos Estados Unidos de hoje seria a visão de uma “obra-prima” modernista sendo demolida impunemente – e não é que o reitor Silber alguma vez tenha deixado de fazer alguma coisa por saber que encontraria oposição. Hoje, há poucas pessoas que teriam a coragem de fazer aquilo de que o futuro da Universidade de Boston tanto precisa: eliminar do seu pequeno câmpus qualquer traço de Sert, de modo que a Faculdade de Direito possa abrigar-se num prédio realmente conforme com a lei.

Os desastres que Silber relata aconteceram em parte porque, como ele aponta, a educação disciplinada que seu pai lhe exigiu foi deliberadamente destruída. Poucas escolas de arquitetura ensinam hoje os seus alunos a desenhar paisagens urbanas, fachadas ou figuras humanas; poucas ensinam os alunos a criar composições valendo-se das regras clássicas ou desenhar fenômenos profundamente significativos e transitórios, como a incidência da luz num capitel coríntio – técnicas necessárias que treinam a mão e o olho e que ensinam os arquitetos a prestar atenção em algo mais interessante que eles próprios. A Engenharia e o desenho técnico tomaram o lugar de tudo isso, e o resto não passa dehype – blablablá desconstrucionista projetado para vender qualquer tipo de escultura espacial que você seja capaz de inventar.

Mas qual seria a alternativa? Nathan Glazer afirma no seu livro From a Cause to a Style que as limitações da arquitetura moderna tornam quase impossível para os arquitetos comportar-se como os seus predecessores, que adornavam edifícios com alguma reminiscência eclética do estilo gótico ou clássico, revestiam estruturas de ferro com pedras talhadas e coroavam as fachadas com uma cornija vignolesca em zinco [2]. O que antes era uma solução barata para a demanda pública por ornamento e ordem tornou-se de um custo proibitivo. As maneiras antigas de construir já não são financeiramente viáveis agora que o espaço é limitado, a mão-de-obra especializada é rara e a engenharia de proporções elefantinas é tecnicamente possível e relativamente barata.

Glazer é um sociólogo que dedicou à arquitetura e aos seus efeitos sociais uma atenção considerável ao longo dos anos; o seu livro reúne ensaios bem escritos que relatam a sua desilusão crescente com os estilos e arquétipos modernistas. Como muitos socialistas bem-intencionados (coisa que ele era na época), Glazer em princípio foi um entusiasta da mentalidade planificadora que fincou raízes na Grã-Bretanha do pós-guerra e que procurou varrer os cortiços superlotados e insalubres, substituindo-os por torres higiênicas cercadas de espaços onde a população pudesse desfrutar de luz e ar. Essa receita para melhorar a situação da classe trabalhadora das cidades foi mais influenciada por Gropius e a Bauhaus do que por Le Corbusier. Coincidia com o programa socialista, segundo o qual a habitação era responsabilidade do Estado, todos os arquitetos da época tendiam a endossá-la, e parecia oferecer vantagens insuperáveis em comparação com a receita antiga – que em todo o caso era antes um subproduto da liberdade do que uma escolha consciente -, segundo a qual as casas deviam ficar uma ao lado da outra ao longo da mesma rua.

Contudo, Glazer chama a atenção para o fato de a principal oposição ao projeto modernista de habitação não ter vindo dos críticos, mas das próprias pessoas a que esses projetos eram destinados. Para a surpresa dos planejadores, a população resistiu à tentativa de demolir as suas ruas e de eliminar as doenças familiares e domesticadas que grassavam nos seus quintais atulhados. As pessoas não gostavam nada de viver dependuradas no ar, nem de olhar por uma janela e não ver coisa alguma; queriam a vida da rua, queriam sentir a vida ao seu redor e ao mesmo tempo saber que podiam trancá-la do lado de fora ou deixá-la entrar conforme quisessem. Queriam ter os vizinhos ao lado, não acima ou abaixo. E a maioria delas queria uma casa própria, não uma que fosse propriedade da prefeitura e que depois não pudesse ser transmitida  como herança para os filhos. A tentativa de “bauhausizar” a classe operária foi, portanto, rejeitada pelos próprios operários, que nesse caso como em tantos outros se recusaram a fazer o que os socialistas lhes ordenavam até serem coagidos a fazê-lo pelo Estado.

Assim como Silber, Glazer tem um resto de simpatia pelo modernismo, apesar de, também como Silber, reconhecer que os arquitetos se tornaram individualistas, excêntricos e auto-referentes por causa da suposta competência que o modernismo lhes confere. Os arquitetos-superstars não agradam mais a um que ao outro, e Glazer tem sábias palavras sobre o estrago que o egoísmo arquitetônico é capaz de fazer no entramado de uma cidade, particularmente nos monumentos públicos, em que a população deseja enxergar o “nós” e não o “eu”. Apesar de simpatizar com as abrangentes críticas que o Príncipe de Gales [3] tem feito aos últimos cinqüenta anos de urbanização, Glazer reluta em defender o tipo de retorno aos princípios clássicos proposto por Leon Krier, arquiteto do Príncipe em Poundbury [4]. Glazer procura entender o descontentamento público com os edifícios modernistas, freqüentemente vistos como ofensas à cidade. A alternativa, diz ele, não é nem Levittown [5] nem Poundbury, mas algo que ainda está por surgir, não se sabe como, da crescente percepção pública de que nem tudo está bem nas nossas cidades e de que muito daquilo que perdemos era melhor.

É aqui que entra Nikos Salingaros [6]. A arquitetura, afirma ele, é governada por princípios universais e intuitivos exemplificados em todos os estilos bem-sucedidos e em todas as civilizações que deixaram a sua existência plasmada em construções. A própria vida segue esses princípios e controla o processo que, num organismo complexo, liga uma parte a outra e cada parte com o todo. Reconhecemos intuitivamente a autoridade desses princípios porque correspondem aos nossos processos vitais internos; sentimo-nos à vontade em edifícios que os seguem e desconfortáveis em edifícios que não o fazem. Os contornos, as escalas, os materiais e as superfícies uniformes dos prédios modernos desprezam deliberadamente esses princípios, o que basta para explicar os sentimentos de hostilidade que provocam. A solução não está em retornar aos estilos clássicos (embora Salingaros, ao contrário da maioria dos críticos de arquitetura, não tenha uma aversão puritana a isso); está em retornar aos primeiros princípios e construir dentro dos seus limites, como o fez Gaudí em Barcelona.

Salingaros não é o primeiro a acreditar que os princípios arquitetônicos podem ser expressos com um rigor quase matemático. Neste sentido, reconhece explicitamente a sua dívida para com Christopher Alexander, arquiteto e teórico austríaco naturalizado inglês que hoje leciona em Berkeley e há décadas tem proposto consistentemente a mesma idéia central. Há um modo atemporal de construir, diz ele. Tem milhares de anos e continua a ser hoje o mesmo do passado. Os grandes edifícios tradicionais do passado, os vilarejos, as tendas e os templos em que as pessoas se sentem em casa sempre foram feitos por indivíduos que estavam muito próximos do núcleo central desse modo de construção. Quando não é seguido, torna-se impossível construir edifícios ou cidades espetaculares, lugares belos, lugares onde uma pessoa pode sentir-se ela mesma, pode sentir-se viva. E, como veremos, esse caminho conduz quem quer que queira segui-lo a construções cuja forma é tão antiga como a das árvores e das montanhas, como a forma dos nossos rostos.

Alexander apóia essa tese de vastas repercussões (proposta em The Timeless Way of Building [7]) numa espécie de gramática gerativa das formas arquitetônicas. Lança mão de um conjunto de regras que, se forem postas em prática pelo arquiteto, produzem resultados capazes de ser entendidos pelo usuário normal dessa construção, o qual reconstrói inconscientemente o processo que lhe deu origem.

Salingaros, por sua vez, é professor de Física Matemática na Universidade do Texas em San Antonio. É também um intelectual consciencioso e preocupado com a sociedade, e pensa que os erros encerrados no vernáculo modernista representam uma séria ameaça à possibilidade de habitar nas nossas cidades. Por toda a parte do mundo moderno (e não por último em San Antonio) podemos encontrar evidências disso: com exceção das cidades unificadas pelo emaranhado das suas ruas e quarteirões ancestrais, como as italianas e francesas, ou daquelas que não se desintegram graças a essa espécie de entusiasmo centrípeto que cria o núcleo fervente de São Francisco e Nova York, as cidades vêm-se tornando cada vez mais alheias aos seus moradores, que vêm fugindo delas aos magotes. Ora, desde sempre a cidade é o centro da vida social e criativa, e se fugimos dela acabamos por refugiar-nos numa solidão estéril, como a descrita por James Howard Kunstler (The Geography of Nowhere, 1993 [8])
e Robert Putnam (Bowling Alone, 2000 [9]). Para Salingaros, portanto, nenhuma causa é mais importante que o retorno à ordem natural da arquitetura, que permitirá que voltemos a sentir-nos em casa em um ambiente urbano.

O segredo dessa ordem natural encontra-se no conceito de escala. Os edifícios bem realizados não tiveram o seu tamanho e a sua forma escolhidos, por assim dizer, numa só penada, como se tivessem sido moldados previamente em fôrmas – embora seja precisamente isso o que acontece no caso dos monstros de concreto armado que assolam as nossas cidades. Os edifícios bem realizados atingem o seu tamanho e a sua forma, afirma Salingaros, através de uma hierarquia de escalas que nos permite “ler” as suas dimensões maiores como amplificações das menores. O arquiteto ascende da escala menor à maior por meio da repetida aplicação de uma “regra escalar” que exige que a passagem de um nível para o imediatamente superior se faça através da multiplicação por uma constante.

A escolha dessa constante não é arbitrária, porque a própria vida parece favorecer –
nas estruturas fractais dos flocos de neve e dos cristais, nas camadas sobrepostas de tecidos das folhas ou de células – um número em torno de três. É a “regra do um terço” que, segundo Salingaros, foi aplicada pelos grandes arquitetos ao longo da história – por exemplo, ao estabelecer que a largura de uma janela deveria corresponder a um terço da largura da parede em que essa janela se encontra. No fim, por razões em parte matemáticas e em parte intuitivas, Salingaros opta pela constante e (aproximadamente 2,7) como apropriada para produzir uma ordem inteligível em qualquer edificação, permitindo que os todos maiores sejam compreendidos como expressão natural da ordem contida nas suas partes. Qualquer número menor do que esse produziria uma superfície tensa e congestionada, em que não se consegue distinguir claramente as ordens maiores das menores; e qualquer número muito maior do que esse produziria vastos vazios, como os que observamos nas lisas muralhas de vidro que são o pano de fundo cada vez mais habitual da vida urbana.

Salingaros desenvolve essa idéia, e muitas outras, de maneira instigante, argumentando por exemplo que o modernismo já começou errado ao aplicar a famosa rejeição dos ornamentos por Adolf Loos; essa rejeição deixou sem definir o ponto mais baixo da hierarquia escalar, de modo que os níveis superiores ficaram soltos e flutuantes. Também o uso de materiais pré-formatados ou polidos, que não possuem uma estrutura interna fractal, é em ampla medida responsável pela ausência de vida dos edifícios modernos, cujas superfícies carecem daquelas texturas que percebemos na pele, na casca das árvores ou nos paredões de rocha, texturas que se prestam a ser analisadas de acordo com a progressão escalar. De maneira similar, os limites finos que definem os edifícios modernos – pontas de vigas de aço, troncos abruptos de pilotis, encaixes metálicos de janelas que não podem ser abertas ou beiradas invisíveis de portas giratórias -, contribuem todos para deixar os limites indistintos, artificiais e inflexíveis, além de caros e geralmente fabricados fora do local de construção, sem referência às condições e irregularidades locais (a noção de “limites grossos x limites finos” é de Alexander, a quem Salingaros remete generosamente em todo o livro).

Salingaros vale-se da ciência cognitiva e da psicologia evolutiva a fim de mostrar que os modos tradicionais de construção obedecem a leis impostas pelas nossas faculdades cognitivas. A arquitetura sem detalhes significativos ou texturas granulares provoca um estranhamento em nós porque frustra as capacidades visuais e cognitivas com que exploramos o nosso ambiente. Ao mesmo tempo, tal como Alexander, Salingaros considera que as suas teorias revelam analogias profundas e perceptíveis entre arquitetura e vida. Muitas das maneiras pelas quais as células arquitetônicas se desdobram em edifícios imitam as formas de crescimento das plantas e dos animais; e ao tentar estabelecer uma teoria geral desse tipo de desdobramento, Salingaros retoma um tema que o Príncipe de Gales já havia abordado nos seus escritos.

Numa série de ensaios eruditos e tocantes ao mesmo tempo (Anti-architecture and Deconstruction), Salingaros e vários colegas próximos defendem uma compreensão da arquitetura como pano de fundo da comunidade humana, como a preparação do local onde moramos [10]. Salingaros atribui o modernismo radical dos arquitetos-superstars menos ao egoísmo que a um desejo niilista de negar o caráter gregário das comunidades e de infestar o nosso entorno com objetos que nos impedem de ter conforto. Para ele, o problema não está no culto ao gênio, mas sim no espírito desconstrucionista que se espalhou pelo mundo intelectual como um vírus que desfaz todas as maneiras normais de pensar. Arquitetos como Gehry e Libeskind não constroem para a cidade, mas contra ela – e o mesmo vale para os arquitetos-superstars desde o momento em que Piano e Rogers desferiram o golpe decisivo contra Paris com o Centro Pompidou. Num vívido ensaio sobre Libeskind, Salingaros vai ainda mais longe e diagnostica a desordem entrópica dos projetos de Libeskind como “geometria da morte”: quando aparecem nas nossas cidades, fazem-no como uma espécie de maldição, como estruturas vampirescas que se alimentam da vida do seu entorno.

É impossível resumir num espaço pequeno todos os argumentos que Salingaros aduz para mostrar o que houve de errado e como deve ser retificado. Nem sempre o autor convence – há nele um quê de apriorismo só redimido parcialmente pelo fato de reconhecer que as suas teorias devem fundamentar-se na nossa intuição visual, não em provas matemáticas. No entanto, nenhum leitor de A Theory of Architecture conseguirá ignorar a seriedade de tom e a profundidade de observação plasmadas no texto, nem deixará de apreciar os muitos insights tanto sobre a beleza dos antigos estilos populares como sobre o vazio ofensivo do estilo modernista.

É um sintoma da desesperadora situação do nosso ensino de arquitetura que esse livro e a compilação de ensaios só possam ser encontrados graças a uma obscura editora alemã (distribuída pela ISI), ao passo que os escritos de Le Corbusier e Sigfried Giedion são publicados por editoras universitárias e considerados de leitura obrigatória em praticamente todos os cursos de arquitetura de todas as faculdades. Um dia, Salingaros talvez venha a tornar-se leitura obrigatória dos arquitetos. Se isso acontecer, pode ser que surja uma nova “ortodoxia”, uma ortodoxia na qual a humildade, a ordem e a preocupação social – as virtudes expurgadas dessa disciplina pelos arquitetos-superstars – venham a ser norma. E é possível que, quando isso acontecer, não precisemos de um John Silber para ordenar a demolição de todos e cada um dos prédios de Sert.

 

Notas

[1] John Silber, Architecture of the Absurd. How “Genius” Disfigured a Practical Art. Quantuck Lane, 2007, 128 págs.

[2] Nathan Glazer, From a Cause to a Style: Modernist Architecture’s Encounter with the American City. Prince-ton: Princeton University Press, 2007, 310 págs.

[3] Charles, filho de Elizabeth II, publicou um livro e fez um documentário chamados A Vision for Britain, em que advoga por um urbanismo tradicional, pela retomada de uma escala mais humana nos edifícios e pela restauração das construções históricas, integradas ao desenvolvimento urbano. Segue em geral as idéias de Christopher Alexander e Leon Krier (N. do T.).

[4] Poundbury é um vilarejo experimental criado nos arredores de Dorchester com base nas idéias urbanísticas do Príncipe Charles (N. do T.).

[5] Levittown é um subúrbio de Nova York, o primeiro inteiramente planejado nos EUA, que serviu de modelo para bairros posteriores desse tipo. Muitas das características das casas particulares modernas surgiram ali (N. do T.).

[6] Nikos Salingaros, A Theory of Architecture. ISI Books, 2007, 278 págs.

[7] Christopher Alexander, The Timeless Way of Building, Oxford University Press, 1979, 552 págs. (N. do T.).

[8] James Howard Kunstler, The Geography of Nowhere: The Rise and Decline of America’s Man-Made Landscape. Free Press, 1993, 304 págs. (N. do T.).

[9] Robert Putnam, Bowling Alone: The Collapse and Revival of American Community. Simon & Schuster, 2000, 544 págs. (N. do T.).

[10] Nikos A. Salingaros, Anti-architecture and Deconstruction. ISI Books, 2007, 210 págs. (N.do T.).

 

Artigo traduzido da revista The New Criterion, vol. 26, fevereiro de 2008, página 4. Copyright © Roger Scruton, 2008. Todos os direitos desta tradução reservados a Dicta&Contradicta.

Roger Scruton , PhD em Filosofia por Cambridge com uma tese sobre Estética, interessa-se especialmente por arquitetura. Atualmente, leciona Filosofia no Institute for the Psychological Sciences, tanto em Washington como em Oxford. Além de colaborar com diversas revistas, publicou recentemente, entre outros, os livros A Political Philosophy(Continuum Books, 2006), The West and the Rest (ISI Books, 2001), Culture Counts: Faith and Healing in a World Besieged (Encounter Books 2007) e a terceira edição de A Dictionary of Political Thought (Palgrave Macmillan, 2007).

Tradução de Cristian Clemente, licenciado em Letras pela FFLCH-USP.

Publicado originalmente no site da Revista Dicta&Contradicta.

Considerações sobre a filosofia da ciência (por Gustavo Bravo)

Epistemologia e Ciência | 25/06/2015 | | IFE CAMPINAS

image_pdfimage_print

images-e1434131403782

Na sociedade em que vivemos, nenhuma forma de conhecimento tem um peso tão grande quanto o da ciência. Classificar qualquer informação como sendo um dado científico é suficiente para que esse dado seja tratado na esfera pública como verdadeiro. Ciência e verdade são conceitos profundamente interligados em nosso senso comum. Temos muitos motivos para estabelecer essa associação: a capacidade de prever fenômenos de diversos tipos, as incontáveis realizações e inovações técnicas propiciadas pela química, a física e a medicina, a capacidade de explicação para eventos e processos que eram totalmente desconhecidos, e muitas outras coisas.

Mas se a eficácia dos métodos de previsão e transformação da realidade material empregada pelas diversas ciências é em larga medida incontestável, o estatuto propriamente epistemológico das ciências é bastante problemático. Ao dizer que o “estatuto epistemológico” da ciência é problemático, quero dizer que as relações entre ciência e verdade, bem como aquilo que torna a ciência natural um conhecimento diferente de outras formas de conhecimento é matéria de controvérsia entre os especialistas no assunto e que a imagem do mundo que a ciência nos mostra não está sujeita a uma única interpretação. Fazendo um panorama de alguns problemas levantados por filósofos da ciência, pretendo evidenciar que, apesar do sucesso pragmático da imagem científica do mundo, existem muitas questões complexas ainda não resolvidas em torno do conhecimento científico.

Uma primeira observação, feita por filósofos da ciência como Alan Chalmers (1939 – ), é que não basta apenas dizer que a ciência “funciona”, logo, ela é verdadeira. É preciso ter em mente que teorias erradas podem “funcionar”. A teoria geocêntrica (que afirmava ser a Terra o centro do universo) de Ptolomeu explicava e era capaz de dar conta de algumas das regularidades observadas na abóbada celeste, entretanto, ela estava errada e viria a ser substituída pela teoria heliocêntrica de Copérnico e Galileu. Mas não seria apenas o caso de mais observação, de mais capacidade explicativa, para corrigir a teoria? Acontece que nada exclui a possibilidade de duas teorias incompatíveis possuírem alto poder preditivo e explicativo para os mesmos fenômenos. No que diz respeito a observação, é interessante notar que observações feitas com propósito científico nunca são “puras”, independentes das teorias que as orientam, pois a própria seleção dos fatores e propriedades relevantes a serem observados e mensurados dependem de algum tipo de teoria – ainda que não muito desenvolvida – subjacente a prática observacional. No caso das realizações técnicas grandiosas, elas não são suficientes para provar que teorias científicas empregadas na sua realização são verdadeiras. Provavelmente os egípcios não possuíam os conhecimentos de física, arquitetura e engenharia que nós possuímos hoje, entretanto, construíram as pirâmides, que com toda certeza são algumas das mais impressionantes realizações arquitetônicas de todos os tempos. A questão sobre a “verdade” das teorias não pode ser resolvida mediante apelos simplistas sobre a eficácia técnica e/ou preditiva.

Ao longo do século XX, apoiado por considerações retiradas da história da ciência, Thomas Kuhn (1922 – 1996) defendeu – grosso modo ­– que aquilo que consideramos ciência hoje não foi sempre assim e que a ideia de que o conhecimento científico progride rumo a uma adequação cada vez mais exata com a realidade é um erro. Segundo Kuhn, os pesquisadores que partilham de pressupostos teóricos comuns e que orientam a sua atividade seguindo um programa com regras bem estabelecidas operam dentro de um paradigma, e a história da ciência é uma constante substituição de paradigmas por outros, sem que haja uma base puramente racional para afirmarmos que um paradigma é superior a outro. É o pertencimento a um paradigma estável e razoavelmente coerente que configura e diferencia o que é ciência do que não é. Neste sentido, a ciência aristotélica medieval não era pseudociência ou menos ciência do que a teoria da relatividade de Einstein, era apenas um paradigma diferente e incomensurável em relação a esta. Os critérios que fazem com que um paradigma seja adotado ou rejeitado sofrem influências de ordem social, como as necessidades econômicas e materiais da sociedade em questão ou o valor que se atribui a resolução de determinados problemas em vez de outros. A ciência possui períodos relativos de estabilidade assim como alguns períodos de crise, no qual alguns modelos teóricos e práticas são postos em cheque e são substituídos por outros.

Ainda que não concordemos com as teses elaboradas por Kuhn em A estrutura das Revoluções Científicas, seu relato da história da ciência nos faz perder o preconceito ingênuo de que a ciência naturalmente se desenvolve rumo a uma concepção cada vez mais verdadeira da realidade. A filosofia descritiva da ciência de Kuhn abriu o campo de investigações para a sociologia do conhecimento científico, uma disciplina voltada para a investigação das condições sociais da produção de conhecimentos científicos e que conta com nomes como Bruno Latour (1947 – ) e David Bloor (1942 – ).

Apesar das dificuldades de critérios de separação entre ciência e não ciência (o famoso problema da demarcação), um ponto relativamente pacífico é que teorias científicas são construções humanas que explicam e preveem eventos e empregam uma linguagem própria que carrega em si um sentido. Essas características colocam um problema clássico na filosofia, mas que ganha novos contornos na filosofia da ciência, que é o problema do estatuto epistemológico das teorias científicas. Tendemos, por força do hábito, a acreditar que quando um físico enuncia que o mundo está composto por partículas e ondas de tamanho ínfimo essas entidades existem realmente, e são independentes de nossas teorias sobre como as coisas funcionam. Partículas e ondas existiam desde a origem do universo, os cientistas é que demoraram a descobri-las. Nessa visão realista, teorias científicas descrevem a estrutura da realidade tal como ela é em si mesma. No entanto, as coisas não são tão simples assim, pois algumas entidades postuladas por teorias científicas como certas partículas e suas propriedades são completamente inobserváveis, como os quarks. Mas se elas não podem ser observadas o que é que torna válida e verdadeira a afirmação de que essas entidades realmente existem?

Em relação às entidades inobserváveis, os antirrealistas sustentam uma posição agnóstica: nós não podemos afirmar a existência dessas entidades, mas apenas utilizá-las como instrumentos teóricos para derivar certas conclusões empíricas e dar conta de certos fenômenos. Um dos argumentos mais conhecidos contra a posição antirrealista é o chamado “argumento sem milagres” elaborado por Hilary Putnam (1926 – ). Segundo esse argumento, a posição realista é a única que não faz do sucesso da ciência um milagre. Já que muitas de nossas teorias científicas são construídas com hipóteses que envolvem a existência de entidades de inobserváveis e essas teorias são empiricamente bem sucedidas (elas explicam fenômenos e são capazes de prever eventos), temos um indício forte de que essas entidades realmente existem. O argumento do milagre apela para a noção de sucesso empírico; entretanto, como já observei anteriormente, dizer que uma teoria funciona não significa dizer que ela é verdadeira, ou seja, não significa que ela descreve adequadamente aquilo que realmente existe e como existe. Muitos exemplos na história da ciência são utilizados pelos antirrealistas para mostrar que teorias falsas se adaptavam bem aos dados e previam consequências empiricamente observáveis, a já citada teoria de Ptolomeu é um exemplo disso. Os realistas respondem dizendo que, se os dados empíricos fossem adaptáveis a uma variedade muito grande de teorias diferentes esse realmente seria um ponto a favor dos antirrealistas, entretanto, na maioria dos casos é difícil encontrar uma teoria que dê conta dos fenômenos observados e que podemos elaborar critérios para determinar quais são as teorias mais adequadas aos dados como o poder explicativo, o poder preditivo e a simplicidade da explicação, por exemplo.

O debate intenso entre realistas e antirrealistas mostra que de forma alguma podemos tratar dados científicos como sendo pura e simplesmente verdadeiros, considerando como um dado evidente que a ciência procede através de um método rigoroso e testa amplamente suas conclusões e por isso seus resultados nos mostram realmente o que as coisas são. Entre os filósofos envolvidos com este debate estão Bas Van Fraassen (1941 – ), Stathis Psillos(1965 – ), Ian Hacking(1936 – ) e muitos outros.

Há ainda outra ordem de problemas que concerne à questão sobre quais são as condições ontológicas de possibilidade de qualquer teoria científica. Todas as ciências naturais operam com conceitos como o de causalidade, de classe e de lei. Todas são possíveis graças a algum tipo de ordem e regularidade encontradas na natureza, assim como a possibilidade da inteligência humana de representar essa ordem e essa regularidade através de modelos teóricos, muitas vezes de caráter matemático. Essas condições são pressupostos das teorias científicas e, por isso mesmo, não podem ser explicadas por elas. A física usa abundantemente a matemática na mensuração e quantificação de processos naturais, mas uma teoria que explique como é possível quantificar um evento que em si mesmo não é feito de números (por exemplo, a mensuração da atividade das moléculas de um gás) já não é mais uma teoria física, mas uma espécie de metateoria que vai além da física. Do mesmo modo, explicar o que é causalidade, o que é uma lei científica e o que é uma classe é algo que vai além das ciências particulares e que transcende a todas elas na medida em que seus objetos constituem a base de qualquer ciência natural possível. São problemas como esses, de ordem metacientífica, que estão no âmbito da filosofia e que são objetos de uma disciplina bastante recente chamada de “metafísica da ciência”.

Quando se postula algo como a “lei da gravidade” ou a “lei da inércia”, o que devemos entender por isso? É uma simples regularidade que ocorre e poderia não ocorrer no futuro ou é algo que necessariamente tem de ser assim dadas certas condições ambientes? A prática preditiva da ciência parece indicar que as leis que estruturam os processos naturais são necessárias e universais, caso contrário, a predição não seria possível e não passaria de um belo chute. Entretanto, a partir de que tipo de observação ou teoria científica poderíamos validar os conceitos de necessidade e de universalidade, uma vez que qualquer observação se limita a um evento particular, espaço-temporalmente circunscrito? A investigação desse tipo de questão depende da elaboração de conceitos puramente abstratos e pressupõe que a ciência é mais do que um simples instrumento para manipular a realidade, pressupõe que ao menos alguns dos enunciados científicos dizem respeito a realidades independentes de nossas representações, numa palavra, a metafísica da ciência pressupõe algum nível de realismo científico e ela é uma disciplina filosófica desenvolvida em um espírito de colaboração com as diversas ciências naturais, dado que suas especulações não são feitas no vazio, mas sobre os dados fornecidos pelas teorias científicas. São muitos os filósofos que se dedicaram e ainda continuam se dedicando à metafísica da ciência como Michel Ghins, Alexander Bird, E.J. Lowe (1950 – 2014), Wolfgang Smith(1930 – ), Nancy Cartwright(1944 – ) e Tim Maudlin(1958 – ) para citar apenas alguns.

Portanto, longe de possuir a transparência que o senso comum lhe atribui, a prática científica levanta uma série de questões muito interessantes e complexas de cunho propriamente filosófico que ainda estão distantes de consensos substanciais. É evidente que o médico, o físico e o engenheiro nunca precisarão de um filósofo da ciência para lhes dizer o que fazer, mas também é verdade que uma compreensão adequada da própria teoria e prática científica, de seus limites e de suas possibilidades, é fundamental se quisermos entender verdadeiramente o que a ciência está nos dizendo sobre o mundo.

 

Gustavo Bravo é graduado em Filosofia pela Faculdade de São Bento do Rio de Janeiro e professor de filosofia no ensino médio.

Publicado originalmente no site da Revista Dicta&Contradicta 

A energia escura e o destino do Universo (por Mario Livio)

Epistemologia e Ciência | 16/02/2015 | | IFE CAMPINAS

image_pdfimage_print
SuperNova-Hubble-640px-SN1994D

Imagem de uma supernova


A composição do nosso Universo parece ser assaz estranha. Apenas 5% de toda a sua energia é feita de matéria conhecida – aqueles tipos de partículas que formam estrelas, planetas e pessoas. Cerca de 23% é “matéria escura”, possivelmente um tipo de partícula subatômica que nós ainda não identificamos em laboratório, mas cuja força gravitacional mantém as galáxias juntas. Os 72% restantes são ainda mais misteriosos: um tipo de “energia escura” que faz a expansão do Universo se acelerar.

Mas o que é esta energia escura? Sabemos que a sua densidade é praticamente constante no tempo e no espaço, mas não sabemos o que é de fato, e entender a verdadeira natureza dessa energia talvez seja o maior desafio da Física hoje.

A expansão cósmica

Tycho-supernova-xray

Figura 1

Com centenas de bilhões de galáxias, o Universo observável é realmente grande, e vai ficando cada vez maior à medida que se expande. Mas nem todas as coisas do Universo estão em expansão: os átomos, as pessoas e mesmo as galáxias não estão. Com o passar do tempo, entretanto, o espaço entre galáxias distantes está cada vez maior.

A expectativa geral era de que a expansão cósmica diminuiria gradualmente, visto que as galáxias exercem a sua força gravitacional umas nas outras. Houve, portanto, uma imensa surpresa em 1998, quando duas equipes de astrônomos trabalhando independentemente anunciaram que a expansão estava na realidade ficando mais rápida. Ambas as equipes valeram-se da explosão das supernovas de tipo IA (ver figura 1). Essas explosões são tão brilhantes que podem ser vistas a uma distância de bilhões de anos-luz. A luz de um objeto que esteja, por exemplo, a cinco bilhões de anos-luz leva cinco bilhões de anos para chegar até nós; noutras palavras, observamos o Universo tal como ele era há cinco bilhões de anos. As supernovas foram encontradas mais longe do que se esperava para um Universo movido apenas pela inércia – o que indicava um sinal de aceleração.

A melhor explicação atual para a inesperada aceleração do Universo é a energia escura, uma forma de energia cuja densidade é praticamente ou talvez exatamente a mesma em toda a parte e sempre. Sua persistência proporcionaria uma força repulsiva constante ao Universo, acelerando assim a sua expansão.

Energia do vácuo?

A explicação mais aceita sobre a natureza da energia escura é a de que ela seria a energia do vácuo, uma energia perfeitamente uniforme presente nos espaços vazios em qualquer lugar do Universo. A autoria dessa idéia remonta a Einstein, que introduziu a “constante cosmológica” na sua Teoria da Relatividade Geral em 1917. Na época, os astrônomos pensaram que o Universo não estava nem em expansão nem em desaceleração, e ele então utilizou a constante cosmológica para compensar a atração gravitacional da matéria. Quando Edwin Hubble descobriu a expansão cósmica em 1929, Einstein percebeu que a constante cosmológica não era necessária e descartou o conceito, que viria depois a chamar (segundo o físico George Gamow) de “o seu mais crasso erro científico”.

A energia do vácuo não é um gás, um fluido ou qualquer outro tipo de substância; está mais para uma propriedade do espaço-tempo em si. É simplesmente a quantidade mínima de energia presente em qualquer região do espaço, a energia que permanece quando removemos todo o tipo de “tralha” daquela região. Na relatividade geral, essa quantidade pode ser positiva ou negativa, sem qualquer razão especial para ser zero.

O mundo microscópico obedece as leis da mecânica quântica, que proclamam que o nosso entendimento do estado de qualquer sistema envolve uma inevitável incerteza (o famoso princípio da incerteza de Werner Heisenberg). Os campos de energia, portanto, flutuarão mesmo no espaço vazio, uma vez que não podemos determinar que o espaço vazio possui zero de energia. Nessas “flutuações do vácuo”, partículas virtuais aparecem e desaparecem em frações de segundo. Tais partículas contribuem para a energia do vácuo, mas não são a sua única causa, uma vez que a relatividade geral permite-nos assumir uma energia do vácuo arbitrária sem levar em conta essas flutuações. Einstein com certeza não estava pensando em partículas virtuais quando concebeu a constante cosmológica.

Se a energia escura observada for realmente energia do vácuo, então será muito pouca: a quantidade dela dentro do volume da Terra não é maior que a média anual de consumo de eletricidade no Brasil. De fato, a energia escura observada está mais de cento e vinte ordens de grandeza abaixo das mais ingênuas estimativas para o seu valor.

Seria a quintessência?

Uma vez que a energia do vácuo parece ser diminuta, seria mais fácil inventar uma teoria que a considere nula do que uma que a reduz ao valor exato observado. Uma suposição é a de que a energia escura observada não é a energia do vácuo, mas alguma outra forma sutil que evolui lentamente.

Vários candidatos foram apresentados, mas nenhum parece ser completamente natural. Um dos favoritos é aquintessência, um campo invisível (similar aos campos eletromagnético e gravitacional) que muda lentamente à medida que o Universo se expande. Imagino que quando Universo tinha apenas frações de segundo de existência, talvez um tipo de campo similar à quintessência o tenha inflado, só que com muito mais energia. A energia que desencadeou a expansão acabou por tornar-se matéria e radiação, também em frações de segundo após o Big Bang.

Uma dos principais objetivos da cosmologia contemporânea é determinar se a energia escura é dinâmica como a quintessência ou algo estritamente constante como a energia do vácuo. A evolução da energia escura afetam diretamente a expansão cósmica, de modo que os cosmólogos vêm empenhando-se para mapear a história da expansão com o maior cuidado possível. Os limites da evolução da energia escura são freqüentemente postos em termos do “parâmetro de equação de estado”, simbolizados por w, que é a pressão da energia escura dividida pela densidade da sua energia. Se a energia escura é pura energia do vácuo invariável, a medida de w será exatamente igual a –1.

Um método óbvio para a mensuração do valor de w é continuar com a observação de supernovas tipo IA, só que com mais precisão e usando números de maior grandeza. Medidas futuras da radiação cósmica de fundo e das oscilações acústicas dos bárions – flutuações na distribuição comum da matéria que se manifestam no modelo em larga escala do Universo – também ajudarão a compreender a natureza da energia escura.

1024px-CMB_Timeline300_no_WMAP

Figura 2

Os cosmólogos também esperam usar a quantidade e a evolução dos conglomerados de galáxias como pontas de prova da expansão cósmica (ver figura 2). A história da expansão determina quantos conglomerados podem ser formados e quão grandes eles podem ser. Há gás quente nos conglomerados, e os astrônomos podem estudá-los diretamente por meio da emissão de raio-X do material. A temperatura do gás está intimamente relacionada com a massa do conglomerado. Conglomerados com muita massa podem reter gás muito quente, ao passo que o gás escapa dos conglomerados menores como vapor de uma chaleira. Com todos esses métodos diferentes, e talvez futuras missões espaciais, podemos esperar para os próximos anos uma maior riqueza de dados acerca da expansão cósmica.

O destino do Universo

Sabemos desde 1998 que Universo está se expandindo aceleradamente. Mas será que essa aceleração continuará para sempre? Em caso afirmativo, qual será o destino dos conglomerados de galáxias, das galáxias e das estrelas? A resposta a essas questões depende de um intrincado equilíbrio entre a geometria do Universo e as propriedades dessa forma sutil de energia, apelidada “Energia escura”, que permeia todo o espaço.

O papel da geometria

Num cosmo sem energia escura, a relatividade geral enuncia que o destino último do Universo é total e inequivocadamente determinado pela sua geometria [N.E.: aqui na revista impressa havia uma imagem ilustrativa “Figura 3”, mas não conseguimos recuperá-la]. Um Universo com curvatura positiva, como a superfície de uma esfera, acabará por implodir (tal Universo é dito fechado). Um Universo geometricamente plano (euclidiano) ou com curvatura negativa, como a superfície de uma sela, expande-se indefinidamente (trata-se de um Universo aberto).

A existência da energia escura complica consideravelmente a situação. Se ela é de fato a energia associada com o vácuo – uma possibilidade que se mostra consistente diante das últimas observações das supernovas, dos conglomerados de galáxias e da radiação cósmica de fundo –, então a sua densidade de energia permanece constante, ao passo que as densidades de energia tanto da matéria e a da radiação diminuem continuamente na medida em que o Universo se expande. Isso quer dizer que a energia escura começa a preponderar quando o Universo se torna suficientemente extenso. Para um parâmetro de equação de estado w = –1, caracterizando o vácuo, dá-se a dominância da energia escura independentemente do sinal da curvatura geométrica. Uma vez que a energia escura produz uma força repulsiva à gravidade, a expansão cósmica começa a se acelerar, tal como observamos hoje no nosso Universo.

Se a expansão do nosso Universo é regida pela energia do vácuo, então continuará a se acelerar, resultando eventualmente num desvio para o vermelho: todas as galáxias que estiverem mais distantes do que as duas dúzias que formam, aproximadamente, o nosso Grupo Local irão tão longe que não se poderá mais detectá-las. Noutras palavras, os astrônomos vivendo na Via Láctea daqui a 100 bilhões de anos não serão capazes de observar nenhuma galáxia fora do nosso Grupo Local. De fato, tais astrônomos (supondo que existam então) sequer serão capazes de observar a radiação cósmica de fundo, porque também ela sofrerá um desvio para o vermelho.

Tamanho isolamento cósmico e a morte final num “grande resfriamento” não é o pior dos possíveis destinos do Universo.

O “big rip” e outros destinos possíveis

Se a energia escura não for a energia do vácuo, mas em vez disso estiver associada a algum tipo de campo de quintessência, sendo caracterizada por um parâmetro de equação de estado w menor (mais negativo) que –1, então a densidade de energia da energia escura crescerá com o tempo. Nesse caso, quando a densidade da energia escura exceder a dos conglomerados de galáxias, estes desintegrar-se-ão. O mesmo destino terão as estrelas, os planetas, as pessoas, os átomos e mesmo os núcleos atômicos. Nenhuma estrutura sobreviverá à crescente densidade da energia escura. O Universo acabará naquilo que foi batizado de big rip (“o grande rasgo”).

Há possibilidades menos extremas relacionadas com a energia escura na forma de um campo escalar quando w é maior(menos negativo) que –1. Geralmente espera-se do campo escalar que diminua a sua energia potencial assim como uma bola de gude diminuiria a sua energia rolando pelas laterais de uma tigela, acabando por repousar quanto atingisse a sua energia potencial mínima. Nesse caso, o destino do Universo depende do valor desse mínimo de energia potencial. Num Universo como o nosso, onde apenas a matéria não é suficiente para torná-lo geometricamente plano, qualquer valor positivo causaria uma expansão acelerada, e o mesmo desvio para o vermelho ocasionado pela energia do vácuo aconteceria. Uma energia potencial mínima que é exatamente igual a zero asseguraria um novo domínio da matéria em algum ponto do futuro, e o Universo começaria a se desacelerar. Nesse caso, o destino será determinado pela geometria do Universo, como no caso de um Universo sem energia escura. Por fim, se a energia potencial mínima for negativa, acabará por ocorrer a implosão do Universo, não importando a sua geometria.

As complicações trazidas pela presença da energia escura são tamanhas que é essencialmente impossível determinar o destino do Universo a partir apenas de observações. Imaginemos, por exemplo, que no nosso Universo a densidade da energia escura fosse de apenas um trilionésimo da densidade da matéria – muitas ordens de grandeza abaixo de qualquer detecção. Ainda assim, após ele ter se expandido por um outro fator de dez mil, a energia escura transformar-se-ia na forma de energia dominante – aquela que selaria o  seu destino. Por conseguinte, não seremos capazes de conhecer o destino do nosso Universo com certeza até sermos capazes de complementar as observações com uma teoria confiável que nos permita entender a própria natureza e as propriedades específicas da energia escura.

Há ainda outro ponto digno de nota. A composição do Universo, com os seus 5% de matéria normal (bariônica), 23% de matéria escura e 72% de energia escura, parece ser bastante arbitrária. Assim, há físicos que pensam estarmos completamente equivocados. Talvez a energia escura não exista realmente; talvez as nossas teorias da gravidade e da relatividade geral não dêem conta das escalas cosmológicas. Algumas teorias alternativas da gravidade foram aventadas partindo-se dessa linha. Boa parte delas envolve dimensões extras, além das nossas três dimensões de espaço e uma de tempo. Até agora, não houve rachaduras experimentais ou observacionais na relatividade geral. Mas a experiência passada ensina-nos a sempre esperar o inesperado.

Mario Livio é astrônomo sênior e chefe do departamento de relações públicas do Space Telescope Science Institute, entidade responsável pelo programa do telescópio espacial Hubble. Publicou mais de 400 artigos científicos acerca de uma grande variedade de temas de Astrofísica, bem como quatro livros de divulgação, dos quais dois (Razão Áurea: a história de fi e A equação que ninguém conseguia resolver) já foram publicados no Brasil pela editora Record. O seu livro Is God a Mathematician? está prestes a ser publicado aqui pela mesma casa.

Tradução de Cristian Clemente.

***Texto originalmente publicado na revista-livro do IFE, Dicta&Contradicta, nº 4, Dez/2009. Disponível [online] no site da revista no link: http://www.dicta.com.br/edicoes/edicao-4/a-energia-escura-e-o-destino-do-universo/

**Fonte da imagem principal: NASA/ESA Uploaded by Metrónomo, “Hubble Space Telescope-Image of Supernova 1994D (SN1994D) in galaxy NGC 4526 (SN 1994D is the bright spot on the lower left)”. Link: http://en.wikipedia.org/wiki/Dark_energy#mediaviewer/File:SN1994D.jpg

**Fonte da Figura 1: NASA/CXC/Rutgers/J.Warren & J.Hughes et al. Link: http://it.wikipedia.org/wiki/Supernova_di_tipo_Ia#mediaviewer/File:Tycho-supernova-xray.jpg

**Fonte da Figura 2: NASA/WMAP Science TeamOriginal version: NASA; modified by Ryan Kaldari. Link: http://en.wikipedia.org/wiki/Metric_expansion_of_space#mediaviewer/File:CMB_Timeline300_no_WMAP.jpg

Biodireito e bioética: realidades e limites

Direito | 29/01/2015 | | IFE CAMPINAS

image_pdfimage_print

ética médica

A rapidez e o forte impacto social provocados pelos problemas decorrentes das inúmeras inovações das ciências médicas, sobretudo da engenharia genética e da embriologia, não podem ficar alheios ao direito, pois envolvem o contato com um indivíduo vivente, o qual é titular de uma série de direitos inalienáveis, em razão da dignidade da pessoa humana. Essa perene e imanente juridicidade é reconhecida desde a época do Digesto Romano: ius ex persona oritur[1].

O progresso científico criou uma nova mentalidade de atuação das ciências médicas. A medicina tradicional já não consegue acompanhar os efeitos deste progresso: esterelização compulsória de deficientes mentais, fertilização in vitro, inseminação artificial post mortem, eutanásia, aborto, banco de óvulos, estoque de embriões humanos excedentes, crioconservação, experimentação terapêutica de fetos mortos, mudança de sexo, reprodução humana assexuada, manipulações genéticas, enfim, uma gama enorme de técnicas médicas, cujos limites vão além da extravagância intelectual ou da torpeza dos interesses econômicos envolvidos.

O atendimento médico tomou um perfil mais socializado, restando muito restrita a atuação do médico de família. Os padrões de conduta nas relações entre médico, paciente e operadora do plano de saúde assumiram outros patamares, em razão da implementação de políticas públicas que buscam respeitar o direito constitucional à saúde. A telemedicina e o fone-med tornaram-se instrumentos de uso ordinário pelos profissionais da saúde no tratamento dos pacientes.

A universalização das organizações de saúde (“Médicos sem Fronteiras” e a Organização Panamericana da Saúde) é um fato incontroverso. São entes que se preocupam com o combate das doenças em locais sem qualquer estrutura e que editam várias recomendações e protocolos sobre questões delicadas da bioética. A medicalização da vida humana é cada vez maior, diante do aumento das ofertas de serviços médicos para cada fase da pessoa (embriologia, pediatria, cirurgia estética, geriatria, etc…).

É cada vez maior a atuação dos comitês de ética, tanto na esfera hospitalar, quanto na de grupos de pesquisa, com o fim de se dar credibilidade aos resultados obtidos e proteger os interesses dos pacientes envolvidos em questões bioéticas. Há também o crescente interesse da ética filosófica nos temas relativos à vida, reprodução e morte do ser humano.

Existe a necessidade de um padrão moral de atuação médica, a ser buscado pela razão e com respeito à realidade das coisas, diante da fragmentação dos valores, resultado inevitável do pluralismo social, a fim de resolver a questões oriundas do progresso científico e tecnológico das ciências biomédicas.

Como se vê, o repertório de questões é amplo. Some-se a isso a crescente especialização das diversas áreas que englobam as ciências biomédicas, cujo efeito negativo prático é o aumento dos riscos de manipulação do paciente ou de um tratamento para fins ilícitos. O diagnóstico é muito simples: a boa prática médica atual demanda uma renovação ética e deontológica.

Esse novo pensar ético e deontológico deve indicar os limites de atuação do imperativo científico-tecnológico, mas com respeito incondicionado ao primado da dignidade do ser humano, sobretudo quando o profissional da medicina se interroga a respeito do que pode e do que deve ser feito. Em bom português: diante dos riscos a que espécie humana está sujeita, impõe-se o estabelecimento de alguns limites à liberdade de pesquisa biomédica, em prol daquele primado incondicional (artigo 5º, caput e inciso IX, da CF 88).

A bioética, nesses moldes, surge como um novo domínio de reflexão que considera o ser humano em sua integralidade, evidencia os marcos éticos para uma vida humana digna, inquieta todos sobre os malefícios do avanço desordenado da biotecnologia e convoca a sociedade a uma tomada de consciência dos desafios trazidos pelas ciências biomédicas.

A bioética, em suma, deve ser personalista, por enxergar o homem como uma pessoa, isto é, como um ser individualizado e circunstancialmente considerado, com o claro fim de evitar qualquer intervenção no ser humano que não lhe acarrete um bem, pois a criatura humana sempre será um fim em si mesma e jamais um meio para  a conquista de outras finalidades.

E o biodireito deve caminhar, nas linhas gerais de seu natural campo político-normativo, de mãos dadas com a bioética personalista e sempre ecoando a lição do povo romano, cujo direito, por ser velho, é, ao mesmo tempo, novo, na medida em que, costumeiramente, é chamado a reinventar-se ao longo dos tempos.

Notas:

[1] Ius ex persona oritur: o Direito emana da pessoa. A pessoa deve constituir o centro do Direito em quaisquer de suas dimensões. Por ser tanto racional como livre, a pessoa humana é a protagonista do Direito, o sujeito de direito por antonomásia. “Todo Direito tem sido constituído por causa dos homens”, assinalou o jurisconsulto Hermogeniano, magister libellum de Diocleciano, inspirado na tradição do Direito Romano clássico (Digesto 1,5,2: Cum igitur hominum causa omne ius constitutum sit). O mesmo sentido é empregado por Justiniano em suas Institutiones (I.1,2,12), quando afirma que pouco se pode saber do Direito se a pessoa é ignorada (Nam parum est ius nosse si personae quarum causa statutum est ignorentur.). Por isso, podemos afirmar – categoricamente – que o Direito procede da pessoa. Eis a regra de ouro do Direito. O Direito tem origem na pessoa e não no Estado, essa construção teórica criada para servir o homem, ainda que, em muitas ocasiões, tenha sido instrumentalizado para fins iníquos à humanidade. As pessoas são autênticas nomóforas, isto é, portadoras do Direito. A crise da noção de pessoa, própria do ethos pós-moderno, também produz efeitos nefastos no vocabulário jurídico. Isso é patente na complexa distinção entre pessoa física e pessoa jurídica, nascida na Idade Média, por impulso do canonista Sinibaldo de Fieschi, mais tarde conhecido por papa Inocêncio IV: no comentário às Decretais de Graciano (Cânone 57.X.11.20), disse que cum collegium in causa universitatis fíngatur una persona. Thomas Hobbes também contribuiu nessa distinção, na passagem em que ele, como Sinibaldo no comentário anterior, equipara as instituições com os homens: quia civitates semel institutae induunt proprietates hominum personales (De Cive, 14.4).

 

André Gonçalves Fernandes é juiz de direito, doutorando em Filosofia e História da Educação, pesquisador, professor, coordenador do IFE Campinas e membro da Academia Campinense de Letras.