sábado, 31 de outubro de 2015

O que é a Filosofia da Ciência? [Parte II]




David Papineau
King's College London


A filosofia da ciência pode ser dividida em duas grandes áreas: a epistemologia da ciência e a metafísica da ciência. A epistemologia da ciência discute a justificação e a objetividade do conhecimento científico [Parte I, ver aqui]. A metafísica da ciência discute aspectos filosoficamente problemáticos da realidade desvendada pela ciência [Parte II, que segue abaixo].

2. Metafísica da ciência


Causalidade

Voltando-nos agora para a metafísica da ciência, uma questão central é a análise da causalidade. Segundo David Hume, a causalidade, enquanto relação objetiva, é apenas uma questão de associação constante: um acontecimento causa outro se, e só se, os acontecimentos do primeiro tipo estiverem constantemente associados aos acontecimentos do segundo tipo. Esta análise gera, contudo, alguns problemas. Primeiro, há a questão da distinção entre genuínas leis causais da natureza e associações acidentalmente verdadeiras: ser um parafuso da minha mesa pode muito bem estar constantemente associado ao fato de ser feito de cobre, sem que seja verdade que esses parafusos sejam feitos de cobre porque fazem parte da minha mesa. Em segundo lugar, há um problema quanto à direção da causalidade: como distinguimos nós as causas dos efeitos, dado que uma associação constante de acontecimentos do tipo A com acontecimentos do tipo B implica imediatamente a associação constante de acontecimentos do tipo B com acontecimentos do tipo A? E, em terceiro lugar, há a questão da causalidade probabilística: será que as causas têm de determinar os seus efeitos, ou é suficiente que elas estejam probabilisticamente (e não “constantemente”) associadas a eles?


Explicação

Muitos filósofos da ciência deste século [séc. XX] preferiram falar acerca de explicação em vez de causalidade. De acordo com o modelo de cobertura por leis, desenvolvido por Hempel, um acontecimento particular é explicado se a sua ocorrência puder ser deduzida da ocorrência de outros acontecimentos particulares com a ajuda de uma ou mais leis naturais. Mas isto não é muito diferente da análise humeana da causalidade, e como é de esperar enfrenta essencialmente os mesmos problemas. Como distinguimos leis de acidentes? Será que às vezes não somos capazes de deduzir “para trás” — como quando deduzimos a altura do mastro a partir do comprimento da sua sombra — apesar de não querermos dizer que o comprimento da sombra explica a altura do mastro? E não haverá casos em que somos capazes de explicar um acontecimento — o sr. X ter desenvolvido um cancro, por exemplo — por meio de outro — o facto de ele fumar sessenta cigarros por dia — apesar de não sermos capazes de deduzir o primeiro do segundo, uma vez que a relação entre eles é apenas probabilística?


Leis x acidentes

Sobre a questão de distinguir leis de acidentes, há duas estratégias possíveis. A primeira permanece fiel ao ponto de vista humeano de que as proposições legiformes não afirmam nada mais do que a associação constante e tenta então explicar por que razão algumas asserções que exprimem associações constantes — as legiformes — são mais importantes do que as outras — as acidentais. A versão mais conhecida desta estratégia humeana, proposta originalmente por F. P. Ramsey e depois reavivada por David Lewis, argumenta que as leis são aquelas generalizações verdadeiras que podem ser encaixadas numa sistematização ideal do conhecimento; ou, na formulação de Ramsey, as leis são “uma consequência daquelas proposições que tomaríamos como axiomas se soubéssemos tudo e o organizássemos do modo mais simples possível num sistema dedutivo”. A estratégia não-humeana alternativa, cujo defensor mais proeminente é D. M. Armstrong, rejeita o pressuposto de que as leis não implicam mais do que associações constantes, postulando em vez disso uma relação de “necessitação” que se verifica entre os tipos de acontecimentos que estão relacionados de modo legiforme, mas não entre aqueles que apenas estão associados acidentalmente.


A direção da causalidade

Quanto à questão da direção da causalidade, o próprio Hume apenas disse que, de entre dois acontecimentos constantemente associados, o acontecimento anterior era a causa e o posterior o efeito. Mas há algumas objeções a este uso da assimetria anterior-posterior para analisar a assimetria causa-efeito. Para começar, é pelo menos concebível que haja causas que sejam simultâneas com os seus efeitos, ou mesmo causas que sejam posteriores aos seus efeitos. Além disso, parece haver boas razões para querer fazer a análise em sentido contrário, usando a direção da causalidade para analisar a direção do tempo. Se fizermos isto, iremos querer uma explicação da direção da causalidade que seja temporalmente independente? Têm sido propostas algumas explicações desse tipo. David Lewis argumenta que a assimetria da causalidade deriva da “assimetria da sobredeterminação”: ao passo que a sobredeterminação dos efeitos pelas causas é muito rara, é perfeitamente normal as causas serem “sobredeterminadas” por um grande número de encadeamentos de efeitos independentes, cada um dos quais é condição suficiente para a causa anterior. Outros autores apelaram para uma assimetria probabilística relacionada para explicar a assimetria causal, fazendo notar que as diferentes causas de um dado efeito comum são em geral probabilisticamente independentes umas das outras, mas que os diferentes efeitos de uma causa comum estão normalmente correlacionados probabilisticamente.


Determinismo

O advento da mecânica quântica (e em particular a afirmação empírica da desigualdade de Bell) persuadiu a maioria dos filósofos da ciência da falsidade do determinismo. De acordo com isto, procuraram desenvolver modelos de explicação causal segundo os quais as causas se limitam a tornar prováveis o seus efeitos, em vez de os determinar. O primeiro destes modelos, influenciado pela análise de Carl Hempel da explicação “indutivo-estatística” exigia que as causas conferissem aos seus efeitos uma probabilidade alta. Contudo, embora fumar inequivocamente cause o cancro, nunca o torna altamente provável. De modo que os modelos mais recentes apenas exigem que as causas aumentem a probabilidade dos seus efeitos, mesmo que apenas seja de um valor baixo para um valor ligeiramente menos baixo. Os modelos de causalidade probabilística precisam se precaver contra a possibilidade de as associações probabilísticas entre acontecimentos poderem ser espúrias em vez de genuinamente causais, como a associação entre o ponteiro de um barômetro baixar e a chuva subsequente. É uma questão em aberto a de saber se tais associações espúrias podem ser rejeitadas por meios puramente probabilísticos, ou se é necessário introduzir-se critérios não probabilísticos.


Probabilidade

A noção de probabilidade tem interesse filosófico independentemente da sua relação com a causalidade. Há várias maneiras diferentes de interpretar o cálculo matemático das probabilidades. As teorias subjetivas da probabilidade, que se desenvolveram a partir da teoria lógica da probabilidade de J. M. Keynes, encaram as probabilidades como graus subjetivos de crença. Esta é a interpretação adotada pelos bayesianos partidários da teoria da confirmação. Contudo, a maior parte dos filósofos da probabilidade argumentam que precisamos de uma interpretação objetiva da probabilidade para além desta análise subjetiva. Segundo a teoria da frequência de Richard von Mises, a probabilidade de um dado tipo de resultado é o limite da frequência relativa com que ele ocorre em sequências cada vez mais longas extraídas de uma qualquer “classe de referência” infinita. Uma dificuldade que se põe à teoria da frequência é a de que ela atribuirá uma probabilidade diferente a um dado resultado isolado quando esse resultado for considerado como membro de diferentes classes de referência. Para cancelar esta consequência, Karl Popper propôs que as probabilidades fossem encaradas como propensões de cenários experimentais específicos, no sentido em que só as frequências de classes de referência geradas por repetições do mesmo cenário experimental deveriam contar como probabilidades genuínas. As versões posteriores desta teoria das propensões abandonam o apelo a classes de referência infinitas, tomando simplesmente a probabilidade como uma característica quantitativa de cenários específicos, que é exibida pelas frequências nas repetições desses cenários, mas que não pode ser definida em termos de frequências.


A interpretação filosófica da probabilidade objetiva está intimamente relacionada com a nossa compreensão da mecânica quântica moderna. A interpretação da mecânica quântica, porém, é ainda um problema em aberto na filosofia da física. Tomada à letra, a mecânica quântica diz que, quando os sistemas físicos são medidos, adquirem subitamente, para parâmetros observáveis, valores definidos que não tinham antes. A teoria especifica as probabilidades diferentes desses valores, mas não pode prever sem margem para dúvida quais serão observados. A reação de Albert Einstein foi a de que a mecânica quântica tinha de ser incompleta, e que uma teoria futura acabaria por encontrar as “variáveis ocultas” que efetivamente determinam os resultados observados. Contudo, a possibilidade de uma teoria comprometida com tais variáveis ocultas foi concludentemente desacreditada: John Bell mostrou que qualquer teoria desse gênero conteria previsões diferentes das da mecânica quântica, e há resultados experimentais que afirmam essas previsões. Permanece, então, o problema de explicar as medições quânticas. Medições são, afinal de contas, processos físicos. Contudo, a mecânica quântica não explica a razão de por que as medições determinam valores definidos observáveis; apenas o dá “de barato”. É provável que uma compreensão satisfatória das medições quânticas tenha de aguardar uma interpretação radicalmente nova da teoria.


Explicação teleológica

Outro aspecto metafísico da filosofia da ciência é a questão da explicação teleológica. Esta é basicamente uma questão de filosofia da biologia, visto que é no domínio da biologia que encontramos os exemplos paradigmáticos da explicação teleológica, como quando dizemos que a clorofila está presente nas plantas com o fim de facilitar a fotossíntese. Explicações como esta são filosoficamente interessantes porque explicam as causas pelos efeitos, e parecem assim ir contra o modelo habitual que consiste em explicar os efeitos pelas causas. Carl Hempel argumentou que tais explicações são apenas uma variante da explicação pelo modelo de cobertura por leis em que o fato usado para explicar — a fotossíntese — ocorre num momento posterior ao do facto explicado — a clorofila. Há, porém, contraexemplos a esta proposta e as tentativas de restringi-la impondo a condição de que os elementos envolvidos façam parte de um sistema autorregulador revelaram-se problemáticas. A maioria dos filósofos da ciência favoreceria agora uma abordagem diferente, de acordo com a qual as explicações teleológicas da biologia são uma forma de explicação causal disfarçada, nas quais é feita referência implícita a uma hipotética história da seleção natural durante a qual o elemento em questão — a clorofila — foi favorecido porque produziu o efeito relevante — a fotossíntese. Alguns filósofos interrogar-se-iam se estas explicações “para trás” merecem de fato ser chamadas “teleológicas”, visto que não explicam de fato o presente por meio do futuro, mas antes por meio de histórias anteriores de seleção; esta questão, no entanto, é essencialmente terminológica.


Reducionismo

Ciências particulares como a biologia, a química, a geologia, a meteorologia e assim por diante levantam a questão do reducionismo. Diz-se que uma ciência pode ser “reduzida” a outra se as suas categorias puderem ser definidas em termos das categorias da segunda, e as suas leis explicadas também em termos das leis da segunda. Os reducionistas argumentam que as ciências formam uma hierarquia na qual as que estão num nível mais alto podem ser reduzidas às que estão num nível mais baixo: assim, a biologia pode ser reduzida à fisiologia, a fisiologia à química, e por fim a química à física.

A questão do reducionismo tanto pode ser vista histórica como metafisicamente. A questão histórica é a de saber se a ciência progride tipicamente pela redução das teorias anteriores às que se lhes seguem. A questão metafísica é a de saber se as diferentes áreas da ciência descrevem realidades diferentes, ou antes uma mesma realidade física descrita com diferentes níveis de pormenor. Embora muitas vezes sejam discutidas simultaneamente, trata-se de duas questões diferentes. Tomado como uma tese geral, o reducionismo histórico é falso, por razões relacionadas com a “meta-indução pessimista” discutida acima: embora haja alguns episódios históricos em que velhas teorias científicas foram reduzidas a novas, há outros tantos em que as novas mostraram que as velhas eram falsas, e em que portanto as segundas foram eliminadas e não reduzidas. Isto não significa, todavia, que o reducionismo metafísico seja falso. Mesmo que a ciência proceda em direção à verdade total de modo errático, pode haver razões gerais para se esperar que esta verdade total, quando finalmente for alcançada, se reduza à verdade física.

Um argumento possível desse gênero advém da interação causal entre os fenômenos discutidos nas ciências especiais e os fenômenos físicos. Assim, os fenômenos biológicos, geológicos e meteorológicos têm todos efeitos físicos; e isto implicaria aparentemente que eles fossem compostos por elementos físicos. É questionável, porém, que isto seja suficiente para estabelecer o reducionismo de larga escala, em vez da tese da identidade-espécime segundo a qual cada acontecimento específico de tipo especial é idêntico a algum acontecimento físico específico. Podemos aceitar a identidade-espécime, e mesmo assim rejeitar a identificação entre tipos especiais e tipos físicos. Se o fizermos, rejeitamos também a tese reducionista de que todas as leis especiais podem ser explicadas pelas leis físicas. Em vez disso, defenderemos que há leis especiais sui generis, padrões que abrangem tipos especiais que variam na sua constituição física, e que portanto não podem ser explicados apenas por leis físicas.


Bibliografia


· I. Hacking, Representing and Intervening (Oxford, 1983)

· C. Hempel, Aspects of Scientific Explanation (Nova Iorque, 1965)

· T. S. Kuhn, The Structure of Scientific Revolutions (Chicago, 1962)

· E. Nagel, The Structure of Science (Nova Iorque, 1961)

· K. Popper, The Logic of Scientific Discovery (Londres, 1950)

· B. Van Fraassen, The Scientific Image (Oxford, 1980)



O texto acima faz parte do Compêndio de Filosofia de Oxford (Oxford Companion to Philosophy). Sua tradução para o português de Portugal foi feita por Pedro Santos e pode ser encontrada por aqui. Utilizamos essa tradução, mas fizemos algumas modificações: além de adaptá-la para o português do Brasil, incluímos os subtítulos e negritos, e optamos por dividi-la em duas postagens.

Nenhum comentário:

Postar um comentário