O movimento antievolucionista, cuja versão mais moderna é o ‘Criacionismo do Design Inteligente’ (CDI), em sua campanha contra o ensino de evolução, depende da distorção da literatura científica. Eles fazem isso de maneira a lhes permitir fazer alegações que, superficialmente, parecem tornar a simples ideia de evolução por mecanismos naturais inviável ou, pelo menos, altamente improvável, apesar da quantidade gigantesca de evidências científicas que corroboram a realidade deste fenômeno e do amplo consenso que respalda dentro da comunidade científica. Entre as estratégias preferidas pelos Criacionistas do DI, entre as mais perniciosas, estão as que dependem do uso e abuso dos conceitos de informação e probabilidade.
Neste quesito o principal nome que vem à tona é o do matemático, teólogo e filósofo William Dembski que propôs uma série de conceitos e ideias (com nomes pomposos tais como, “lei de conservação da informação’, ‘filtro explanatório’, ‘complexidade especificada’, ‘informação complexa especificada’, ‘limite universal de probabilidade’ etc) pelas quais, supostamente, seria possível inferir um Designer Inteligente superhumano e ultrapoderoso, de maneira cientificamente rigorosa. Porém, estes conceitos e ideias que jamais estabeleceram-se na literatura científica especializada, ainda assim, foram sistematicamente analisados, dissecados e, por fim, derrubados por uma série de filósofos, cientistas e matemáticos; muitos dois quais chamaram a atenção para a vagueza ou incoerência de muitos destes conceitos e, nos casos em que é possível uma interpretação minimamente coerente e realista, enfatizaram que com base neles, simplesmente, não é possível derrubar a evolução por mecanismos naturais, portanto, não tendo sida estabelecida em bases rigorosas a inferência de um Designer.
O artigo que segue, publicado online na RNCSE, foi escrito por Joe Felsenstein – um conhecido e respeitado biólogo evolutivo com uma enorme experiência com a genética teórica de populações e com métodos estatísticos e computacionais de inferência evolutiva. Esse artigo é uma destas várias análises e refutações das ideias, argumentos e propostas de Dembski, as quais eu havia me referido. O texto de Felsenstein é especialmente indicado por sua clareza e acessibilidade, além da abrangência, fornecendo um resumo dos motivos que fazem os argumentos pseudoprofundos, cobertos de jargão matemático e estatístico, de Dembski, na melhor das hipóteses, completamente irrelevantes para a biologia evolutiva, sendo totalmente ineficientes como ataques a realidade da evolução biológica por meio de mecanismos naturais.
——————————————————————–
Reports of the National Center for Science Education
Título: ‘Has Natural Selection Been Refuted? The Arguments of William Dembski’
Autor(s): Joe Felsenstein
Volume: 27
Edição: 3–4
Ano: 2007
Data: May–August
Páginas(s): 20–26
Esta versão pode diferir da versão impressa.
|
O ‘Design Inteligente’ (DI) é a alegação de que existem evidências de que as principais características da vida foram formadas, não pela seleção natural, mas pela ação de um Designer. Isso envolve argumentos negativos de que a seleção natural não poderia dar origem a estas características. E os proponentes do DI também alegam argumentos positivos.
Os críticos do DI comumente argumentam que ele não é uma ciência. Para as previsões positivas do comportamento do Designer, os críticos têm um bom argumento. Mas não para as críticas à efetividade da seleção natural, que são argumentos científicos que devem ser levados a sério e avaliados. Olhe a figura 1, a qual mostra uma charge em uma camiseta vendida por um website do DI, Access Research Network, que também vende parafernália do DI (Eu estou grato a eles pela gentil permissão de reproduzi-la)
(clique aqui na imagem)
Figure 1. Um resumo dos principais argumentos do ‘Design Inteligente’, como eles parecem aos seus defensores, do website Access Research Network’s website http://www.arn.org. O merchandizing com a charge está disponível em http://www.cafepress.com/accessresearch. Copyright Chuck Assay, 2006; todos os direitos reservados. Republicado com permissão
Com a defesa dos baluartes do establishment desafortunado do Darwinismo superada, observe as principais linhas de ataque. Além de temas criacionistas reciclados como os argumentos da explosão cambriana e o argumento cosmológico sobre o ajuste fino do universo, a escada é o argumento de Michael Behe sobre máquinas moleculares (Behe, 1996). O outro ataque principal, o aríete, é o “conteúdo de informação do DNA”, o qual está destruindo a barreira de “mutação aleatória”.
O argumento da “complexidade irredutível das máquinas moleculares” de Michael Behe tem recebido a maior parte da publicidade; os argumentos mais teóricos de William Dembski, envolvendo a teoria da informação, têm sido mais difíceis para as pessoas os compreenderem. Houve uma série de críticas extensas aos argumentos de Dembski publicados ou postados na web (Wilkins e Elsberry 2001, Godfrey-Smith 2001; Rose House 2002, a Schneider 2001, 2002; Shallit 2002; Tellgren 2002; Wein 2002; Elsberry e Shallit 2003; Edis 2004; Shallit e Elsberry 2004; Perakh 2004a, 2004b; Tellgren 2005; Häggström 2007). Eles apontaram muitos problemas. Que vão desde os mais graves até implicâncias menores.
Neste artigo, quero concentrar-me nos principais argumentos que Dembski tem usado. Com poucas exceções, muitos dos pontos que levantarei já foram trazidos à tona nestas críticas a Dembski – esta é, primordialmente, uma tentativa de torná-los mais acessíveis.
Códigos Digitais
Stephen Meyer, que é o responsável pelo pelo programa de DI do Instituto Discovery, descreve o trabalho de Dembski desta maneira:
Nós sabemos que a informação — esteja ela, digamos, em hieroglifos ou em sinais de rádio — sempre aumentará a partir de uma fonte inteligente …. Então, a descoberta da informação digital no DNA fornece fortes motivos para inferir que a inteligência desempenhou um papel causal em sua origem (Meyer 2006)
O que seria esta misteriosa ‘informação digital’? Teria uma mensagem de um Designer sido descoberta? Quando sequencias de DNA são lidas, poderiam elas serem convertidas em sentenças em inglês para algo como: “Copyright 4004 B.C. do Designer Inteligentes, todos os direitos reservados”? Ou poderiam elas serem convertidas em números, com uma porção do DNA mostrando conter os primeiros 10000 dígitos de π? Claro que não. Caso algo assim houvesse descoberto, teria sido, de fato, um grande furo. Você já teria ouvido falar disso a esta altura. Não, a misteriosa ‘informação digital’ não é nada mais do que a informação genética convencional que codifica as características da vida. A informação digital é simplesmente a presença de sequencias que codificam para RNA e proteínas – sequencias que acarretam alta aptidão.
Nós já sabíamos que esta informação estava lá. A maioria dos biólogos ficaria surpresa em ouvir que a presença dela é, ela mesma, um forte argumento em favor do DI – os biólogos considerariam que ela é uma consequência da seleção natural. Para encará-la como evidência em favor do DI, seria necessário um argumento que mostrasse que esta informação só poderia ter surgido por meio de uma ação intencional (DI), e não por meio da seleção natural. O argumento de Dembski alega ter estabelecido isso.
Complexidade especificada
Como este argumento funciona? Dembski (1998, 2002, 2004), primeiro estabelece um Filtro Explanatório para detectar o design. Para encurtar a história, ele conclui a favor do designer sempre que encontrar Complexidade Especificada. Ele exige que a informação em questão seja complexa, de modo que a probabilidade de que a sequência de DNA ocorra por acaso seja menor do que 1 x 10150. Dembski escolhe este valor para evitar qualquer possibilidade de que a sequência surja, mesmo que uma única vez, na história do universo. Se essa complexidade fosse a única questão, seu argumento poderia ser descartado imediatamente: qualquer sequência aleatória de 250 bases seria tão improvável como isso. Da mesma forma, qualquer mão de cinco cartas aleatórias em um jogo de cartas tem uma chance de apenas uma em 2.598.960 e este evento raro OCORRE todo o tempo que damos as cartas, de modo que a raridade não é um motivo para preocupação.
Este é o ponto onde a parte “especificada” entra em ação. Dembski exige que a informação também satisfaça uma exigência que a torna significativa. Ele ilustra isso com uma variedade de analogias com diferentes tipos de significado. Na verdade, ele está dizendo que a quantidade relevante é a probabilidade de que uma sequência aleatória de DNA seja tão significativa quanto a observada.
Figura 2. Duas imagens de 101×100 pixeis, cada uma com 3511 pixeis escuros e o resto brancos. Ambas tem o mesmo conteúdo informacional. Qual delas tem a maior complexidade especificada, julgada pela semelhança com a imagem de um flor?
A imagem do lado esquerdo da figura 2 mostra um exemplo. É uma imagem de 101 por 100 pixels. Se nossa especificação fosse, vamos dizer, que a imagem seja muito parecida com uma flor, a imagem à esquerda estaria na disputa (não surpreendentemente, já que ela começou como uma fotografia digital de uma Zinnia). De todos os arranjos possíveis de 10100 pixels em preto-e-branco, apenas uma minúscula fração incluiria aquelas imagens que são muito parecidas com uma flor. Há 210100 possíveis imagens examinadas deste tamanho, o que dá cerca 103.040, um número muito grande. Nós não sabemos quantas delas seriam tão ou mais semelhantes a uma flor do que essa, mas suponhamos que não sejam superiores do que o 10100. Isso significa quer dizer que, se escolhermos uma imagem aleatoriamente a partir de todas as possibilidades, a probabilidade de que uma imagem seja tão ou mais parecida como esta a uma flor será inferior a 10100/103040, que é 10-2940
A imagem à direita não estaria na disputa em qualquer concurso de imagens que parecesse com a de uma flor. Como a imagem à esquerda, ela tem 3511 pixels pretos, mas eles parecem estar dispostos aleatoriamente. Ambas as imagens têm o mesmo conteúdo (10100 bits), mas a imagem do lado esquerdo se parece com uma flor. Ela não só fornece informação, ela tem a informação que é especificada por estar em um arranjo similar a uma flor. Esta é uma distinção útil, que Dembski atribui a Leslie Orgel. Eu não posso resistir acrescentando que um conceito relacionado, “a informação adaptativa” aparece em um dos meus próprios trabalhos, talvez o menos citado (Felsenstein 1978).
As sequências no genoma que codificam para proteínas e RNAs, e sequências reguladoras associadas, têm informação especificada. Embora Dembski (2002: 148) mencione uma série de possíveis critérios diferentes, o que nos interessa aqui é a aptidão. Sequências contêm informação que tornam o organismo bem adaptado se ele tem a aptidão elevada, e a informação especificada será julgada pela fração p de todas as sequências possíveis que teriam aptidão igual ou superior.
(Dembski também define a informação especificada de outra maneira – usando os conceitos da teoria da informação algorítmica e dizendo que a informação é especificada caso ela possa ser descrita de maneira simples. Uma esfera perfeita seria, então, mais fortemente especificada do que um organismo real. Mas isso não tem nada a ver com a aptidão ou com a explicação da adaptação. Eu irei me concentrar aqui em explicar a adaptação.)
A complexidade especificada tem uma consequência – quando ela é observada, podemos ter certeza de que processos puramente aleatórios, como mutação, são altamente improváveis como tendo produzido esse padrão, uma vez sequer na idade do universo. Mas pode a seleção natural produzir esta complexidade especificada? Dembski argumenta que não pode – e que ele pode mostrar que esses padrões fortemente não aleatórios não podem ser ‘projetados’ pela seleção natural.
Para apoiar esse alegação, Dembski oferece dois argumentos principais. O primeiro envolve uma Lei de Conservação de Informação – ele argumenta que ela impede que o processo de seleção natural aumente a quantidade de informação adaptativa no genoma. O segundo utiliza o teorema No Free Lunch (N.T. ‘Sem almoço grátis’) para argumentar que a busca através de um algoritmo evolutivo não pode encontrar genótipos bem adaptados. Vamos considerar eles, um de cada vez.
Conservação da Informação
Para o seu conceito de Lei da Conservação da Informação, Dembski aponta para uma lei formulada pelo falecido Peter Medawar. Em sua forma mais clara afirma que um processo determinista e irreversível não pode alterar a quantidade de informação em uma sequência. Se tivermos uma função que transforma uma sequência de DNA de X em uma outra Y e se esta função é reversível, então, há, portanto, uma função inversa, que pode recuperar a sequência original X a partir da sequência Y. Qualquer informação que estava presente na sequência original X não pode ter sido perdida, como podemos obter a sequência original de volta.
Isto é, razoavelmente, obviamente verdade. Por exemplo, se tomarmos a imagem da flor acima e embaralharmos a ordem de seus pixeis destruíremos sua semelhança com uma flor. Mas se fizemos isso usando, digamos, um gerador de números aleatórios computadorizado (um gerador de números pseudoaleatórios), para fazer uma permutação dos pixeis, poderíamos gravar a permutação que usamos e usá-la, a qualquer momento, para desembaralhar a imagem. A informação original é conservada, porque foi escondida pelo embaralhamento, mas não realmente perdida.
Será que isso significa que o tal processo não pode aumentar ou diminuir a quantidade de informação no genoma? Sim, se nós simplesmente quisermos dizer ‘informação’, mas não, se queremos dizer ‘informação especificada’. Aqui eu estou em desacordo com Dembski em um ponto crítico. Em sua reformulação do teorema de Medawar “a informação complexa especificada em um sistema isolado de causas naturais não aumenta” (Dembski 2002: 169). Perceba que ele está discutindo não a informação, simplesmente, mas a informação especificada. Agora olhe novamente para a flor ‘pixelada‘. Eu disse que a segunda figura tinha o mesmo número de pixels pretos, distribuídos aleatoriamente. A razão pela qual eu sabia é que a segunda imagem é simplesmente a primeira imagem com seus pixel mexidos. Eu gerei a permutação usando um gerador de números aleatórios pseudoaleatório e posso facilmente dizer-lhe como gerá-lo por si mesmo, de modo que você pode fazer o embaralhamento e obter exatamente o mesmo resultado, e você pode, assim, fazer as tabelas necessárias para descodificar a imagem. Assim, nenhuma informação foi perdida.
Mas a quantidade de especificação certamente se perdeu. A segunda foto seria imediatamente rejeitada em qualquer competição de “se parecer com uma flor”. Quando usamos a permutação para desembaralhar a imagem, criamos uma grande quantidade de especificação ao reorganizar os pixeis aleatórios em uma forma semelhante a uma flor. Nós flagrantemente violamos a versão Dembski do teorema de Medawar.
A prova de Dembski
Por que estou dizendo isso, quando Dembski esboça uma prova da sua Lei de Conservação de complexidade especificada? Como pode ele ter provado o impossível? Ele faz isso alterando a especificação. Se a permutação original, da primeira foto para a segunda, é chamada de F, podemos chamar a permutação inversa, a que converte a segunda foto de volta para a primeira, G. Dembski argumenta que a primeira imagem tem a especificação “semelhante a uma flor“. A segunda foto tem uma especificação equivalente: “quando permutados por G, semelhante a uma flor“. Para cada imagem que é mais semelhante a uma flor do que a primeira imagem, haveria uma que obteríamos ao aplicar a permutação F a ela. Aquela imagem permutada, evidentemente, satisfará a segunda especificação na mesma proporção quando permutada de volta por G, ela também é mais semelhante a uma flor. Então, ambas imagens, têm especificações que são igualmente fortes, o que é a essência da prova de Dembski. A prova de Dembski têm sido fortemente criticada por Elsberry e Shallit (2003; Shallit e Elsberry 2004), que apontaram que ela viola uma condição, a de que a especificação tem que ser produzida a partir das “informações do pano de fundo“, e, assim, tem que ser independente das transformações F e G. A especificação de G não o é. Mas, mesmo caso sua crítica à prova de Dembski for desconsiderada, e a prova de Dembski aceita como correta, de qualquer jeito, a prova de Dembski é completamente irrelevante. Nós queremos explicar como as sequências de DNA viram a conter informação que torna o organismo altamente apto (por codificação para adaptações). A especificação que deveria nos interessar é esta aqui: “os códigos para um organismo que é altamente apto“. Dembski aplica sua prova, argumentando que isso mostra que nenhuma função determinística ou aleatória pode aumentar a informação especificada em um genoma. As permutações que tenho utilizado como exemplos são funções determinísticas, e seu teorema se aplica a elas. Se um código do genoma de um organismo altamente adaptado, de modo que satisfaça a especificação, quando submetido a permuta ele não mais a satisfaz. O genoma embaralhado é terrivelmente ruim na codificação de um organismo altamente adaptado. E quando usamos a permutação desembaralhadora G nele, nós criamos a especificação da informação, para a especificação original que baseia-se na aptidão.
A falha no argumento de Dembski está no fato de que, para testar o poder da seleção natural de colocar informação especificada no genoma, é preciso avaliar a mesma especificação (“código de um organismo que é altamente apto“) sobre ela antes e depois. Se você pudesse mostrar que a imagem distorcida e a imagem desembaralhada satisfazem igualmente bem as mesmas especificações, você iria longe o suficiente para provar que a seleção natural não poderia colocar informação adaptativa no genoma. O nosso exemplo da flor mostra que existe uma grande diferença se a especificação original é satisfeita, antes e após a permuta. Embaralhar a sequência de um gene pode não destruir seu conteúdo de informação, se nós usarmos uma permutação conhecida que, mais tarde, possa ser desfeita. Mas a cifragem certamente irá destruir o funcionamento, assim, como a aptidão do gene. Da mesma forma, desembaralhá-la pode aumentar drasticamente a aptidão do gene. Assim, o argumento de Dembski, em sua forma original, pode ser visto como irrelevante. E quando colocado em uma forma coerente, ao exigir-se que a especificação que avaliamos seja a mesmo antes e depois, o exemplo apresentado aqui mostra que o argumento dele está errado.
Gerar informação especificada
A evolução não acontece por mudança determinística ou aleatória em uma única sequência de DNA, mas sim por meio de uma população de indivíduos, com a seleção natural escolhendo entre eles. As frequências dos diferentes alelos mudam. Considerando a seleção natural em uma população, podemos ver claramente que a lei de conservação de informação especificada, ou até mesmo uma lei de conservação da informação, não se aplica a ela.
Se temos uma população de sequências de DNA, podemos imaginar um caso com quatro alelos com frequências iguais. Em uma posição particular no DNA, um alelo tem A, um tem C, um tem G, e outro tem T. Há uma incerteza completa sobre a sequência nesta posição. Agora, suponha que C tem aptidão 10% maior do que A, G, ou T (que têm aptidões iguais). As equações usuais da genética de populações irão prever o aumento da frequência do alelo C. Após 84 gerações, 99,9001% das cópias do gene terão o alelo C.
Isso é um aumento da informação: a incerteza quádrupla sobre o alelo foi substituída por quase certeza. É, por conseguinte, a informação especificada – a população tem mais e mais indivíduos com aptidão elevada, de modo que a distribuição de alelos na população move-se mais e mais para a porção superior da distribuição original das aptidões.
A Lei da Conservação da Informação não considerou este caso. Ainda que as equações de mudança das frequência dos genes sejam deterministas e irreversíveis, quando as frequências dos genes são levadas em conta, não há lei da conservação da informação. A quantidade de alterações da informação de acordo com a mudança de frequências dos genes (que podem ir para cima ou para baixo, dependendo do caso). A informação especificada como refletido na aptidão obedece a uma lei – neste caso simples, há o aumento constante da aptidão como resultado da ação da seleção natural. Então, a única lei que temos é uma que prevê a criação de informação especificada pela seleção natural. Pode-se objetar que não se criou realmente complexidade especificada porque o aumento da informação foi de apenas 2 bits, em vez dos 500 bits (150 dígitos decimais), que é requisito mínimo de Dembski para a complexidade especificada. Mas o que fizemos foi descrever a ação do mecanismo que cria informação especificada – se ele atua repetidamente em muitos lugares no gene, a complexidade especificada surgirá. Assim, um dos dois principais argumentos usados por Dembski pode ser visto como errado quando consideramos uma população.
Sem almoço grátis?
O segundo pilar do argumento de Dembski é o uso do teorema ‘No Free Lunch’. Ele deu título ao seu livro de 2002, e Dembski (2002: xix) declarou que o capítulo sobre isso seria “o clímax do livro“. O teorema foi inventado por cientistas da computação (Wolpert e Macready 1997) que estavam preocupados com a eficácia de algoritmos de busca. Vale a pena dar uma explicação simples de seu teorema no contexto de um modelo simples de seleção natural. Imagine um espaço de sequências de DNA que tem de ser pesquisado. Suponhamos que as sequências têm, cada uma, 1000 bases de comprimento. Há 4 x 4 x 4 x … x 4 = 41000 possíveis sequências que, em ordem alfabética, irão de de A a AAAA … TTTT … T. Agora, imagine que nosso organismo é haploide, de modo que há apenas uma cópia do gene por indivíduo, e suponhamos que a cada uma destas sequências tenha uma aptidão. Uma fração muito pequena das sequências é funcional, e quase todo o resto tem zero de aptidão.
Suponha que queremos encontrar um organismo com aptidão alta, e nós queremos fazer olhando para 10000 sequências de DNA diferentes. O melhor que podemos fazer, é claro, é tirar a com a maior aptidão que encontrarmos entre estas. Agora, note que 41000 é, aproximadamente, 10602, um número muito maior do que o número de partículas elementares no universo. É, portanto, razoável supor que a fração de sequências de DNA, que tenham uma aptidão diferente de zero, seja pequena – vamos ser muito generosos e dizer 1 em 1020.
Uma maneira de pesquisar seria aleatoriamente. Escolhe-se uma das sequências de DNA, em seguida, escolhe-se uma outra completamente ao acaso, depois outra completamente ao acaso, e continue até as 10000 diferentes sequências terem sido examinadas. Como estamos escolhendo ao acaso, cada escolha tem, essencialmente, uma chance em 1020 de encontrar uma sequência com aptidão diferente de zero. Deve ser imediatamente evidente que não temos quase nenhuma chance de encontrar qualquer sequência com aptidão diferente de zero. Na verdade, temos menos de uma chance em 1016. Assim, uma pesquisa totalmente aleatória é uma maneira realmente terrível para aumentar a aptidão – ela irá na maioria esmagadora das vezes encontrar muitas vezes apenas sequências que não podem sobreviver. Na verdade, ela está à procura de uma agulha num palheiro, e falhando.
É claro, a evolução não faz uma pesquisa totalmente aleatória. Um modelo de genética de populações razoável envolve mutação, seleção natural, recombinação e a deriva genética em uma população de sequências. Mas nós podemos fazer uma caricatura grosseira dele usando apenas uma sequência e fazendo, a cada passo, uma única alteração mutacional nela. Se a mudança melhora a aptidão a nova sequência é aceita. Suponha que continuemos fazendo isso até que 10 000 sequências diferentes tenham sido examinados. Vamos terminar com a melhor das 10000.
Será que isto se sairia melhor? No mundo real, ela se sairá se iniciarmos a partir de uma sequência ligeiramente boa. Cada mutação nos leva a uma sequência que difere por apenas uma letra. Estas tendem a ser sequências que são um pouco mais baixas, ou às vezes um pouco mais altas, em termos de aptidão. Em média, elas são mais baixas, mas a chance de que atinja uma sequência que é melhor não é zero. Então, há alguma chance de melhorar a aptidão, muito possivelmente mais de uma vez. Uma maneira bastante boa para encontrar sequências com aptidões diferentes de zero é a busca na vizinhança de uma sequência de aptidão diferente de zero.
Os teoremas No Free Lunch (NFL) afirmam que se considerarmos a lista de todas as sequências possíveis, cada uma com uma aptidão escrita ao seu lado e se tirarmos a média de todas as maneiras que estas aptidões poderiam ser alocadas às sequências, então nenhum método de pesquisa é melhor do que qualquer outro. Nós estamos tirando uma média de todas as ordens as quais poderíamos escrever as aptidões, ao lado, da lista de sequências. Quase todas essas ordens são como associações aleatórias de aptidões com os genótipos. Isso significa que a busca por mutação genética não poderia se sair melhor do que um método irremediavelmente ruim como escolha completamente aleatória de sequências. O teorema NFL considera todas as formas de aptidão diferentes que poderia ser associada com os genótipos. O vasto número dessas associações são como embaralhamentos aleatórios. Para essas atribuições de aptidão aos genótipos, quando mutamos uma sequência, mesmo em uma base, a aptidão da nova sequência será a mesma que seria se ela fosse retirada aleatoriamente de todas as outras sequências possíveis.
Este randomização destrói toda a esperança de encontrar uma melhor aptidão através da mutação. Cada única mutação em um única base é, então, tão ruim quanto mudar todas as bases simultaneamente. É como se estivéssemos do lado de uma montanha e déssemos um passo. No mundo real, isso nos levaria um pouco para cima ou um pouco para baixo (embora, às vezes, em direção a um penhasco). No mundo No Free Lunch, isso nos levaria para a ponto de altitude aleatória no globo, e isso, na maioria das vezes, nos mergulharia bem para baixo. No espaço de sequência as perspectivas são ainda mais sombrias do que no globo, já que todos, a não ser uma fração extremamente pequena de sequências, têm aptidão zero, e, assim, elas não tem qualquer perspectiva.
O teorema NFL é correto, mas não é relevante para o mundo real da evolução dos genomas. Este ponto tem sido negligenciado em algumas das respostas ao uso de Dembski do teorema. Por exemplo, H Allen Orr no The New Yorker (Orr 2005) e David Wolpert em uma resenha do livro de Dembski (Wolpert 2003) ambos argumentam contra Dembski, apontando fenômenos examinados como coevolução que não são cobertos pelo teorema NFL. Com efeito, eles estão admitindo que para a simples evolução de sequências, sua evolução por seleção natural, é inviabilizada pelos teoremas NFL. Ao argumentar desta forma, eles estão sendo muito pessimista sobre as capacidades da simples evolução das sequências. Eles têm negligenciado as suposições irrealistas do teorema NFL sobre o modo aleatório com as aptidões estão associadas aos genótipos, o que, na verdade, é assumir que as mutações têm aptidão desastrosamente ruim.
Mutações
No mundo real, as mutações não agem assim. Sim, elas são muito mais propensas a reduzir a aptidão do que a aumentá-la, mas muitas delas não são letais. Eu provavelmente carrego um a – eu tenho uma forte aversão a alface, que para mim tem um sabor mineral amargo. Esta é provavelmente uma variação genética em um dos meus genes de receptores olfativos. Ele torna as saladas problemáticas, e nos balcões de sanduicherías eu gasto um monte de tempo tirando fora a alface. Mas isso não me matou – ainda. A grande massa das informações empíricas sobre os efeitos das mutações em muitos organismos, deixa claro que um grande número de mutações não são instantaneamente letais. Elas fazem, em média, as coisas piores, mas não mergulham-nos imediatamente de volta para a sopa primordial orgânica.
No argumento NFL de Dembski, uma mudança de uma única base teria o mesmo efeito, em média, que uma mudança de todas as bases, simultaneamente, no gene. Uma única substituição de aminoácidos numa proteína teria o mesmo efeito que a substituição de toda a proteína por uma sequência aleatória de aminoácidos. Isto deixaria a proteína totalmente inativa. O fato deste tipo de mudanças, de uma única base ou um único aminoácido, não ter esse tipo de efeito é uma forte evidência de que as mutações são muito mais propensas a encontrar uma outra sequência quase-funcional nas proximidades. A paisagem de aptidão real não é uma paisagem embaralhada “agulha em um palheiro” na qual uma sequência de aptidão moderadamente boa está cercada apenas por sequências cuja aptidão é igual a zero. No mundo real, os genótipos próximos a um moderadamente bom, muitas vezes têm aptidões moderadamente boas.
Evidências Empíricas
Perceba que caso os argumentos de Dembski fossem válidos, eles tornariam a adaptação por seleção natural de qualquer organismo, em qualquer fenótipo, essencialmente impossível. Por que isso exigiria informação adaptável para ser codificado no genoma pela seleção natural. Segundo o argumento de Dembski, não precisamos nos preocupar: as bactérias infectando o paciente não poderiam desenvolver resistência a antibióticos. O vírus da imunodeficiência humana (HIV) não iriam tornar-se resistentes às drogas. Insetos não se tornariam resistentes aos inseticidas. O Designer de Dembski estaria realmente ocupado: Ele precisaria projetar cada adaptação específica, deixando de fora apenas algumas que poderiam ser puramente acidentais.
O próprio Dembski parece incapaz de tirar essa conclusão evidente a partir de seu próprio argumento. Ele reconhece que “o desenvolvimento da resistência aos antibióticos por patógenos através do mecanismo darwiniano é experimentalmente verificado e razão de grande preocupação para a área médica” (Dembski 2002: 38). Mas dizer isso enfraquece seu argumento – se estiver correto, o seu argumento realmente provaria que a informação adaptativa no genoma bacteriano não pode ser criada por meio da seleção natural, exceto por puro acidente por mutação e deriva genética, sem a ajuda de seleção natural.
Seu argumento também será novidade para os criadores de plantas e animais. Eles usam formas simples de seleção artificial como cruzando os indivíduos que têm as melhores fenótipos. Estas formas de seleção são como a seleção natural em que eles não usam informações detalhadas sobre os genes individuais – eles não precisam de um projeto detalhado especial. O argumento de Dembski implica que os esforços dos criadores seriam em vão. Eles não podem criar mudanças de fenótipo por seleção artificial, já que esta deve ser tão ineficaz como a seleção natural. A seleção artificial forneceu para Darwin tão poderosos exemplos que ele abriu seu livro com um capítulo inteiro sobre “Variação Sob domesticação” no qual ele discutiu caso após casos de alterações devidas a seleção artificial, mas Dembski não discute a seleção artificial de nenhuma maneira, mencionando-a apenas uma vez, de passagem (em Dembski [2004] que está na página 311).
Contrabandeando?
Dembski (2002, seções 4.9 e 4.10) não ignora os argumentos de que as superfícies de aptidão mais suaves do que o tipo “agulha em um palheiro” permitiria a seleção natural ser eficaz. Por exemplo, Richard Dawkins (1996) tem um programa de computador para demonstrar a efetividade da seleção, que evolui um amontoado sem sentido de 28 letras na frase “penso que sou uma doninha” por repetidamente mutar as letras aleatoriamente e depois aceitar essas sequências descendentes que mais se aproximam da frase alvo. Cada rodada melhora a aptidão, de modo que as mutações que tornam a frase mais perto estão prontamente disponíveis. Dembski argumenta no entanto, que a informação na frase resultante não é criado pela seleção natural – ele já está lá, na frase alvo. Ele chama isso de “problema do deslocamento” (2002, seção 4.7).
Mas, invariavelmente, nós sempre descobrimos que, quando a complexidade especificada parece ter sido gerada gratuitamente, ela foi, na verdade, bem no inicio, contrabandeada, ou escondida da vista. (Dembski 2002: 204)
Demonstrações computacionais do poder da seleção natural para produzir a adaptação muitas vezes têm metas detalhadas as quais a seleção natural deveria aproximar-se. É mais fácil escrever programas desta maneira. Na vida real, o objetivo é a maior aptidão, e alcançá-la significa fazer que o fenótipo do organismo interaja bem com a física , a química e a biologia de verdade.
Nestes casos mais próximos a realidade, o ambiente não fornece ao genoma alvos exatos. Considere uma população de veados que estão sendo predados por uma população de lobos. Não temos dúvidas de que mutações entre os cervos irão causar mudanças nos comprimentos dos seus membros, na força de seus músculos, na velocidade de reação de seu sistema nervoso, na acuidade de sua visão. Alguns destes permitirão aos cervos escaparem melhor dos lobos, e estas tenderão a se espalhar pela população. O resultado é uma alteração no design do cervo. Mas esta informação não foi “contrabandeado” pelos lobos. Eles, simplesmente, perseguiam os cervos – eles não avaliavam o seu ajuste ao certas especificações de design preexistentes.
Houveram simulações de computador que mimetizaram este o processo. O mais fascinantes foi a de Karl Sims (1994a, 1994b, 1994c), cuja simulação evolui criaturas virtuais que nadavam ou pulavam de forma intrigante e um tanto imprevisível. As criaturas são compostas de blocos ligados entre si que podem mover-se um relação ao outro, e elas são escolhidas somente em virtude da movimentação eficaz sem varredura de todos os detalhes do design. Tudo o que é necessário são genótipos, fenótipos, alguma interação entre os fenótipos e um ambiente, e a seleção natural para uma propriedade – a velocidade. Não existe um “contrabando”. Uma simulação semelhante, inspirada pela de Sims, é o programa breve de Jon Klein (2002), disponível para download.
Evoluibilidade:
Dembski desenvolve outro argumento sobre a forma da própria função de aptidão. Se ela for suave o suficiente para permitir que a evolução tenha sucesso, ele afirma que este é o resultado de mais contrabando:
Mas isso significa que o problema de encontrar um dado alvo foi deslocado para o novo problema de encontrar a informação j capaz de localizar o alvo. … Dizer que um algoritmo evolutivo gerou complexidade especificada dentro do espaço de fase original é, portanto, realmente, dizer que ele tomou emprestado complexidade especificada de um espaço de fase de ordem superior … segue-se que o algoritmo evolutivo não gerou qualquer complexidade especificada, mas apenas a mudou de lugar. (Dembski 2002: 203)
Ele argumenta que a própria superfície de aptidão deve ter sido especialmente escolhida de uma vasta gama de possibilidades, e que isso significa que iniciamos com a complexidade especificada já está presente. Ele está dizendo que a suavidade das funções de aptidão reais não são típicas – i.e. Que, sem um grande fornecimento de informação especificada, estaríamos lidando com funções de aptidão do tipo ‘agulha-em-um-palheiro‘, onde a seleção natural não poderia ter sucesso.
Agora, é possível que a seleção natural altere a função de aptidão. Há uma literatura pequena sobre a “evolução da evoluibilidade“. Altenberg (1995) mostrou uma simulação de computador na qual a seleção natural diminuía a extensão da interação entre os genes, de modo que os genótipos tendiam a tornar-se aqueles que tinham uma função de aptidão mais suave.
No entanto, mesmo isto pode nem ser necessário. Diferentes genes muitas vezes agem de maneiras separadas no espaço e no tempo, o que reduz a chance de sua interação. Um mutante que afeta o pigmento dos olhos de um individuo, normalmente, não interage com um mutante de um gene diferente que afeta os ossos dos dedos do individuo. Este isolamento não requer qualquer explicação especial. Mas, em um mundo que possui uma função de aptidão do tipo ‘agulha em um palheiro‘ tudo interage fortemente com todo o resto.
Com efeito, aquele mundo tem tudo criptografado. Se você receber uma senha ou uma combinação de bloqueio parcialmente correta, você não acessar parcialmente a conta do computador ou abrir parte do cofre. O computador ou o cofre não reagem a cada mudança dizendo “quente” ou “frio”. Cada letra ou dígito interage com o outro, e nada acontece até que todos eles estejam corretos. Mas essa criptografia não é típica do mundo em torno de nós. Sistemas de senha e fechaduras de combinação devem ser cuidadosamente concebidas para serem seguras – e este esforço de design pode falhar.
O mundo em que vivemos não é criptografado. A maioria das partes dele interagem muito pouco com outras partes. Quando minha família sai de casa para um período de férias, temos que fazer muitos arranjos em casa com relação as portas, janelas, luzes, vasos sanitários, torneiras, termostatos, lixo, avisando vizinhos, parando a entrega de jornais, e assim por diante. Se vivêssemos no universo codificado de Dembski, isso seria impossível. Toda vez que nós mudássemos o ajuste do termostato, as janelas seriam destrancadas e as torneiras abertas. Toda vez que uma janela fosse fechada, a entrega de jornais seria retomada, ou um vizinho iria esquecer que estávamos indo embora. (É pior do que isso, na verdade. A casa seria totalmente destruída.) Mas, como vivemos no universo real, podemos alegremente combinar com os membros da família para a realização dessas tarefas diferentes sem nos preocuparmos com as ações de cada um. As diferentes partes da casa interagem muito pouco.
É claro que uma casa, é um objeto planejado, mas não é particularmente difícil fazer suas partes quase independentes. Quando os arquitetos estudam, eles não tem que gastar muito de seu tempo para garantir que as portas, quando fechadas, não farão com que as torneiras abram.
Nós vivemos em um universo cuja física pode ser especial, ou pode ser planejada – Eu não sei nada sobre isso. Mas o argumento de Dembski não é sobre outros universos possíveis – é sobre se a seleção natural pode trabalhar para criar as adaptações que vemos nas formas de vida que observamos aqui, em nosso próprio universo, em nosso próprio planeta. E se o nosso universo parece predisposto a funções de aptidão suaves, esse é um grande problema para o argumento de Dembski.
Nota Bibliográfica: Críticos de Dembski
Dos principais argumentos aqui apresentados, dois deles, acredito, são meus: Um deles é o argumento de que a Lei da conservação da informação especificada complexa não poderia ser bem sucedida em provar que a informação não poderia ser gerada pela seleção natural, por que a Lei requer que nós mudemos a especificação a fim de mantermos a informação a mesma. O outro é o argumento que mudanças nas frequências dos genes causados pela seleção natural podem aumentar a informação especificada. Os outros argumentos principais serão encontrados em alguns dos artigos que eu cito. Em particular, o argumento de que o teorema No Free Lunch não estabelece que a seleção natural não pode superar a busca aleatória foi também defendido por Wein 2002, Rosenhouse 2002, Perakh 2004b, Shallit and Elsberry 2004, Tellgren 2005 e Häggström 2007.
Em conclusão
Dembski argumenta que existem teoremas que previnem que a seleção natural explique as adaptações que observamos. Seus argumentos não funcionam. Não pode haver qualquer teorema que afirme que a informação adaptativa seja conservada e que ela não possa aumentar por meio de seleção natural. As alterações nas frequências gênicas por meio da seleção natural podem ser mostradas como gerando informação especificada. O teorema No Free Lunch é matematicamente correto, mas não aplicável a biologia. A informação especificada, incluindo a informação complexa especificada, pode ser produzida pela seleção natural sem a necessidades de que ela seja “contrabandeada”. Quando observamos a adaptação, nós não estamos olhando para evidências de bilhões e trilhões de intervenções feitas por um Designer.
Agradecimentos
Gostaria de agradecer a Joan Rudd, Erik Tellgren, Jeffrey Shallit, Tom Schneider, Mark Perakh, Monty Slatkin, Lee Altenberg, Carl Bergstrom, e Michael Lynch, peloscomentários úteis. Dennis Wagner do Access Research Network gentilmente deu permissão para uso do desenho maravilhoso “Os visigodos estão Chegando”. O trabalho para este artigo foi apoiado em parte pelo financiamento GM071639 do NIH.
Referências
Altenberg L. 1995. Genome growth and the evolution of the genotype-phenotype map. In: Banzhaf W, Eeckman FH, editors. Evolution and Biocomputation: Computational Models of Evolution. Lecture Notes in Computer Science vol. 899. Berlin: Springer-Verlag. P 205–59.
Behe MJ. 1996. Darwin’s Black Box: The Biochemical Challenge to Evolution. New York: Free Press.
Dawkins R. 1996. The Blind Watchmaker: Why the Evidence of Evolution Reveals a Universe Without Design. New York: WW Norton.
Dembski WA. 1998. The Design Inference: Eliminating Chance through Small Probabilities. Cambridge: Cambridge University Press.
Dembski WA. 2002. No Free Lunch: Why Specified Complexity Cannot be Purchased Without Intelligence. Lanham (MD): Rowman and Littlefield Publishers.
Dembski WA. 2004. The Design Revolution: Answering the Toughest Questions about Intelligent Design. Downer’s Grove (IL): InterVarsity Press.
Edis T. 2004. Chance and necessity — and intelligent design? In: Young M, Edis T, editors. Why Intelligent Design Fails: A Scientific Critique of the New Creationism. New Brunswick (NJ): Rutgers University Press. P 139–52.
Elsberry WR, Shallit J. 2003. Information theory, evolutionary computation, and Dembski’s complex specified information. Available on-line at http://www.talkreason.org/articles/eandsdembski.pdf. Last accessed September 3, 2007.
Felsenstein J. 1978. Macroevolution in a model ecosystem. American Naturalist 112 (983): 177–95.
Godfrey-Smith P. 2001. Information and the argument from design. In: Pennock RT, editor. Intelligent Design Creationism and Its Critics: Philosophical, Theological, and Scientific Perspectives. Cambridge (MA): MIT Press. P 575–96.
Häggström O. 2007. Intelligent design and the NFL theorems. Biology and Philosophy 23: 217–30.
Klein J. 2002. Breve: A 3-D simulation environment for multi-agent simulations and artificial life. Available on-line at http://www.spiderland.org/breve/. Last accessed September 3, 2007.
Meyer SC. 2006 Jan 28. Intelligent design is not creationism. Daily Telegraph. Available on-line at http://www.telegraph.co.uk/opinion/main.jhtml?xml=/opinion/2006/01/28/do2803.xml. Last accessed September 3, 2007.
Orr HA. 2005 May 30. Devolution: Why intelligent design isn’t. The New Yorker. Available on-line at http://www.newyorker.com/fact/content/articles/050530fa_fact. Last accessed September 3, 2007.
Perakh M. 2004a. Unintelligent Design. Amherst (NY): Prometheus Books.
Perakh M. 2004b. There is a free lunch after all: William Dembski’s wrong answers to irrelevant questions. In: Young M, Edis T, editors. Why Intelligent Design Fails: A Scientific Critique of the New Creationism. New Brunswick (NJ): Rutgers University Press. P 153–71.
Rosenhouse J. 2002. Probability, optimization theory, and evolution [review of William Dembski’s No Free Lunch]. Evolution 56 (8): 1721–2.
Schneider TD. 2001. Rebuttal to William A. Dembski’s posting and to his book “No Free Lunch”. Available on-line at http://www.lecb.ncifcrf.gov/~toms/paper/ev/dembski/. Last accessed April 22, 2007.
Schneider TD. 2002. Dissecting Dembski’s “complex specified information”. Available on-line at http://www.lecb.ncifcrf.gov/~toms/paper/ev/dembski/specified.complexity.html. Last accessed April 22, 2007.
Shallit J. 2002. Review of No Free Lunch: Why Specified Complexity Cannot Be Purchased Without Intelligence, by William Dembski. BioSystems 66 (1): 93–9. Available on-line at http://www.cs.uwaterloo.ca/~shallit/nflr3.pdf. Last accessed September 7, 2007.
Shallit J, Elsberry WR. 2004. Playing games with probability: Dembski’s complex specified information. In: Young M, Edis T, editors. Why Intelligent Design Fails: A Scientific Critique of the New Creationism. New Brunswick (NJ): Rutgers University Press. P 121–38.
Sims K. 1994a. Evolving virtual creatures. Computer Graphics (Siggraph ‘94 Proceedings), July: 15–22.
Sims K. 1994b. Evolving 3D morphology and behavior by competition. In: Brooks RA, Maes P, editors. Artificial Life IV Proceedings. Cambridge (MA): MIT Press. P 28–39.
Sims K. 1994c. Evolved virtual creatures. Available on-line at http://www.genarts.com/karl/evolved-virtual-creatures.html. Last accessed September 3, 2007.
Tellgren E. 2002. On Dembski’s law of conservation of information. Available on-line at http://www.talkreason.org/articles/dembski_LCI.pdf. Last accessed September 7, 2007.
Tellgren E. 2005. Free noodle soup. Available on-line at . Last accessed April 15, 2007.
Wein R. 2002. Not a free lunch but a box of chocolates: A critique of William Dembski’s book No Free Lunch. Available on-line at http://www.talkorigins.org/design/faqs/nfl/. Last accessed September 7, 2007.
Wilkins JS, Elsberry WR. 2001. The advantages of theft over toil: The design inference and arguing from ignorance. Biology and Philosophy 16 (5): 711–24.
Wolpert DH, Macready WG. 1997. No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation 1 (1): 67–82.
Wolpert D. 2003. Review of No Free Lunch: Why specified complexity cannot be purchased without intelligence. Mathematical Reviews MR1884094 (2003b:00012). Also available on-line at: http://www.talkreason.org/articles/jello.cfm. Last accessed September 3, 2007.
Sobre o autor:
Joe Felsenstein
Department of Genome Sciences
University of Washington
Box 355065
Seattle WA 98195-5065
joe@gs.washington.edu
Joe F
elsenstein está no Departamento de Ciências Genômicas e no Departamento de Biologia da Universidade de Washington, em Seattle. Eles já trabalhou com genética de populações teórica e na inferência de filogenias. Ele é o autor de ‘Inferring Phylogenies‘ (Sunderland [MA]: Sinauer, 2004) e do PHYLIP, o primeiro pacote de software amplamente distribuído para a reconstrução de filogenias.
———————————-
Artigo: “Has Natural Selection Been Refuted? The Arguments of William Dembski”
Fonte: Reports of the NCSE
Tradução: Rodrigo Véras
Citação completa:
Felsenstein, J. 2007. Has natural selection been refuted? The arguments of William Dembski. Reports of the National Center for Science Education 27 (3-4): 20-26.