Assinaturas moleculares da seleção natural nos primeiros americanos.

A seleção natural é um dos mais importantes fatores evolutivos. Juntamente com as mutações (a fonte derradeira da variabilidade genética) e a deriva genética aleatória, a seleção é um do motores da evolução dos seres vivos. Ela tem um papel crucial na evolução de adaptações bioquímicas, fisiológicas, morfológicas e comportamentais em resposta a mudanças no clima, na dieta e nas doenças etc, inclusive em seres humanos. Infelizmente, não é muito fácil estudá-la, principalmente quando sua ação aconteceu em um passado remoto e temos apenas a variação genética atual como evidência. Felizmente, é possível utilizar técnicas de análise genética atuais para identificar variantes genéticas que existem em diferentes frequências em populações distintas, vasculhando-as em busca de ‘assinaturas moleculares’ da seleção natural. Isso é feito com a ajuda de métodos estatístico-computacionais muito poderosos que nos permitem discernir tais assinaturas comparando-se ao que esperaríamos encontrar caso elas fossem fruto de evolução neutral, ou seja, em virtude dos efeitos da deriva genética em variantes que não conferiam nem vantagens ou desvantagens adaptativas apreciáveis (veja, por exemplo, ‘A evolução do receptor TAS2R38 em primatas: O amargor da seleção natural‘ e ‘Marcas da adaptação: A teoria neutra e as ssinaturas moleculares da seleção natural‘).

Há alguns anos haviam sido identificadas certos tipos de variantes genéticas (SNPs, do inglês ‘single nucleotide polymorphisms’) muito comuns em populações inuítes, mas raras em outras populações, que exibiam tais ‘assinaturas moleculares‘, sugerindo que os genes associados a essas variantes haviam sido selecionados nessas populações, no passado, em virtude de alguma vantagem conferida aos seus portadores nesses ambientes extremos. Agora, um grupo de cientistas brasileiros investigou variantes genéticas similares em populações nativas americanas que habitam diferentes regiões ecológicas, e descobriram variantes específicas em dois cromossomos que são comuns a todas essas populações estudadas (53) e estão associadas aos mesmos tipos de genes que parecem ter sido alvos da seleção natural nas populações do Ártico: os genes de enzimas chamadas FADS (‘Fat Acid Desaturases’), isto é Dessaturases de ácidos graxos. O artigo com este estudo foi publicado este mês na revista PNAS e indica, segundo seus autores, um único e forte evento adaptativo que teria ocorrido na Beríngia, cerca de 18 mil anos atrás -isto é, antes da grande expansão pelo continente Americano e Groenlândia. Como é explicado no abstract:

Quando os seres humanos se deslocaram da Ásia para as Américas, mais de 18.000 anos atrás, eventualmente, povoando o Novo Mundo, eles encontraram um novo ambiente com condições climáticas extremas e recursos dietéticos distintos. Essas pressões ambientais e dietéticas podem ter levado a casos de adaptação genética com o potencial de influenciar a variação fenotípica em populações indígenas nativas. Um exemplo de tal evento é a evolução dos genes das dessaturases de ácidos graxos (FADS), que foram apresentados como portadores de sinais de seleção positiva em populações inuítes devido à adaptação ao clima frio do Árctico da Groenlândia e a uma dieta rica em proteínas. Como havia evidências de variação intercontinental nessa região genética, com indicações de seleção positiva para suas variantes, decidimos comparar os achados inuítes com outros dados de nativos americanos. Aqui, usamos várias linhas de evidência para mostrar que o sinal de seleção positiva para FADS não está restrito ao Ártico, mas, ao invés disso, é amplamente observado em todas as Américas. A assinatura compartilhada de seleção entre as populações que vivem em uma gama tão diversificada de ambientes é provavelmente devida a um exemplo único e forte de adaptação local que teve lugar na população ancestral comum antes de sua entrada no Novo Mundo. Esses primeiros americanos povoaram todo o continente e espalharam essa variante adaptativa através de um conjunto diversificado de ambientes.”

A ideia é relativamente simples. Nesses ambientes remotos e extremos, com baixas temperaturas e com recursos escassos, os indivíduos que conseguissem metabolizar melhor as gorduras saturadas disponíveis nas fontes de alimentos mais abundantes, teriam uma clara vantagem, tendo uma maior chance de sobrevivência e, assim, de deixarem mais descendentes. O maior sucesso reprodutivo desses indivíduos em relação aos demais faria com que esses genes mutantes (e as variantes genéticas associadas a eles) aumentassem de frequência na população, tornando-se cada vez mais comuns com o passar das gerações. Assim, mesmo que as populações descendentes, ao espalharem-se pelas Américas, não tivessem mais vantagens adaptativas por causa de mudanças para outros ambientes mais prósperos, ainda assim, como tais variantes não implicavam em nenhuma desvantagem, elas tenderiam a ser mantidas, como parte de um efeito fundador.

Abaixo temos um vídeo em que a pesquisadora Tábita Hünemeier explica o trabalho realizado por ela e vários colaboradores:

————————

Referência:

  • Amorim CEG, Nunes K, Meyer D, Comas D, Bortolini MC, Salzano FM, Hünemeier T. Genetic signature of natural selection in first Americans. Proc Natl Acad Sci U S A. 2017 Feb 28;114(9):2195-2199. doi: 10.1073/pnas.1620541114.

Ressuscitando genes e proteínas ancestrais: Uma viagem molecular no tempo.

Tudo o que sabemos sobre o passado mais remoto depende daquilo que restou dele nos dias atuais e do que podemos concluir a partir daí. As viagens no tempo da ficção científica, pelo menos como imaginadas por H.G. Wells e outros autores, ainda são só isso: ficção. Os paradoxos que se impõem a partir das indagações filosóficas sobre o tema e a gigantesca complexidade e as assustadoras demandas que as teorias da física moderna fariam, caso as viagens no tempo para o passado fossem possíveis, não nos deixam muita esperança, na prática, de voltar ao passado e testemunhá-lo por nós mesmos. Essa simples constatação tem por implicação que as ciências históricas (como a geologia, a paleontologia e boa parte da biologia evolutiva) deparam-se com limitações óbvias, que, não obstante, não nos impediram de alcançar conclusões muito sólidas sobre o que de fato ocorreu ou não.

Porém, apesar de as viagens no tempo para o passado continuarem apenas objeto da ficção científica, o avanço nas técnicas de sequenciamento, síntese, expressão e análise de biomolécula – juntamente com o desenvolvimento de métodos filogenéticos, equipamentos e procedimentos computacionais necessários a sua execução – estão nos dando a oportunidade de ‘trazer do passado’ biomoléculas há muito desaparecidas de nosso planeta. Essas técnicas têm modificado e enriquecido o estudo da evolução biológica. Elas nos permitem olhar muito mais longe em nosso passado evolutivo do que antes havíamos ser possível. Os genes e as proteínas de espécies extintas não estão mais para sempre perdidos no tempo.

Abordagens horizontais e as abordagens verticais:

Existem dois tipos principais de abordagens para o estudo da evolução molecular funcional. O primeiro tipo de abordagem envolve estudos comparativos e de mutagênese que concentram-se apenas nas versões atuais de proteínas semelhantes, de vários tipos de organismos aparentados, mas que exibem funções distintas. O segundo tipo de abordagem, como o nome sugere, envolve rastrearmos a história evolutiva das sequências de DNA e de proteínas ancestrais. Esse segundo tipo de abordagem vale-se das modernas técnicas de análise filogenética que permitem a criação de árvores de genes e a inferência dos estados ancestrais das sequências desses genes nos ancestrais comuns dos grupos de seres vivos que estão sendo estudados [1].

Essa segunda classe de estratégias permite que, não só identifiquemos as porções responsáveis pelas diferentes funções destes genes (e das proteínas por eles codificadas), mas também que desvendemos a ordem das mutações que deram origem às diferentes variantes, a partir das sequências ancestrais. Essas abordagens também nos abrem a possibilidade de estudarmos como mutações não diretamente ligadas a alteração de função dos genes podem ter influenciado, indiretamente, interferido nesse processo. Isso quer dizer que a reconstrução de sequências ancestrais possibilita o estudo dos efeitos epistáticos entre diversas mutações ao longo de uma sequência de aminoácidos de uma proteína. Através delas podemos investigar como essas mudanças permitiram que as atuais funções dessas biomoléculas evoluíssem a partir de funções ancestrais [1].

Mas temos que ir com calma. Primeiro de tudo, precisamos compreender melhor porque os estudos horizontais são extremamente limitados.

Olhando apenas para o presente:

“A razão porque estudos deste tipo fracassam é que eles ignoram a história. A função da proteína evoluiu a medida que mutações acumularam-se ao longo do tempo, verticalmente em linhagens ancestrais de proteínas, enquanto que as comparações horizontais de proteínas modernas envolvem apenas as pontas da árvore evolutiva.” [1]

Dois são os problemas principais com a abordagem horizontal. Para começar, muitas diferenças nas sequências de aminoácidos entre duas proteínas modernas (da mesma família, mas com funções distintas) são irrelevantes para as diferenças funcionais, tendo acumulado-se durante o período em que as funções de interesse simplesmente não se alteraram. A deriva genética aleatória – especialmente em populações pequenas – pode levar a fixação e, portanto, ao acúmulo de mutações neutras e até mesmo de algumas ligeiramente desvantajosas. Porém, mesmo que essas mutações não alterem a função corrente da biomolécula, elas, ainda assim, podem alterar o contexto bioquímico e biofísico da qual a função depende.  Esse é o outro ponto muito importante. Modificações que não alterem as funções das sequências de DNA e de seus produtos (ou que as alterem muito pouco) são invisíveis a seleção natural purificadora, mesmo que elas provoquem mudanças na forma como a função é alcançada – por exemplo, a partir de pequenas alterações nas interações intramoleculares entre os resíduos de aminoácidos [2]. Essas mudanças podem, ainda assim, tornar mudanças posteriores (provocadas por mutações adicionais) possíveis, ou, em contrapartida, inviabilizá-las completamente [1, 2].

Mutações restritivas e permissivas:

Duas variedades de mutações epistáticas ao longo de caminhos evolutivos são particularmente relevantes. As chamadas ‘mutações permissivas‘ introduzem aminoácidos necessários para que uma proteína tolere outras mutações, essas sim, fundamentais para mudança de função. Essas mutações podem, por exemplo, aumentar a estabilidade da proteína, ‘tamponando-a’ contra a aquisição (por mutações subsequentes) de novos resíduos de aminoácidos desestabilizadores, mas que criariam uma função distinta [1, 2].

O outro lado da moeda são as ‘mutações restritivas‘. Esse tipo de mutações introduz resíduos de aminoácidos que são incompatíveis com as funções de outros membros da família, isto é, uma vez na sequência de aminoácidos elas impedem que sequência desempenhe outra função observada em uma outra proteína bem similar, de alguma linhagem próxima, mesmo que ela sofra uma alteração idêntica a da outra proteína. Normalmente, isso acontece porque tais mutações produzem ‘confrontos estéricos’, isso é, as cadeias laterais dos aminoácidos trocados podem obstruir as cadeias laterais de outros resíduos e, desta maneira, interferir com o enovelamento da cadeia de aminoácidos, impedindo que a proteína adquira uma conformação tridimensional final estável e consistente com essa outra função* [2]. Por isso, caso apenas troquemos os resíduos que acreditamos serem os responsáveis pelas diferenças de função (como aqueles que encontram-se ‘sítios de ligação‘ ou dos ‘centros ativos‘, de receptores e enzimas) de uma outra proteína (em cuja linhagem mutações restritivas ocorreram ou em que mutações permissivas não ocorreram), isso poderá resultar em uma proteína não funcional ou cuja função é bastante prejudicada, mesmo que os resíduos trocados tenham sim um papel essencial na mudança funcional [1] e representassem nas proteínas ancestrais biomoléculas viáveis. Isso mostra que o pano de fundo mutacional é muito importante para eventuais mudanças de função. 

Em resumo, isso quer dizer que, as versões atuais das proteínas (isto é, aquelas existentes nos organismos remanescentes) podem simplesmente não serem capazes de trocar de funções umas com as outras sem que essas outras mudanças no pano de fundo (que ocorreram em versões ancestrais intermediárias destas sequências) também ocorram, o que só pode ser descoberto pelos métodos verticais [1, 2]. Toda essa rica história de interações indiretas é perdida nas abordagens horizontais.

Por causa disso, estudos levando em conta apenas as biomoléculas modernas – que permitem investigarmos o efeito de mutações apenas no pano de fundo das sequências atuais – podem facilmente perder este efeito da história mutacional das sequências (em diferentes ramos de uma linhagem). Efeito esse que teria permitido cada variante evoluir suas funções específicas [1].

Na figura acima (retirada de 1) podemos visualizar a ‘dissecação’ dos fatores que determinam as funções de uma sequência dentro de uma família de proteínas que exibem uma função ancestral (representada pelo círculo preenchido) e uma função derivada (representada pelo círculo branco). Veja que a alteração levou à função derivada (nova) foi causada por um subconjunto das alterações na sequência ao longo do ramo C (retângulo preto). No cenário mostrado aqui, foram necessárias mutações permissivas no ramo B (estrela preta). Elas permitiram que a proteína tolerasse as mutações que levaram a mudança de função. Veja que mutações restritivas – incompatíveis com a função ancestral – acumulam-se no ramo D (cruz). É aí é que encontra-se o principal problema das abordagens horizontais. Nestas abordagens, tudo que ocorre é simplesmente a colocação de resíduos de aminoácidos que são responsáveis pela função de uma proteína moderna em outra proteína moderna, que tem uma função diferente. Isso é, exatamente, o que está representado pela seta. É por isso que tal abordagem é tremendamente ineficiente. A nova função não surgiu dessa maneira. Tal perspectiva ignora a história evolutiva. As duas sequências atuais diferem em todas as mutações ao longo de A, B, C e D. Porém, o mais importante é que a proteína X não tem as mutações permissivas e, portanto, não pode passar a desempenhar a função derivada. Por fim, a proteína Y, ao longo de sua evolução, adquiriu mutações restritivas, que, assim, não permitem que ela tolere a função ancestral, o que inviabiliza a mudança de Y para X [1].

É por isso que, como explicam Harms e Thornton [1], uma abordagem na qual explicitamente leve-se em conta a filogenia do grupo de organismos cujas biomoléculas estão sendo investigadas é essencial. Uma estratégia vertical desse tipo iria concentrar-se naquelas mutações que ocorreram ao longo do ramo na árvore genealógica em que ocorreu a alteração funcional de interesse. Essa abordagem é claramente mais eficiente porque somente as mutações que ocorreram durante um período limitado de tempo evolutivo precisam ser investigadas. Ao utilizarmos apenas o pano de fundo mutacional da linhagem da proteína na qual a sequência de alterações realmente ocorreu, evita-se a confusão causada por causa de interações epistáticas. Inclusive isso permite identificar as eventuais mutações epistáticas restritivas e permissivas envolvidas no processo.

Reconstrução de sequências ancestrais:

A grosso modo, o que se faz é inferir a sequência de aminoácidos da proteína ancestral por meio de métodos filogenéticos e a partir daí, utilizando-se o conhecimento do código genético, cria-se uma sequência de DNA correspondente, sintetizasse-a e a insere em algum tipo de célula, de algum sistema de cultura celular in vitro, para que seja transcrita em um mRNA e traduzida em uma proteína. Uma vez expressa, a proteína ancestral pode ser testada diretamente, usando-se ensaios bioquímicos e farmacológicos, ou purificada, de modo que possa ser analisada por métodos como a difração de raio X ou ressonância nuclear magnética (NMR), além de métodos de bioinformática estrutural, que permitem criar um modelo da estrutura tridimensional da proteína. É possível fazer isso com todos os intermediários, que podem, então, serem testados e comparados entes si e com as versões atuais exibidas pelos representantes remanescentes das linhagens sendo investigadas [1, 3].

Ao lado, vemos resumida a estratégia de ressurreição de genes ancestrais‘. No esquema podem ser vistas as etapas necessárias para ‘ressuscitar’ e caracterizar um gene ancestral e seu produto primário. É mostrada na figura uma proteína hipotética de algum vertebrado ancestral, como um exemplo [3].

As sequências disponíveis para as várias versões da proteína de diferentes espécies evolutivamente aparentadas são alinhadas juntamente com as sequências de um ‘grupo externo‘, que é como são chamadas na sistemática filogenética as sequências que são consideradas mais distantemente relacionadas as sequências empregadas na análise (as sequências do ‘grupo interno’) do que estas últimas são umas das outras. A partir daí – e utilizando-se de métodos específicos – uma árvore filogenética do grupo é construída. Caso já haja uma filogenia robusta do grupo em questão, as sequências das diversas espécies são simplesmente sobrepostas a árvore filogenética disponível [1, 3, 4, 5].

Uma vez de posse da filogenia do grupo, são empregados métodos filogenéticos, como máxima parcimônia, máxima verossimilhança ou bayesianos [3, 4]. Esses métodos são utilizados para inferir a melhor estimativa do estado ancestral para cada sítio (posição) na sequência, tendo como base os dados das sequências atuais. Os métodos de máxima parcimônia operam minimizando a quantidade de mudanças evolutivas ao longo dos ramos da árvore filogenética, com as árvores (ou estados ancestrais) que requerem o menor número de alterações sendo os preferidos [Para saber mais sobre os métodos cladísticos veja ’Filogenia Mastigada 1: Princípios de Filogenia e conceitos básicos’, ’Filogenia Mastigada 2: Polarização de Séries de Transformações e o conceito de Homoplasia’, ’Filogenia Mastigada 3. Grupos Monofiléticos e Merofiléticos e a filosofia por detrás da Filogenia’, ’Filogenia Mastigada 4 : Interpretando uma árvore filogenética – parte ½’ e ’Filogenia Mastigada 5 – Interpretando uma árvore filogenética 2/2’].

O problema principal com esses métodos é que eles não incorporam um modelo evolutivo explícito, mesmo que certas versões, como os métodos de parcimônia ponderada, possam acomodar diferentes cenários de mudança de caráter. Esse método também não é apropriado quando ocorreram múltiplas substituições em um sítio, já que assume implicitamente uma baixa taxa de mudança [4, 5]. Já os métodos filogenéticos baseados na análise de máxima verossimilhança utilizam como critério de ‘otimalidade’ um escore de verossimilhança, que é calculado tendo como base um modelo de evolução molecular especifico. O escore de otimização pode ser usado para especificar a topologia [padrão de ramificação] e os outros parâmetros da árvore, como os comprimentos de ramos, as frequências dos estados das características e os próprios estados ancestrais. Por fim, os métodos bayesianos também podem ser utilizados para calcular os estados ancestrais por meio das probabilidades posteriores. Tais probabilidades podem ser calculadas usando-se as topologias, os comprimentos de ramificação e os parâmetros de modelo, todos estimadas por máxima verossimilhança, que são inseridos como probabilidades prévias (‘priors’) ou, de maneira alternativa, as probabilidades posteriores podem ser calculadas considerando a incerteza na topologia e nos parâmetros obtidos por máxima verossimilhança, empregando o que os especialistas chamam de ‘Métodos de Monte Carlo via Cadeias de Markov (MCMC)‘. A vantagem de tais métodos é que, ao utilizarem um modelo explícito de evolução molecular, isso nos permite incorporar o conhecimento dos mecanismos e restrições que atuam sobre as sequências codificantes, além de podermos comparar o desempenho de diferentes modelos, tornando a análise muito mais realista e robusta [3, 4, 5]. Esses métodos estocásticos permitem que os pesquisadores explorarem diferentes modelos de evolução molecular de maneira que eles consigam determinar o quão robustos são os resultados da reconstrução ancestral, Isso é extremamente importante, uma vez que modelos simplificados ou irrealistas podem, em certos casos, produzir reconstruções filogenéticas enganosas ou incorretas, o que deixa claro a importância de métodos e critérios rigorosos para a seleção de modelos. Para saber mais sobre essas questões dê uma olhada nesta resposta aqui, disponível em nosso tumblr.

Esses métodos são então usados para inferir a melhor estimativa do estado ancestral para cada sítio (posição) na sequência tendo como base os dados das sequências atuais. Uma fez feito isso, são sintetizadas pequenas sequências de DNA (chamadas de ‘oligonucleotídeos’) que são montadas em genes que codificam a proteína ancestral através da técnica de PCR gradual ou por digestão de restrição/ligação. Nesta etapa pode ser utilizada a estratégia de mutagênese dirigida ao local caso a sequência ancestral possa ser criada através da introdução de apenas algumas alterações num gene existente. Essas sequências de DNA são então inseridas em vetores especiais e introduzidas em culturas de células por métodos de ‘transformação’ o que permite que elas sejam expressas e estudadas [3, 4].

De acordo com Thornton [3], a preferência é sempre dada as sequências de aminoácidos porque elas contêm menos “ruído” do que as sequências de DNA, que são mais sujeitas a convergência e a reversão mutacional. Com base em nosso conhecimento do código genético (a relação entre tripletos de nucleotídeos, os códons, e os aminoácidos especificados por eles nas proteínas) é inferida uma sequência de DNA codificante para a proteína ancestral. Caso o sistema de expressão específico possua algum tipo de preferência de códons (viés de códons), isso ser pode ser introduzido para melhorar a taxa de tradução da proteína, de maneira, que ela seja obtida em maior quantidade. A proteína pode depois disso ter suas funções caracterizadas por meio de testes experimentais, bioquímicos (tais como ensaios ‘gene repórter’, que permitem que estudemos sua expressão) ou farmacológicos (como os ‘ensaios de ligação’, em é quantificada a ligação da proteína ao substrato ou ao ligante). Em outros casos pode-se investigar a resposta da proteína a algum parâmetro físico, como a luz, ou sua estabilidade termodinâmica [3, 4, 5]. Como já mencionado, caso necessário, também é possível purificar a proteína ancestral para melhor estudar sua estrutura tridimensional. Isso é feito através da clonagem do gene ancestral em um plasmídeo, que permite a expressão de alto nível, que é  transfectado para células bacterianas ou de mamíferos em cultura.

Rodopsinas Ancestrais e a visão dos dinossauros:

Com o intuito de compreender melhor a evolução da visão entre os Arcossauros, Belinda Chang e alguns outros cientistas resolveram examinar a proteína responsável pela visão em baixas condições de iluminação [4, 5]. Os arcossauros são um grupo de vertebrados que inclui os dinossauros já extintos, bem como as aves (o grupo remanescente de dinossauros terópodes), além dos crocodilianos modernos e ancestrais [4, 5]. Os ancestrais desses animais, que formam um dos principais ramos dos répteis diapsidas, originaram-se por volta de 240 milhões de anos atrás, no começo do período Triássico.

Chang e seus colaboradores [4, 5] usaram como base de sua análise as sequências de quatro espécies de animais, pertencentes a três grupos de arcossauros remanescentes: Crocodilianos (Aligátor); Aves (Pombo e Galinha), Peixe (Paulistinha), além das sequências de 26 outros vertebrados que foram utilizados como grupos externos [Veja aqui para maiores detalhes] [3]. A equipe liderada por Chang usou três tipos diferentes de modelos de máxima verossimilhança (modelos baseados em nucleotídeos, baseados em aminoácidos e em códons). As proteínas atuais diferiram em no máximo de 16% em relação as suas sequências de aminoácidos, o que permitiu que a sequência proteica do arcossauro ancestral fosse reconstruída com pouca ambiguidade, utilizando os três tipos de dados [3]. Para determinar qual modelo melhor se ajusta aos dados, os pesquisadores sempre que foi possível fizeram testes de razão de verossimilhança dentro de cada tipo de modelo [4, 5].

Feita a análise inicial, os pesquisadores constataram que as reconstruções do nódulo ancestral dos arcossauros, usando os modelos mais adequados de cada tipo, estavam todas de acordo, com exceção de três resíduos de aminoácidos, em relação aos quais uma reconstrução diferia das outras duas. Para determinar se estes pigmentos ancestrais seriam funcionalmente ativos, os genes correspondentes foram quimicamente sintetizados e depois expressos numa linhagem de células de mamífero em culturas de tecido. Isso foi feito através da montagem de sequência de DNA de 1 kilobase, que codifica a proteína rodopsina ancestral (a partir de cinco oligonucleotídeos longos), que foi, então, clonada em um vetor de expressão sob o controlo de uma sequência promotora constitutiva. O vetor foi transfectado em uma cultura de células de mamífero. Após a expressão deste gene, garantida pelo promotor constitutivo, e a subsequente tradução dos mRNAs resultantes, em um proteína, nas células em cultura, essas biomoléculas foram purificadas e submetidas a ensaios funcionais in vitro; os mesmo normalmente empregados para caracterizar as rodopsinas comuns [3].

Os produtos desses genes artificiais ligavam-se a molécula 11-cis-retinal, produzindo pigmentos fotoativos estáveis com o pico de absorção (λmax) de luz por volta da faixa dos 508 nanômetros, ligeiramente desviada para a porção vermelha do espectro em relação ao que se observa nos pigmentos dos vertebrados existentes atualmente. Os pigmentos do arcossauro ancestral também ativaram a transdução da proteína G [veja aqui para compreender como funciona a proteína G] retiniana, medida num ensaio de fluorescência [4, 5]. E isso ocorreu  a uma taxa semelhante ao que acontece com a rodopsina bovina [3]. Isso tudo indica que foi obtida uma molécula completamente funcional.

Ao lado [figura retirada de 4], em A podemos ver uma linha do tempo dos períodos geológicos, onde são mostradas as idades aproximadas de amostras antigas usadas em estudos que tentam amplificar material genético antigo, com as estimativas da idade do gene ancestral reconstruído da rodopsina do Arcossauro ancestral também indicada. Em B podemos observar uma filogenia das rodopsinas dos vertebrados utilizados para a reconstrução do nódulo ancestral, que está também indicado na figura. A topologia da árvore reflete a compreensão atual das relações sistemáticas entre as principais linhagens de vertebrados, com os comprimentos de cada ramo e os parâmetros dos modelos estimados através de máxima verossimilhança sendo indicados. Os picos de absorção aproximados das diversas rodopsinas dos vertebrados estão ressaltados em itálico.

Tais resultados são consistentes com a hipótese de que o arcossauro ancestral possuía a habilidade – pelo menos ao nível molecular – de ver bem em luz fraca. Isso significa que ele poderia ter sido sido ativo durante à noite.  Esse resultado por si só é impressionante.  Agora dispomos de janela para ecologia destas criaturas extintas.Podemos investigar alguns detalhes de seus modos de vida que nunca poderiam ter sido vislumbrados a partir do simples exame dos fósseis ou de qualquer outra evidência não molecular sobre o comportamento de dinossauros e de outros arcossauros extintos [3].

A ressurreição de receptores hormonais ancestrais:

Joe Thornton, a partir de 2003, seguiu uma abordagem semelhante. Desde então, ele e seus colaboradores vêm ampliando e aprofundando seus estudos. Seu trabalho iniciou-se com a análise das sequências de genes para receptores de hormônios esteroides de vários animais vivos hoje em dia. Essas sequências foram alinhadas e usadas para ‘descer’ a filogenia deste grupo de animais, usando os métodos explicados anteriormente. A partir dai, a equipe de Thornton pode inferir a sequência mais provável do antepassado comum de todos esses receptores, que deve ter existido entre 600 e 800 milhões de anos atrás. A reconstrução dos estados de tais sequências e a síntese das proteínas correspondentes (que permitiu ‘ressuscitar’ tais biomoléculas) possibilitou sua equipe “testasse experimentalmente hipóteses sobre a evolução que de outra forma seria apenas especulação” [6]. Através destes estudos, eles puderam mostrar que o receptor ancestral era sensível aos estrogênios, mas não a outros hormônios relacionados – apoiando a ideia de que esta família de receptores teria evoluído por meio de vários eventos de duplicações de genes, com as cópias evoluindo gradualmente suas afinidades por outros tipo de moléculas ligantes [6].

Thornton e seu grupo de pesquisa decidiram investigar em maior profundidade dois receptores para esteroides estreitamente relacionados, o receptor mineralocorticoide (MR), que liga ao hormônio aldosterona e que temo um papel na regulação de eletrólitos e água; e o receptor para glicocorticoides (GR), ao qual liga-se o cortisol e que está relacionado ao controle da resposta ao estresse. As evidências indicam que estas duas moléculas surgiram a partir da duplicação de genes que aconteceu há mais de 450 milhões de anos. Porém, a aldosterona só surgiria muitos milhões de anos depois, resultando em um enigma [6]:

‘Como a seleção poderia conduzir a evolução de ‘uma fechadura’ (o MR) para encaixar em uma chave (a aldosterona) que ainda não existia?’ [6]

A resposta para essa pergunta foi descoberta pela equipe de Thornton através de um trabalho liderado pela pesquisadora Jamie T. Bridgham [6, 7]. O fato de o antepassado de ambos os receptores ser sensível à aldosterona sugeria que existia algum outro ligante mais antigo com uma estrutura similar. Desta maneira, quando a aldosterona surgiu, esta molécula pode ser recrutada durante a evolução pelo receptor já existente (que por ligar-se a um molécula similar, estava  ‘pré-adaptado’) para exercer uma nova função biológica. Esse processo, Thornton chamou de ‘exploração molecular’ [6, 7]. Nesse mesmo trabalho, os cientistas também mostraram que o receptor para glicocorticoides estava evoluindo suas próprias funções específicas [6, 7].

Mais pistas sobre a evolução desses receptores continuaram ser descobertas em trabalhos subsequentes, revelando mais detalhes sobre como a evolução opera  ao nível molecular. A equipe de Thornton explorou a história de como o GR tornou-se sensível ao cortisol em um processo que demorou cerca de 20 milhões de anos, de acordo com suas estimativas. Para isso eles, trabalhando em colaboração com biólogos estruturais, que determinaram a estrutura cristalina do ancestral comum do GR e do MR. O que eles descobriram foi que apenas duas mutações cruciais em conjunto são capazes de alterar o sítio de ligação do receptor ancestral de modo a fazê-lo ligar-se preferencialmente ao cortisol. Além dessas duas, outras cinco mutações foram necessárias para produzir as versões atuais e garantir a especificidade aos ligantes atuais. Porém, quando os pesquisadores tentaram reverter a evolução das sequências, revertendo as sete mutações, elas não conseguiram transformá-lo de volta em uma proteína funcional, como era a versão ancestral. [Lembra-se de toda aquela discussão sobre mutações restritivas e permissivas?].

A nova molécula era quase completamente incapaz de responder a qualquer hormônio, ilustrando a limitação das abordagens horizontais que discutimos lá em cima, no começo dessa postagem. Foi quando eles perceberam que, além dessas sete mutações, um punhado de outras mutações também surgiram durante esse processo e, mesmo não estando diretamente associadas a afinidade e especificidade ao ligante, foram necessárias para produzir o receptor específico de cortisol. Thornton mostrou que era necessário desfazer essas mutações também para reverter a mudança [6]. De acordo com Thornton, tais mutações agiram como uma catraca evolutiva, impedindo que o receptor recuperasse sua função ancestral. Essa é uma demonstração fantástica de como o caminho da evolução pode ser historicamente contingente e depender de vários eventos completamente aleatórios [6, 7]. Nas palavras do próprio  Thornton:

“O acaso desempenha um papel muito grande na determinação de quais resultados evolutivos são possíveis”, diz ele [6].

A evolução abre portas para o futuro. Mas parece fechá-los – firmemente – por trás dele também, disse um editorial do New York Times [citado em 6].

 

Esses resultados sugerem que o receptor de esteroides ancestral tinha um perfil de especificidade semelhante aos dos receptores de estrogênio modernos; com os ligantes hormonais dos outros receptores (e as afinidades pelos genes-alvo com quem eles ligam-se e aos quais regulam) emergindo mais tarde, como novidades evolutivas derivadas. Porém, a conclusão mais surpreendentemente talvez seja a que, como o primeiro receptor na família era ativado por um hormônio que aparece apenas ao final de uma via de síntese de esteroides (que exibe vários intermediários, como a progesterona e testosterona), os novos pares ‘hormônio-receptor’ foram evoluindo conforme as sequências dos genes de receptores ancestrais foram sofrendo duplicação [6, 7]. Desta maneira, apenas posteriormente, evoluíram maior afinidade por esses esteroides que já estavam presentes, mas que, inicialmente, eram apenas passos intermediários da via de síntese, e só mais tarde passariam a desempenhar novas funções [3]. Essas descobertas ilustram a natureza oportunista e contingente do processo evolutivo. Logo após as duplicações dos genes que codificavam esse receptores, os  receptores extras devem ter permanecido órfãos ou redundantes. Porém, devido as similaridades estruturais entre os ligantes originais e seus diversos intermediários nas suas vias de síntese, eventualmente, mutações que levassem a ligação preferencial entre um desses intermediários e a cópia mutante do receptor – induzindo sua ativação em alguma nova circunstância (ao mesmo tempo que uma das cópias mantinha a função original) que trouxesse quaisquer vantagens – permitiriam o começo da evolução de uma nova função [7]. Em seu artigo de 2006 [7], os pesquisadores explicam que a ligação entre a aldosterona e o MR evoluiu de maneira gradual, completamente consistente com a moderna teoria evolutiva. O que mudou foram as funções que estavam sendo selecionadas ao longo do tempo. Como já ressaltado a sensibilidade do AncCR à aldosterona estava presente desde o inicio, muito antes do hormônio ter surgido. Ela era portanto um mero subproduto de restrições específicas no receptor associadas a ativação pelo seu ligante original, que tinha semelhanças com a aldosterona.

Como também vimos, após a duplicação que deu origem ao GR e ao MR, apenas duas substituições na linhagem que deu origem ao GR foram necessárias para produzir receptores com diferentes perfis de resposta hormonal. A evolução posterior do MR, que poderia ser regulado independentemente pela aldosterona, permitiu uma resposta endócrina mais específica do controle da homeostase de eletrólitos, mas sem também desencadear a resposta ao estresse associada ao GR; e, de modo complementar, as respostas de estresse não interfeririam com a homeostasia hídrica e de sais [6]. Veja que este cenário evolutivo – no qual um antigo receptor recruta um novo ligante – é o oposto da dinâmica previamente estabelecida para os receptores androgênicos e de progesterona (AR, PR), onde as duplicatas de um antigo receptor, que respondia a estrogênio, evoluíram afinidade a esteroides que anteriormente serviam como intermediários na síntese do próprio ligante ancestral [7].

 

Acima podemos observar um esquema da evolução da especificidade da sinalização MR-aldosterona por meio da ‘exploração molecular’. Em (A) está mostrada a via de síntese de hormônios corticosteroides. Nela as moléculas ligantes para o receptor corticoesteroide (CR) ancestral e para os MRs existentes estão sublinhadas. O cortisol, que é o ligante para o GR dos tetrápodes está mostrando com uma linha logo acima de seu nome e a adição terminal da aldosterona está ressaltada com a cor verde. Os asteriscos mostram as etapas catalisadas pela enzima citocromo P-450 11b-hidroxilase. Note que apenas a enzima dos tetrapodes pode catalisar o passo marcado com um asterisco verde, dado a mutações específicas que ocorreram nessa linhagem. Em (B) podemos ver que a sensibilidade do MR à aldosterona precedeu o surgimento do próprio hormônio, já que o ancestral vertebrado não sintetizava aldosterona (círculo pontilhado), mas produzia outros corticosteroides (círculo cheio). Esses animais possuíam um único receptor com afinidade para ambas as classes de ligantes. A duplicação genética (em azul) deu origem a GR e MR e duas alterações na sequência do GR (vermelho) aboliram sua capacidade de ser ativado pela aldosterona, mas mantiveram sua sensibilidade ao cortisol [ver (C)]. Nos tetrápodes, a síntese de aldosterona teve origem devido à modificação da enzima citocromo P-450 11b-hidroxilase. Em (C) podemos inferir a base mecanicista para perda de sensibilidade à aldosterona nos GRs. Os gráficos mostram o que ocorre quando são introduzidas alterações de aminoácidos (que filogeneticamente servem de diagnostico que ocorreram durante a evolução de GR) no domínio de ligação do ligante do receptor ancestral (AncCR-LBD) por mutagênese. As curvas dose-resposta são mostradas para aldosterona (verde), para DOC (azul), e para cortisol (vermelho). Veja que o mutante duplo (lado inferior direito) tem um fenótipo semelhante ao visto no GR moderno. As setas mostram caminhos evolutivos através de um intermediário não funcional (vermelho) ou funcional (verde), Ali fica claro como a ordem das mutações foi importante para produzir a transição [6].

Em conjunto, essas duas histórias sugerem uma dinâmica evolutiva bem mais geral em que novas interações surgem quando uma molécula recém gerada – que pode ser uma ligeira modificação estrutural ou duplicada de uma previamente existente – recruta como um ligante (parceiro de interação) uma molécula mais antiga, que havia sido previamente restringida pela seleção para uma função inteiramente diferente [7].

O enigma que os sistemas complexos representam para a evolução darwiniana depende da premissa de que cada parte não tem função – e, portanto, não pode ser selecionada para – até que todo o sistema esteja presente. Este quebra-cabeça poderia realmente fazer que a teoria de Darwin desmoronasse caso as funções das partes devessem permanecer estáticas todo o tempo. Mas praticamente todas as moléculas podem participar e participam em mais de um processo ou interação, então os elementos de um complexo podem ter sido selecionados no passado para funções não relacionadas. Nosso trabalho indica que os sistemas firmemente integrados podem ser montados combinando moléculas antigas com papéis ancestrais diferentes, juntamente com outras novas – geradas pela duplicação de genes ou elaboração de caminhos enzimáticos – que representam ligeiras variantes estruturais de elementos mais antigos. Propomos que a exploração molecular seja predominante tema na evolução, que pode fornecer uma explicação geral de como as interações moleculares críticas para a complexidade da vida surgiram a moda darwiniana.” [7]

Os trabalhos das equipes de Thornton, Chang e de outros biólogos evolutivos têm nos permitido compreender cada vez melhor como a evolução de sistemas biomoleculares complexos acontece. Além das novas técnicas e métodos que permitem trazermos o passado ‘de volta’, esses cientistas mostram como as objeções criacionistas esvaem-se frente a pesquisa científica moderna, deixando claro que tais objeções baseiam-se em formas muito estreitas e até caricatas de conceber a evolução biológica e que, para serem mantidas, dependem de ignorar a literatura científica e algumas das pesquisas mais impressionantes que tem sido realizadas nas últimas décadas.

——————–

* Essas mudanças das relações epistáticas – isto é, do padrão de interferência entre diferentes resíduos de aminoácidos ao longo de uma mesma sequência proteica – podem ocorrer não só pela fixação de mutações neutras ou ligeiramente deletérias, em virtude da deriva genética, mas como resultado da interação da deriva com a seleção natural. Como mutações ligeiramente desvantajosas podem ser fixadas, reduzindo a aptidão do fenótipo associado àquela biomolécula, isso favorece a fixação por seleção natural de eventuais mutações compensatórias que aumentam a aptidão conferida pela sequência, podendo, porém, alterar as relações epistáticas entre os diversos resíduos [2]. A interação entre pressão de mutação, deriva genética em virtude de variações dos tamanhos das populações, seleção natural purificadora, seleção natural variante e por mutações compensatórias mostra que as vias de evolução de sistemas biomoleculares dependem muito de fatores estocásticos.

———————

Imagem da rodopsina de autoria de B. C. Chang disponível aqui.

——————–

Referências:

  1. Harms MJ, Thornton JW. Analyzing protein structure and function using ancestral gene reconstruction. Current opinion in structural biology. 2010;20(3):360-366. doi:10.1016/j.sbi.2010.03.005.

  2. Ohta, Tomoko (February 2013) Molecular Evolution: Nearly Neutral Theory. In: eLS. John Wiley & Sons, Ltd: Chichester. doi: 10.1002/9780470015902.a0001801.pub4

  3. Thornton JW. Resurrecting ancient genes: experimental analysis of extinct molecules. Nat Rev Genet. 2004 May;5(5):366-75. :10.1038/nrg1324

  4. Chang, B.S.W. et al. Recreating a functional ancestral archosaur visual pigment. Molecular Biology and Evolution, 2002 Sep;19(9):1483-9. PubMed PMID: 12200476.

  5. Chang, B.S.W. Ancestral Gene Reconstruction and Synthesis of Ancient Rhodopsins in the Laboratory Integr. Comp. Biol. 2003, 43 (4): 500-507 doi:10.1093/icb/43.4.500

  6. Pearson H. Prehistoric proteins: Raising the dead. Nature. 2012 Mar 21;483(7390):390-3. doi: 10.1038/483390a.

  7. Bridgham JT, Carroll SM, Thornton JW. Evolution of hormone-receptor complexity by molecular exploitation. Science. 2006 Apr 7;312(5770):97-101. DOI: 10.1126/science.1123348

A Estabilidade do Paradigma Darwiniano

Passados mais de 150 anos desde a publicação da primeira edição de ‘A Origem das Espécies’, a teoria proposta pelo naturalista Charles Darwin (e por Alfred Russel Wallace) ainda permanece ilesa e fortificada apesar das inúmeras tentativas de refutação a que foi submetida ao longo do tempo. De acordo com o médico psiquiatra, antropólogo e professor universitário português António Bracinha Vieira, a teoria de Darwin:

conseguiu algo extraordinário e único no mundo científico: ao longo de um século e meio foi englobando, sintetizando e dando sentido a outras teorias, hipóteses explicativas e modelos dispersos pelo espaço imenso das ciências naturais que vão da geobiologia à biologia molecular.” (Vieira, 2009, p.11)

A solidez do chamado paradigma darwiniano, produzido nos anos 1940 durante a síntese evolucionista, sempre foi proclamada e sustentada com afinco pelo biólogo, nascido na Alemanha (naturalizado e radicado nos EUA), Ernest Mayr (1904-2005). Segundo Mayr, os princípios básicos do darwinismo estão mais firmemente estabelecidos do que nunca, posto que hoje é um programa de pesquisa altamente complexo, que está a ser constantemente modificado e aperfeiçoado. Em seu livro “Biologia, Ciência Única” (Mayr, 2005), Mayr, um dos responsáveis pela moderna síntese evolucionista, reafirma a validade da teoria da evolução de Darwin e explica que ela é composta de cinco teorias separadas, cada uma com sua própria história, trajetória e impacto. Em um determinado trecho deste livro, o biólogo evolucionista dispara:

… produto da síntese das teorias dos estudiosos da anagênese e da cladogênese, foi chamada de teoria sintética da evolução. Na realidade, a melhor solução seria chamá-la, simplesmente, de darwinismo. Com efeito, trata-se, em essência, da teoria original de Darwin com uma teoria válida de especiação e sem a hereditariedade leve. Como essa forma de hereditariedade foi refutada mais de cem anos atrás, não pode haver equívoco na retomada do simples termo “darwinismo”, porque ele engloba os aspectos essenciais do conceito original de Darwin. Em particular, refere-se a inter-relação entre variação e seleção, o cerne do paradigma de Darwin, e confirma que é melhor se referir ao paradigma evolucionista, após um longo período de maturação, simplesmente como darwinismo. (Mayr, 2005).

Não se pode falar em paradigma sem mencionar o físico e filósofo da ciência Thomas Kuhn (1922-1996). De acordo com o enfoque historicista de Kuhn, a ciência desenvolve-se segundo determinadas fases, a saber: estabelecimento de um paradigma, ciência normal, crise, ciência extraordinária, revolução científica e estabelecimento de um novo paradigma. Como é explicado no verbete da wikipédia sobre o filósofo:

A noção de paradigma resulta fundamental neste enfoque historicista e não é mais que uma macroteoria, um marco ou perspectiva que se aceita de forma geral por toda a comunidade científica […] e a partir do qual se realiza a atividade científica, cujo objetivo é esclarecer as possíveis falhas do paradigma ou extrair dele todas as suas consequências.” [Thomas Kuhn]

No livro “‘Estruturas das Revoluções Científicas’, Kuhn esclareceria posteriormente que o termo pode ser utilizado num sentido geral e num sentido restrito. O primeiro diz respeito à noção de matriz disciplinar, que é o “conjunto de compromissos de pesquisa de uma comunidade científica.O segundo sentido denota os paradigmas exemplares, que são a base da formação científica, uma vez que o pesquisador passa a dominar o conteúdo cognitivo da ciência através da experimentação dos exemplos compartilhados.” [Thomas Kuhn]

No caso do darwinismo, não houve nem rompimento nem incomensurabilidade no sentido de Kuhn e sim um esclarecimento, pela mesma “matriz disciplinar”, de uma imensa constelação de fenômenos, conforme assinala Vieira (2009) em seu livro. Para o referido autor, o darwinismo no seu estado atual, permite a integração de tantos e tão sólidos dados e conceitos que unifica e dá coerência ao imenso espaço heurístico interposto entre a geobiologia e a biologia molecular. Vieira conclui afirmando que, após a grande síntese, a biologia adquiriu autonomia plena e se tornou uma ciência exemplar, integrada em torno de uma teoria central unificadora capaz de dirigir e aprofundar a investigação em todas as frentes (Vieira, 2009).

———————

Referências:

  • Vieira, António Bracinha A Evolução do Darwinismo, Ed. Vieira & Lent, Rio de Janeiro, 2009, p.11

  • Mayr, Ernest Biologia, Ciência Única “Ed. Companhia das Letras, 2005, 272 p.

  • Thomas Kuhn In: Wikipédia: a enciclopédia livre. Disponível em: <https://pt.wikipedia.org/wiki/Thomas_Kuhn>; Acesso em:  9 jan 2017.

Informação, biologia e evolução Parte IV:

Informação e Complexidade

Nessa quarta parte da série de postagens “Informação, biologia e evolução” [‘Informação, biologia e evolução: Parte I‘ e “Informação, biologia e evolução Parte II” e “Informação, biologia e evolução Parte III”] abordarei as relações entre informação e complexidade. Como ocorre com a palavra ‘informação’, a palavra ‘complexidade’ tem vários significados relacionados, a maioria dos quais muito vagos e, por vezes, ambíguos. Por causa disso não existem medidas de caráter geral para a complexidade que tenham sido consensualmente aceitas pelos cientistas:

Apesar da importância e ubiquidade do conceito de complexidade na ciência e na sociedade moderna, não existem atualmente meios gerais e amplamente aceitos para medir a complexidade de um objeto físico, sistema ou processo. A falta de qualquer medida de caráter geral pode refletir o estágio inicial da nossa compreensão dos sistemas complexos, que ainda carece de uma estrutura unificada geral que atravesse todas as ciências naturais e sociais.”[1]

Para quantificá-la é necessário, primeiro, defini-la de maneira rigorosa e precisa, restringindo seu escopo de aplicação. Infelizmente, isso normalmente tem como resultado que muitos de seus sentidos coloquiais, que tanto desejaríamos ver respaldados por essas medidas, são completamente perdidos. Nessas situações, a aplicação à biologia, de maneira geral (e a biologia evolutiva, de maneira mais específica) torna-se duvidosa [1, 2].

A maioria concorda, porém, que ninguém sabe exatamente o que se quer dizer com a palavra “complexidade” quando se refere a um organismo biológico. De fato, embora medidas de complexidade abundem (muitas delas inventados pelos físicos), sua relação com a biologia nem sempre é clara.”[2]

Um dos problemas é que algumas das mais conhecidas medidas de complexidade a identificam com a aleatoriedade, pura e simplesmente. Medidas como o ‘conteúdo de informação algorítmica’ e a ‘profundidade lógica’ parecem realmente completamente irrelevantes à biologia, já que tentam capturar a aleatoriedade inerente a um certo tipo de ‘objeto’. Essas medidas, que tentam identificar o comprimento da menor descrição de um processo, atribuem maior complexidade a processos aleatórios, que resistiriam à compressão [1].

Dessa forma, o ‘conteúdo de informação algorítmica’ – (AIC) um medida definida pelo matemático russo, Kolmogorov, em 1965, e pelo matemático americano, Gregory Chaitin, em 1977 – estabelece que “a quantidade de informação contida em uma sequência de símbolos é dada pelo comprimento do programa de computador mais curto que gera a tal sequência” [1]. Isso faz com que cadeias altamente regulares – periódicas ou monotônicas, e que, assim, poderiam ser produzidas por programas curtos – conteriam pouca informação. Enquanto isso, cadeias aleatórias que requeressem-se um programa tão longo quanto a própria sequência, teriam um altíssimo conteúdo de informação, ou seja, a informação e, portanto, a complexidade seria máxima. A ‘Profundidade lógica’, de Bennett, é uma outra medida relacionada à AIC [1]. Ela é definida como a quantidade mínima de recursos computacionais (tempo, memória, etc) necessários para resolver uma dada classe de problema, referindo-se, principalmente, ao tempo de execução do programa mais curto capaz de gerar uma dada sequência ou padrão de sequências [1].

Complexidade dos seres vivos:

Existem outras maneiras mais diretas de ‘quantificar’ a complexidade dos sistemas biológicos, por exemplo, como contar o número de partes ou componentes ou interações de um sistema, o que Dan McShea chama de ‘complexidade estrutural’ [1, 2]. Contar as funções desempenhadas pelo organismo como um todo ou por seus componentes é outra possibilidade também discutida por McShea, que refere-se a estas medidas como ‘complexidade funcional’ [vejaAlém da seleção natural II: Complexidade e novas funções por caminhos alternativos”, “Complexidade por subtração da complexidade ”, “Fatores não adaptativos e a evolução da regulação gênica em procariontes.”, “O preço da complexidade]. Por fim, podemos contar também o número de níveis hierárquicos exibidos pelo sistema – ou seja, sua ‘complexidade hierárquica’.

Como já discuti em outras postagens, medidas deste tipo podem ser muito úteis para certos estudos. Separar a complexidade estrutural da funcional pode nos trazer vários insights importantes sobre como processos não-adaptativos podem colaborar com o aumento do primeiro tipo de complexidade, mas não necessariamente do segundo, e como a seleção natural pode tanto aumentar como diminuir ambos os tipos de complexidade [Além da seleção natural II: Complexidade e novas funções por caminhos alternativos]. De maneira semelhante, a complexidade hierárquica pode fazer sentido nas comparações entre seres uni e pluricelulares que, do ponto de vista funcional e estrutural, podem não serem necessariamente tão diferentes, em termos de complexidade ou pelo menos mais difíceis de comparar. Tais medidas podem ser empregadas para comparação de diferentes linhagens ao longo do tempo geológico e nos ajudar a julgar se existe algum tipo de tendências em direção ao aumento ou diminuição de algumas desta medidas e, se tais padrões existirem, definir de que tipo eles são [2]. Porém, sua aplicação tem sérias limitações; tanto porque existem várias formas de medir cada um dos tipos de complexidade descritas acima, não existindo um consenso amplo sobre quais as  melhores formas de fazê-lo, como porque muitas dessas medidas podem ser bastante difíceis de serem implementadas na prática.

Além disso, alguns dos resultados dessas medidas podem simplesmente destoar do que esperaríamos intuitivamente de uma medida que visa quantificar a complexidade, o que reduz, de novo, seu escopo e interesse. Por exemplo, sistemas grandes e altamente acoplados não necessariamente devem ser considerados mais complexos do que aqueles que são menores e menos acoplados. De fato, sistemas muito grandes que encontrem-se totalmente ligados podem ser descritos de uma maneira compacta e podem exibir um comportamento muito mais uniforme do que um sistema menor, muito mais heterogêneo, cuja descrição seria muito menos compressível e seu comportamento bem mais variado [1, 2].

Complexidade em sistemas dinâmicos:

Existem, entretanto, outras medidas que talvez aproximem-se mais ao que desejaríamos em uma medida de complexidade, pelo menos, em certos contextos mais limitados e bem definidos. Algumas delas podem produzir resultados que parecem apropriados, pelo menos naquilo que seriam os extremos do espectro de complexidade, preservando, assim, algumas das características que intuitivamente gostaríamos de observar nessas medidas. Entre essas medidas estão a ‘complexidade estatística’, a ‘complexidade neural’ e ‘complexidade física’ [1].

Essas abordagens encaram a complexidade como algo distinto da aleatoriedade, e os sistemas complexos são aqueles que possuem uma elevada quantidade de estrutura ou de informação, muitas vezes em várias escalas temporais e espaciais, porém, sem que seja necessário existir uma relação direta e linear com o tamanho ou o nível de conectividade e integração [1,2].

Os pesquisadores que trabalham com a teoria dos sistemas dinâmicos interessam-se em medidas que exprimam a complexidade desses processos [1]. Já abordei antes, aqui no evolucionismo.org [“De determinantes ‘genéricos’ aos ‘genéticos’: A importância da física nos primódios da evolução animal” e “É a evolução genética previsível? Parte II ou Além da genética parte I“], algumas das contribuições do estudos dos sistemas dinâmicos à biologia evolutiva, principalmente no que concerne a evolução de novas morfologias, foco da evo-devo, e, nesse sentido, a evolução da complexidade morfológica em seres multicelulares. Porém, como estamos lidando com propostas de métricas de informação e complexidade, vamos entrar em um terreno diferente do que eu havia abordado nessas postagens anteriores.

De acordo com Sporns, a complexidade de qualquer sistema físico ou de qualquer processo dinâmico deve expressar o grau com que os componentes daquele sistema (ou os constituintes daquele processo) envolvem-se em interações estruturadas organizadas. A alta complexidade seria alcançada por sistemas que apresentam uma mistura de ordem e desordem (ou seja, de aleatoriedade e regularidade) e que tenham uma capacidade de dar origem a fenômenos emergentes [1]. Existe, então, um consenso que tanto processos periódicos como processos completamente aleatórios representariam os extremos de uma escala, como os  aleatórios (sem qualquer estrutura) em uma ponta e os completamente ordenados, em outra. Portanto, qualquer medida útil de complexidade deveria atribuir a esses extremos baixa complexidade. Portanto, sistemas altamente complexos seriam posicionados em algum lugar entre os sistemas altamente ordenados (regular) e os altamente desordenados (aleatórios), como mostra à grosso modo a figura ao lado [1], adaptada da originalmente publicada por Huberman and Hogg (1986) [1].

Talvez a medida mais interessante  de complexidade, para os nossos propósitos, já que e que relaciona-se mais diretamente às teorias da informação, seja a chamada ‘complexidade física’ (Cf), desenvolvida por Adami e Cerf, em 2000. Ela está relacionada a chamada ‘complexidade eficiente’, proposta por Murray Gell-man [1, 2]. Seus criadores a conceberam para estimar a complexidade de qualquer sequência de símbolos que seja ‘a cerca de contexto físico ou ambiente‘ específico [2]. A Cf é definida como a AIC que é compartilhada entre uma sequência de símbolos (como um genoma) e algum tipo de descrição do ambiente em que ela tenha algum significado, como o nicho ecológico dos organismos que as carregam.

Como AIC não é computável, a Cf também não o é. Porém, a Cf média de um conjunto de sequências pode ser aproximada. Assim, a Cf média de um conjunto de genomas de toda uma população de seres vivos pode ser aproximada por meio da ‘informação mútua’ (uma medida derivada da teoria de Shannon) entre conjuntos de sequências genômicas e o ambiente em que os indivíduos da  população que as portam vivem [2, 3].

A Cf média também foi utilizada para estimar a complexidade de biomoléculas e em outros estudos, que tal medida correlaciona-se positivamente, com a complexidade estrutural e funcional de um conjunto de moléculas de RNA, o que sugere uma ligação entre as capacidades funcionais de estruturas moleculares que evoluíram e a quantidade de informação que eles codificam [1]. Por fim, simulações realizadas por Adami e seus colaboradores, corroboram os resultados das simulações realizadas por Tom Schneider [2, 3, 4]. Assim, como Schneider mostrou claramente, através de seus programa EV, que as medidas de ganho de informação Rsequência e Rfrequência, [veja “Informação, biologia e evolução Parte III“] aumentam, o grupo de Adami, usando a plataforma AVIDA, também mostrou que a informação mútua entre genomas autorreplicantes e o seu ambiente  – e portanto, sua complexidade física média (Cf média ) – aumentou ao longo das gerações [2, 3. 4].

Mas para compreendermos melhor isso, voltemos um pouco atrás.

Adami em um artigo de 2000, publicado na revista BioEssays. define a Cf de uma sequência como “a quantidade de informação que é armazenada na sequência sobre um determinado ambiente”. Dessa maneira, o ambiente em questão é aquele no qual esta sequência (um genoma, por exemplo) replica-se e, portanto, no qual seu hospedeiro vive, algo similar a ideia de nicho ecológico [2].

Adami chama a atenção para o fato de a complexidade física (Cf) ser algo diferente de sua contrapartida matemática ou algorítmica (a AIC, de Kolmogorov e Chaitin). Enquanto esta última preocupa-se com a regularidade (ou, no caso, a irregularidade) intrínseca de uma sequência, um reflexo das leis imutáveis ​​da matemática, a Cf, por outro lado, refere-se sempre a algum contexto específico no qual a sequência deve ser interpretada [2, 3].

Em consonância com Schneider, Adami enfatiza que ‘a aleatoriedade é, em alguns aspectos, o ”outro lado” da informação’.

Informação, entropia e complexidade

Como vimos nos posts anteriores desta série, ela pode ser associada a entropia na teoria da informação de Shannon:

A entropia é uma medida do potencial de conhecimento, ou se aplicado a uma sequência, uma medida da quantidade de informação de uma sequência poderia carregar, e, assim, quantifica a incerteza sobre a identidade genética de um indivíduo selecionado aleatoriamente a partir de uma pool.” [2]

De acordo com Adami, podemos imaginar a entropia de sequência como sendo o comprimento de uma fita, enquanto a informação é o comprimento da fita que contém gravações:

A medição (ou seja, a gravação) transforma fita vazia em fita gravada” [2]

Isto é, ela transforma entropia (incerteza) em informação (gravação). Esta metáfora tem paralelos diretos com a evolução, pois é exatamente o que acontece durante a evolução adaptativa, a força que impulsiona o aumento da Cfmédia nos seres vivos [2].

Infelizmente, como já mencionei nos outros posts, as tentativas de medir a informação (e, portanto, a complexidade, usando-se esta abordagem) são muitas vezes assombradas por usos errôneos desses conceitos. Muitas vezes a entropia foi postulada diretamente como a medida de complexidade baseada na teoria da informação. Porém, como vimos, a entropia de uma sequência é a quantidade de informação que tal sequência poderia transportar, o que pode ser compreendido de modo rigoroso como simplesmente o comprimento da sequência. Porém, o simples comprimento da sequência ou o tamanho total do genoma não é um bom preditor de nenhuma medida consistente da complexidade de um organismo, ao que os biólogos evolutivos referem-se como paradoxo-C [2].

A capacidade de previsão que obtemos a partir daí tem como implicação que a sequência e o sistema têm algo em comum, ou seja, existe uma correlação entre eles. Esta correlação provavelmente não se estenderia a outros sistemas, portanto, a sequência em questão dificilmente faria previsões sobre qualquer outro sistema, a menos, claro, que o tal sistema fosse muito parecido com aquele com o qual a sequência está correlacionada. Caso contrário, você não terá informação.

A informação é uma forma estatística de correlação e, portanto, requer, matemática e intuitivamente, uma referência sobre o sistema do qual a informação é sobre.” [2]

Ao invés disso, você terá informação potencial (a tal ‘entropia informacional’). Por outro lado, informação, neste sentido técnico (mas também no sentido mais intuitivo), é sempre sobre algo específico, o que nos leva a outra conclusão importante: Uma sequência pode incorporar informação sobre um dado nicho ao mesmo tempo que pode ser completamente aleatória em relação a outro, portanto, qualquer medida deste tipo deve ser relativa ou condicional ao ambiente em questão [2].

De volta a Shannon:

Como vimos anteriormente, a entropia de Shannon (H) é o número esperados de bits (‘decisões binárias’) necessários para especificar o estado de um determinado objeto dado uma distribuição de probabilidades, portanto, mede quanta informação pode ser potencialmente armazenada nele [3]. Desta maneira, em um sítio i de um genoma qualquer que possa abrigar um de quatro nucleotídeos cujas probabilidades são dadas por

a entropia de Shannon deste sítio seria igual a [3]:

Portanto, a entropia máxima por cada sítio seria igual a 2, caso usássemos o logaritmo na base 2, como faz Schneider, ou 1, caso, como prefere Adami, usássemos o logaritmo na base 4, correspondente ao tamanho do ‘alfabeto de símbolos’ usado, [A, C, G, T], caso a probabilidade de cada um dos nucleotídeos seja ¼. Para exibir informação máxima, no DNA, um sítio teria que ser perfeitamente conservado em toda a população, ou mais especificamente, em todo o conjunto de sequências (‘ensembles‘) perfeitamente equilibrados. Nesse caso, a probabilidade de uma das bases ocupar aquele sítio seria igual a 100% (p = 1) e as das demais bases seria igual a zero, o que tornaria Hi = 0 de acordo com a segunda equação [3].

Isso tem como consequência que a quantidade de informação por sítio é igual [3]:

Porém, para medir a complexidade de uma sequência de DNA de um organismo precisamos aplicar a equação  a todos os sítios e fazer seu somatório, o que nos dará, para um organismo com l par de bases: [3]

Aqui, como na abordagem de Schneider, obtemos a informação ao diminuir uma entropia de outra. No caso, a entropia máxima da sequência, representada pelo seu comprimento (já que usamos o logaritmo do tamanho do alfabeto) subtraída do somatório da entropia de cada sítio [3].

Adami enfatiza que tais valores são apenas aproximações da verdadeira Complexidade física do genoma de um organismo. Além disso, os sítios não são necessariamente independentes – e, portanto, que a probabilidade de encontrar uma certa base em uma posição pode ser condicionada à probabilidade de encontrar outra base em outra posição. Este fenômeno, conhecido como epistasia, pode tornar a entropia por molécula significativamente diferente do obtida pelo somatório das entropias por sítio. Neste caso, a entropia por molécula, levando-se em conta todas as correlações epistáticas entre sítio, é definida como [3]:

Tal medida envolve uma média dos logaritmos das probabilidades condicionais associada a encontrar o genótipo g dado o ambiente atual E, P(g | E). Pode-se estimar a entropia por molécula através da criação de clones mutantes para os vários sítios e em várias posições ao mesmo tempo, de modo que se possam medir os efeitos epistáticos, o que é possível fazer através de experimentos com ecossistemas simples de organismos [3], que é o que veremos no próximo post desta série.

——————

Referência:

  1. Sporns, Olaf  (2007) Complexity Scholarpedia, 2(10):1623. doi:10.4249/scholarpedia.1623

  2. Adami, C. (2002) What is complexity? BioEssays 24, 1085-1094. doi: 10.1002/bies.10192

  3. Adami C, Ofria C, Collier TC. ( 2000) Evolution of biological complexity. Proc Natl Acad Sci U S A. Apr 25;97(9):4463-8. doi: 10.1073/pnas.97.9.4463 

  4. Schneider TD. (2000) Evolution of biological information. Nucleic Acids Res.  Jul 15;28(14):2794-9. doi: 10.1093/nar/28.14.2794

Créditos das Figuras:

Julia set; autor: SolkollOwn work

Barnsley’s fern, autor: DSP-userusando o modelos de Mike Borrello , criado com VisSim

A seleção natural foi refutada? Os argumentos de William Dembski [Tradução]

O movimento antievolucionista, cuja versão mais moderna é o ‘Criacionismo do Design Inteligente’ (CDI), em sua campanha contra o ensino de evolução, depende da distorção da literatura científica. Eles fazem isso de maneira a lhes permitir fazer alegações que, superficialmente, parecem tornar a simples ideia de evolução por mecanismos naturais inviável ou, pelo menos, altamente improvável, apesar da quantidade gigantesca de evidências científicas que corroboram a realidade deste fenômeno e do amplo consenso que respalda dentro da comunidade científica. Entre as estratégias preferidas pelos Criacionistas do DI, entre as mais perniciosas, estão as que dependem do uso e abuso dos conceitos de informação e probabilidade.

Neste quesito o principal nome que vem à tona é o do matemático, teólogo e filósofo William Dembski que propôs uma série de conceitos e ideias (com nomes pomposos tais como, “lei de conservação da informação’, ‘filtro explanatório’, ‘complexidade especificada’, ‘informação complexa especificada’, ‘limite universal de probabilidade’ etc) pelas quais, supostamente, seria possível inferir um Designer Inteligente superhumano e ultrapoderoso, de maneira cientificamente rigorosa. Porém, estes conceitos e ideias que jamais estabeleceram-se na literatura científica especializada, ainda assim, foram sistematicamente analisados, dissecados e, por fim, derrubados por uma série de filósofos, cientistas e matemáticos; muitos dois quais chamaram a atenção para a vagueza ou incoerência de muitos destes conceitos e, nos casos em que é possível uma interpretação  minimamente coerente e realista, enfatizaram que com base neles, simplesmente, não é possível derrubar a evolução por mecanismos naturais, portanto, não tendo sida estabelecida em bases rigorosas a inferência de um Designer.

O artigo que segue, publicado online na RNCSE, foi escrito por Joe Felsenstein – um conhecido e respeitado biólogo evolutivo com uma enorme experiência com a genética teórica de populações e com métodos estatísticos e computacionais de inferência evolutiva. Esse artigo é uma destas várias análises e refutações das ideias, argumentos e propostas de Dembski, as quais eu havia me referido. O texto de Felsenstein é especialmente indicado por sua clareza e acessibilidade, além da abrangência, fornecendo um resumo dos motivos que fazem os argumentos pseudoprofundos, cobertos de jargão matemático e estatístico, de Dembski, na melhor das hipóteses, completamente irrelevantes para a biologia evolutiva, sendo totalmente ineficientes como ataques a realidade da evolução biológica por meio de mecanismos naturais.

——————————————————————–

Reports of the National Center for Science Education

Título:  ‘Has Natural Selection Been Refuted? The Arguments of William Dembski’

Autor(s): Joe Felsenstein

Volume: 27

Edição: 3–4

Ano: 2007

Data: May–August

Páginas(s): 20–26

Esta versão pode diferir da versão impressa.

O ‘Design Inteligente’ (DI) é a alegação de que existem evidências de que as principais características da vida foram formadas, não pela seleção natural, mas pela ação de um Designer. Isso envolve argumentos negativos de que a seleção natural não poderia dar origem a estas características. E os proponentes do DI também alegam argumentos positivos.

Os críticos do DI comumente argumentam que ele não é uma ciência. Para as previsões positivas do comportamento do Designer, os críticos têm um bom argumento. Mas não para as críticas à efetividade da seleção natural, que são argumentos científicos que devem ser levados a sério e avaliados. Olhe a figura 1, a qual mostra uma charge em uma camiseta vendida por um website do DI, Access Research Network, que também vende parafernália do DI (Eu estou grato a eles pela gentil permissão de reproduzi-la)

(clique aqui na imagem)
Figure 1. Um resumo dos principais argumentos do ‘Design Inteligente’, como eles parecem aos seus defensores, do website Access Research Network’s website http://www.arn.org. O merchandizing com a charge está disponível em http://www.cafepress.com/accessresearch. Copyright Chuck Assay, 2006; todos os direitos reservados. Republicado com permissão

Com a defesa dos baluartes do establishment desafortunado do Darwinismo superada, observe as principais linhas de ataque. Além de temas criacionistas reciclados como os argumentos da explosão cambriana e o argumento cosmológico sobre o ajuste fino do universo, a escada é o argumento de Michael Behe sobre máquinas moleculares (Behe, 1996). O outro ataque principal, o aríete, é o “conteúdo de informação do DNA”, o qual está destruindo a barreira de “mutação aleatória”.

O argumento da “complexidade irredutível das máquinas moleculares” de Michael Behe tem recebido a maior parte da publicidade; os argumentos mais teóricos de William Dembski, envolvendo a teoria da informação, têm sido mais difíceis para as pessoas os compreenderem. Houve uma série de críticas extensas aos argumentos de Dembski publicados ou postados na web (Wilkins e Elsberry 2001, Godfrey-Smith 2001; Rose House 2002, a Schneider 2001, 2002; Shallit 2002; Tellgren 2002; Wein 2002; Elsberry e Shallit 2003; Edis 2004; Shallit e Elsberry 2004; Perakh 2004a, 2004b; Tellgren 2005; Häggström 2007). Eles apontaram muitos problemas. Que vão desde os mais graves até implicâncias menores.

Neste artigo, quero concentrar-me nos principais argumentos que Dembski tem usado. Com poucas exceções, muitos dos pontos que levantarei já foram trazidos à tona nestas críticas a Dembski – esta é, primordialmente, uma tentativa de torná-los mais acessíveis.

Códigos Digitais

Stephen Meyer, que é o responsável pelo pelo programa de DI do Instituto Discovery, descreve o trabalho de Dembski desta maneira:

Nós sabemos que a informação — esteja ela, digamos, em hieroglifos ou em sinais de rádio — sempre aumentará a partir de uma fonte inteligente …. Então, a descoberta da informação digital no DNA fornece fortes motivos para inferir que a inteligência desempenhou um papel causal em sua origem (Meyer 2006)

O que seria esta misteriosa ‘informação digital’? Teria uma mensagem de um Designer sido descoberta? Quando sequencias de DNA são lidas, poderiam elas serem convertidas em sentenças em inglês para algo como: “Copyright 4004 B.C. do Designer Inteligentes, todos os direitos reservados”? Ou poderiam elas serem convertidas em números, com uma porção do DNA mostrando conter os primeiros 10000 dígitos de π? Claro que não. Caso algo assim houvesse descoberto, teria sido, de fato, um grande furo. Você já teria ouvido falar disso a esta altura. Não, a misteriosa ‘informação digital’ não é nada mais do que a informação genética convencional que codifica as características da vida. A informação digital é simplesmente a presença de sequencias que codificam para RNA e proteínas – sequencias que acarretam alta aptidão.

Nós já sabíamos que esta informação estava lá. A maioria dos biólogos ficaria surpresa em ouvir que a presença dela é, ela mesma, um forte argumento em favor do DI – os biólogos considerariam que ela é uma consequência da seleção natural. Para encará-la como evidência em favor do DI, seria necessário um argumento que mostrasse que esta informação só poderia ter surgido por meio de uma ação intencional (DI), e não por meio da seleção natural. O argumento de Dembski alega ter estabelecido isso.

Complexidade especificada

Como este argumento funciona? Dembski (1998, 2002, 2004), primeiro estabelece um Filtro Explanatório para detectar o design. Para encurtar a história, ele conclui a favor do designer sempre que encontrar Complexidade Especificada. Ele exige que a informação em questão seja complexa, de modo que a probabilidade de que a sequência de DNA ocorra por acaso seja menor do que 1 x 10150. Dembski escolhe este valor para evitar qualquer possibilidade de que a sequência surja, mesmo que uma única vez, na história do universo. Se essa complexidade fosse a única questão, seu argumento poderia ser descartado imediatamente: qualquer sequência aleatória de 250 bases seria tão improvável como isso. Da mesma forma, qualquer mão de cinco cartas aleatórias em um jogo de cartas tem uma chance de apenas uma em 2.598.960 e este evento raro OCORRE todo o tempo que damos as cartas, de modo que a raridade não é um motivo para preocupação.

Este é o ponto onde a parte “especificada” entra em ação. Dembski exige que a informação também satisfaça uma exigência que a torna significativa. Ele ilustra isso com uma variedade de analogias com diferentes tipos de significado. Na verdade, ele está dizendo que a quantidade relevante é a probabilidade de que uma sequência aleatória de DNA seja tão significativa quanto a observada.

Figura 2. Duas imagens de 101×100 pixeis, cada uma com 3511 pixeis escuros e o resto brancos. Ambas tem o mesmo conteúdo informacional. Qual delas tem a maior complexidade especificada, julgada pela semelhança com a imagem de um flor?

A imagem do lado esquerdo da figura 2 mostra um exemplo. É uma imagem de 101 por 100 pixels. Se nossa especificação fosse, vamos dizer, que a imagem seja muito parecida com uma flor, a imagem à esquerda estaria na disputa (não surpreendentemente, já que ela começou como uma fotografia digital de uma Zinnia). De todos os arranjos possíveis de 10100 pixels em preto-e-branco, apenas uma minúscula fração incluiria aquelas imagens que são muito parecidas com uma flor. Há 210100 possíveis imagens examinadas deste tamanho, o que dá cerca 103.040, um número muito grande. Nós não sabemos quantas delas seriam tão ou mais semelhantes a uma flor do que essa, mas suponhamos que não sejam superiores do que o 10100. Isso significa quer dizer que, se escolhermos uma imagem aleatoriamente a partir de todas as possibilidades, a probabilidade de que uma imagem seja tão ou mais parecida como esta a uma flor será inferior a 10100/103040, que é 10-2940

A imagem à direita não estaria na disputa em qualquer concurso de imagens que parecesse com a de uma flor. Como a imagem à esquerda, ela tem 3511 pixels pretos, mas eles parecem estar dispostos aleatoriamente. Ambas as imagens têm o mesmo conteúdo (10100 bits), mas a imagem do lado esquerdo se parece com uma flor. Ela não só fornece informação, ela tem a informação que é especificada por estar em um arranjo similar a uma flor. Esta é uma distinção útil, que Dembski atribui a Leslie Orgel. Eu não posso resistir acrescentando que um conceito relacionado, “a informação adaptativa” aparece em um dos meus próprios trabalhos, talvez o menos citado (Felsenstein 1978).

As sequências no genoma que codificam para proteínas e RNAs, e sequências reguladoras associadas, têm informação especificada. Embora Dembski (2002: 148) mencione uma série de possíveis critérios diferentes, o que nos interessa aqui é a aptidão. Sequências contêm informação que tornam o organismo bem adaptado se ele tem a aptidão elevada, e a informação especificada será julgada pela fração p de todas as sequências possíveis que teriam aptidão igual ou superior.

(Dembski também define a informação especificada de outra maneira – usando os conceitos da teoria da informação algorítmica e dizendo que a informação é especificada caso ela possa ser descrita de maneira simples. Uma esfera perfeita seria, então, mais fortemente especificada do que um organismo real. Mas isso não tem nada a ver com a aptidão ou com a explicação da adaptação. Eu irei me concentrar aqui em explicar a adaptação.)

A complexidade especificada tem uma consequência – quando ela é observada, podemos ter certeza de que processos puramente aleatórios, como mutação, são altamente improváveis  como tendo produzido esse padrão, uma vez sequer na idade do universo. Mas pode a seleção natural produzir esta complexidade especificada? Dembski argumenta que não pode – e que ele pode mostrar que esses padrões fortemente não aleatórios não podem ser ‘projetados’ pela seleção natural.

Para apoiar esse alegação, Dembski oferece dois argumentos principais. O primeiro envolve uma Lei de Conservação de Informação – ele argumenta que ela impede que o processo de seleção natural aumente a quantidade de informação adaptativa no genoma. O segundo utiliza o teorema No Free Lunch (N.T. ‘Sem almoço grátis’) para argumentar que a busca através de um algoritmo evolutivo não pode encontrar genótipos bem adaptados. Vamos considerar eles, um de cada vez.


Conservação da Informação

Para o seu conceito de Lei da Conservação da Informação, Dembski aponta para uma lei formulada pelo falecido Peter Medawar. Em sua forma mais clara afirma que um processo determinista e irreversível não pode alterar a quantidade de informação em uma sequência. Se tivermos uma função que transforma uma sequência de DNA de X em uma outra Y e se esta função é reversível, então, há, portanto, uma função inversa, que pode recuperar a sequência original X a partir da sequência Y. Qualquer informação que estava presente na sequência original X não pode ter sido perdida, como podemos obter a sequência original de volta.


Isto é, razoavelmente, obviamente verdade. Por exemplo, se tomarmos a imagem da flor acima e embaralharmos a ordem de seus pixeis destruíremos sua semelhança com uma flor. Mas se fizemos isso usando, digamos, um gerador de números aleatórios computadorizado (um gerador de números pseudoaleatórios), para fazer uma permutação dos pixeis, poderíamos gravar a permutação que usamos e usá-la, a qualquer momento, para desembaralhar a imagem. A informação original é conservada, porque foi escondida pelo embaralhamento, mas não realmente perdida.


Será que isso significa que
o tal processo não pode aumentar ou diminuir a quantidade de informação no genoma? Sim, se nós simplesmente quisermos dizerinformação’, mas não, se queremos dizer ‘informação especificada’. Aqui eu estou em desacordo com Dembski em um ponto crítico. Em sua reformulação do teorema de Medawar “a informação complexa especificada em um sistema isolado de causas naturais não aumenta” (Dembski 2002: 169). Perceba que ele está discutindo não a informação, simplesmente, mas a informação especificada. Agora olhe novamente para a flor pixelada. Eu disse que a segunda figura tinha o mesmo número de pixels pretos, distribuídos aleatoriamente. A razão pela qual eu sabia é que a segunda imagem é simplesmente a primeira imagem com seus pixel mexidos. Eu gerei a permutação usando um gerador de números aleatórios pseudoaleatório e posso facilmente dizer-lhe como gerá-lo por si mesmo, de modo que você pode fazer o embaralhamento e obter exatamente o mesmo resultado, e você pode, assim, fazer as tabelas necessárias para descodificar a imagem. Assim, nenhuma informação foi perdida.

Mas a quantidade de especificação certamente se perdeu. A segunda foto seria imediatamente rejeitada em qualquer competição de se parecer com uma flor”. Quando usamos a permutação para desembaralhar a imagem, criamos uma grande quantidade de especificação ao reorganizar os pixeis aleatórios em uma forma semelhante a uma flor. Nós flagrantemente violamos a versão Dembski do teorema de Medawar.


A prova de Dembski

Por que estou dizendo isso, quando Dembski esboça uma prova da sua Lei de Conservação de complexidade especificada? Como pode ele ter provado o impossível? Ele faz isso alterando a especificação. Se a permutação original, da primeira foto para a segunda, é chamada de F, podemos chamar a permutação inversa, a que converte a segunda foto de volta para a primeira, G. Dembski argumenta que a primeira imagem tem a especificação “semelhante a uma flor“. A segunda foto tem uma especificação equivalente: “quando permutados por G, semelhante a uma flor“. Para cada imagem que é mais semelhante a uma flor do que a primeira imagem, haveria uma que obteríamos ao aplicar a permutação F a ela. Aquela imagem permutada, evidentemente, satisfará a segunda especificação na mesma proporção quando permutada de volta por G, ela também é mais semelhante a uma flor. Então, ambas imagens, têm especificações que são igualmente fortes, o que é a essência da prova de Dembski. A prova de Dembski têm sido fortemente criticada por Elsberry e Shallit (2003; Shallit e Elsberry 2004), que apontaram que ela viola uma condição, a de que a especificação tem que ser produzida a partir das “informações do pano de fundo“, e, assim, tem que ser independente das transformações F e G. A especificação de G não o é. Mas, mesmo caso sua crítica à prova de Dembski for desconsiderada, e a prova de Dembski aceita como correta, de qualquer jeito, a prova de Dembski é completamente irrelevante. Nós queremos explicar como as sequências de DNA viram a conter informação que torna o organismo altamente apto (por codificação para adaptações). A especificação que deveria nos interessar é esta aqui: “os códigos para um organismo que é altamente apto. Dembski aplica sua prova, argumentando que isso mostra que nenhuma função determinística ou aleatória pode aumentar a informação especificada em um genoma. As permutações que tenho utilizado como exemplos são funções determinísticas, e seu teorema se aplica a elas. Se um código do genoma de um organismo altamente adaptado, de modo que satisfaça a especificação, quando submetido a permuta ele não mais a satisfaz. O genoma embaralhado é terrivelmente ruim na codificação de um organismo altamente adaptado. E quando usamos a permutação desembaralhadora G nele, nós criamos a especificação da informação, para a especificação original que baseia-se na aptidão.

A falha no argumento de Dembski está no fato de que, para testar o poder da seleção natural de colocar informação especificada no genoma, é preciso avaliar a mesma especificação (“código de um organismo que é altamente apto) sobre ela antes e depois. Se você pudesse mostrar que a imagem distorcida e a imagem desembaralhada satisfazem igualmente bem as mesmas especificações, você iria longe o suficiente para provar que a seleção natural não poderia colocar informação adaptativa no genoma. O nosso exemplo da flor mostra que existe uma grande diferença se a especificação original é satisfeita, antes e após a permuta. Embaralhar a sequência de um gene pode não destruir seu conteúdo de informação, se nós usarmos uma permutação conhecida que, mais tarde, possa ser desfeita. Mas a cifragem certamente irá destruir o funcionamento, assim, como a aptidão do gene. Da mesma forma, desembaralhá-la pode aumentar drasticamente a aptidão do gene. Assim, o argumento de Dembski, em sua forma original, pode ser visto como irrelevante. E quando colocado em uma forma coerente, ao exigir-se que a especificação que avaliamos seja a mesmo antes e depois, o exemplo apresentado aqui mostra que o argumento dele está errado.

Gerar informação especificada

A evolução não acontece por mudança determinística ou aleatória em uma única sequência de DNA, mas sim por meio de uma população de indivíduos, com a seleção natural escolhendo entre eles. As frequências dos diferentes alelos mudam. Considerando a seleção natural em uma população, podemos ver claramente que a lei de conservação de informação especificada, ou até mesmo uma lei de conservação da informação, não se aplica  a ela.

Se temos uma população de sequências de DNA, podemos imaginar um caso com quatro alelos com frequências iguais. Em uma posição particular no DNA, um alelo tem A, um tem C, um tem G, e outro tem T. Há uma incerteza completa sobre a sequência nesta posição. Agora, suponha que C tem aptidão 10% maior do que A, G, ou T (que têm aptidões iguais). As equações usuais da genética de populações irão prever o aumento da frequência do alelo C. Após 84 gerações, 99,9001% das cópias do gene terão o alelo C.

Isso é um aumento da informação: a incerteza quádrupla sobre o alelo foi substituída por quase certeza. É, por conseguinte, a informação especificada – a população tem mais e mais indivíduos com aptidão elevada, de modo que a distribuição de alelos na população move-se mais e mais para a porção superior da distribuição original das aptidões.

A Lei da Conservação da Informação não considerou este caso. Ainda que as equações de mudança das frequência dos genes sejam deterministas e irreversíveis, quando as frequências dos genes são levadas em conta, não há lei da conservação da informação. A quantidade de alterações da informação de acordo com a mudança de frequências dos genes (que podem ir para cima ou para baixo, dependendo do caso). A informação especificada como refletido na aptidão obedece a uma lei – neste caso simples, há o aumento constante da aptidão como resultado da ação da seleção natural. Então, a única lei que temos é uma que prevê a criação de informação especificada pela seleção natural. Pode-se objetar que não se criou realmente complexidade especificada porque o aumento da informação foi de apenas 2 bits, em vez dos 500 bits (150 dígitos decimais), que é requisito mínimo de Dembski para a complexidade especificada. Mas o que fizemos foi descrever a ação do mecanismo que cria informação especificada – se ele atua repetidamente em muitos lugares no gene, a complexidade especificada surgirá. Assim, um dos dois principais argumentos usados ​​por Dembski pode ser visto como errado quando consideramos uma população.

Sem almoço grátis?

O segundo pilar do argumento de Dembski é o uso do teorema ‘No Free Lunch’. Ele deu título ao seu livro de 2002, e Dembski (2002: xix) declarou que o capítulo sobre isso seria o clímax do livro“. O teorema foi inventado por cientistas da computação (Wolpert e Macready 1997) que estavam preocupados com a eficácia de algoritmos de busca. Vale a pena dar uma explicação simples de seu teorema no contexto de um modelo simples de seleção natural. Imagine um espaço de sequências de DNA que tem de ser pesquisado. Suponhamos que as sequências têm, cada uma, 1000 bases de comprimento. Há 4 x 4 x 4 x … x 4 = 41000 possíveis sequências que, em ordem alfabética, irão de de A a AAAA … TTTT … T. Agora, imagine que nosso organismo é haploide, de modo que há apenas uma cópia do gene por indivíduo, e suponhamos que a cada uma destas sequências tenha uma aptidão. Uma fração muito pequena das sequências é funcional, e quase todo o resto tem zero de aptidão.


Suponha que queremos encontrar um organismo com aptidão alta, e nós queremos fazer olhando para 10000 sequências de DNA diferentes. O melhor que podemos fazer, é claro, é tirar a com a maior aptidão que encontrarmos entre estas. Agora, note que 41000 é, aproximadamente, 10602, um número muito maior do que o número de partículas elementares no universo. É, portanto, razoável supor que a fração de sequências de DNA, que tenham uma aptidão diferente de zero, seja pequena – vamos ser muito generosos e dizer 1 em 1020.


Uma maneira de pesquisar seria aleatoriamente. Escolhe-se uma das sequências de DNA, em seguida, escolhe-se uma outra completamente ao acaso, depois outra completamente ao acaso, e continue até as 10000 diferentes sequências terem sido examinadas. Como estamos escolhendo ao acaso, cada escolha tem, essencialmente, uma chance em 1020 de encontrar uma sequência com aptidão diferente de zero. Deve ser imediatamente evidente que não temos quase nenhuma chance de encontrar qualquer sequência com aptidão diferente de zero. Na verdade, temos menos de uma chance em 1016. Assim, uma pesquisa totalmente aleatória é uma maneira realmente terrível para aumentar a aptidão – ela irá na maioria esmagadora das vezes encontrar muitas vezes apenas sequências que não podem sobreviver. Na verdade, ela está à procura de uma agulha num palheiro, e falhando.

É claro, a evolução não faz uma pesquisa totalmente aleatória. Um modelo de genética de populações razoável envolve mutação, seleção natural, recombinação e a deriva genética em uma população de sequências. Mas nós podemos fazer uma caricatura grosseira dele usando apenas uma sequência e fazendo, a cada passo, uma única alteração mutacional nela. Se a mudança melhora a aptidão a nova sequência é aceita. Suponha que continuemos fazendo isso até que 10 000 sequências diferentes tenham sido examinados. Vamos terminar com a melhor das 10000.


Será que isto se sairia melhor? No mundo real, ela se sairá se iniciarmos a partir de uma sequência ligeiramente boa. Cada mutação nos leva a uma sequência que difere por apenas uma letra. Estas tendem a ser sequências que são um pouco mais baixas, ou às vezes um pouco mais altas, em termos de aptidão. Em média, elas são mais baixas, mas a chance de que atinja uma sequência que é melhor não é zero. Então, há alguma chance de melhorar a aptidão, muito possivelmente mais de uma vez. Uma maneira bastante boa para encontrar sequências com aptidões diferentes de zero é a busca na vizinhança de uma sequência de aptidão diferente de zero.

Os teoremas No Free Lunch (NFL) afirmam que se considerarmos a lista de todas as sequências possíveis, cada uma com uma aptidão escrita ao seu lado e se tirarmos a média de todas as maneiras que estas aptidões poderiam ser alocadas às sequências, então nenhum método de pesquisa é melhor do que qualquer outro. Nós estamos tirando uma média de todas as ordens as quais poderíamos escrever as aptidões, ao lado, da lista de sequências. Quase todas essas ordens são como associações aleatórias de aptidões com os genótipos. Isso significa que a busca por mutação genética não poderia se sair melhor do que um método irremediavelmente ruim como escolha completamente aleatória de sequências. O teorema NFL considera todas as formas de aptidão diferentes que poderia ser associada com os genótipos. O vasto número dessas associações são como embaralhamentos aleatórios. Para essas atribuições de aptidão aos genótipos, quando mutamos uma sequência, mesmo em uma base, a aptidão da nova sequência será a mesma que seria se ela fosse retirada aleatoriamente de todas as outras sequências possíveis.

Este randomização destrói toda a esperança de encontrar uma melhor aptidão através da mutação. Cada única mutação em um única base é, então, tão ruim quanto mudar todas as bases simultaneamente. É como se estivéssemos do lado de uma montanha e déssemos um passo. No mundo real, isso nos levaria um pouco para cima ou um pouco para baixo (embora, às vezes, em direção a um penhasco). No mundo No Free Lunch, isso nos levaria para a ponto de altitude aleatória no globo, e isso, na maioria das vezes, nos mergulharia bem para baixo. No espaço de sequência as perspectivas são ainda mais sombrias do que no globo, já que todos, a não ser uma fração extremamente pequena de sequências, têm aptidão zero, e, assim, elas não tem qualquer perspectiva.

O teorema NFL é correto, mas não é relevante para o mundo real da evolução dos genomas. Este ponto tem sido negligenciado em algumas das respostas ao uso de Dembski do teorema. Por exemplo, H Allen Orr no The New Yorker (Orr 2005) e David Wolpert em uma resenha do livro de Dembski (Wolpert 2003) ambos argumentam contra Dembski, apontando fenômenos examinados como coevolução que não são cobertos pelo teorema NFL. Com efeito, eles estão admitindo que para a simples evolução de sequências, sua evolução por seleção natural, é inviabilizada pelos teoremas NFL. Ao argumentar desta forma, eles estão sendo muito pessimista sobre as capacidades da simples evolução das sequências. Eles têm negligenciado as suposições irrealistas do teorema NFL sobre o modo aleatório com as aptidões estão associadas aos genótipos, o que, na verdade, é assumir que as mutações têm aptidão desastrosamente ruim.

Mutações

No mundo real, as mutações não agem assim. Sim, elas são muito mais propensas a reduzir a aptidão do que a aumentá-la, mas muitas delas não são letais. Eu provavelmente carrego um a – eu tenho uma forte aversão a alface, que para mim tem um sabor mineral amargo. Esta é provavelmente uma variação genética em um dos meus genes de receptores olfativos. Ele torna as saladas problemáticas, e nos balcões de sanduicherías eu gasto um monte de tempo tirando fora a alface. Mas isso não me matou – ainda. A grande massa das informações empíricas sobre os efeitos das mutações em muitos organismos, deixa claro que um grande número de mutações não são instantaneamente letais. Elas fazem, em média, as coisas piores, mas não mergulham-nos imediatamente de volta para a sopa primordial orgânica.

No argumento NFL de Dembski, uma mudança de uma única base teria o mesmo efeito, em média, que uma mudança de todas as bases, simultaneamente, no gene. Uma única substituição de aminoácidos numa proteína teria o mesmo efeito que a substituição de toda a proteína por uma sequência aleatória de aminoácidos. Isto deixaria a proteína totalmente inativa. O fato deste tipo de mudanças, de uma única base ou um único aminoácido, não ter esse tipo de efeito é uma forte evidência de que as mutações são muito mais propensas a encontrar uma outra sequência quase-funcional nas proximidades. A paisagem de aptidão real não é uma paisagem embaralhada “agulha em um palheiro” na qual uma sequência de aptidão moderadamente boa está cercada apenas por sequências cuja aptidão é igual a zero. No mundo real, os genótipos próximos a um moderadamente bom, muitas vezes têm aptidões moderadamente boas.

Evidências Empíricas

Perceba que caso os argumentos de Dembski fossem válidos, eles tornariam a adaptação por seleção natural de qualquer organismo, em qualquer fenótipo, essencialmente impossível. Por que isso exigiria informação adaptável para ser codificado no genoma pela seleção natural. Segundo o argumento de Dembski, não precisamos nos preocupar: as bactérias infectando o paciente não poderiam desenvolver resistência a antibióticos. O vírus da imunodeficiência humana (HIV) não iriam tornar-se resistentes às drogas. Insetos não se tornariam resistentes aos inseticidas. O Designer de Dembski estaria realmente ocupado: Ele precisaria projetar cada adaptação específica, deixando de fora apenas algumas que poderiam ser puramente acidentais.

O próprio Dembski parece incapaz de tirar essa conclusão evidente a partir de seu próprio argumento. Ele reconhece que “o desenvolvimento da resistência aos antibióticos por patógenos através do mecanismo darwiniano é experimentalmente verificado e razão de grande preocupação para a área médica” (Dembski 2002: 38). Mas dizer isso enfraquece seu argumento – se estiver correto, o seu argumento realmente provaria que a informação adaptativa no genoma bacteriano não pode ser criada por meio da seleção natural, exceto por puro acidente por mutação e deriva genética, sem a ajuda de seleção natural.

Seu argumento também será novidade para os criadores de plantas e animais. Eles usam formas simples de seleção artificial como cruzando os indivíduos que têm as melhores fenótipos. Estas formas de seleção são como a seleção natural em que eles não usam informações detalhadas sobre os genes individuais – eles não precisam de um projeto detalhado especial. O argumento de Dembski implica que os esforços dos criadores seriam em vão. Eles não podem criar mudanças de fenótipo por seleção artificial, já que esta deve ser tão ineficaz como a seleção natural. A seleção artificial forneceu para Darwin tão poderosos exemplos que ele abriu seu livro com um capítulo inteiro sobre “Variação Sob domesticação” no qual ele discutiu caso após casos de alterações devidas a seleção artificial, mas Dembski não discute a seleção artificial de nenhuma maneira, mencionando-a apenas uma vez, de passagem (em Dembski [2004] que está na página 311).

Contrabandeando?

Dembski (2002, seções 4.9 e 4.10) não ignora os argumentos de que as superfícies de aptidão mais suaves do que o tipo “agulha em um palheiro” permitiria a seleção natural ser eficaz. Por exemplo, Richard Dawkins (1996) tem um programa de computador para demonstrar a efetividade da seleção, que evolui um amontoado sem sentido de 28 letras na frase “penso que sou uma doninha” por repetidamente mutar as letras aleatoriamente e depois aceitar essas sequências descendentes que mais se aproximam da frase alvo. Cada rodada melhora a aptidão, de modo que as mutações que tornam a frase mais perto estão prontamente disponíveis. Dembski argumenta no entanto, que a informação na frase resultante não é criado pela seleção natural – ele já está lá, na frase alvo. Ele chama isso de “problema do deslocamento” (2002, seção 4.7).

Mas, invariavelmente, nós sempre descobrimos que, quando a complexidade especificada parece ter sido gerada gratuitamente, ela foi, na verdade, bem no inicio, contrabandeada, ou escondida da vista. (Dembski 2002: 204)

Demonstrações computacionais do poder da seleção natural para produzir a adaptação muitas vezes têm metas detalhadas as quais a seleção natural deveria aproximar-se. É mais fácil escrever programas desta maneira. Na vida real, o objetivo é a maior aptidão, e alcançá-la significa fazer que o fenótipo do organismo interaja bem com a física , a química e a biologia de verdade.


Nestes casos mais próximos a realidade, o ambiente não fornece ao genoma alvos exatos. Considere uma população de veados que estão sendo predados por uma população de lobos. Não temos dúvidas de que mutações entre os cervos irão causar mudanças nos comprimentos dos seus membros, na força de seus músculos, na velocidade de reação de seu sistema nervoso, na acuidade de sua visão. Alguns destes permitirão aos cervos escaparem melhor dos lobos, e estas tenderão a se espalhar pela população. O resultado é uma alteração no design do cervo. Mas esta informação não foi “contrabandeado” pelos lobos. Eles, simplesmente, perseguiam os cervos – eles não avaliavam o seu ajuste ao certas especificações de design preexistentes.

Houveram simulações de computador que mimetizaram este o processo. O mais fascinantes foi a de Karl Sims (1994a, 1994b, 1994c), cuja simulação evolui criaturas virtuais que nadavam ou pulavam de forma intrigante e um tanto imprevisível. As criaturas são compostas de blocos ligados entre si que podem mover-se um relação ao outro, e elas são escolhidas somente em virtude da movimentação eficaz sem varredura de todos os detalhes do design. Tudo o que é necessário são genótipos, fenótipos, alguma interação entre os fenótipos e um ambiente, e a seleção natural para uma propriedade – a velocidade. Não existe um “contrabando”. Uma simulação semelhante, inspirada pela de Sims, é o programa breve de Jon Klein (2002), disponível para download.

Evoluibilidade:

Dembski desenvolve outro argumento sobre a forma da própria função de aptidão. Se ela for suave o suficiente para permitir que a evolução tenha sucesso, ele afirma que este é o resultado de mais contrabando:


Mas isso significa que o problema de encontrar um dado alvo foi deslocado para o novo problema de encontrar a informação j capaz de localizar o alvo. … Dizer que um algoritmo evolutivo gerou complexidade especificada dentro do espaço de fase original é, portanto, realmente, dizer que ele tomou emprestado complexidade especificada de um espaço de fase de ordem superior … segue-se que o algoritmo evolutivo não gerou qualquer complexidade especificada, mas apenas a mudou de lugar. (Dembski 2002: 203)

Ele argumenta que a própria superfície de aptidão deve ter sido especialmente escolhida de uma vasta gama de possibilidades, e que isso significa que iniciamos com a complexidade especificada já está presente. Ele está dizendo que a suavidade das funções de aptidão reais não são típicas i.e. Que, sem um grande fornecimento de informação especificada, estaríamos lidando com funções de aptidão do tipo ‘agulha-em-um-palheiro, onde a seleção natural não poderia ter sucesso.

Agora, é possível que a seleção natural altere a função de aptidão. Há uma literatura pequena sobre a “evolução da evoluibilidade“. Altenberg (1995) mostrou uma simulação de computador na qual a seleção natural diminuía a extensão da interação entre os genes, de modo que os genótipos tendiam a tornar-se aqueles que tinham uma função de aptidão mais suave.

No entanto, mesmo isto pode nem ser necessário. Diferentes genes muitas vezes agem de maneiras separadas no espaço e no tempo, o que reduz a chance de sua interação. Um mutante que afeta o pigmento dos olhos de um individuo, normalmente, não interage com um mutante de um gene diferente que afeta os ossos dos dedos do individuo. Este isolamento não requer qualquer explicação especial. Mas, em um mundo que possui uma função de aptidão do tipo ‘agulha em um palheiro tudo interage fortemente com todo o resto.

Com efeito, aquele mundo tem tudo criptografado. Se você receber uma senha ou uma combinação de bloqueio parcialmente correta, você não acessar parcialmente a conta do computador ou abrir parte do cofre. O computador ou o cofre não reagem a cada mudança dizendo “quente” ou “frio”. Cada letra ou dígito interage com o outro, e nada acontece até que todos eles estejam corretos. Mas essa criptografia não é típica do mundo em torno de nós. Sistemas de senha e fechaduras de combinação devem ser cuidadosamente concebidas para serem seguras – e este esforço de design pode falhar.

O mundo em que vivemos não é criptografado. A maioria das partes dele interagem muito pouco com outras partes. Quando minha família sai de casa para um período de férias, temos que fazer muitos arranjos em casa com relação as portas, janelas, luzes, vasos sanitários, torneiras, termostatos, lixo, avisando vizinhos, parando a entrega de jornais, e assim por diante. Se vivêssemos no universo codificado de Dembski, isso seria impossível. Toda vez que nós mudássemos o ajuste do termostato, as janelas seriam destrancadas e as torneiras abertas. Toda vez que uma janela fosse fechada, a entrega de jornais seria retomada, ou um vizinho iria esquecer que estávamos indo embora. (É pior do que isso, na verdade. A casa seria totalmente destruída.) Mas, como vivemos no universo real, podemos alegremente combinar com os membros da família para a realização dessas tarefas diferentes sem nos preocuparmos com as ações de cada um. As diferentes partes da casa interagem muito pouco.

É claro que uma casa, é um objeto planejado, mas não é particularmente difícil fazer suas partes quase independentes. Quando os arquitetos estudam, eles não tem que gastar muito de seu tempo para garantir que as portas, quando fechadas, não farão com que as torneiras abram.

Nós vivemos em um universo cuja física pode ser especial, ou pode ser planejada – Eu não sei nada sobre isso. Mas o argumento de Dembski não é sobre outros universos possíveis – é sobre se a seleção natural pode trabalhar para criar as adaptações que vemos nas formas de vida que observamos aqui, em nosso próprio universo, em nosso próprio planeta. E se o nosso universo parece predisposto a funções de aptidão suaves, esse é um grande problema para o argumento de Dembski.

Nota Bibliográfica: Críticos de Dembski

Dos principais argumentos aqui apresentados, dois deles, acredito, são meus: Um deles é o argumento de que a Lei da conservação da informação especificada complexa não poderia ser bem sucedida em provar que a informação não poderia ser gerada pela seleção natural, por que a Lei requer que nós mudemos a especificação a fim de mantermos a informação a mesma. O outro é o argumento que mudanças nas frequências dos genes causados pela seleção natural podem aumentar a informação especificada. Os outros argumentos principais serão encontrados em alguns dos artigos que eu cito. Em particular, o argumento de que o teorema No Free Lunch não estabelece que a seleção natural não pode superar a busca aleatória foi também defendido por Wein 2002, Rosenhouse 2002, Perakh 2004b, Shallit and Elsberry 2004, Tellgren 2005 e Häggström 2007.

Em conclusão

Dembski argumenta que existem teoremas que previnem que a seleção natural explique as adaptações que observamos. Seus argumentos não funcionam. Não pode haver qualquer teorema que afirme que a informação adaptativa seja conservada e que ela não possa aumentar por meio de seleção natural. As alterações nas frequências gênicas por meio da seleção natural podem ser mostradas como gerando informação especificada. O teorema No Free Lunch é matematicamente correto, mas não aplicável a biologia. A informação especificada, incluindo a informação complexa especificada, pode ser produzida pela seleção natural sem a necessidades de que ela seja “contrabandeada”. Quando observamos a adaptação, nós não estamos olhando para evidências de bilhões e trilhões de intervenções feitas por um Designer.

Agradecimentos


Gostaria de agradecer
a Joan Rudd, Erik Tellgren, Jeffrey Shallit, Tom Schneider, Mark Perakh, Monty Slatkin, Lee Altenberg, Carl Bergstrom, e Michael Lynch, peloscomentários úteis. Dennis Wagner do Access Research Network gentilmente deu permissão para uso do desenho maravilhoso “Os visigodos estão Chegando”. O trabalho para este artigo foi apoiado em parte pelo financiamento GM071639 do NIH.

Referências

Altenberg L. 1995. Genome growth and the evolution of the genotype-phenotype map. In: Banzhaf W, Eeckman FH, editors. Evolution and Biocomputation: Computational Models of Evolution. Lecture Notes in Computer Science vol. 899. Berlin: Springer-Verlag. P 205–59.

Behe MJ. 1996. Darwin’s Black Box: The Biochemical Challenge to Evolution. New York: Free Press.
Dawkins R. 1996. The Blind Watchmaker: Why the Evidence of Evolution Reveals a Universe Without Design. New York: WW Norton.

Dembski WA. 1998. The Design Inference: Eliminating Chance through Small Probabilities. Cambridge: Cambridge University Press.

Dembski WA. 2002. No Free Lunch: Why Specified Complexity Cannot be Purchased Without Intelligence. Lanham (MD): Rowman and Littlefield Publishers.

Dembski WA. 2004. The Design Revolution: Answering the Toughest Questions about Intelligent Design. Downer’s Grove (IL): InterVarsity Press.

Edis T. 2004. Chance and necessity — and intelligent design? In: Young M, Edis T, editors. Why Intelligent Design Fails: A Scientific Critique of the New Creationism. New Brunswick (NJ): Rutgers University Press. P 139–52.

Elsberry WR, Shallit J. 2003. Information theory, evolutionary computation, and Dembski’s complex specified information. Available on-line at http://www.talkreason.org/articles/eandsdembski.pdf. Last accessed September 3, 2007.

Felsenstein J. 1978. Macroevolution in a model ecosystem. American Naturalist 112 (983): 177–95.
Godfrey-Smith P. 2001. Information and the argument from design. In: Pennock RT, editor. Intelligent Design Creationism and Its Critics: Philosophical, Theological, and Scientific Perspectives. Cambridge (MA): MIT Press. P 575–96.

Häggström O. 2007. Intelligent design and the NFL theorems. Biology and Philosophy 23: 217–30.

Klein J. 2002. Breve: A 3-D simulation environment for multi-agent simulations and artificial life. Available on-line at http://www.spiderland.org/breve/. Last accessed September 3, 2007.

Meyer SC. 2006 Jan 28. Intelligent design is not creationism. Daily Telegraph. Available on-line at http://www.telegraph.co.uk/opinion/main.jhtml?xml=/opinion/2006/01/28/do2803.xml. Last accessed September 3, 2007.

Orr HA. 2005 May 30. Devolution: Why intelligent design isn’t. The New Yorker. Available on-line at http://www.newyorker.com/fact/content/articles/050530fa_fact. Last accessed September 3, 2007.

Perakh M. 2004a. Unintelligent Design. Amherst (NY): Prometheus Books.

Perakh M. 2004b. There is a free lunch after all: William Dembski’s wrong answers to irrelevant questions. In: Young M, Edis T, editors. Why Intelligent Design Fails: A Scientific Critique of the New Creationism. New Brunswick (NJ): Rutgers University Press. P 153–71.

Rosenhouse J. 2002. Probability, optimization theory, and evolution [review of William Dembski’s No Free Lunch]. Evolution 56 (8): 1721–2.

Schneider TD. 2001. Rebuttal to William A. Dembski’s posting and to his book “No Free Lunch”. Available on-line at http://www.lecb.ncifcrf.gov/~toms/paper/ev/dembski/. Last accessed April 22, 2007.
Schneider TD. 2002. Dissecting Dembski’s “complex specified information”. Available on-line at http://www.lecb.ncifcrf.gov/~toms/paper/ev/dembski/specified.complexity.html. Last accessed April 22, 2007.

Shallit J. 2002. Review of No Free Lunch: Why Specified Complexity Cannot Be Purchased Without Intelligence, by William Dembski. BioSystems 66 (1): 93–9. Available on-line at http://www.cs.uwaterloo.ca/~shallit/nflr3.pdf. Last accessed September 7, 2007.

Shallit J, Elsberry WR. 2004. Playing games with probability: Dembski’s complex specified information. In: Young M, Edis T, editors. Why Intelligent Design Fails: A Scientific Critique of the New Creationism. New Brunswick (NJ): Rutgers University Press. P 121–38.

Sims K. 1994a. Evolving virtual creatures. Computer Graphics (Siggraph ‘94 Proceedings), July: 15–22.
Sims K. 1994b. Evolving 3D morphology and behavior by competition. In: Brooks RA, Maes P, editors. Artificial Life IV Proceedings. Cambridge (MA): MIT Press. P 28–39.

Sims K. 1994c. Evolved virtual creatures. Available on-line at http://www.genarts.com/karl/evolved-virtual-creatures.html. Last accessed September 3, 2007.

Tellgren E. 2002. On Dembski’s law of conservation of information. Available on-line at http://www.talkreason.org/articles/dembski_LCI.pdf. Last accessed September 7, 2007.

Tellgren E. 2005. Free noodle soup. Available on-line at . Last accessed April 15, 2007.

Wein R. 2002. Not a free lunch but a box of chocolates: A critique of William Dembski’s book No Free Lunch. Available on-line at http://www.talkorigins.org/design/faqs/nfl/. Last accessed September 7, 2007.

Wilkins JS, Elsberry WR. 2001. The advantages of theft over toil: The design inference and arguing from ignorance. Biology and Philosophy 16 (5): 711–24.

Wolpert DH, Macready WG. 1997. No free lunch theorems for optimization. IEEE Transactions on Evolutionary Computation 1 (1): 67–82.

Wolpert D. 2003. Review of No Free Lunch: Why specified complexity cannot be purchased without intelligence. Mathematical Reviews MR1884094 (2003b:00012). Also available on-line at: http://www.talkreason.org/articles/jello.cfm. Last accessed September 3, 2007.

Sobre o autor: 


Joe Felsenstein

Department of Genome Sciences

University of Washington

Box 355065

Seattle WA 98195-5065

joe@gs.washington.edu

Joe F
elsenstein está no Departamento de Ciências Genômicas e no Departamento de Biologia da Universidade de Washington, em Seattle. Eles já trabalhou com genética de populações teórica e na inferência de filogenias. Ele é o autor de ‘Inferring Phylogenies (Sunderland [MA]: Sinauer, 2004) e do PHYLIP, o primeiro pacote de software amplamente distribuído para a reconstrução de filogenias.

———————————-

Artigo: “Has Natural Selection Been Refuted? The Arguments of William Dembski

Fonte: Reports of the NCSE

Tradução: Rodrigo Véras

Citação completa:

Felsenstein, J. 2007. Has natural selection been refuted? The arguments of William Dembski. Reports of the National Center for Science Education 27 (3-4): 20-26.

Entrevista sobre Biologia Evolutiva

Entrevista sobre Biologia Evolutiva com o Professor Maxwell Morais de Lima Filho

Maxwell Morais de Lima Filho é Biólogo, Mestre e Doutorando em Filosofia pela Universidade Federal do Ceará (UFC). O Professor Lima Filho leciona Filosofia na Universidade Federal de Alagoas (UFAL) desde 2011 e concedeu essa entrevista a Rafaela Almeida Garcia, Jornalista formada pela Universidade do Vale da Paraíba (UNIVAP), no dia 1º de outubro de 2015.

 

Rafaela: Qual a origem do Evolucionismo?

Maxwell: A evolução, para o que nos interessa aqui, está relacionada à mudança ou à transformação. Nesse sentido, podemos falar, dentre outras, de evolução do Universo (evolução astronômica), da Terra (evolução geológica) ou da vida (evolução biológica). Ideias sobre a transformação dos organismos biológicos são bastante antigas. Tais ideias transformacionistas ou evolucionistas se contrapõem conceitualmente às ideias fixistas. Dito isso, podemos considerar que o naturalista francês Jean-Baptiste Antoine de Monet, mais conhecido como (cavaleiro de) Lamarck, é um bom ponto de partida para responder essa questão, já que ele é considerado por muitos como o precursor da Biologia Evolutiva. Lamarck publicou o livro Filosofia Zoológica no início do século XIX, mais precisamente em 1809. Esta obra foi bastante influente e antecipou em 50 anos o livro mais importante dessa área, a saber, A Origem das Espécies, de Charles Darwin.

 

Rafaela: Quais são as bases da Biologia Evolutiva?

Maxwell: Uma concepção evolucionista da vida, ao contrário da concepção fixista, está relacionada à transformação dos organismos ao longo do tempo. Porém, o que diferencia as concepções evolucionistas entre si é o como elas explicam tais mudanças, ou seja, qual(is) é(são) o(s) mecanismo(s) evolutivo(s) responsável(is) pela transformação dos organismos ao longo do tempo: herança dos caracteres adquiridos por uso e desuso? Seleção natural? Deriva genética? Fluxo gênico? Jean-Baptiste Lamarck, Charles Darwin, Ernst Mayr e Stephen Jay Gould são evolucionistas porque explicam a modificação dos organismos por meio de mecanismos naturais, a despeito de suas divergências teóricas. As concepções evolucionistas de Ernst Mayr e Stephen Jay Gould, por exemplo, levaram em conta conceitos teóricos provenientes da Genética, os quais eram desconhecidos por Lamarck e Darwin. Tanto Lamarck quanto Darwin sabiam que as características eram transmitidas de pais para filhos. Entretanto, nem o naturalista francês nem o inglês sabiam explicar adequadamente quais eram a estrutura e o mecanismo responsáveis pela transmissão hereditária. Portanto, Lamarck e Darwin desconheciam algumas expressões que são tão familiares hoje em dia a qualquer estudante do Ensino Médio: ácido desoxirribonucleico (DNA), genes, mutação, recombinação gênica, leis de Mendel etc.

 

Rafaela: Como a Biologia Evolutiva explica a origem do Universo?

Maxwell: A Biologia Evolutiva trata da mudança dos seres vivos no decurso do tempo e, portanto, não se propõe a explicar a origem do Universo, que é objeto de estudo da Física e da Astronomia. Existem diferentes teorias que se propõem a explicar a gênese do Cosmo, dentre elas, a mais aceita é a Teoria do Big Bang. De acordo com essa teoria, todo o Universo surgiu há aproximadamente 13,8 bilhões anos a partir de um ponto extremamente quente e denso. De acordo com as estimativas atuais, a origem do Cosmo é bem anterior ao surgimento da Terra (aproximadamente há 4,5 ou 4,8 bilhões de anos) e da vida na Terra (entre 3,5 e 3,8 bilhões de anos atrás). Apesar de os seres vivos serem sistemas físico-químicos extremamente complexos e obedecerem, portanto, às leis da Física e da Química, eles são uma parcela ínfima tanto temporal quanto espacial do Universo. Em poucas palavras, o significado disso é que a Biologia Evolutiva é incapaz de explicar a origem do Universo. A Biologia é “filha” da Física: cronologicamente, a evolução dos organismos corresponde aproximadamente a um terço da evolução cósmica; em termos espaciais, estima-se que o Universo possua pelo menos 100 bilhões de galáxias, cada qual contendo numerosas estrelas. Dentre tantas estrelas, temos plena certeza de que existe vida apenas num pequeno planeta azul que orbita o Sol.

 

Rafaela: Além de Darwin, quem são os grandes nomes do Evolucionismo?

Maxwell: Há muitos evolucionistas importantes e qualquer lista será incompleta, arbitrária e, até mesma, injusta. Tendo isso por pressuposto, podemos citar, antes da publicação d’A Origem das Espécies, o avô de Darwin, Erasmus Darwin, e o grande naturalista francês Jean-Baptiste Lamarck; contemporâneos a Darwin, destacamos Alfred Russel Wallace, que propôs juntamente com ele o mecanismo evolutivo da seleção natural, e Thomas Huxley, que, por defender firmemente as ideias darwinistas, ficou conhecido como o “buldogue de Darwin”; também devemos nos lembrar, entre os vários evolucionistas dos séculos XX e XXI, dos principais articuladores da Teoria Sintética da Evolução – Theodosius Dobzhansky, Ernst Mayr e George Gaylord Simpson –, bem como, mais recentemente, dos proponentes da Teoria do Equilíbrio Pontuado, Niles Eldredge e Stephen Jay Gould, e do popularizador da Teoria do Gene Egoísta, Richard Dawkins.

 

Rafaela: O que o Evolucionismo pensa sobre as Teorias do Criacionismo da Terra Jovem e do Design Inteligente?

Maxwell: As concepções criacionistas – inclusos o Criacionismo da Terra Jovem e o Design Inteligente – não são científicas, já que defendem ou inferem uma causalidade sobrenatural: o Deus Bíblico ou um Projetista Inteligente foi o responsável por projetar e criar os organismos vivos. Essa criação sobrenatural pode ser defendida de diferentes modos. Em escala “crescente”, podemos citar três principais tipos de criação sobrenatural dos organismos biológicos: (i) criação do primeiro organismo vivo, que teria originado por evolução natural as diversas linhagens biológicas no decorrer de bilhões de anos; (ii) criação sobrenatural de certos “grupos biológicos”. Nesse caso, por exemplo, Deus ou o Projetista Inteligente criaria de modo independente as linhagens felina e canina, ou seja, tais linhagens não compartilhariam um ancestral comum. Todavia, segundo essa perspectiva, isso não constituiria um impedimento para que houvesse uma evolução natural no interior de tais grupos biológicos (microevolução). Isto é, a primeira espécie felina e a primeira espécie canina criadas por Deus poderiam originar, de maneira natural, leões, onças e gatos (espécies felinas descendentes) e lobos, raposas e cachorros (espécies caninas descendentes); (iii) criação sobrenatural dos organismos do modo como eles atualmente existem. Esta seria uma concepção completamente fixista e, portanto, sem qualquer espaço para a modificação dos organismos ao longo do tempo: a bactéria que habita no intestino humano, a levedura utilizada para a produção de pão e álcool, o cajueiro e o ornitorrinco que estão vivos hoje são físio-morfologicamente semelhantes (leia-se: praticamente idênticos) aos primeiros indivíduos dessas espécies criados por Deus. A despeito das diferenças, essas três concepções criacionistas são pseudocientíficas por não se restringirem ao domínio natural e por invocarem uma causalidade suprafísica. Seja em que área for – Física, Química, Geologia, Biologia etc. –, a atividade científica se restringe ao domínio natural. Essa restrição não é levada a cabo nem pelo Criacionismo da Terra Jovem nem pelo Design Inteligente. Os partidários de ambas as concepções defendem que os seres vivos se originam da ação de Deus ou do Projetista Inteligente ao concluírem que a ausência da evidência implica numa evidência da ausência. Exemplo 1: como não conhecemos fósseis transicionais entre os cetáceos (baleias e golfinhos) e seu ancestral terrestre (ausência de evidência paleontológica), conclui-se que as baleias e os golfinhos não evoluíram a partir de um ancestral terrestre (evidência da ausência). Noutros termos, Deus projetou tais animais como aquáticos. Exemplo 2: Como não sabemos explicar a evolução do flagelo da bactéria Escherichia coli a partir de sistemas funcionais mais simples (ausência de evidência bioquímica), conclui-se que não há tais precursores bioquímicos mais simples (evidência da ausência). Ou seja, a complexidade irredutível do flagelo bacteriano só poderia ser explicada pelo planejamento de um engenheiro bioquímico sobrenatural. No entanto, como diria o paleontólogo Stephen Jay Gould: “Uma conclusão baseada em não encontrar algo tem a grande virtude de permitir potencialmente uma refutação inequívoca”. Paleontólogos descobriram fósseis transicionais entre o mesoniquídeo (mamífero terrestre extinto) e os atuais cetáceos, assim como os bioquímicos descreveram estruturas funcionais mais simples a partir das quais poderiam ter evoluído o flagelo da bactéria Escherichia coli. Tanto o exemplo da ausência de fósseis transicionais quanto o da complexidade irredutível do flagelo bacteriano são falácias do tipo “Deus nas lacunas”: como a Paleontologia e a Bioquímica não explicam determinados fatos (lacunas científicas), devemos inferir que tais explicações provêm da ação suprafísica de Deus ou do Projetista Inteligente. Não é de se estranhar que a combinação dessa falácia com o fato de que a Ciência está em contínua construção é extremamente desfavorável aos defensores do Criacionismo da Terra Jovem e do Design Inteligente: muitas lacunas científicas de ontem foram preenchidas por explicações inteiramente naturais; de modo semelhante, é provável que muitos fenômenos e estruturas naturais que não sabemos explicar hoje em dia terão um tratamento científico adequado no futuro. Isso não significa, é claro, que todas as questões científicas serão satisfatoriamente respondidas com o passar do tempo. Um dos assuntos mais intrigantes da Ciência diz respeito à origem da vida. Na realidade, é salutar citar nesse ponto a origem da vida, haja vista que os proponentes do Criacionismo da Terra Jovem e do Design Inteligente a confundem repetidamente com o tema da evolução da vida. Para respondermos à segunda questão não precisamos saber como a vida se originou. Trocando em miúdos: sem maiores explicações, é um fato que a vida se originou pelo menos em um planeta do vasto Universo, a Terra; também é um fato que os organismos vivos se modificaram ao longo do tempo. Isso pode ser facilmente constatado na escala de bilhões, milhões e milhares de anos por meio do registro fóssil, bem como no curto espaço de décadas ou anos pelos efeitos provocados pelo uso de antibióticos e agrotóxicos; porém, mesmo que ainda não saibamos ao certo como a vida se originou (1º fato), podemos, ademais, fornecer uma resposta científica adequada sobre como os seres vivos evoluem (2º fato). Apesar de não ser o caso, poderíamos perfeitamente saber como surgiu a vida e, por outro lado, não saber como ela evoluiu. Infelizmente, por desconhecimento ou, na pior das hipóteses, por desonestidade intelectual, muitos criacionistas fazem um amálgama conceitual dessas duas questões científicas.

 

Rafaela: Quais são as evidências favoráveis à Biologia Evolutiva?

Maxwell: A Biologia Evolutiva, eixo unificador das Ciências Biológicas, é considerada uma das áreas de maior prestígio perante o público em geral e a comunidade científica, em particular. Tal prestígio se deve à simplicidade, à elegância teórica, ao elevado poder explicativo e às numerosas evidências favoráveis a essa Ciência. Citarei a seguir algumas dessas evidências: (i) o registro fóssil mostra que o planeta Terra já foi habitado por microrganismos, vegetais e animais que não existem atualmente. Na verdade, o número de espécies atuais representa uma fração ínfima em relação ao número de espécies extintas. Esse registro mostra, por exemplo, que os ancestrais de golfinhos e baleias possuíam patas traseiras; (ii) a adaptação dos organismos ao ambiente em que vivem. Para citar apenas um exemplo, basta considerarmos a semelhança anatômica de alguns insetos à estrutura das folhas. A criação dos organismos por Deus ou por um Projetista Inteligente não é incompatível com a adaptação. Pelo contrário, seria de se esperar que um Ser sobrenatural sumamente bondoso, inteligente e poderoso projetasse e criasse seres perfeitamente adaptados ao ambiente. Contudo, uma rápida olhada na natureza é suficiente para demonstrar que tal não é o caso: os seres são adaptados ao ambiente, mas tal adaptação é sempre imperfeita. Além disso, há, conforme é predito pela concepção evolucionista, muito “desperdício” e “sofrimento” na natureza, e estes são incompatíveis até mesmo com o projeto do nem sempre bondoso e necessariamente limitado engenheiro humano; (iii) as comparações nos mais diversos níveis entre organismos através da Anatomia, Embriologia, Bioquímica e Fisiologia Comparadas também são uma forte evidência a favor da Biologia Evolutiva. Em termos metafóricos, pode-se imaginar que todos os seres vivos que existiram, existem e existirão em nosso planeta estão dispostos em uma imensa e frondosa árvore da vida, árvore esta que é, a um só tempo, genealógica e dinâmica: a raiz representaria o(s) primeiro(s) organismo(s) que surgiu(ram) e teve(tiveram) sucesso reprodutivo, há aproximadamente 3,5 ou 3,8 bilhões de anos. Tal(is) organismo(s) seria(m) o(s) ancestral(is) de todos os seres vivos que vieram depois – bactérias, protistas, fungos, vegetais e animais. Ora, a consequência disso é que todos os seres vivos são, em última instância, parentes. Para ilustrar isso, tomemos a espécie Homo sapiens como exemplo: somos parentes em grau decrescente de chimpanzés, ratos, pardais, lagartixas, sapos e tucunarés. Nosso parentesco se restringe apenas a animais vertebrados? Não. Também somos parentes em grau decrescente de baratas, esponjas, cajueiros, fungos, algas e bactérias. Enfim, todos os seres vivos terrestres pertencem, literalmente, a uma grande família biológica. Essa ancestralidade comum pode ser corroborada anatômica, embriológica, bioquímica e fisiologicamente. Anatomia Comparada: o braço humano, a nadadeira de uma baleia jubarte e a asa de um morcego, apesar de desempenharem funções diversas, são anatomicamente semelhantes (órgãos homólogos), como seria de se esperar pela ancestralidade comum. Os membros anteriores desses animais são compostos pelos ossos úmero, rádio, ulna etc. De acordo com a Embriologia Comparada, quanto maior o parentesco filogenético (evolutivo), maior a semelhança entre o desenvolvimento embrionário dos organismos: o desenvolvimento do embrião humano possui mais semelhanças com o desenvolvimento embrionário do beija-flor se comparado com o do bacalhau. Isso é predito pelo arcabouço conceitual evolucionista, pois os mamíferos compartilham um ancestral mais recente com as aves do que com os peixes. Segundo a Bioquímica Comparada, o grau de parentesco filogenético também pode ser medido no nível molecular ao se comparar os genomas dos organismos (conjunto das informações codificadas no DNA): o genoma humano é mais similar ao genoma do beija-flor do que ao do bacalhau. Fisiologia Comparada: as semelhanças fisiológicas (que dizem respeito ao funcionamento do organismo) também estão diretamente relacionadas à proximidade filogenética. Todas as pessoas que ingeriram qualquer produto da indústria farmacêutica foram beneficiadas, em alguma medida, por tal conhecimento, pois todo medicamento é testado antes em animais não-humanos. Se nesta fase o fármaco afetar negativamente a atividade cardíaca de um camundongo, por exemplo, não será testado em humanos por melhor que sejam seus outros efeitos, pois haveria bons indícios de que tal droga também seria nociva ao nosso coração; (iv) estruturas que possuem a mesma função podem ter evoluído de modo independente (divergência evolutiva): as asas de uma libélula e de um carcará servem para voar, mas, como evoluíram independentemente, são órgãos análogos (comparar com os supracitados órgãos homólogos); (v) por fim, mas não menos importante, a Biologia Evolutiva é capaz de explicar e predizer a presença de estruturas atrofiadas e não funcionais como os olhos cegos dos peixes cavernícolas (órgãos vestigiais). É sabido que os ancestrais dos peixes cavernícolas enxergavam. Além disso, temos conhecimento que é evolutivamente desvantajoso possuir olhos em ambientes desprovidos de luz… Por outro lado, é bastante embaraçoso para o criacionista explicar tais órgãos vestigiais, já que ele teria de saber quais eram os “pensamentos de Deus” quando projetou e criou um olho que não enxerga. 

Rafaela: Ao longo da história, várias teorias científicas foram refutadas. Mesmo não sendo a teoria definitiva e nem 100% comprovada, o Evolucionismo é a mais aceita entre a comunidade científica, você acredita que um dia a teoria pode ser refutada?  

Maxwell: Há uma discussão em Filosofia da Ciência que trata do critério de demarcação entre enunciados científicos e não-científicos. Para não nos alongarmos muito, tomemos como exemplo o critério proposto pelo influente filósofo austríaco Karl Popper para decidir quando uma teoria pode ser considerada científica: um enunciado científico deve ser falseável. Para que fique bem claro, um enunciado falseável é aquele que pode se mostrar falso no futuro, ou seja, que pode vir a ser empiricamente refutado. Antes mesmo de uma observação experimental, a Teoria da Relatividade predizia que corpos com grande massa atraem a luz. Durante um eclipse em 1919, em Sobral, no Ceará, uma equipe de cientistas fez observações sobre a trajetória da luz com o intuito de testar a predição feita por Einstein. As medições mostraram que houve desvio da luz e, portanto, a Teoria da Relatividade foi corroborada. Como dissemos, uma das exigências para uma teoria ser considerada científica é a possibilidade de ser falsa: não há, segundo Popper, nenhuma “teoria definitiva” ou “100% comprovada”. Nesse sentido, teorias científicas são sempre hipotéticas ou conjecturais, e uma breve consulta a manuais de História da Ciência serve para ilustrar esse fato. Com a Biologia Evolutiva não é diferente, ela pode ser refutada e isso é um requisito necessário à sua cientificidade. Alguns críticos desmerecem a Biologia Evolutiva dizendo “que ela é apenas uma teoria e que ela pode ser refutada”. Ora, isso é trivial e nesse sentido evolucionistas e antievolucionistas estão de acordo. O acordo só não é pleno quando se leva em consideração o significado atribuído a ser “apenas uma teoria”. Todas as teorias científicas – a Mecânica Quântica, a Relatividade, a Tectônica de Placas e a Biologia Evolutiva – são apenas teorias. Como poderia ser diferente? Ademais, aviões, telefones, micro-ondas e medicamentos são fabricados utilizando-se teorias. Contudo, por algum motivo esdrúxulo e arbitrário, os criacionistas atribuem um significado depreciativo quando afirmam que a “Biologia Evolutiva é apenas uma teoria”, induzindo leitores leigos em Filosofia da Ciência a pensarem que ela é provavelmente falsa. Para compreendermos melhor o que significaria refutar a Biologia Evolutiva, temos que nos lembrar de que há uma distinção entre a evolução como fato e a Evolução como teoria e também de que a modificação de uma teoria não implica necessariamente em seu descarte por completo. A comunidade científica dispõe de evidências suficientes para considerar como fato a modificação dos organismos ao longo do tempo (evolução biológica) e, por conseguinte, os biólogos evolutivos não questionam a evolução como um fato. Porém, afirmar que bactérias, protistas, fungos, vegetais e animais evoluem é apenas um ponto de partida. No passo seguinte, o biólogo evolutivo deve explicar como ocorre a evolução. Como dissemos na 2ª questão, há mais de uma teoria para explicar a mudança dos organismos: Darwin, juntamente com Wallace, propuseram a seleção natural como principal mecanismo para explicar a evolução biológica, mecanismo esse que vem sendo corroborado há mais de 150 anos. Apesar de Mayr, Gould e Dawkins, por exemplo, aceitarem que a seleção natural é um mecanismo evolutivo, há divergências teóricas entre tais biólogos evolutivos. Cito algumas questões que ainda geram debates no presente: quantos e quais são os mecanismos evolutivos? A seleção natural é o principal mecanismo evolutivo? A seleção natural atua sobre genes, indivíduos ou populações? Há progresso na evolução biológica? Essas questões nos mostram que novas descobertas podem refutar alguns enunciados da Biologia Evolutiva sem que isso signifique que a teoria como um todo seja descartada. Darwin, por exemplo, morreu sem explicar satisfatoriamente a transmissão das características genéticas. Hoje em dia, sabemos que a pangênese, teoria da hereditariedade defendida por Darwin, está errada. Ou seja, a teoria utilizada por Darwin para explicar a transmissão das características dos progenitores à prole foi refutada. Todavia, a despeito dessa refutação, a concepção darwinista não foi descartada como um todo, já que duas de suas principais ideias continuam em voga, a saber, a origem comum dos organismos e o mecanismo de seleção natural.    

 

Rafaela: E se o Criacionismo da Terra Jovem ou o Design Inteligente forem comprovados, como os cientistas iriam reagir?  

Maxwell: Fica claro, a partir do que expusemos na questão anterior, o porquê de não ser possível “comprovar” cientificamente o Criacionismo da Terra Jovem ou o Design Inteligente. Explico: toda concepção criacionista é não-científica, já que defende ou infere uma causalidade sobrenatural no sentido de que o Deus/Projetista Inteligente criou os organismos vivos e, portanto, não se limita ao domínio físico. Como sabemos, a atividade científica se circunscreve à esfera natural, e isso independe da área em questão – Física, Astronomia, Química, Geologia, Biologia etc. É justamente por ter um escopo restrito que as teorias físicas, astronômicas, químicas, geológicas e biológicas podem ser empiricamente refutadas. Contudo, é impossível refutar cientificamente os pretensos processos sobrenaturais que resultariam da ação do Deus/Projetista Inteligente, tese central defendida pelos criacionistas. Em outras palavras, a expressão “Criacionismo Científico” é um contrassenso. Ademais, o Criacionismo é incompatível com a Ciência atual. Vou me restringir ao Criacionismo da Terra Jovem para ilustrar esse ponto. Para que seja defendido de modo consistente que o Universo e a Terra possuem poucos milhares de anos, seria necessário refutar simultaneamente pelo menos quatro teorias amplamente corroboradas até o presente: (i) a Teoria do Big Bang (a antiguidade do Universo seria apenas aparente), (ii) a Teoria da Radioatividade (as datações radiométricas seriam falsas), (iii) a Tectônica de Placas (os continentes não teriam se separado há mais do que alguns milhares de anos) e (iv) a Biologia Evolutiva (a ancestralidade comum e a modificação dos organismos ao longo de bilhões de anos estaria em xeque). Portanto, vimos que a tese central do Criacionismo da Terra Jovem (Deus/causalidade sobrenatural) não é científica e, além disso, que muitas das afirmações dessa concepção sobre o mundo natural já foram refutadas empiricamente.

 

Rafaela: Fé e Ciência podem caminhar juntas? 

Maxwell: É possível que caminhem juntas, mas isso não é necessário porque elas podem ou não ser compatíveis. Além disso, nem a fé (por definição, uma crença não justificada) depende da Ciência (crença justificada), nem o inverso. A fé em Deus, por exemplo, não depende de nenhum cálculo matemático ou experimento empírico. É uma posição mística sobre coisas que transcendem o domínio natural. Do mesmo modo, ninguém precisa de fé para acreditar que “2+2=4” ou que “metais se dilatam quando aquecidos”, uma vez que possuímos mecanismos objetivos de prova e corroboração da verdade dessas afirmações. Uma breve consulta à História da Ciência atestará que muitos cientistas acreditavam em Deus (até há pouco tempo, essa era a regra geral). Três dos maiores cientistas de todos os tempos eram, para nos restringirmos somente a um tipo de fé, cristãos: Galileu Galilei, Isaac Newton e Charles Darwin (no início da carreira). Obviamente, poderíamos citar renomados cientistas que não são religiosos. Isso significa que ter fé em Deus e ser cientista são coisas independentes, já que uma pessoa pode: (i) ser crente em Deus e cientista; (ii) não ser crente em Deus e ser cientista; (iii) ser crente em Deus e não ser cientista; e, finalmente, (iv) não ser crente em Deus e não ser cientista. Como é fácil de observar, o mesmo tipo de raciocínio pode ser aplicado a outras profissões – pedreiros, cozinheiros, artistas etc. Feitas essas considerações, é salutar fazer uma ressalva. Uma pessoa crente em Deus pode escolher ser cientista com o intuito de tentar compreender como funciona a natureza, que, em sua concepção, teria sido criada por Ele. Porém, e isso é importante, após explicar naturalisticamente o movimento dos planetas, a reação química ou a evolução biológica, seria cientificamente incorreto acrescentar à descrição natural do fenômeno uma hipótese ad hoc do tipo “porque Deus quis”. Como dissemos anteriormente, os enunciados científicos se restringem ao domínio natural e, por conta disso, podem ser empiricamente refutados. Enunciados do tipo “Os movimentos planetários são descritos pelas leis de Kepler, porque Deus quis”, “As massas das substâncias são conservadas em uma reação química, porque Deus quis” e “Os organismos evoluem por seleção natural, porque Deus quis” não são científicos porque não são refutáveis: as leis de Kepler, a lei da conservação da massa e o mecanismo de seleção natural são empiricamente refutáveis, mas a suposta vontade de Deus é irrefutável. Dessa maneira, independente da crença pessoal do cientista, enunciados científicos prescindem de uma hipotética vontade divina e devem ser formulados sem levá-la em consideração. Isso significa que não há espaço para Deus? Darwin matou Deus? Cientificamente falando, com certeza não: se por acaso Deus existir, não poderia ser morto por uma ou mesmo várias teorias científicas. A concepção darwinista é eficaz na explicação das estruturas e dos organismos biológicos, mas isso não é suficiente para refutar Deus. Essa insuficiência, contudo, é condizente com o seu objeto de estudo, os seres vivos (domínio natural). A questão sobre a existência de Deus não é uma questão científica, mas, sim, uma questão filosófica e teológica. Isso explica o porquê de haver cientistas que acreditam em um Deus pessoal, outros que são agnósticos e outros que são ateus. Dentro dessa perspectiva, não há um conflito necessário entre Religião e Ciência. Obviamente, nem todos adotam tal perspectiva. Apesar de assumirem posições diametralmente opostas, há pelo menos um ponto de contato entre os adeptos do Criacionismo da Terra Jovem e os ultradarwinistas, a saber: a Religião e a Ciência são incompatíveis. Enquanto os criacionistas estão errados por estenderem uma conclusão religiosa ao domínio natural (Universo com poucos milhares de anos e criação divina), os ultradarwinistas cometem um equívoco ao tirarem uma conclusão filosófica (Deus não existe) supondo que ela é científica. Por fim, concluímos afirmando que as distintas posições criacionistas e a ultradarwinista ultrapassam, em maior ou menor grau, o âmbito científico e, por conta disso, não é difícil vislumbrar o motivo pelo qual ambas advogam uma incompatibilidade necessária entre Religião e Ciência.

A evolução da complexidade biológica [tradução]

Por Finn Pond


Introdução


A origem da complexidade biológica ainda não foi totalmente explicada, mas vários cenários naturalistas plausíveis têm sido desenvolvidos para explicar esta complexidade. Os defensores do “Design inteligente” (DI), entretanto, afirmam que apenas as ações de um “agente inteligente” podem gerar o conteúdo informacional e a complexidade observada em sistemas biológicos.

Os proponentes do DI acreditam que a teoria da evolução é uma empreitada falha que não oferece explicações críveis para as origens da complexidade. Eles culpam os cenários evolutivos por não fornecerem pormenores suficientes. Além disso, os defensores do DI afirmam ter apresentado evidências empíricas de que um “agente inteligente” planejou pelo menos alguns sistemas biológicos complexos.

Em contraste, o presente trabalho analisa diversos modelos científicos para a origem da complexidade biológica. Defendo que estes modelos oferecem mecanismos plausíveis para a geração da complexidade biológica e são caminhos promissores de investigação. Discordo dos proponentes do DI, que descartam tais modelos por falta de “especificidade de causalidade suficiente“, argumentando que esta crítica é injustificada. Finalmente, eu volto minha atenção brevemente para explicação proposta pelo DI para a origem da complexidade biológica, e considero a “evidência empírica” ​de William Dembski para a planejamento dos flagelos bacterianos, e argumento que sua suposta evidência é biologicamente irrelevante.

O problema da complexidade


Os sistemas biológicos são incrivelmente complexos. Biólogos profissionais dedicam suas carreiras para descrever tais complexidades, dissecando esses sistemas através de métodos químicos e físicos, e caracterizando seus componentes estruturais e interações funcionais. Como tais sistemas complexos podem evoluir? Entendemos as maneiras pelas quais os componentes individuais de um sistema complexo podem ser alterados em suas estruturas e funções por mutações, e a maneira pela qual a seleção natural favorece uma forma em detrimento de outra. Além disso, em muitos casos, nós rastreamos as relações familiares entre diferentes variantes de ácidos nucleicos e proteínas.

Vislumbrar maneiras através das quais a seleção natural pode construir sistemas bioquímicos e moleculares que envolvem dezenas de proteínas integradas de forma complexa e altamente específica é muito mais difícil. Como poderiam todas as proteínas necessárias serem selecionadas simultaneamente com um ponto final comum como o objetivo? A menos que cada construção intermediária possua, pelo menos, uma função parcial, como poderia a seleção natural agir?

Este é o argumento apresentado por Michael Behe em seu livro ‘A Caixa Preta de Darwin: O Desafio da Bioquímica à Teoria da Evolução’ (1996), e defendido por proponentes do DI desde então. Behe alega que as complexidades estruturais e funcionais encontradas nos sistemas biológicos não poderiam ter sido estabelecidas através de processos evolutivos. Ele afirma que o flagelo bacteriano, por exemplo, é um sistema irredutivelmente complexo, em que os componentes individuais não têm nenhuma função para além do todo, e, por conseguinte, não poderiam ter sido ‘selecionados para‘ na natureza.

“Por complexidade irredutível eu quero dizer um único sistema composto por várias partes bem ajustadas , que interagem contribuindo para a função básica, cuja remoção de qualquer uma das partes faz com que o sistema pare de funcionar eficazmente. Um sistema irredutivelmente complexo não pode ser produzido diretamente (ou seja, através da melhoria contínua da função inicial, que continua a operar pelo mesmo mecanismo) por modificações suaves, e sucessivas de um sistema precursor, porque qualquer precursor de um sistema irredutivelmente complexo no qual esteja faltando uma parte é, por definição, não funcional. Um sistema biológico irredutivelmente complexo, se é que existe tal coisa, seria um desafio poderoso à evolução darwinista.” (Behe 1996: 39)

Os biólogos reconhecem que a complexidade de um sistema integrado é uma característica dos sistemas vivos. Isto é, alguns sistemas biológicos consistem de partes componentes que interagem de uma forma coordenada, de maneira que o sistema como um todo apresenta uma função específica. É questionável, no entanto, se tais sistemas são irredutivelmente complexos como afirma Behe (ver Coyne 1996; Doolittle 1997; Miller 1999; Shanks e Joplin 1999). Mas mesmo se exemplos de complexidade irredutível forem encontrados em sistemas vivos, as origens de tais sistemas não estão necessariamente fora do âmbito de processos naturais (Orr, 1996; Miller 1999; Thornhill e Ussery 2000; Catalano 2001). O fato de a função de um sistema altamente integrado poder entrar em colapso com a remoção de uma parte componente não implica que o sistema em questão não possa ser desconstruído revelando uma origem por processos evolutivos não dirigidos.

Behe não foi o primeiro a reconhecer que a complexidade biológica representa um desafio (ver, por exemplo Cairns-Smith, 1986). Durante a última década, a disciplina de ciência da complexidade floresceu, atraindo um contingente interdisciplinar de cientistas, incluindo biólogos interessados na mesma questão que Behe aborda: Podem mecanismos naturais dar conta da complexidade observada nos sistemas biológicos? (Ver Adami e outros, 2000; Strogatz 2001; Adami 2002; Carlson e Doyle 2002; Doyle e Csete 2002.)

Modelos naturalistas para a evolução da complexidade biológica


Vários modelos têm sido propostos para explicar uma origem naturalista da complexidade vista em sistemas biológicos. Seguem-se breves descrições de quatro modelos propostos para explicar a origem da complexidade biológica.

Modelo de adições incrementais

O modelo de adições incrementais postula que uma associação inicial de componentes favoráveis ​​para alguma função pode tornar-se uma associação essencial ao longo do tempo (Lindsay, 2000; Orr 1996, 2002). A complexidade do sistema pode aumentar com a adição de novos componentes. Suponhamos, por exemplo, que uma molécula realiza uma função catalítica particular. Se uma associação com outra molécula aumentar essa função – por exemplo, através da estabilização estrutural – em seguida, a seleção natural pode favorecer esta associação. A segunda molécula é inicialmente benéfica, embora não essencial. A segunda molécula pode, entretanto, tornar-se essencial se uma mutação de inativação na primeira molécula for compensada pela presença do segunda.

Existem numerosos exemplos de moléculas cuja função é melhorada na presença de uma outra molécula. Considere a atividade da RNase P (um complexo RNA-proteína responsável pelo processamento de moléculas de RNA transportador). O componente de RNA da molécula possui a atividade catalítica e foi mostrado que funciona sem o seu parceiro proteico, embora com uma atividade muito mais baixa (Reich e outros 1988; Altman 1989).

O trabalho realizado com ribozimas ‘cabeça de martelo’ (moléculas de RNA capazes de clivar outras moléculas de RNA) demonstrou que a atividade de uma destas ribozimas aumentou de 10 a 20 vezes in vitro na presença de uma proteína de ligação ao RNA não específica (Tsuchihashi e outros 1993; Herschlag e outros, 1994). Além disso, são rotineiramente produzidas ribozimas cuja atividade pode ser regulada por outras moléculas (Soukup 1999), e, em experiências de evolução in vitro, têm sido geradas ribozimas ligases dependentes de proteínas (Ellington e Robertson, 2001).

Os introns auto-processantes do grupo II, embora capazes de clivagem independente de RNA sob algumas condições, requerem a estabilização por parte de proteínas maturases para seu funcionamento eficaz in vivo. É aceito de modo geral que os componentes de RNA cataliticamente ativos dos spliceossomas são capazes de funcionar porque as proteínas do spliceosoma estabilizam uma conformação funcional (Lodish, e outros 2003). Portanto, pode-se especular que uma ribozima pode perder atividade independente, através de um evento mutacional, e ainda continuar a funcionar em associação com uma molécula proteica que promova ou estabilize uma estrutura cataliticamente ativa da ribozima.

Modelo de andaimes


Andaime é outro mecanismo pelo qual a complexidade irredutível pode ser estabelecida (Lindsay 2000; Shanks e Joplin 2000; Orr 2002). No modelo de adições incrementais, uma associação benéfica de componentes torna-se uma associação essencial porque eventos mutacionais comprometem a atividade independente de um ou mais componentes. No modelo de andaimes, componentes supérfluos são perdidos, deixando um sistema no qual os componentes restantes mostram-se firmemente ajustados como se tivessem sido especificamente concebidos para encaixarem-se e funcionarem em conjunto. O arco é um exemplo de uma estrutura irredutivelmente complexa, que exige andaimes para a sua construção (Cairns-Smith 1986; Lindsay 2000; Shanks e Joplin 2000; Schneider 2000; Orr 2002). Andaimes podem também ser naturalmente funcionais.

Muitos sistemas bioquímicos são caracterizados por “complexidade redundante” (Shanks e Joplin 1999, 2000). Vias bioquímicas raramente funcionam isoladamente; ao contrário, interligam-se uma via com outra (ver Nelson e Cox, 2000). Por exemplo, átomos de carbono que entram no ciclo de Calvin-Benson dentro de um cloroplasto podem encontrar seu caminho em qualquer uma das muitas moléculas diferentes e serem desviados para outras vias. Há também muitos casos de uma redundância de componentes enzimáticos, ou isoformas variantes. Duplicações de genes aumentam o número de genes de uma espécie, podendo então evoluírem de maneiras diferentes. Esse padrão de ramificação na evolução das proteína é significativo. Por exemplo, várias moléculas de hemoglobina diferentes, porém relacionadas, são utilizadas durante o desenvolvimento humano. Estas formas variantes são consideradas como tendo surgido a partir de processos de duplicação gênica, mutação e seleção (Lodish e outros 2003).

Uma perda inicial de componentes redundantes numa via bioquímica não irá destruir a função. No entanto, no ponto em que um sistema não puder suportar perda adicional de componentes sem perder sua função, surge um sistema irredutível. A redundância de componentes bioquímicos em tal cenário serve como andaime. Shanks e Joplin (2000) avaliam este modelo em relação aos vários exemplos de sistemas bioquímicos de complexidade irredutível de Behe. Robinson (1996) também adotou uma abordagem semelhante, explicando em termos evolutivos plausíveis a origem das cascatas de coagulação do sangue dos vertebrados.

Cooptação de modelo

A seleção natural atua sobre um conjunto existente de estruturas dentro de um contexto ambiental particular. Um ambiente alterado exige respostas alteradas por parte de um organismo. Por conseguinte, não deveria ser surpresa encontrar no registro fóssil e nas evidências da anatomia comparativa e de estudos fisiológicos que algumas estruturas foram modificadas ao longo do tempo, passando a servir a funções diferentes. Na verdade, um tema comum da evolução biológica é que as estruturas existentes são muitas vezes utilizadas para novos usos e novas estruturas são criadas a partir de antigas. “Cooptação” é o termo utilizado para descrever o recrutamento de estruturas pré-existentes para novas tarefas. Este recrutamento pode explicar aumentos evolutivos na complexidade biológica.

Genes cooptados para novas funções podem dar origem a novidades desenvolvimentais e fisiológicas (Eizinger e outros, 1999; Ganfornina e Sanchez, 1999; longo de 2001; True e Carroll 2002). Os genes podem adquirir novas funções quando as sequências codificadoras de proteínas são alteradas, quando as sequências de codificação são unidas de formas diferentes durante o processamento de RNA, ou quando os padrões espaçotemporais de expressão dos genes são alterados (Verdadeiro e Carroll 2002). Duplicação gênica seguida de mutações diferenciais dão origem a novas configurações de proteínas e a alteração dos controles regulatórios da expressão gênica pode resultar em mudanças desenvolvimentais e morfológicas significativas.

Muitos sistemas biológicos complexos são caracterizados por uma forte integração de suas partes componentes. Behe (1996) argumentou que é altamente improvável que tais sistemas pudessem ter surgido através de uma coevolução simultânea de numerosas partes ou por meio de uma evolução serial direta dos componentes necessários. Mas sistemas complexos, mesmo os de complexidade irredutível, não precisam ser montados dessa maneira.

Novas associações entre subestruturas preexistentes ou proteínas podem dar origem a novas funções, não sendo necessário que o sistema evolua in toto. Muitos críticos do DI já assinalaram este fato (Miller, 1999; Thornhill e Ussery 2000; Miller 2003). Um exemplo particularmente instrutivo provável de cooptação pode ser visto na evolução do ciclo de Krebs (ácido cítrico). Melendez-Helvia e colaboradores (1996) reconheceram que o ciclo de Krebs representava uma dificuldade real para os biólogos evolutivos porque fases intermédias de sua evolução não teriam nenhuma funcionalidade. Uma análise das enzimas e cofatores componentes, no entanto, revelou que as partes componentes e fases intermédias tinham funções para além do seu papel no ciclo de Krebs.

Outro exemplo é o mecanismo V(D)J de processamento de genes dos sistemas imunes dos vertebrados (Thornhill e Ussery 2000). True e Carroll (2002) também apresentam exemplos de como vários genes ligados por um sistema de regulação gênico podem ser cooptados como uma unidade para uma nova função; seus exemplos incluem a evolução das manchas ocelares das asas de borboleta, membros dos vertebrados, folhas complexas de plantas e penas.

Modelo de complexidade emergente


Alguns teóricos da complexidade acreditam que existem leis de auto-organização que desempenham um papel na evolução da complexidade biológica (Kauffman 1993, 1995; Solé e Goodwin, 2000). O trabalho teórico nesta área se expandiu rapidamente na última década (ver, por exemplo, Camazine e outros, 2001). A interação de vários componentes, argumenta-se, leva inevitavelmente a padrões complexos de organização.

Uma medida da complexidade é o conteúdo informacional de um sistema, e um programa “ev” de Schneider demonstrou que nova informação pode realmente surgir espontaneamente. O programa “ev” foi construído para simular a evolução por eventos de mutação e seleção. No programa, certas sequências de DNA agem como “genes reconhecedores“, enquanto outras sequências servem como potenciais sítios de ligação para as moléculas reconhecedoras. Durante as simulações, ambos, os genes reconhecedores e as sequências de ligação potenciais podiam transformar-se. A seleção foi baseada na bem sucedida ligação de moléculas de reconhecimento nos sítios de ligação apropriados. A mudança na complexidade do sistema foi avaliada como uma mudança no conteúdo informacional das sequências de DNA. A especificidade entre genes de reconhecimento e sítios de ligação correspondentes aumentava o conteúdo informacional do sistema, que é medido em bits de informação, de acordo com a teoria da informação de Shannon. Começando com um genoma aleatório, o programa “ev” leva à evolução de sítios de ligação de DNA e ao consequente ao aumento da informação. Além disso, na simulação, sítios de ligação e genes de reconhecimento coevoluiram, transformando-se em um sistema irredutivelmente complexo. Os resultados mostraram que os processos de evolução darwiniana geram informação, bem como sistemas irredutivelmente complexos (Schneider, 2000).

Conceptibilidade vs plausibilidade: A resposta de DI

Os modelos acima são baseados em processos naturais que são passíveis de investigação experimental. Evidências em apoio a esses modelos vêm acumulando-se. Estes modelos foram avaliados pelo defensor do DI, William Dembski, em seu livro No Free Lunch (2002a). Dembski declarou cada modelo como sendo inadequado, com sua crítica mais específica voltada para programa “ev” de Schneider. Ele rejeitou a alegação de Schneider de que a informação tinha sido gerada de novo e acusou Schneider de contrabandear informação para dentro do programa, especificando as condições do programa para a sobrevivência dos “organismos” (Dembski 2002a). Do ponto de vista de um biólogo de populações, os critérios utilizados por Schneider eram perfeitamente razoáveis. No entanto, Schneider eliminou a regra especial a qual opôs-se Dembski, testando mais uma vez o programa, e encontrou os mesmos resultados (Schneider 2001a, 2001b).

Argumentando mais globalmente, Dembski afirmou que os teoremas ‘sem almoço grátis’ (No free lunch) deixam claro que o programa não poderia fazer o que Schneider afirmou. David Wolpert, no entanto, um dos desenvolvedores dos ‘sem almoço grátis’, diz que Dembski aplicou os teoremas de forma inadequada (Wolpert 2003).

As críticas de Dembski aos outros modelos foram mais gerais. Ele e outros defensores do DI queixam-se que os modelos naturalistas para a evolução da complexidade biológica carecem de especificidade causal. De acordo com Dembski, “especificidade causal significa identificar uma causa suficiente para explicar o efeito em questão” (Dembski 2002a: 240). Ele argumenta que, até detalhes suficientes serem resolvidos (presumivelmente em termos da ordem em que os componentes tornam-se associados, a maneira pela qual estes componentes montados interagiram para melhorar a função e as mutações que levaram a dependência obrigatória), não há nenhuma maneira de avaliar cenários naturalistas. “A falta de especificidade causal”, diz ele, “deixa-nos sem os meios para julgar se uma transformação pode ou não ser efetuada” (Dembski 2002a: 242).


Dembski acusa os evolucionistas de estarem satisfeitos com uma forma muito pouco exigente de possibilidade, ou seja, conceptibilidade (Dembski 2002b). Allen Orr resenhou o livro
No Free Lunch e chamou atenção para o fato de Dembski ter utilizado-se de probabilidades biologicamente irrelevantes e exigido detalhes irrealistas de especificidade causal (Orr, 2002). Na sua réplica, Dembski disse que, para Orr, “O Darwinismo tem a propriedade alquímica de transformar possibilidades puras em possibilidades reais” (Dembski 2002b). Ele passou a dizer que “Orr substitui uma demanda mais fraca por ‘narrativa histórica’ que, no caso do Darwinismo, degenera em reconstruções fictícias com pouca, ou nenhuma, base na realidade.

Dembski posiciona-se como o empirista crítico, pedindo apenas aquilo que todos os cientistas deveriam perguntar – detalhes que permitam determinar a validade das afirmações Darwinistas. Howard Van Till resenhando o livro No Free Lunch e comentou sobre a demanda de Dembski para a especificidade causal:

Muitas hipóteses científicas sobre a maneira pela qual vários processos transformacionais podem ter contribuído para a realização de alguma nova estrutura biótica podem ficar aquém de especificidade causal completa – mesmo que eles possam ser aplicações altamente plausíveis de mecanismos que são pelo menos parcialmente compreendidos. Quando for esse o caso, a abordagem DI tende a denegri-los como nada além do que “histórias assim” (‘just-so stories’) e a desconsiderá-los de uma análise mais aprofundada. (Van Til 2002)

A demanda de Dembski por maiores detalhes é uma reminiscência das demandas dos antievolucionistas anteriores por mais fósseis de transição. Sem dúvida, sempre haverá lacunas no registro fóssil, e sempre haverá espaço para mais detalhes em cenários evolutivos. A busca dos biólogos por esses detalhes está em curso.


A explicação de DI para a origem da complexidade biológica


Os biólogos propuseram uma série de modelos para explicar a complexidade biológica. Os proponentes do DI têm criticado esses modelos por falta de pormenores suficientes. É instrutivo, então, examinarmos as próprias explicações do DI para a origem da complexidade biológica. Dembski (2002a) afirma que certos tipos de sistemas biológicos, tais como sistemas de “
irredutivelmente complexos” de Behe, devem ter sido projetados por um agente inteligente, porque eles possuem uma característica que ele chama de “complexidade especificada. É possível, diz ele, distinguir objetos que foram projetados daqueles que surgiram por mecanismos naturais porque somente objetos projetados têm essa característica (Dembski 1998, 2002a). Os defensores do DI não oferecem modelos para explicar os processos pelos quais a complexidade biológica veio a existir. Eles argumentam, no entanto, que “complexidade especificada” é evidência empírica de que a estrutura ou função observada foi intencionalmente projetada.

Como podemos saber se um objeto possui “complexidade especificada“? Dembski diz que as estruturas ou eventos que são altamente complexos terão uma baixa probabilidade de ocorrer por acaso. Portanto, uma avaliação probabilística deve primeiro ser feita. Como os eventos, mesmo raros ou improváveis, podem ocorrer por acaso, dado tempo suficiente, Dembski (1998) estabeleceu um valor de probabilidade de 10-150 como critério de design.

Para ser especificado, um objeto ou evento deve possuir um padrão independente ou destacável da natureza do objeto ou evento em questão (Dembski 1998). No filme Contato, por exemplo, os pesquisadores do SETI interpretam um sinal de rádio como um sinal de inteligência extraterrestre porque o sinal contém os primeiros 100 números primos. Essa sequência particular de números é especificada, pois não tem nenhuma relação inerente com as ondas de rádio e é, por conseguinte, independente das próprias ondas de rádio. Finalmente, um objeto ou evento, concebido independentemente de sua complexidade ou especificidade, não pode ser o resultado de uma lei natural determinista.

Os proponentes do DI afirmam que certos sistemas biológicos exibem complexidade especificada e, portanto, devem ter sido intencionalmente projetados. Mas é a complexidade especificada um indicador confiável de design? A validade da abordagem de Dembski é questionável. Falhas em seu argumento foram apontadas previamente (ver, por exemplo, Orr 1996, 2002; Miller 1999, 2003; Schneider 2001a; Van Till 2002). Mas talvez a melhor maneira de avaliar a alegação do DI seja considerar a aplicação de seus critérios em um exemplo específico.

O flagelo bacteriano: caso de teste do DI


Dembski (2000) diz: “
Teóricos do Design não estão dizendo que, dado um determinado objeto natural que exiba complexidade especificada, todos os mecanismos causais naturais até agora considerados não conseguiram explicá-lo e que, portanto, ele teve de ser planejado. Ao contrário, eles estão dizendo que a complexidade especificada exibida por um objeto natural pode ser tal que há fortes razões para pensar que nenhum mecanismo causal natural seja capaz de produzi-lo.“. Os defensores do DI têm apresentado o flagelo bacteriano como uma estrutura biológica que é claramente o resultado de design. A aplicação do seu próprio critério de complexidade-especificação, no caso do flagelo bacteriano de Dembski, no entanto, falha em demonstrar que o flagelo é complexo ou especificado (Van Til 2002).

Os cálculos de probabilidade de Dembski para a origem do flagelo tratam o flagelo como um objeto combinatório discreto que auto-monta-se por puro acaso. Em outras palavras, todas as proteínas seriam espontaneamente formadas a partir de seus aminoácidos na ordem correta por acaso, em seguida, essas proteínas montam-se ao acaso nos arranjos corretos. Este não é um cenário evolutivo que já tenha sido postulado pelos biólogos (Miller 2003; Van Till 2002). Os evolucionistas imaginam um cenário muito diferente. As proteínas não são construídas ou montadas com o intuito de construir um sistema flagelar. Variantes proteicas aparecem ao longo do tempo, formando novas interações e assumindo novas funções. Conjuntos de proteínas que contribuem para o sucesso reprodutivo do organismo são mantidos e moldados pela seleção natural.

Embora Dembski (2002a: 19) afirme que, ao calcular a probabilidade de um evento, é necessário ter em conta todas as formas relevantes que um evento pode ocorrer, ele próprio não conseguiu fazê-lo. Ao apenas calcular a probabilidade de que o flagelo surgisse ao acaso, Dembski não pode justificar a sua afirmação de que o flagelo seria um produto de Design (Van Till 2002). Dembski (2003) respondeu a essas críticas, afirmando que não era sua intenção “calcular cada probabilidade concebível associada com a formação estocástica do flagelo … Meu ponto, em vez disso, foi esboçar algumas técnicas probabilísticas que poderiam ser aplicadas por biólogos à formação estocástica do flagelo.“. Dembski, em seguida, desafiou seus críticos a calcular as suas próprias probabilidades usando qualquer cenário que desejassem:

O flagelo bacteriano é de fato um objeto combinatório discreto, e a auto-montagem que eu descrevo é o que nos resta e que podemos calcular com base no que sabemos. A única razão pela qual os biólogos poderiam não aprovar a minha descrição e cálculos probabilísticos de auto-montagem seria porque eles mostram que apenas uma via indireta darwiniana poderia ter produzido o flagelo bacteriano. Mas, precisamente porque é indireta, não há, pelo menos por agora, qualquer especificidade causal e nenhuma probabilidade para ser calculada. (2002c Dembski)

Haverá sempre um grau de incerteza na elucidação de uma via evolutiva para a origem do flagelo ou qualquer outro sistema biológico. Dembski se esconde por trás dessa incerteza, contente por continuar usando um modelo de puro acaso independentemente do fato de que ele não tem relação alguma com a nossa compreensão dos processos evolutivos.

Conclusões


Os proponentes do DI alegam que os biólogos estão envolvidos em um programa de investigação que está fadado ao fracasso. De acordo com os proponentes do DI, uma explicação naturalista para a origem da informação genética e de organização biológica complexa não é possível. Os proponentes do DI afirmam que eles têm desenvolvido critérios rigorosos pelos quais o design na natureza pode ser detectado, mas eles ainda têm que demonstrar a validade de seus critérios. Além disso, os proponentes do DI deixam de levar em conta seriamente os cenários naturalistas dos evolucionistas para explicar as origens da complexidade biológica.

Certamente há ainda muito a ser aprendido sobre a evolução da complexidade, mas temos todas as razões para acreditar que isso aconteceu por processos naturais. Considere, por exemplo, o seguinte caso. Em 1966, Kwang Jeon observou que as suas culturas de amebas estavam morrendo como resultado de uma infecção bacteriana (Jeon 1991). As bactérias aparentemente tinham escapado de serem digeridas em um vacúolo alimentar e se reproduziram dentro do amebas. Ao longo de um período de tempo, algumas das culturas começaram a recuperar-se. As bactérias estavam ainda presentes nas amebas sobreviventes, embora em um nível muito reduzido. Jeon foi capaz de mostrar que as bactérias tinham tornado-se dependentes de suas células hospedeiras e a célula hospedeira havia tornado-se dependente das bactérias. Pesquisas adicionais demonstraram que a informação genética perdida pelos genomas das bactérias e amebas tinha levado a sua relação obrigatória. A endossimbiose mutuamente obrigatória foi estabelecida, criando o que é essencialmente uma nova organela celular. Dois sistemas de componentes tornaram-se associados, mutaram e estão agora irredutivelmente ligados um ao outro. Talvez os proponentes do DI argumentem que a complexidade não foi suficiente para ter exigido a ação de um agente inteligente, mas o ponto aqui é que causas naturais não dirigidas são tudo o que é necessário para explicar o aumento observado em complexidade e para a geração de um sistema irredutível.

Os biólogos têm proposto cenários naturalistas plausíveis para as origens da complexidade biológica. Estes cenários são baseados em uma compreensão dos processos naturais bem estabelecidos. Descartá-los como meras histórias concebíveis não é justificável. Exigir uma cadeia detalhada de causalidade para cenários evolutivos é irrealista. Insistir que o design foi detectado no flagelo bacteriano através do cálculo da probabilidade da sua montagem por puro acaso é simplesmente errado.

Referencias

  • Adami C, Ofria C, Collier TC. 2000. Evolution of biological complexity. Proceedings of the National Academy of Sciences (USA) 97: 4463–8.

  • Adami C. 2002. What is complexity? BioEssays 24: 1085–94.

  • Altman S. 1989. Ribonuclease P: An enzyme with a catalytic RNA subunit. Advances in Enzymology and Related Areas of Molecular Biology 62: 1–36.

  • Behe MJ. 1996. Darwin’s Black Box: The Biochemical Challenge to Evolution. New York: The Free Press.

  • Cairns-Smith AG. 1986. Seven Clues to the Origin of Life: A Scientific Detective Story. Cambridge: Cambridge University Press.

  • Camazine S, Deneubourg J-L, Franks NR, Sneyd J, Theraulaz G, Bonabeau E. 2001. Self-Organization in Biological Systems. Princeton (NJ): Princeton University Press.

  • Carlson JM, Doyle J. 2002. Complexity and robustness. Proceedings of the National Academy of Sciences (USA) Supplement 1; 99: 2538–48.

  • Catalano J. Behe’s empty box. 2001. Available on-line at http://www.simonyi.ox.ac.uk/dawkins/WorldOfDawkins-archive/Catalano/box/behe.shtml (link broken). Last accessed October 1, 2006.

  • Coyne JA. 1996. God in the details: The biochemical challenge to evolution. Nature 383: 227–8.

  • Csete ME, Doyle JC. 2002. Reverse engineering of biological complexity. Science 295: 1664–9.

  • Dembski WA. 1998. The Design Inference: Eliminating Chance through Small Probabilities. Cambridge: Cambridge University Press.

  • Dembski WA. 2000. Intelligent design coming clean. Available on-line at http://www.designinference.com/documents/2000.11.ID_coming_clean.htm. Last accessed October 1, 2006.

  • Dembski WA. 2002a No Free Lunch: Why Biological Complexity Cannot Be Purchased without Intelligence. Lanham (MD): Rowman & Littlefield.
    Dembski WA. 2002b Sheer vs real possibilities: A response to Allen Orr. Boston Review. Available on-line at http://new.bostonreview.net/BR27.5/exchange.html. Last accessed August 7, 2006.

  • Dembski WA. 2002c. Naturalism’s argument from invincible ignorance: A response to Howard Van Till. Available on-line at http://www.designinference.com/documents/2002.09.Van_Till_Response.htm. Last accessed August 28, 2006.

  • Dembski WA. 2003. Still spinning just fine: A response to Ken Miller. Available on-line at http://www.designinference.com/documents/2003.02.Miller_Response.htm. Last accessed August 28, 2006.

  • Doolittle RF. 1997. A delicate balance. Boston Review. Available on-line at http://new.bostonreview.net/br22.1/doolittle.html. Last accessed August 7, 2006.

  • Eizinger A, Jungblut B, Sommer RJ. 1999. Evolutionary change in the functional specificity of genes. Trends in Genetics 15: 197–202.

  • Ganfornina MD, Sanchez D. 1999. Generation of evolutionary novelty by functional shift. BioEssays 21: 432–9.

  • Herschlag D, Khosla M, Tsuchihashi Z, Karpel RL. 1994. An RNA chaperone activity of non-specific RNA binding proteins in hammerhead ribozyme catalysis European Molecular Biology Organization Journal 13: 2913–24.

  • Jeon KW. 1991. Amoeba and x-Bacteria: Symbiont acquisition and possible species change. In: Margulis L, Fester R, editors. Symbiosis as a Source of Evolutionary Innovation. Cambridge (MA): The MIT Press. P 118–31.

  • Kauffman SA. 1993. The Origins of Order. New York: Oxford University Press.

  • Kauffman SA. 1995. At Home in the Universe: The Search for the Laws of Self-Organization and Complexity. New York: Oxford University Press.

  • Lindsay D. 2000. How can evolution cause irreducibly complex systems? Available on-line at http://www.don-lindsay-archive.org/creation/evolve_irreducible.html. Last accessed August 28, 2006.

  • Lodish H, Berk A, Matsudaira P, Kaiser CA, Krieger M, Scott MP, Zipursky SL, Darnell J. 2003.Molecular Cell Biology, 5th ed. New York: WH Freeman.

  • Long M. 2001. Evolution of novel genes. Current Opinions in Genetics and Development 11: 673–80.

  • Melendez-Hevia, E, Wadell TG, Cascante M. 1996. The puzzle of the Krebs citric acid cycle: Assembling the pieces of chemically feasible reactions, and opportunism in the design of metabolic pathways during evolution. Journal of Molecular Evolution 43: 293–303.

  • Miller KR. 1999. Finding Darwin’s God. New York: Cliff Street Books.

  • Miller KR. 2003. The flagellum unspun: The collapse of “irreducible complexity”. Available on-line at http://www.millerandlevine.com/km/evol/design2/article.html. Last accessed August 28, 2006.

  • Nelson DL, Cox MM. 2000. Lehninger: Principles of Biochemistry, 3rd ed. New York: Worth.

  • Orr HA. 1996. Darwin v intelligent design (again): The latest attack on evolution is cleverly argued, biologically informed — and wrong. Boston Review. Available on-line at http://new.bostonreview.net/br21.6/orr.html. Last accessed August 7, 2006.

  • Orr HA. 2002. Review of No Free Lunch by William A Dembski. Boston Review. Available on-line at http://bostonreview.net/BR27.3/orr.html (link broken). Last accessed August 7, 2006.

  • Reich C, Olsen GJ, Pace B, Pace NR. 1988. The role of the protein moiety of ribonuclease P, a catalytic ribonucleoprotein. Science 239: 178–81.

  • Robinson K. 1996. Darwin’s black box: Irreducible complexity or irreproducible irreducibility? Available on-line at http://www.talkorigins.org/faqs/behe/review.html. Last accessed August 26, 2006.

  • Robertson MP, Ellington AD. 2001. In vitro selection of nucleoprotein enzymes. Nature Biotechnology 19: 650–5.

  • Schneider TD. 2000. Evolution of biological information. Nucleic Acids Research 28: 2794–9.

  • Schneider TD. 2001a. Rebuttal to William A Dembski’s posting and to his book No Free Lunch. Available on-line at http://www.ccrnp.ncifcrf.gov/~toms/paper/ev/dembski/. Last accessed October 1, 2006.

  • Schneider TD. 2001b. Effect of ties on the evolution of information by the ev program. 2001b. Available on-line at http://www.ccrnp.ncifcrf.gov/~toms/paper/ev/dembski/claimtest.html. Last accessed October 1, 2006.

  • Shanks N, Joplin KH. 1999 Redundant complexity: A critical analysis of intelligent design in biochemistry. Philosophy of Science 66: 268–82.

  • Shanks N, Joplin KH. 2000. Behe, biochemistry, and the invisible hand. Philo. Available on-line at http://www.pdcnet.org/scholarpdf/show?id=philo_2001_0004_0001_0054_0067&pdfname=philo_2001_0004_0001_0054_0067.pdf&file_type=pdf. Last accessed August 28, 2006.

  • Sole R, Goodwin BC. 2000. Signs of Life: How Complexity Pervades Biology. New York: Basic Books.

  • Soukup GA, Breaker RR. 1999. Design of allosteric hammerhead ribozymes activated by ligand-induced structure stabilization. Structure 7: 783–91.

  • Strogatz SH. 2001. Exploring complex networks. Nature 410: 268–76.

  • Thornhill RH, Ussery DW. 2000. A classification of possible routes of Darwinian evolution. The Journal of Theoretical Biology 203: 111–6. True JR, Carroll SB. 2002. Gene co-option in physiological and morphological evolution. Annual Reviews of Cell and Developmental Biology 18: 53–80.

  • Tsuchihashi Z, Khosla M, Herschlag D. 1993. Protein enhancement of hammerhead ribozyme catalysis. Science 262: 99–102.

  • Van Till H. 2002. E coli at the No Free Lunchroom: Bacterial flagella and Dembski’s case for intelligent design. Available on-line at http://www.aaas.org/spp/dser/03_Areas/evolution/perspectives/vantillecoli_2002.pdf. Last accessed October 1, 2006.

  • Wolpert D. 2003. William Dembski’s treatment of the No Free Lunch theorems is written in jello. Available on-line at http://www.talkreason.org/articles/jello.cfm. Last accessed August 28, 2006.

———————————————————-

Sobre o autor:

Finn Pond

Biology Department

Whitworth College

300 W Hawthorne Rd

Spokane WA 99251

fpond@whitworth.edu

Citação do artigo original: Pond, Finn ‘The Evolution of Biological Complexity Reports of the National Center for Science Education, Volume: 26, Issue: 3, May–June, Page(s): 22, 27–31, 2006.

Crédito da imagem: GIF do complexo proteico c-FLIP; Autor: BQUB14-Rmorillas; Fonte: wikimedia commons

Tradução: Rodrigo Véras

“A Culpa É Da Evolução”

No meado de 2015 publiquei um livro digital abordando o comportamento sexual do ser humano do ponto de vista da biologia evolutiva  e  lhe dei o título de “A Culpa é da Evolução” (Editora Saraiva, 2015, ePub). Apesar da complexidade do tema, consegui dissertar por dez capítulos sobre a finalidade da reprodução, sistema de recompensa, evolução do sexo, seleção sexual, infidelidade e outros tópicos concernentes à biologia evolutiva sem enveredar pelo caminho perigoso da “falácia naturalista” tão bem esclarecida por Rachels (1991).

À primeira vista, associar aspectos da sexualidade humana com evolução poderia soar como uma tentativa de reduzir os desvios de conduta moral praticado por homens e mulheres a um “determinismo biológico (ou genético)”, menosprezando até o comportamento monogâmico dos casais que ainda acreditam nos relacionamentos duradouros. Porém, não é esse o objetivo do livro. Aliás, a monogamia entre as espécies de mamíferos constitui uma exceção, posto que apenas entre 3% e 5% dos mamíferos exibem comportamento monogâmico. Quando se fala em monogamia em relação aos humanos, os pesquisadores preferem o termo monogamia serial ou social, uma vez que, neste caso, a monogamia predomina, mas é intercalada por vários episódios de adultérios clandestinos.

A definição de Young e Wang (2004) para monogamia é a seguinte:

uma organização social na qual cada membro de um par apresenta uma afiliação e copulação seletiva (mas não exclusiva), bem como a partilha do ninho, ocorrendo tipicamente também a partilha do cuidado dos filhos.

Contudo, há um consenso em admitir que, pelo menos geneticamente, a espécie humana não foi direcionada para ser monogâmica. De acordo com Fonseca (2010), “muitas sociedades humanas são socialmente monogâmicas, mas relações extraconjugais, entre outros arranjos sociais, fazem com que os humanos não sejam geneticamente monogâmicos.” Segundo o autor, “nesse sentido, somos iguais a muitas aves, que, embora classificadas como monogâmicas antes das análises genéticas, revelaram conter um percentual razoável de filhos gerados por casos extraconjugais.”

A infidelidade é um assunto que sempre despertou curiosidade na comunidade científica, que tradicionalmente busca explicações na biologia evolutiva. Nada mais justo se considerarmos a afirmativa de  Dobzhansky (1967) de que  “nada na biologia faz sentido exceto à luz da evolução.

Ziescht (2014) e seus colaboradores da Universidade de Queensland (Austrália) estudaram a infidelidade sob a perspectiva dos genes e tentaram demonstrar que a genética influencia a possibilidade de pessoas fazerem sexo com parceiros fora de seu relacionamento. Os resultados da pesquisa apontaram que 63% do comportamento infiel dos homens e  40% do  das mulheres podem ser atribuídos à herança genética. No caso das mulheres, os pesquisadores identificaram variações em um gene chamado AVPRIA, o qual estaria associado à produção de arginina vasopressina, um hormônio envolvido na regulação do comportamento social.

Ao considerarmos este estudo estaríamos corroborando o princípio do determinismo biológico ou genético mencionado acima para explicar a questão da infidelidade na espécie humana. Inversamente, o pensamento do professor, psicólogo e mestre em neurociências, Marco M. Calegaro (2001), contribui para desfazer esta ideia, pois segundo ele,

os genes definem tendências, mas são as experiências individuais que, sempre, as modulam. Qualquer gene precisa, para haver a chamada expressão adequada, de determinadas circunstâncias externas, sejam bioquímicas, físicas ou fisiológicas. Portanto, “a propensão genética para a infidelidade não a torna inevitável (os humanos podem perfeitamente controlar este impulso) ou moralmente aceitável. O mesmo raciocínio vale para qualquer tendência com componentes genéticos – não tem qualquer sentido justificar eticamente um padrão de comportamento argumentando que este é o ‘natural’, pois outros critérios devem ser usados para avaliar as consequências de nossos atos.

Ainda segundo o pensamento do Prof. Calegaro

Darwin concebeu a seleção natural como um processo mecânico, sem planejamento antecipado e sem qualquer implicação moral. O certo ou errado, no sentido daquilo que deveria ser, não pode ser deduzido a partir da teoria darwiniana, embora esta teoria possa nos dizer como evoluíram nossos sentimentos morais.

O fato é que, de um modo geral, homens e mulheres aparentemente reagem de maneiras diferentes à infidelidade. Conforme nos diz André Bedendo, da equipe do site Prisma Científico (https://prismacientifico.wordpress.com/2014/03/17/trair-ou-nao-trai…), homens se “incomodam” mais com a infidelidade sexual e as mulheres com a emocional ( se seu parceiro se apaixonou por outra pessoa). Segundo este autor,

“para explicar essas diferenças, ainda sob uma lógica evolutiva, a infidelidade sexual para os homens seria mais perturbadora por ele não saber se de fato o filho é seu, o que faria ele dispensar energia para a criação de filhos de terceiros. Já para as mulheres, a traição emocional traria maior desconforto por achar que seu parceiro está investindo recursos em direção a outra mulher e filhos.”

Em outra parte do livro, abordo a questão da escolha dos parceiros sexuais. Segundo o biólogo evolucionista britânico William D. Hamilton (1936-2000) e colaboradores, citado por Fonseca (2010):

a escolha cuidadosa dos parceiros reprodutivos seria um mecanismo comportamental que permite a seleção de bons genes contra parasitas. O pavão é um exemplo emblemático. Pavões machos, na época reprodutiva, agrupam-se por horas com o único objetivo de exibir para as fêmeas o maravilhoso conjunto de plumas de suas caudas. Como o pavão macho não ajuda nada na criação dos filhos, por que as fêmeas perdem tanto tempo para fazer sua escolha? Segundo Hamilton, apenas machos com bons genes contra parasitas têm condição de apresentar plumas grandes, coloridas e simétricas. Ao escolher o parceiro pela aparência, cuidadosamente, as fêmeas estariam no fundo escolhendo bons genes para serem transmitidos a seus filhos.”

Em um outro capítulo do livro abordo o tema do sucesso reprodutivo e as estratégias sexuais que levam a ele, usando como referência um artigo de Borrione e Lordelo (2005) sobre escolha de parceiros e investimento parental, os quais utilizam os argumentos da polêmica Psicologia Evolutiva (PE). Segundo as autoras, A Teoria da Estratégia Sexual de Buss e Schmitt (1993), a qual é considerada como uma extensão da Teoria de Investimento Parental de Trivers (1972):

possui como principal premissa o conceito de estratégia, que considera o comportamento humano como direcionado para objetivos específicos e para solucionar problemas de acasalamento, oriundos do ambiente evolucionário de adaptação da história humana. A adaptação decorre do contexto, especialmente da natureza das estratégias de acasalamento – curto ou longo prazo. Essas estratégias utilizariam o investimento parental como mecanismo psicológico de escolha de parceiro (a)s.”

Todos esses aspectos são discutidos ao longo do livro, além de outros não mencionados aqui, como as semelhanças em nosso comportamento sexual que compartilhamos com os bonobos (Pan paniscus), os primatas que estão mais geneticamente próximos dos humanos. Os bonobos tiveram um coancestral comum com os humanos a cerca de 8 milhões de anos e possuem entre 98-99,4 % de afinidade genética com o nosso gênero, o que foi confirmado recentemente ao ser concluído o sequenciamento do seu genoma por Prüfer (2012) e colaboradores.

Os bonobos são conhecidos como o único animal (excluindo seres humanos) que usa o sexo não somente para reprodução: bonobos usam o sexo para aliviar as tensões sociais. Assim, as práticas sexuais incluem a masturbação, relações heterossexuais e homossexuais entre fêmeas, entre machos, e uma infindável troca de toques dos mais “ternos” aos mais ousados, inclusive as fêmeas copulando além do período de estro. Manter as relações sociais, cimentar alianças entre fêmeas, reduzir conflitos violentos, apaziguamento de brigas, como ritual quando encontram comida e antes de iniciar a refeição… Enfim, o sexo permeia a vida desses primatas, exatamente da forma que acontece em nossa sociedade.

———————————————- 

Referências:

  • Buss, D. M. & Schmitt, D. P. (1993). Sexual strategies theory: an evolutionary perspective on human mating. Psychological Review 100, 204-232).

  • Calegaro, M. M. (2001). Psicologia e Genética: o que causa o comportamento? Revista Cérebro & Mente, vol.14.

  • Dobzhansky, T. (1964). Biology, Molecular and Organismic, American Zoologist, volume 4, pp 443-452

  • Fonseca, C. R. (2010). Os segredos evolutivos do orgasmo feminino. Ciência Hoje, 273, 20-27

  • Prüfer, K. et Al. ( 2012). The bonobo genome compared with the chimpanzee and human genomes. Nature 486, 527–531

  • Rachels, J. (1991) Created from animals: The moral implications of Darwinism New York: Oxford University Press.

  • Trivers, R. L. (1972). Parental investment and sexual selection. In B. Campbell (Org.), Sexual selection and the descent of man 1871-1971 (pp. 136-207). Chicago: Aldine Publishing Company.

  • Young, L. J., and Z. Wang (2004). “The neurobiology of pair bonding.” Nature neuroscience 7.10: 1048-1054).

  • Tavares de Melo Borrione, Roberta & da Rocha Lordelo, Eulina Escolha de parceiros sexuais e investimento parental: uma perspectiva desenvolvimental Interação em Psicologia, 2005, 9(1), p. 35-43 1

  • Zietsch, B. P. , Westberg,L., Santtila, P, and P. Jern ( 2014). Genetic analysis of human extrapair mating: heritability, between-sex correlation, and receptor genes for vasopressin and oxytocin. Evolution and Human Behavior, Vol. 36, Issue 2, p130–136

Informação, biologia e evolução Parte III

Chegamos à terceira parte da nossa série de posts sobre a teoria da informação e suas aplicações na biologia e especialmente na evolução, que iniciaram-se nos posts anteriores ‘Informação, biologia e evolução: Parte I‘ e “Informação, biologia e evolução Parte II“. Neste novo post continuamos a falar sobre como podemos medir a informação e ganhos nesta quantidade ao longo da evolução por seleção natural.

Esta abordagem permite aos cientistas investigarem a fundo como biomoléculas interagem umas com as outras e como elas ajustam seus estados. Os estados e os padrões das moléculas, desviando das abordagens mais tradicionais da bioquímica, podem ser medidos usando-se o formalismo da teoria da informação molecular. A teoria de informação de Shannon da forma como emprega por Schneider nos permite calcular a informação média nos sítios de ligação de DNA de qualquer proteína associada ao controle genético, como um fator de transcrição, por exemplo. Podendo esta análise ser estendida a investigação de seus sítios de ligação individuais. De fato, uma fórmula equivalente à fórmula de Shannon para a capacidade do canal pode ser utilizada em sistemas biomoleculares, possibilitando que calculemos a eficiência com que a proteína liga-se aos sítios. De acordo com os resultados dos estudos realizados pelo grupo de Schneider, esta eficiência frequentemente está por volta de 70%, sugerindo que estes sistemas evoluíram para funcionar na capacidade do canal. Estes resultados sugerem que devemos poder construir sistemas de comunicação molecular que são tão robustos como seus equivalentes tecnológicos convencionais [1]. Mas como podemos saber disso? Antes de responder esta questão precisamos voltar ao básico da biologia molecular  e compreender como funciona a regulação gênica.

Ligando e desligando genes:

A regulação de um gene requer que uma proteína ligue-se a sítios específicos na sequência de DNA associada a sequência codificadora deste mesmo gene, de modo que sua transcrição seja ativada ou inibida. Lembre-se que existem apenas quatro bases de nucleotídeos no DNA (denominadas A, C, G e T) de modo que os sítios de ligação (ou seja, as regiões nas quais as proteínas regulatórias ligam-se) podem ser representadas pelo padrão destas quatro letras [1].

Um ponto importante é que uma proteína é uma molécula finita. Isso significa que ela pode ligar-se a apenas um segmento de DNA por vez que, normalmente, tem algo em torno de 10 a 20 pares de bases de comprimento. Também é importante compreendermos que o padrão que permite a ligação de uma dada proteína a um sítio não é representado exatamente por uma mesma sequência de bases.  Isso implica que algumas das posições na sequência de nucleotídeos podem variar, ou seja, diferentes nucleotídeos podem ser ali aceitos, sem que isso faça diferença para a função em questão. Claro, outras variações podem estar associadas a funções diferentes ou mesmo a perda de função [1].

O que a teoria da informação permite é medir ‘quanto padrão’ existe em um conjunto de sítios de ligação. Por exemplo, veja o caso da proteína Fis que normalmente existem na faixa de apenas 100 moléculas em uma célula bacteriana em inanição. Porém, basta que a célula encontre nutrientes e este número aumenta para mais de 50.000 moléculas. Essa elevação no numero de moléculas acarreta a alteração da regulação de muitos genes controlados pelas moléculas de Fis. Na Fig. 1 podemos observar vários sítios de ligação da proteína Fis, identificados experimentalmente, todos localizados no comecinho do próprio gene que codifica a proteína Fis  [pdb 3FIS] [1].

Sabemos que quando não há muitas moléculas de Fis na célula, o gene Fis está ativo, induzindo a expressão de mais moléculas Fis. Porém, quando essas moléculas ocupam os sítios de ligação do próprio gene Fis isso induz uma diminuição da expressão da proteína Fis, ou seja, a um processo de retroalimentação (feedback) negativo. A pergunta é ‘Como é que Fis encontra estes sítios no genoma? ‘ [1].

Os logos de sequência:

Vejamos a figura abaixo. Só de olhar podemos perceber que as sequências são todas bastante diferentes umas das outras, mas a região central (ao redor do zero) tem muitas bases A e T, enquanto que a posição -7 é quase sempre um G, enquanto a posição 7 é quase sempre um C.

Na figura acima estão dispostas, umas em cima das outras, as sequências alinhadas (no topo) e e os logos de sequência (em baixo) para os sítios de ligação de DNA da proteína de Fis da bactéria Escherichia coli. A barra de números (‘numbar’) no topo deve ser lida verticalmente. Ela mostra a gama de -10 a 10 para posições em todo o sítio. Abaixo da numbar estão os 6 sítios Fis e suas sequências complementares. Ambas são indicadas, uma vez que ligam-se ao Fis como um dímero. À direita está a informação individual de cada sequência. Os logos de sequência, na parte inferior da figura, mostram a conservação da sequência no conjunto de dados completo, que consiste em 60 sítios Fis e seus complementos. A altura de cada letra (nucleotídeo) é proporcional à frequência da base naquela posição e as letras estão ordenadas. A altura de toda a pilha de letras é a informação, medida em bits. A possível variação da altura devido aos efeitos de pequenas amostras é mostrado pelas barras de erro. O pico da onda senoidal mostra onde o sulco maior do DNA faz interface com a proteína. De acordo com Schneider, isso pode ser usado para inferir alguns aspectos da forma como os contatos entre proteína e DNA se dão [1].

O grupo de Schneider desenvolveu uma maneira de visualizar este tipo de padrão, através dos chamados logos de sequência. Eles mostram que diferentes partes do sítio são conservadas de maneiras distintas. A Teoria da Informação aplicada a biologia molecular permite caracterizar estes sítios com precisão, mas como exatamente isso é feito ? [1].

Medindo a informação (Rsequência e Rfrequência):

Primeiramente sabemos que antes que uma molécula da proteína Fis tenha se ligado ao DNA lá podem estar qualquer uma das quatro bases possíveis em cada posição específica da sequência. Então, lembrando do post anterior e, acompanhando a ideia de Shannon, podemos dizer que a proteína estaria ‘incerta’ em relação a qual base estaria a sua frente em uma quantidade que pode ser medida através do log2 (4) = 2 bits. Porém, assim que a proteína esteja ligada a um sítio para a Fis, a incerteza em relação ao que está ligada será menor; menor em diferentes níveis, dependendo do caso específico. Isso é assim porque as bases variam mais ou menos em diferentes posições. Por exemplo, no caso das posições -7 e +7 quase sempre elas encontrarão as mesmas bases, portanto a incerteza nestas posições será próxima a log2 (1) = 0 bits. Mas aqui é preciso bastante cautela. Isso é apenas uma aproximação. Existem outras bases nessas posições, mesmo que a frequência delas seja bem baixa. Assim, a incerteza não é zero. Felizmente, podemos calcular a incerteza em relação à frequência de símbolos, como mostrou Shannon [1]. Como vimos no post anterior (“Informação, biologia e evolução Parte II“):

onde fb, l são, respectivamente as frequências das bases b ∈ {A, C, G, T} na posição l no alinhamento de sequências [1].

Aqui precisamos tomar vários cuidados. Primeiro de tudo, como não existe um número infinito de sequências, como a teoria de Shannon exigiria, substituímos as probabilidades das bases por suas frequências. De acordo com Schneider, isso demanda uma correção para o tamanho pequeno da amostra [1, 2]. Segundo, a incerteza, que às vezes chamado de “entropia de Shannon”, não é igual a entropia da termodinâmica e por isso este termo não deve ser usado, mesmo porque em um certo momento a entropia termodinâmica entrará na discussão já que ela está envolvida nos processos físico-químicos associados a ligação entre biomoléculas. Terceiro, é preciso que fique claro que a incerteza dada pela Eq. (1) não é a informação, como Schneider sempre enfatiza e como já discuti no post anterior (“Informação, biologia e evolução Parte II“).

Recapitulando. Antes que a molécula de Fis ligar-se ao sítio ela está em algum lugar no DNA genômico e tem 2 bits de incerteza. Porém, logo após a ligação, essa incerteza é reduzida, H(l). Aqui voltamos a outra questão importante, como Shannon percebeu, o receptor de uma mensagem terá menos informação por causa do ruído no sinal, o que faz com que a informação recebida R seja menor do que a incerteza transmitida H(x):

Shannon chamou Hy(x) (a ‘entropia condicional’) de equivocação. Ela mede a ambiguidade média do sinal recebido [1].

De modo semelhante, H(l) é a ambiguidade “observada” pela proteína de ligação ao DNA uma vez que ela tenha se ligado a um sítio, o que faz com que a informação do sítio de ligação seja a incerteza antes da ligação subtraída daquela após a ligação:

Schneider mostra isso ao criar um logo de sequência, ilustrado na parte inferior da figura 1. Nele a Rsequência (l) em todo o sítio de ligação é plotada e esses valores são utilizados para variar as alturas de pilhas de letras que representam a abundância relativa de cada base em cada posição do sítio de ligação. Os logos de sequência são amplamente utilizados em biologia molecular para representar os padrões de DNA, RNA e proteínas. Com a variação de uma parte de um sítio de ligação normalmente é independente das outras partes, podemos somar os valores de informação em todas as posições de um sítio de ligação para encontrar a totalidade da informação do sítio de ligação. Essa é a “área” sob o logo de sequência que é encontrada somando-se as alturas de todas as pilhas de letras [1].

Compreendemos melhor a importância da Rsequência ao compararmos com uma outra medida da informação. Schneider explica que, como em muitos casos (mas não no caso da Fis), o número de sítios de ligação de uma proteína ao genoma é conhecido, o problema enfrentado pela proteína de ligação ao DNA é o de localizar um número de sítios de ligação, γ, tendo em vista todo o comprimento do genoma, medido em pares de base, G. Isso significa, em termos da teoria da informação, que a incerteza antes de acontecer a ligação a um dos sítios é log2 L, enquanto que a incerteza após ter ocorrido a sido ligação é reduzida para log2 γ. Então, como acontece com o cálculo da informação nos sítios de ligação, as informações necessárias para encontrar os sítios de ligação é:

Sítios de ligação naturais têm Rsequências próximas às Rfreqquências. Isso quer dizer que a informação usada dos sítios de ligação é apenas suficiente para localizar os sítios de ligação no genoma. Uma vez que o tamanho do genoma e o número de sítios de ligação são mais ou menos fixados pelo ambiente, a informação nos sítios de ligação, Rsequência, tem de evoluir para o necessário, ou seja, a Rfrequência, o que foi verificado por um modelo de computador chamado Ev. Existe uma versão em Java que pode ser executada em seu próprio computador, disponível aqui. Este incrível resultado foi publicado em 2000 em um artigo da revista científica Nuclear Acid Research [2] e inspirou um vídeo criado pelo usuário cdk007 e que foi agora traduzido por mim e pode ser visto aqui.

O vídeo explica de maneira bem simplificada o que é informação, de acordo com a teoria de Shannon, e como ela pode ser  aplicada à biologia molecular e à evolução, como foi feito no artigo de Schneider [2]. No vídeo, o autor usa algumas convenções diferentes das de Schneider, que eu mantive na versão traduzida. Ao invés de ‘H’ é usado a letra ‘U’ de ‘Uncertainty’ para a entropia de Shannon e ‘I’, de ‘Information’, ao invés de ‘R’.

———————————-

Referências:

  1. Schneider TD. A brief review of molecular information theory. Nano Commun Netw. 2010 Sep;1(3):173-180. doi:  10.1016/j.nancom.2010.09.002

  2. Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. doi: 10.1093/nar/28.14.2794

Como se deu a transição da vida unicelular para a multicelular*?

Este é um dos tópicos mais importantes da moderna biologia evolutiva e, na realidade, insere-se em um domínio bem mais amplo que é o das grandes transições evolutivas. Este tópico também está intimamente relacionado com a evolução da cooperação entre organismos, como já havia comentado em uma resposta anterior. Como afirma Michod, alguns dos principais marcos na diversificação da vida e da evolução da organização hierárquica dos seres vivos são consequências de uma série de transições evolutivas: de genes para redes de genes para a primeira célula; de procariotas para células eucarióticas; de células para organismos multicelulares; de seres com reprodução assexuada para populações sexuadas; e de organismos solitários para os organismos sociais [1].

De uma maneira resumida, tais transições exigem a reorganização da aptidão. Isso quer dizer, a transferência da aptidão do antigo nível individual para o novo nível supraindividual, além da especialização das unidades de nível mais baixo em componentes da aptidão do novo indivíduo de nível superior. Compreender por que (pressões seletivas ambientais) e como (genética, estrutura populacional, fisiologia e desenvolvimento subjacente) as características básicas de um indivíduo evolutivo – i.e. como a hereditariedade da aptidão, a indivisibilidade e a evoluibilidade mudam a sua referência a partir do nível antigo para o novo nível – é um grande desafio [1].

Como abordei em vários artigos para o nosso blog (“Evolução da multicelularidade em laboratório”, “Evolução da multicelularidade em laboratório II”, “Evolução do ciclo reprodutivo multicelular: Lições da evolução experimental!” e a resposta “Multicelularidade com uma ajudinha das bactérias?”.), avanços têm sido alcançados através do estudo experimental da evolução da multicelularidade, onde são usadas espécies de algas da família dos Volvox, leveduras e outros eucariontes unicelulares [1, 2, 3].

Estas diversas linhas de investigação experimentais e comparativas, combinadas com uma compreensão cada vez melhor da dinâmica e evolução dos genomas (e dos componentes moleculares subjacentes a organização celular) nos sugerem que que muitas linhagens devem ter evoluído seguindo mais ou menos o mesmo padrão geral de séries de transformação:

unicelular → colonial → multicelular (→ multicelular complexo).

Existem três abordagens básicas para explicar como este processo de especialização celular aconteceu, que são, em muitos aspectos, complementares. A primeira envolve a evolução da cooperação (versus ‘deserção’). Para cooperarem umas com as outras, as células muitas vezes especializam-se em determinados comportamentos e funções. Particularmente importantes para a evolução das grandes transições evolutivas são as formas onerosas de cooperação (em sentido técnico isso é chamado de ‘altruísmo’), em que há custos para os indivíduos que adotam tais práticas. Essa abordagem implica que o altruísmo exporta a aptidão de um nível mais baixo (os custos de ser altruísta) para um nível mais elevado (os benefícios do altruísmo). Porém, uma vez que a cooperação evolui, abre-se a possibilidade de outra estratégia evolutiva, a ‘deserção’ (o ‘egoísmo’), o que leva a um segundo tipo de hipótese para a evolução de células especializadas, a ‘mediação de conflitos’. Caso as oportunidades de deserção puderem ser reguladas, aumentado a cooperatividade das células, isso resultará em funcionamento mais harmonioso do grupo como um todo [1, 2, 4, 5].

Neste perspectiva, muitas características dos organismos multicelulares podem ser encaradas como ”mediadoras de conflitos”, isto é, adaptações para reduzir conflito e aumentar a cooperação entre as células. Entre essas características destacam-se o alto nível de similaridade genética resultante do desenvolvimento a partir de uma única célula progenitora, taxa de mutação reduzida em virtude da compartimentalização em um núcleo, controle de células egoístas pelo sistema imunológico, controle parental de fenótipo celular, morte celular programada de células (que é modulada por sinais recebidos pelas células vizinhas), tamanho do corpo determinado e a separação precoce entre os tecidos somáticos (soma) e germinativos (germe). Para que estes mediadores de conflito funcionem são necessários diferentes tipos de células especializadas.

A terceira hipótese para a especialização envolve as vantagens da divisão do trabalho e da sinergia que pode originar-se quando as células se especializam em comportamentos e funções omplementares, sendo a divisão mais básica de trabalho nos organismos a entre funções reprodutivas e vegetativas (ou sobrevivência) [1, 2]. Entre as vantagens evolutivas que podem ser obtidas através da multicelularidade – que requer uma cooperação estrita entre as diversas células componentes e o ‘sacrifício’ de sua individualidade – estão a maior eficiência por causa da economia de escala e divisão de trabalho, a diminuição do risco de predação em virtude do tamanho, a possibilidade de maior complexidade comportamental e portanto maior versatilidade e maior espectro na exploração de modos de vida e constituição de nichos. Porém, este processo equivalente a ‘tragédia dos comuns’, fenômeno em que os indivíduos a curto prazo podem ter vantagens muito maiores não contribuindo com o sucesso coletivo e explorando os recursos comuns. Por isso para que a multicelularidade (e a cooperação, de modo mais geral) possa evoluir é preciso que os ‘interesses’ dos indivíduos sejam alinhados e – para o surgimento de seres realmente multicelulares – que estes interesses, eventualmente, sejam transferidos para a entidade mais ampla formada por eles, o que demanda uma série de condições específicas.

Recentemente, dois artigos de revisão [4, 5] ofereceram análises mais abrangentes deste fenômeno que merece serem discutidas e divulgadas. Os artigos são de autoria do biólogo evolutivo especializado em plantas Karl Niklas, da Universidade de Cornell, em NY, e do biólogo do desenvolvimento, Stuart A. Newman, NYMC, também em NY. Os dois pesquisadores investigam principalmente os mecanismos e processos físicos e químicos associados a formação de padrões e a evolução morfológica animal. Nestes artigos, Niklas e Newman exploram as forças motrizes por trás destes eventos como aquelas associadas às restrições físicas e químicas (como as vantagens inerentes à organização multicelular) e as prováveis etapas destas transições, bem como quais fatores ecológicos traduziram-se em pressões seletivas e portanto influenciaram na evolução dos organismos multicelulares. Eles mostram como várias das etapas intermediárias são comuns a muitos grupos, envolvendo mecanismos desenvolvimentais e, possivelmente, pressões seletivas equivalentes, mas não necessariamente sendo instanciadas pelos mesmos componentes físicos e vias bioquímicas, como parece ser o caso da multicelularidades em eucariontes clorofilados como as algas e plantas terrestres. Esta constatação faz bastante sentido já que a seleção natural opera a partir de características funcionais e não diretamente sobre seus mecanismos subjacentes, possibilitando que muitos mecanismos diferentes, em diferentes linhagens, produzam características funcionais equivalentes [4, 5].

Para compreendermos melhor este processo de transição, seus prováveis condicionantes e fatores impulsionadores Niklas e Newman propõem dividir a questão em cinco tópicos: (1) a caracterização dos organismos multicelulares em relação a adesividade intercelular e comunicação célula-célula e célula-ambiente; (2) a compreensão da transição fundamental da aptidão definida ao nível das células individuais para a aptidão definida ao nível de uma entidade verdadeiramente multicelular, ou seja, enfocando a mudança no nível da seleção natural e do ‘alinhamento da aptidão’ e ‘exportação da aptidão’; (3) analisar a transição de organismos multicelulares simples para formas mais complexas de multicelularidade; (4) comparar os estados e polaridades das características entre as diferentes linhagens de algas, plantas, fungos e animais; e, por fim, (5) discutir como a evolução de organismos multicelulares foi instigada por módulos de padronização genéricos, cujas propriedade físicas teriam sido mobilizadas geneticamente por ‘kits de ferramentas’ moleculares [veja mais sobre o assunto em aqui, aqui, aqui e aqui] compartilhados ou exclusivos de cada grupo.

Em cada um dos casos conhecidos (especialmente tendo em vista a teoria da seleção multi-níveis) a multicelularidade em sentido mais restrito evolui por meio da aquisição das capacidades de adesão e comunicação célula-célula. Essas capacidades permitiram a cooperação entre as células e sua eventual especialização, o que demandou aquilo que Niklas chamou de ‘alinhamento da aptidão’ e a ‘exportação da aptidão’ como meios de eliminar os conflitos entre células e, assim, estabelecer um todo organizado e reprodutivamente integrado [4, 5]. Niklas enfatiza que:

“ … a seleção natural age normalmente em características funcionais ao invés de sobre os mecanismos que as geram (“Muitos caminhos levam a Roma”) e que as homologias das sequência do genoma não, invariavelmente, traduzem-se em homologias morfológicas (“Roma não é mais o que era antes).” [5]

Portanto, a evolução independente da multicelularidade pode ser compreendida nesta simples premissa, ou seja, a de que a seleção atua sobre os fenótipos e, portanto, sobre quão bem certas combinações de características funcionam em conjunto:

Em outras palavras, mesmo que as células adiram em conjunto, utilizando diferentes mecanismos, ou através de diferentes vias de desenvolvimento, se os resultados são agregações cooperativas de células que funcionam bem e, portanto, são capazes de sobreviver melhor e, criticamente, produzir mais descendentes do que suas contrapartidas unicelulares, então, estes vários caminhos evolutivos serão todos possíveis.” [5]

Como explica Niklas:

“O ponto crítico é que a evolução dos organismos multicelulares ocorreu múltiplas vezes e envolveu diferentes ‘motivos’ de desenvolvimento, como a química das “colas”, que permitem que as células para ficar juntos.” [5]

Isso fica claro ao analisarmos a questão da adesividade e comunicação célula-célula. No caso dos mecanismos de adesividade e comunicação célula-célula e célula-ambiente fica patente que existe grande variação molecular na forma como estes processos são levados à cabo em cada linhagem. Como explicam Niklas e Newman, a composição da lamela central das paredes celulares das plantas terrestres (as embriófitas), que as mantem juntas, que é dominada por Ca2+þ-rhamnogalacturonanica, é bem distinta quimicamente das proteínas caderinas transmembrana do tipo-1, responsáveis ​pela adesão de células animais, bem como das glicoproteínas produzidas por muitos fungos, que também funcionam como colas e que exercem funções adesivas similares [4, 5]. Outras características estruturais teciduais continuam a exemplificar esta situação, com é o caso das interconexões intercelulares encontradas na alga verde Volvox que, por sua vez, diferem significativamente dos plasmodesmas das embriófitas, das junções comunicantes das células dos vertebrados ou mesmo dos poros septais intercelulares observados nos fungos, que, mesmo assim, fornecem todos caminhos para a comunicação célula-célula [4, 5].

Estas constatações, por outro lado, levaram a sugestão de que, como a adesão e a comunicação célula-célula são requisitos básicos à evolução dos organismos multicelulares, seus elementos básicos já deviam ter estado presentes nos ancestrais unicelulares, mas não, necessariamente, manifestando as mesmas funcionalidades [4, 5]. De acordo com Rokas [6], comparações entre vários pares de espécies multicelulares aparentadas (que evoluíram independente de outras espécies multicelulares) e unicelulares sugerem que as transições para a multicelularidade estiveram tipicamente associadas ao aumento do número de genes envolvidos na adesão, comunicação e diferenciação celular. Uma análise mais aprofundada do registro de DNA sugere que estes aumentos na complexidade genica são o produto de inovação evolutiva, bricolagem e da expansão do material genético (veja também os artigos “A origem de nova informação genética. Parte I” e “A origem de nova informação genética. Parte II”). Além disso, estes estudos, ao permitirem o vislumbre dos prováveis componentes funcionais ​​destes ‘kits de ferramentas’ genéticos que teriam sido necessários paras a existência multicelular, ajudaram também a confirmar a suspeita de que muitos destes genes (ou pelo menos de genes homólogos) já estavam em linhagens unicelulares, uma vez que encontravam-se nos parentes unicelulares remanescentes destas linhagens, o que mostra que, muito provavelmente, já deveriam ter estado presentes nos ancestrais comuns de ambos os grupos [4, 5, 6].

A figura mostra as diversas origens de organismos multicelulares entre os principais grupos de eucariontes através de um diagrama filogenético não enraizado, além de bem simplificado e editado [].

Por meio do diagrama, podemos perceber que, embora algumas linhagens sejam inteiramente unicelulares ou multicelulares, a maioria contém uma mistura das duas formas de organização corporal, exibindo por exemplo espécies unicelulares e coloniais (por exemplo, coanoflagelados) ou uma mistura de organização unicelular, colonial e multicelular (por exemplo, ciliados e Estramenopilas). Um ponto muito interessante é que as chamadas linhagens precocemente divergentes persistentes (PED) são dominadas por espécies unicelulares (por exemplo, Prasinófitas do clado Chlorobionta), enquanto que as linhagens que divergem posteriormente exibem uma mistura de organizações coo das algas clorofíceas e carofíceas. Por fim, as linhagens cheias de espécies que divergiram tardiamente (LDP) tendem a ser exclusivamente multicelulares, como facilmente podemos perceber ao observar as plantas terrestres e os animais [4, 5].

Estes achados chamam a atenção para o fato de que, além dos requisitos mais básicos e óbvios que determinam a multicelularidade (a habilidade das células comunicarem e cooperarem entre si e especializarem em funções distintas umas das outras ou seja não fazendo todas exatamente a mesma coisa), as células não devem rejeitar umas as outras, competindo entre si. Elas devem cooperar “alinhando sua aptidão”, o que pode ser alcançado por meio da compatibilidade genética (como ocorre nos modelos de ‘seleção de parentesco’), mas que também pode ser atingido, muito mais eficazmente, quando isso se dá através da clonalidade. Isso, por sua vez, pode ser conseguido por um simples “gargalo genético”, ou seja, com todas células do agregado multicelular sendo derivadas da mesma célula mãe, o que pode ser obtido pela passagem obrigatória por um estágio unicelular (como ocorre com esporos, zigotos ou propágulos assexuados uninucleados) [1, 2, 4, 5]. Veja mais sobre isso no artigo de nosso blog “Evolução do ciclo reprodutivo multicelular: Lições da evolução experimental!”. Existem, portanto, aqui dois caminhos básicos para a multicelularidade:

O primeiro deles é o caminho por agregação, exemplificado por seres como o Dictiostelium cuja fase multicelular resulta na agregação de várias células individuais distintas (veja por exemplo aqui). O segundo, caracterizado pela não disjunção das células filhas após a divisão celular que é o caminho trilhado pela maioria dos grupos que consideraríamos multicelulares mais típicos, como os fungos, algas (incluindo as plantas terrestres e as algas mais próximas) e animais. A multicelularidade verdadeira depende está associada a este segundo tipo de caminho [1, 2, 4, 5].

Em um segundo estágio, como já mencionado, deve ocorrer a “exportação da aptidão” o que requer que as células trabalhem em conjunto, reproduzindo-se como unidades mais coesas, com os indivíduos atuando em concerto, aumentando a aptidão do todo, o que dá origem a um fenótipo coletivo bem distinto, ou seja, a um organismo multicelular completo.

Além disso, como já comentado anteriormente, muitos destes requisitos adaptativos não são exclusivos da evolução da multicelularidade, mas parecem inerentes a evolução da cooperação nos mais diversos níveis da organização biológica, como fica claro ao analisarmos trabalhos como os de Martin Nowak, os quais já foram abordados em nosso blog. [veja As cinco regras básicas para a evolução da cooperação] Esses trabalhos e ideias também podem nos ajudar a compreender quando esta cooperação é ameaçada, seja por causa de indivíduos trapaceiros ou de células renegadas, como as que produzem tumores e outros tipos de câncer.

Os teóricos da seleção multi-níveis encaram este processo como parte da evolução da ‘individualidade’, onde a aptidão passa a ser transferida para níveis mais amplos de organização o que é muito bem exemplificado pelas transições entre a uni e multicelularidade. Assim, através do alinhamento da aptidão e finalmente de sua exportação, emergem novos níveis de organização que acabam por produzir novas pressões seletivas, enfrentadas agora em um nível de organização mais ampla, ou seja, pelo organismo multicelular como um todo. Neste caso específico [D], portanto, parece claro que uma transição no nível de organização, e portanto dos alvos da seleção natural, parece ter realmente ocorrido**. Um exemplo bem completo de como todo este processo pode ocorrer é propiciado pela análise da evolução da multicelularidade nas algas volvicines, que já comentamos, pelo grupo de Richard Michod [1, 2].

Um desses organismos é alga verde multicelular Volvox carteri. Nela o altruísmo reprodutivo é assumido por cerca de 2000 pequenas células somáticas biflageladas, cujo principal papel é manter a viabilidade do organismo, enquanto a reprodução é desempenhada por até 16 células reprodutivas não flageladas. Os pesquisadores conseguiram determinar que a diferenciação terminal de células somáticas nestes algas depende da expressão de um proteína, codificada pelo gene regA, que exerce uma função regulatória, reprimindo a transcrição de outros genes que codificam proteínas do núcleo e dos cloroplastos, suprimindo o crescimento e reprodução das células somáticas. Como elas não podem mais dividir-se, elas não contribuem diretamente na formação da prole, mas contribuem para a sobrevivência e reprodução da colônia por meio do continuo batimento dos flagelos. Esse é basicamente a expressão de um fenótipo (comportamento) altruísta. O que acarreta que o gene regA, cuja expressão é necessária e suficiente para este comportamento, seja, portanto, um ‘gene altruísta’ [1, 2].

Em V. carteri, quais células expressam regA – e portanto quais diferenciam-se em células somáticas e quais não expressam e tornam-se células reprodutivas – é algo determinado já no início do desenvolvimento. Isso acontece por meio de uma série de divisões celulares assimétricas que garantem que células precursoras da linhagem germinativa permaneçam acima de um tamanho limite que está associado com a expressão de regA. Como esperaríamos, pela teoria da evolução da cooperação, esta característica altruísta é também suscetível a ‘deserção’. Isso pode acontecer através do surgimento de mutantes egoístas, como é exemplificado pelo fato das mutações neste gene resultarem em células somáticas que recuperam suas capacidades reprodutivas e que tem por consequência levar a uma perda das suas capacidades flagelares. Porém, como a motilidade é importante para estas algas – uma vez que elas precisam manterem-se na coluna de água em uma posição ideal em relação à intensidade da luz solar -, a sobrevivência e a reprodução de V. carteri depende da atividade flagelar [1, 2].

Além disso, outros estudos mostram que o esforço reprodutivo aumenta com o tamanho da colônia e que, com o investimento no aumento da reprodução, ocorre um declínio da motilidade. As análises dos mutante regA indicam que estes declínios de força flagelar estão associados ao fato das células somáticas mutantes ‘desdiferenciarem-se’, começando também a se reproduzir. Além disso , durante o desenvolvimento, com o aumento do tamanho das células reprodutivas (apesar da motilidade não se alterar nas espécies de Volvox com menos células), ela pode diminuir consideravelmente nas espécies maiores. Este fato seria devido ao aumento do comprimento dos flagelos, pois como as células aumentam de tamanho, as espécies menores conseguiriam manter sua motilidade, a medida que aumentassem de tamanho durante o desenvolvimento, o que não ocorreria com as as algas maiores, formadas de mais células [1].

Então, seria isso que faz com que a curva, que mostra a relação entre os componentes da aptidão representados pela reprodução e pela sobrevivência, torne-se cada vez mais convexa com o aumento dos tamanhos – o que favorece que as células de grupos maiores tornem-se altruístas reprodutivas. No caso das algas volvocine, as células somáticas beneficiam o grupo tanto pelo reforço a motilidade como pelo aumento de capacidade de mistura do meio circundante, o que permite o transporte mais eficiente de nutrientes e resíduos do que aquele que seria possível por simples difusão [1].

Mas como chegamos a esta situação? Ou seja, como um gene altruísta como regA originou-se?

A resposta está em outro organismo, parente de V. cartieri, a alga unicelular, Chlamydomonas reinhardtii. O ciclo de vida desta alga, plausivelmente, deve ser ser semelhante ao do ancestral comum que ela alga compartilha com V. cartieri. Este ciclo envolve uma fase vegetativa flagelada e móvel. Nesta fase a célula pode crescer em tamanho. Ela é seguida por uma fase na qual o flagelo é absorvido, logo depois acontecendo a divisão celular, que produz duas células filhas. Em C. reinhardtii o gene equivalente a regA pertence a uma família multigênica que compartilha um domínio SAND. Este domínio permite a ligação da proteína codificada pelo gene ao DNA, indicando que este gene, portanto, está envolvido na regulação da transcrição gênica. A ideia portanto é que os genes que controlam características importantes do ciclo vital em C. Reinhardtii (como os diferentes estágios, alocando esforços diferencialmente para reprodução e sobrevivência, dependendo das condições ambientais) possam tornar-se altruístas no contexto de um grupo de células, bastando para isso que eles fossem constitutivamente ligados em algumas células (ou seja, se eles não fossem ativos somente em certas ocasiões) e se as funções vegetativas que eles controlam também beneficiassem o grupo como um todo. E foi exatamente isso que Nedelcu e Michod [citados em 1 e 7] mostram.

O altruísmo reprodutivo na alga multicelular V. carteri evoluiu através da cooptação de um gene de controle do ciclo de vida. A expressão desse gene originalmente, como em C. Reinhardti, no ancestral unicelular de ambas as algas, estava condicionada a pistas ambientais que favoreciam uma estratégia adaptativa que aumentava as chances de sobrevivência imediatas, a um custo temporário da reprodução. Porém, ao mudar seu padrão de expressão temporal (originalmente induzido ambientalmente) para um padrão constitutivo, em um dado contexto espacial, este gene teria passado a codificar um fenótipo altruísta [1, 2].

No gráfico à esquerda [retirado de 1], podemos ver os compromissos (trade offs) entre a viabilidade (v) representada no eixo y e a reprodução (b), no eixo x. Em A podemos perceber que curva muda de côncava para uma curva convexa conforme aumenta o tamanho do grupo.

No esquema abaixo [retirado de 1] podemos ver a mudança no padrão de expressão de um gene de controle do ciclo de temporal para espacial. A expressão do gene é indicada pelas setas espessas, enquanto o efeito sobre a aptidão quando o gene está ligado é mostrado em verde e, o efeito sobre a aptidão quando o gene está desligado, em vermelho. (A) Em um indivíduo unicelular, o gene é expresso em resposta a uma pista ambiental em um contexto temporal, tendo o efeito de aumentar sua sobrevivência, enquanto diminui o investimento em reprodução. (B) O mesmo gene é expresso num contexto espacial dentro de um indivíduo multicelular em resposta a um sinal do desenvolvimento, fazendo que várias células de algumas regiões assumam o fenótipo altruísta. As células em que o gene é expresso aumentam o investimento na sobrevivência e diminuem o esforço na reprodução [1].

Como podemos perceber, mesmo não tendo ainda uma compreensão mais aprofundada sobre a evolução da multicelularidade e das grandes transições, temos progredido bastante no entendimento desta questão e muitas linhas de investigação empíricas e teóricas têm nos ajudado a avançar nesta assunto.

———————————————–

*Direto do tumblr “Pergunte ao Evolucionismo

**Embora nada impeça que este processo seja modelado pelas ferramentas analíticas da seleção de parentesco e da aptidão inclusiva. Veja a discussão de Samir Okasha sobre o assunto, especialmente seu tratamento do modelo de Michod [8].

——————————-

Literatura Recomendada:

  1. Michod, R.E. 2007. Evolution of individuality during the transition from unicellular to multicellular life. PNAS, USA. 104: 8613-8618. (PDF)

  2. Michod, R. E. and Roze, D. 1999. Cooperation and conflict in the evolution of individuality. III. Transitions in the unit of fitness. Pages 47-91 in Mathematical and Computational Biology: Computational Morphogenesis, Hierarchical Complexity, and Digital Evolution, edited by C.L. Nehaniv. Lectures on Mathematics in the Life Sciences, vol. 26. American Mathematical Society. (PDF)

  3. Miller, S. M. Volvox, Chlamydomonas, and the Evolution of Multicellularity. Nature Education 3(9):65, 2010.

  4. Niklas KJ, Newman SA. The origins of multicellular organisms. Evol Dev. Jan;15(1):41-52, 2-013. doi: 10.1111/ede.12013.

  5. Niklas, Karl J.. The evolutionary-developmental origins of multicellularity. American Journal of Botany 101(1):6-25, 2014. doi:10.3732/ajb.1300314

  6. Rokas A. The molecular origins of multicellular transitions. Curr Opin Genet Dev. Dec;18(6):472-8, 2008. doi: 10.1016/j.gde.2008.09.004.

  7. Michod RE, Nedelcu AM. On the reorganization of fitness during evolutionary transitions in individuality. Integr Comp Biol. 2003 Feb;43(1):64-73. doi:10.1093/icb/43.1.64.

  8. Okasha, S. ‘Multilevel Selection and the Major Transitions in Evolution’, Philosophy of Science 72, 1013-1028, 2005.

  9. King N. The unicellular ancestry of animal development. Dev Cell. Sep;7(3):313-25,  2004. DOI:http://dx.doi.org/10.1016/j.devcel.2004.08.010