A Crítica de Darwin ao Argumento Teleológico de Paley

Do início da filosofia até aos dias atuais, esta questão tem constantemente permeado os debates filosóficos: Deus existe? Ao longo da história, foram propostos argumentos com o intuito de demonstrar racionalmente a existência de Deus. Podem-se dividir, para efeitos práticos, tais argumentos em quatro tipos, a saber: ontológico, cosmológico, kalam e teleológico. Apenas esse último será tratado neste texto.

O argumento teleológico ou argumento do desígnio foi apresentado de diversos modos no decorrer do tempo, sendo bastante famosa a Quinta via de Tomás de Aquino e a própria versão de Paley, que será abordada logo abaixo. Apesar das diferenças, pode-se dizer que esse argumento tenta demonstrar que a natureza foi planejada com algum tipo de propósito ou finalidade (daí o nome teleológico), já que quando a contemplamos encontramos sinais nítidos de desígnio.

Os organismos biológicos, especificamente, aparentam em máximo grau terem sido planejados, haja vista a intricada complexidade biológica de seus corpos. No que se segue, apresentarei dois modos distintos de explicar o desenho e a complexidade biológica, a primeira delas invoca um Deus pessoal onipotente, onisciente, onipresente, eterno e sumamente bom (seção 2), enquanto a outra explicação prescinde de um Planejador sobrenatural e se baseia tão-somente em um processo cego sem qualquer tipo de antevisão (seção 3). Pretendo mostrar que essa última explica adequadamente a complexa estrutura biológica do olho ao mesmo tempo em que demonstro que não há qualquer evidência de planejamento inteligente desse órgão (seção 4).

——————————————

Fonte: Artigo originalmente publicado como o 3º capitulo (pp. 84-108) do livro Filosofia, Religião e Secularização, organizado por Antonio Glaudenir Brasil Maia e Geovani Paulino Oliveira (Porto Alegre: Editora Fi, 2015). Para acessar o artigo completoclique aqui.. Reproduzido também no Blog do Núcleo de Estudos de Filosofia Analítica (NEFA).

Darwin Matou Deus?

Essa é a pergunta que faz Conor Cunningham em seu documentário“Did Darwin Kill God?” produzido pela BBC. Formado em direito, filosofia e teologia, Cunningham discorre sobre a dicotomia que existe entre possuir uma crença ou aceitar a evolução. Mas será que a formulação da teoria da evolução proposto pelo naturalista inglês Charles Darwin (1809-1882) e descrita em sua obra prima de 1859, A Origem das Espécies extinguiu qualquer possibilidade de se manter uma crença ou fé? Teria Darwin, de fato, matado Deus? O biólogo Henrique Rufo fez uma análise do documentário de Cunningham para o site Evolution Academy e chegou à conclusões interessantes.

A batalha é ferrenha. As questões religiosas sempre permearam as discussões científicas, tornando-se objeto de muita polêmica entre cientistas renomados, mas nenhuma prevaleceu tanto como as de oposição ao darwinismo.

“De um lado encontram-se os fundamentalistas religiosos que fazem uma interpretação literal da bíblia e que incentivam seus fiéis a rejeitarem a teoria da evolução e a buscarem explicações alternativas (não-científicas), como o criacionismo. Do outro lado estão grupos de ateus que afirmam que ao entender o mundo sob à luz da evolução não sobra espaço para a crença na existência de Deus ou deuses. O objetivo de Conor é tentar entender onde uma pessoa como ele, um cristão que rejeita o criacionismo e o design inteligente, e um admirador de Darwin e de seu trabalho, se encaixa nessa história”.

Diz Rufo em sua análise:

“Apesar da teoria da evolução já ser bem consolidada, apoiada por uma gama de evidências e ser uma das teorias mais importantes para a ciência, existem aqueles que se dedicam a negar a sua veracidade. Essa onda de negação é enaltecida por fundamentalistas religiosos e pseudocientistas, e que de certa forma acaba por atingir o público cientificamente leigo, espalhando desinformação. O criacionismo é o principal opositor as ideias de Darwin. Sua base está em uma interpretação literal da bíblia sagrada, que seria a fonte de toda a verdade. Esses literalistas bíblicos enxergam nas escrituras um relato histórico, não havendo espaço para interpretações alegóricas”.

Em outro trecho de sua análise, Rufo esclarece:

“Darwin veio propor que todos os seres vivos no planeta, incluindo os seres humanos, descendiam de um ancestral comum. E que a origem de novas espécies se dava por um processo natural, que ele chamou de descendência com modificação. Contrário às ideias fixistas de alguns esse modelo apresentado por Darwin gerou repulsa naqueles que defendiam que as espécies eram estáticas, não sofriam mudanças e se mantinham iguais desde que surgiram na Terra. Objeções as ideias de Darwin vieram de vários cantos, algumas delas tinham cunho científico e propunham discutir as premissas e os mecanismos propostos por Darwin. A rejeição completa dessas ideias era, em sua maioria, originária de grupos de religiosos fervorosos, fixistas e partidários do criacionismo. Porém, uma nova interpretação do mundo também viria a rivalizar com o darwinismo, pois suas premissas negavam a possibilidade da vida se desenvolver naturalmente. Era necessário um agente externo para orquestrar as coisas, que Conor classifica como uma nova concepção de Deus.

Essa nova concepção de Deus foi ganhando popularidade ao longo da revolução industrial, onde a sociedade estava imersa nas maquinas e suas engrenagens, a ideia de um Deus mecânico. Seu principal proponente foi William Paley, teólogo que viveu antes de Darwin, e através de seu livro Natural Theology lançou a famosa analogia do relógio. Paley propunha que, como um relógio composto de partes complexas, todas necessárias para o relógio funcionar, o mesmo se dava com os seres vivos.”

“Se Darwin chegou a matar algum Deus, esse foi o Deus de Paley”, diz Rufo.

“Com a apresentação de sua teoria, Darwin demonstrou que a natureza era regida por um processo natural, sem a necessidade de um agente externo, a seleção natural. Posteriormente com redescoberta dos trabalhos de Mendel e sua fusão com as ideias de Darwin, que culminou no que foi chamado de teoria sintética da evolução, o Deus de Paley tornou-se obsoleto. Só que de certa forma suas ideias permanecem vivas até hoje. Como os criacionistas começaram a enfrentar dificuldades para inserir o criacionismo nas aulas de ciência devido seu alto teor religioso, foi articulada uma reciclagem dos pensamentos de Paley, o que deu origem ao movimento do Design Inteligente (D.I.).”

“O movimento D.I. deu uma nova roupagem ao criacionismo, na tentativa de fazer parecê-lo mais científico, mas essa estratégia abriu as portas para ser utilizada também por ufólogos e raelianos. A ideia de um agente externo comandando a evolução pode satisfazer tanto os criacionistas, dando ao agente a identidade de uma divindade, quanto a qualquer outro movimento cuja a identidade do “Designer” podem ser múltiplos deuses, extraterrestres, criaturas cósmicas e etc. Ou seja, um antro de pseudociência”.

Mais adiante em sua análise, Henrique Rufo transcreve as palavras do professor Conor sobre o design inteligente:

Cientistas de todo o planeta o rejeitam. Mas, para mim, seu maior problema é o que diz sobre Deus. O design inteligente descreve um Deus que intervém no desenvolvimento da vida, criando avanços ao longo do caminho. Mas se esse é o caso, por que esse Deus não intervém e impede o abuso infantil, a fome e o genocídio? O Deus do design inteligente é um mecânico sobrenatural que é extremamente bom em fazer coisas, mas que parece falhar inteiramente no plano moral.”

“Ao rejeitar essas vertentes tanto no meio científico quanto em seu teor teológico, a visão de Cunningham se assemelha bastante a do geneticista Francis Collins, o que me faz deduzir que ele seja um evolucionista teísta.

Após sua crítica a divindade propagada pelo design inteligente Conor Cunningham esclarece a sua visão de Deus:

‘Para mim, Deus é a fonte da dádiva da vida, de toda a vida. Deus é aquele no qual vivemos, movemos e existimos. E é isto que a tradição cristã nos ensina. Deus é a própria existência. Ele é o criador do tempo. Portanto, não consigo ver nenhum conflito filosófico entre crer em Deus como o criador e nossa compreensão da evolução como o processo pelo qual Deus permite o desdobramento da vida.’

————————————

Assista aqui a versão legendada do documentário completo de Cunningham “Did Darwin Kill God?” (Darwin Matou Deus?)

————————-

Referências:

  • Rufo, Henrique ‘Darwin matou Deus? Uma análise do documentário “Did Darwin Kill God?” ‘Evolutionary Academy, 11 de agosto, 2015 [link].

—————————–

Para saber mais sobre o argumento de Paley e porque ele fracassa, veja o artigo de Maxwell Morais de Lima Filho,  cuja introdução pode ser encontrada aqui, no evolucionismo, e cujo artigo completo pode ser achado aqui neste link

O preço da inteligência?

Novas análises genéticas sugerem que seis genes associados a conectividade cerebral teriam evoluído  via seleção natural há algumas dezenas (ou há algumas poucas centenas) de milhares de anos. Como estes genes estão relacionados a função cerebral, os pesquisadores responsáveis pelo trabalho propuseram que estes eventos de seleção podem ter contribuído para o aumento da inteligência em nossa espécie, principalmente porque os eventos de seleção datam do período aproximado quando os seres humanos anatomicamente modernos originaram-se e até um pouco antes, antes da separação dos nossos ancestrais dos Neandertais [1]. Contudo, talvez a descoberta mais surpreendente seja o fato destes genes estarem também associados ao mal de Alzheimer. Os autores do estudo (que ainda não foi publicado em um periódico científico, tendo sido disponibilizado em um arquivo on-line chamado de BioRxiv que é mantido pelo laboratório Cold Spring Harbor) especulam que a doença poderia ser uma consequência das dificuldades do cérebro humano envelhecido em lidar com as maiores demandas metabólicas ligadas a melhor performance cognitiva na infância, juventude e vida adulta dos seres humanos, produzidas por estas novas variantes gênicas que teriam sido positivamente selecionadas neste período [1, 2].

Mesmo os melhores e mais poderosos métodos de análise de dados genômicos em escala são limitados pelos caprichos da história das populações, como explica Nala Rogers, em um comentário sobre o novo trabalho [2]. Como os Asiáticos e Europeus descendem de um pequeno número de pessoas que deixaram a África cerca de 60 mil anos atrás, passando por um gargalo populacional, muitos dos padrões de variação genética anteriores devem ter sido simplesmente apagados nestas populações e é aí que os genomas dos povos Africanos entram na história [2]. Os genomas dos indivíduos dessas populações permitem que os cientistas ‘recuemmuito mais no tempo. Eles fornecem informações fundamentais sobre as mudanças evolutivas pelas quais nossa espécie tem passado [2].

Com este intuito, os pesquisadores examinaram os genomas de 90 pessoas de ascendência Africana (Iorubás de Ibadan, Nigeria, YRI), Asiática (Han de Beijing, China, CHB) ou Europeia (residentes de Utah, EUA, CEU) [veja aqui], procurando padrões de variação que teriam ocorrido em virtude de mudanças no tamanho da população e da ação da seleção natural [2].

Porém, este estudo também é importante pelo método que emprega, desenvolvido pelos autores da pesquisa [1]. A nova abordagem baseada na teoria do coalescente consegue identificar e diferenciar regiões genômicas que teriam evoluído de maneira neutra ou sob influência da seleção natural positiva, balanceadora ou negativa, além de ser capaz de estimar os períodos de tempo em que os eventos de seleção teriam ocorrido [1, 2]. O método amplia o rastreamento destes eventos até 500.000 anos, portanto, chegando ao surgimento dos seres humanos anatomicamente modernos. Algo bastante impressionante tendo em vista que os outros métodos disponíveis até o momento nos permitem recuar, no máximo, até apenas 30 mil anos atrás [2].

O método proposto por Hang Zhou e seus colaboradores estima os tamanhos das populações ancestrais e utiliza essas estimativas para diferenciar se certos tipos de modificação na variabilidade das sequências dos genes estão associadas a simples expansão das populacionais, que ocorre após reduções drásticas nas populações (efeito gargalo de garrafa), ou se teriam sido produzidos como efeito da seleção natural favorecendo os indivíduos com essas variantes [1, 2]. Para controlar os efeitos dessas variações populacionais (e assim isolar as assinaturas da seleção natural) os pesquisadores estimaram como  os tamanhos populacionais mudaram ao longo do tempo e, em seguida, identificaram porções do genoma que não correspondiam a história demográfica de cada população, revelando, desta maneira, as sequências de DNA que foram provavelmente amplificadas por meio da seleção natural [2]. Estas estimativas foram ainda apoiadas por análises das sequências do genoma de três seres humanos anatomicamente modernos antigos* e dos neandertais [1, 2]. Embora o método ainda precise ser melhor investigado e testado, ele é promissor já que amplia nossa capacidade de identificar as regiões genômicas que podem ter sido alvo da seleção natural [2]. Assim, a partir da concordância geral entre as estimativas de tempo de seleção e as evidências das amostras de DNA antigas (aDNA), os pesquisadores foram capazes de montar uma linha de tempo geral global da evolução adaptativa no genoma humano, calcada nos sinais de seleção natural positiva (PS), nos três genomas de seres humanos modernos ancestrais (AMH) e no genoma de consenso dos neandertais [1].

Logo acima podem ser observados os sinais de seleção positiva (PS) em seres humanos. Cada um dos pontos representa um sinal candidato a PS. Os genes que podem ser incluídos em categorias funcionalmente relevantes para a evolução humana estão marcados com cores e formas distintas. Em (A) são mostrados os eventos da PS. Estes efeitos são marcados ao longo de uma escala de tempo mais ampla, para todas as três populações. Uma história aproximada simplificada das populações foi construída tendo como base as trajetórias demográficas estimadas e as evidências conhecidas. Elas foram plotadas como um gráfico com fundo azul claro. As barras de erro ilustram os desvios-padrão das estimativas de tempo de acordo com simulações para 0, 5.; 2; 4; 8 e 16 kilogerações (Kga). Os sinais antigos (≥ 1.900 gerações) em YRI foram classificados como ‘Nean-like’, ‘aEA-like’ e ‘aYRI-rest’, comparando com a aEA. As regiões Parn, AUTS2, SORL1 e SNCA mostram um padrão de expressão específico em seres humanos em regiões do cérebro. As imagens do esqueleto dos quatro indivíduos antigos/arcaicos foram adotadas a partir dos artigos citados na bibliografia do artigo do BioRxiv e foram posicionados nas coordenadas espaço-temporais que acreditamos em que os seres humanos dos quais eles faziam parte teriam vivido. H: Humano; C: Chimpanzé; R: macaco rhesus; PFC: córtex pré-frontal; CBC: córtex cerebelo. (B) Os sinais em CEU foram ilustrados em escala de tempo mais precisa para 4 grupos: aFM-like, aHG-like, aFM-aHG comuns e ‘CEU-rest’ [1].

Mas vamos dar uma olhada um pouco mais minuciosa neste novo estudo. Os pesquisadores primeiramente identificaram 117 regiões entre os indivíduos de ascendência Europeia, 230 entre os Asiáticos e 485 entre os Africanos que mostravam sinais de terem evoluído sob a seleção positiva, totalizando cerca de 1,13% a 2,94% do genoma. Entre as regiões que mostravam sinais de seleção (através da análise de enriquecimento funcional) destacaram-se aquelas que continham genes expressos no cérebro e no esperma. Nos genomas dos indivíduos de ancestralidade Europeia e Africana genes expressos na glândula pituitária também mostraram-se particularmente enriquecidos. Também foi observada uma maior proporção de genes expressos no apêndice nos genomas dos indivíduos Asiáticos e Africanos. Além disso, os resultados revelaram outras categorias interessantes, incluindo genes associados ao metabolismo do álcool em Asiáticos e genes expressos nas raízes do cabelo, nas amostras de indivíduos de origem Europeia [1].

De acordo com os pesquisadores, os sinais de seleção concentram-se fortemente entre 0,5-1,8 Kga (ou seja, entre 12500-45000 anos) nas populações de origem Europeia e Asiática, correspondendo a um período de migração, fundação populacional e de origem da agricultura. Nestes mesmos genomas foi constada a ausência de sinais com mais 50.000 anos (2 Kga). Segundo os autores, isso pode ser atribuído às drásticas reduções (gargalos) populacionais que podem ter apagado as informações mais antigas de coalescência. Não surpreendentemente, os sinais nos genomas dos indivíduos de origem Africana espalham-se por um intervalo de tempo muito maior, de 250 ga-27 Kga – ou seja, entre 6 mil anos e700 mil anos atrás. Isso acontece possivelmente devido a gargalos populacionais muito menos drásticos ocorridos durante a história das populações africanas [1]. Porém, os resultados que chamaram mais a atenção da mídia envolvem a identificação de genes que são expressos no cérebro humano. Entre estes genes destacam alguns em particular: SPON1, MAPT, SORL1, ELAVL4, SNCA e SHC3.

O gene SPON1 codifica uma proteína da matriz extracelular multidomínio que desempenha um papel importante no encontro dos caminhos dos axônios e no desenvolvimento cortical inicial. Esta proteína liga-se à proteína precursora da amiloide (APP) e inibe a sua clivagem pela β-secretase, o que desempenha um papel central na patogênese da doença de Alzheimer (DA). Nesta doença a clivagem não controlada da APP resulta na acumulação do Aβ-peptídio neurotóxico. A MAPT codifica a proteína tau que monta e estabiliza o arcabouço de microtúbulos dos neurônios. A agregação não específica da proteína tau é a marca de Doença de Alzheimer. A SORL1 codificante uma proteína receptora endocítica neuronal que regula a reciclagem da APP da superfície dos neurônios. A ELAVL4 codifica a HuD, uma proteína de ligação (neurônio-específica) ao RNA que, por sua vez, regula a ativação espaço-temporal dos mRNAs neuronais, afetando o desenvolvimento e a plasticidade neuronal. Esta proteína tem um impacto na aprendizagem e na formação de memória. O SNCA codifica a proteína α-sinucleína que tem um papel importante na libertação de neurotransmissores e portanto na comunicação entre neurônios, além de estar associada também ao mal de Alzheimer. E, finalmente, o gene SHC3. Este gene é quase exclusivamente expresso no cérebro, sendo altamente expresso no córtex cerebral e nos lobos frontal e temporal. Este gene regula a sobrevivência neuronal, além de proteger o SNC contra estressores ambientais [1]. Toda essas proteínas codificadas por estes genes interagem intimamente umas com as outras em uma sub-rede associada ao mal de Alzheimer, que podemos ver na figura a seguir [1]. 

Acima podemos ver uma sub-rede de interação proteína-proteína cujos genes que as codificam estão relacionadas a atividade do cérebro. Os genes marcados em vermelho são os genes candidatos a terem evoluído sob seleção positiva no passado [1].

Enquanto o trabalho é devidamente revisado e publicado e o método melhor testado, só nos resta especular. Caso estas descobertas se confirmem e as análises mostrem sólidas, estes resultados podem significar que o preço pago pela evolução de nossa inteligência pode ter sido a suscetibilidade a uma doença tão devastadora como o mal de Alzheimer. Em uma perspectiva evolutiva, isso faz bastante sentido. Como este tipo de doença neurodegenerativa afeta basicamente as pessoas mais velhas (bem depois do seu auge reprodutível), seus efeitos nefastos acabam ficando ‘escondidos’ da seleção natural, permitindo que esta doença seja tão comum em nossa espécie.

——————————————-

*Foram utilizados os genomas de três seres humanos antigos que haviam sido analisados em estudos anteriores, um deles de cerca de 45000 anos de um homem encontrado no oeste da sibéria, representando um Eurasiano (aEA), outro de cerca de 7000 anos, de um fazendeiro Europeu (aFM); e um terceiro, com aproximadamente 8000 anos, de um caçador-coletor Europeu (aHG) [1].

_______________________

Referências:

  1. Zhou, H., Hu, S., Matveev, R., Yu, Q., Li, J., Khaitovich, P., Jin, L., Lachmann, M., Stoneking, M., Fu, Q., & Tang, K. (2015). A chronological atlas of natural selection in the human genome during the past half-million years. bioRxiv, (pp. 018929+). http://dx.doi.org/10.1101/018929

  2. Rogers, Nala Alzheimer’s origins tied to rise of human intelligence Nature, 21 May, 2015 doi:10.1038/nature.2015.17589

Crédito das Figuras:

ANDRZEJ WOJCICKI/SCIENCE PHOTO LIBRARY

ALFRED PASIEKA/SCIENCE PHOTO LIBRARY

Quando a galinha torce o hallux!

Quando pensamos na evolução das inovações das morfologias dos organismos multicelulares, como plantas, animais e fungos, muitos de nós talvez tenhamos a tendência de nos concentrar apenas nas mutações, ou seja, em alterações do DNA que modificam as sequências codificadoras de genes específicos ou as sequências regulatórias que controlam o seu padrão de expressão. Porém, como já comentei em outras oportunidades, essa é apenas uma parte da história [É a evolução genética previsível? Parte I‘, É a evolução genética previsível? Parte II ou Além da genética parte I, De determinantes ‘genéricos’ aos ‘genéticos’: A importância da física nos primódios da evolução animal.‘, ‘Viva Turing de novo, mais pistas sobre a evolução dos membros em vertebrados]. A mera mudança de um ou mesmo de vários genes (ou do seus padrões expressão) não explica completamente como as inovações morfológicas surgem. Para entender realmente como isso acontece precisamos compreender como essas mudanças afetam o desenvolvimento dos organismos, especialmente seu desenvolvimento embrionário.

Por exemplo, as mutações podem simplesmente modificar a forma como as células comunicam-se umas com as outras, o que pode acontecer por intermédio de alterações dos sinais químicos que as células trocam entre si. Alguns desses sinais químicos, como as secreções hormonais, agem a longas distâncias de onde são produzidos, outros, como as secreções parácrinas, atuam nas células vizinhas e outras, como as autócrinas, atuam nas próprias células secretoras. Esses tipos de interação podem por sua vez produzir gradientes químicos e criar ‘loops’ ou alças de retroalimentação positiva ou negativa que, basicamente, são formas de, respectivamente, amplificar ou autolimitar esses sinais e, desta maneira, controlar os processos desencadeados por eles.  Em outras situações, mutações mudam o jeito como as células ‘interpretam’ esses sinais ao alterarem proteínas receptores (de membrana, nucleares ou citoplasmáticas) ou as proteínas que participam das cascatas de transdução de sinal. Essas mutações, portanto, alteram como as redes de interações entre as proteínas, seus produtos diretos e os genes funcionam, podendo promover mudanças metabólicas, no estado de ativação das proteínas e nos padrões de transcrição dos genes. Por fim, outros tipos de mutações podem alterar as propriedades e o arranjo do citoesqueleto ou das proteína que funcionam como junções entre as células imediatamente mais próximas e entre as células e a matriz extra-celular, onde elas estão inseridas. Essas últimas alterações podem produzir mudanças no balanço das forças mecânicas e induzir deslocamentos, adelgaçamentos, dobras e outras modificações nas formas dos tecidos.

No que refere-se a evolução morfológica, o que as mutações faze, portanto, é mudar a forma como as células, tecidos e o embrião, como um todo, comportam-se. Isso pode ser o resultado de alterações nas taxas de proliferação (ou de morte celular programada), na direção e velocidade de movimento e no tipo e intensidade das forças de adesão entre elas. Então, são essas mudanças ao nível celular e tecidual que, ao alterarem a dinâmica e a intensidade das forças físicas e das interações químicas entre as células (e os tecidos e a matriz extracelular) é que acabam dando origem a novas morfologias, que emergem ao longo da evolução. Uma vez que nos damos conta de todas essas complexas cadeias causais de eventos e dessas relações espaciais e temporais, percebemos que o papel dos genes pode ser bastante indireto e por isso facilmente nos escapar. É exatamente isso que mostra um trabalho do pesquisador brasileiro João Francisco Botelho, da Universidade do Chile, realizado em colaboração com outros cientistas, que foi publicado na revista Science Reports [1]. O artigo mostra como uma característica morfológica muito importante das aves – que inclusive as diferenciam dos seus parentes dinossauros terópodes já extintos – depende, para que seja produzida durante o desenvolvimento, da atividade da musculatura embrionária e sugere como essa peculiaridade pode ter resultado em sua evolução [1, 2].

As aves atualmente existentes possuem um dedo opositor (dedo 1 ou D1), o hálux, em suas patas. Esta estrutura é considerada uma importante inovação evolutiva em comparação ao que podemos observar nos fósseis de formas ancestrais, ou seja, nos dinossauros terópodes não-avianos. A configuração deste dedo permite às aves agarrarem e empoleirarem-se com suas patas. Em contrastaste, nos dinossauros terópodes não-avianos o dedo equivalente em suas patas posteriores é bem menor e não oponível. Na verdade, este dedo, nos dinossauros, nem ao menos toca o chão, parecendo mais os dedos extras (ou ‘dewclaws‘) presentes nos cães e gatos [veja a figura ao lado e abaixo] [2]. Porém, o desenvolvimento embrionário das aves nos fornece algumas pistas da história evolutiva desta estrutura.

Como explicam Botelho e colaboradores [1], as patas traseiras dos primeiros dinossauros, como o Herrerassauro, exibiam uma configuração diferente, com quatro dígitos funcionais; todos eles articulam-se com o tornozelo (tarso), como mostra a figura abaixo (1a) retirada do artigo da Science Reports. Porém, já a partir de dinossauros tetanuranos (um subgrupo dos dinossauros terópodes) primitivos, como os Alossauro, e até em seus descendentes modernos, as aves, o hallux não articula-se com o tarso, mas com o seu metatarso (Mt1), que sofreu um afilamento proximal na forma de lágrima que cria uma articulação sinovial que não é rígida com metatarso 2 (Mt2), como mostrado em 1b. Porém, diferentemente do que vemos nas aves modernas, nos primeiros tetanuranos, o primeiro dedo (D1) não é um digito opositor (fig. 1b, c). As aves, entretanto, logo no começo de sua evolução, evoluíram um configuração diferente do hálux, que nelas passou a opor-se aos outros dedos, como vemos em 1d. Porém, talvez o mais interessante é que ao observamos o desenvolvimento embrionário das aves, conseguimos vislumbrar parcialmente esta transição [1].

Nos embriões das aves, o D1 começa seu desenvolvimento de maneira bem similar ao padrão encontrado nos fósseis dos dinossauros terópodes [2]. Mas logo em seguida, a sua base, o metatarso, sofre uma torção e é isso que faz com que ele assuma sua configuração opositora. Botelho já havia observado que essa torção ocorria logo após a musculatura embrionária do D1 estabelecer-se em seu local [2]. Além disso, os pesquisadores também sabiam que o início do movimento do dedo do pé coincidia com a torção da sua base [2].

Os pesquisadores mostraram também que os genes responsáveis pela maturação do tecido cartilaginoso eram expressos em um estágio muito mais tardio do que ocorria nos outros dedos [1, 2]. Isso significa que ele mantém muitas células-tronco que dividem-se rapidamente e continuam fazendo isso por um período muito mais longo do que ocorre nos outros dedos [2]. Como este tecido cartilaginoso imaturo é muito plástico, ele pode facilmente ser deformado ou transformado pela atividade muscular. Para confirmar isso, Botelho e seus colaboradores decidiram bloquear a atividade muscular logo antes que a torção do dedo começasse no embrião. Ao utilizar nesses embriões em desenvolvimento o agente farmacológico brometo de decametónio, que tem um efeito paralisante sobre a musculatura embrionária, Botelho conseguiu produzir dedos não oponíveis, com uma base linear, não era torcida, portanto, idêntica ao observado nos dinossauros terópodes, ou seja, que, como eles colocam, fenocopiava a morfologia dos dinossauros terópodes tetanuranos mais antigos. [1]

Porém, esse não é só mais um experimento que consegue reconstituir morfologias ancestrais. Como explica o biólogo Gunher Wagner, pesquisador de biologia evolutiva do desenvolvimento e genética evolutiva da Universidade de Yale, no EUA:

Este é um dos exemplos mais claros do quão indiretamente as consequências morfológicas da alteração genética são mediadas[2]

Este estudo investiga uma “verdadeira mecânica do desenvolvimento[2], como descreve Wagner e acrescenta:

Os experimentos provam que interações ao nível dos sistemas de órgãos canalizam os rumos da evolução dos organismos.[2]

Os resultados das pesquisa de Botelho e seus colaboradores mostram que a diferenciação do hálux nas aves modernas segue um padrão único em que a diferenciação progride da região proximal para a distal. Lembre-se também que os marcadores moleculares, usados para identificar a maturação cartilagem e ossificação, mostram que a diferenciação deste dedo (Mt1) é significativamente atrasada em comparação ao que acontece com os demais dedos (Mt2-4) [1]. Estas constatações levaram os pesquisadores a sugerir que seria exatamente essa maturação tardia, ao manter o tecido plastico por mais tempo, que teria facilitando a torção proveniente da atividade muscular subsequente. Como explicam os autores do trabalho:

“Em formas intermédias entre arqueópterix e as aves modernas, a extremidade proximal do Mt1 não é torcida, mas a extremidade distal é notavelmente deslocada. O novo contexto de dados desenvolvimentais sugere que a atividade muscular nestes primeiros Pygostylia poderia ter encontrado uma extremidade proximal já diferenciada, mas ainda imatura, uma epífise distal mais plástica, levando à característica forma em J do seu Mt1 (fig. 7). A hipótese de que sucessivos atrasos na maturação permitiu a torção progressiva do Mt1 é consistente com o fato de que as aves se tornaram cada vez mais pedomórficas em comparação aos seus ancestrais dinossauros e que os embriões de Maniraptores tronco fósseis – incluindo Enantiornithes – diferiam das aves atuais pelo fato de que eclodirem com metatarsos, metacarpos e falanges quase totalmente ossificadas, 39, 40, 41, 42, 43. Em um cenário alternativo, a motilidade embrionárias pode iniciar mais cedo ou tornar-se mais intensa nas aves modernas do que em seus antepassados, ​antecipando e/ou ampliando a influência dos músculos no desenvolvimento da Mt1. Interessantemente, demonstrou-se que o metabolismo e a taxa de crescimento dos ossos são correlacionados, e que o metabolismo elevado nas Aves depende do aumento de massa muscular para gerar calor, tornando possível que tanto o aumento da atividade muscular e as alterações no desenvolvimento do esqueleto sejam fisiológica e evolutivamente relacionadas uma com a outra através do aumento do metabolismo aviário. O papel da musculatura embrionária também fornece uma explicação para aquisição secundária de Mt1 reto, não torcido, em pinguins e petréis: Estes são grupos derivados entre as aves modernas nos quais os músculos FHL e EHL estão ausentes (SI, S2 fig.).” [1]

Na figura acima vemos as patas de Qiliania, uma ave primitiva de cauda curta, que exibia padrões intermediários de configuração do Mt1. Nela o Mt1 tem uma extremidade proximal não torcida, mas já  possui um desvio (“dobra”) na extremidade distal, como indicado pela seta. Como o Mt1 das aves modernas amadurece no sentido proximal para o distal, ou seja, da base para a extremidade, os pesquisadores fizeram três sugestões [1]:

  1. Nas aves não-Pygostylianas, o Mt1 teria amadurecido antes do início da atividade muscular;
  2. Nas aves Pygostylia a maturação teria sido adiada, permitindo a flexão distal do Mt1 provocada pela atividade muscular embrionária;
  3. Em Ornithuromorpha teria havido um atraso ainda maior na maturação do Mt1, o que teria permitido a torção completa do seu eixo longo pela atividade muscular embrionária.

Desta maneira, as mutações originais talvez não tivessem provocado diretamente nenhum tipo de alteração morfológica mais conspícua, apenas teriam deixado o tecido mais plástico, mais ‘maleável’, e principalmente, isso teria ocorrido por um tempo maior, de modo a expô-lo a atividade muscular que só inicia-se posteriormente. Isto é, a mera modificação no ‘timing‘ do enrijecimento do tecido teria propiciado um novo tipo de interação ao expô-lo a um microambiente epigenético diferente, onde forças distintas atuariam; e, dado sua maior maleabilidade, levaria a emergência da nova configuração, pelo menos, nas fases iniciais do processo de evolução.

Este belo e elegante estudo mostra a importância de conhecermos bem os mecanismos e processos pelos quais os seres vivos se constroem. Devemos investigar com maior profundidade não só o que acontece com os genes, sequência regulatórias e seus produtos mais diretos, como RNAs e proteínas, mas precisamos também explorar como esses eventos afetam (e são afetados por) os processos celulares, teciduais e embriológicos, mesmo ao nível de sistemas de órgãos já mais diferenciados, que estão por trás da origem da forma biológica. Isto significa que precisamos compreender muito melhor os mecanismos físicos, químicos e geométricos de ‘formação de padrão’ dos seres vivos, especialmente dos multicelulares complexos, e integrar esses conhecimentos a enorme gama de informação que dispomos atualmente e que são oriundas da genética e da biologia molecular e dos seus desdobramentos, como a bioinformática, genômica, proteômica etc.

———————————

Referências:

  1. Francisco Botelho, J., Smith-Paredes, Daniel, Soto-Acuña, Sergio, Mpodozis, Jorge, Palma, Verónica & Vargas, Alexander O. Skeletal plasticity in response to embryonic muscular activity underlies the development and evolution of the perching digit of birds. Sci. Rep. 5, 9840; 2015 doi: 10.1038/srep09840

  2. Universidad de Chile. “From chicken to dinosaur: Scientists experimentally ‘reverse evolution’ of perching toe. Alphagalileo.org, 22 May 2015.

Créditos das Figuras:

Uma ave empoleirada em um galho: TONY CAMACHO/SCIENCE PHOTO LIBRARY

O dedo de empoleira-se das galinhas: Fonte.

Dewclaw: Fonte

Demais figuras: doi: 10.1038/srep09840

Informação, biologia e evolução Parte II

Continuamos a série de posts sobre informação, biologia e evolução iniciada no post Informação, biologia e evolução: Parte I.

A Teoria Molecular da Informação de Shannon:

Apesar do rigor matemático deste campo, muitos dos profissionais que trabalham com a Teoria da Informação* de Shannon, começando pelo próprio Shannon, nem sempre empregam os vários termos da teoria de maneira muito cuidadosa e, por vezes, o fazem de maneira ambígua. Como nosso interesse é compreender as aplicações da teoria de Shannon na biologia molecular e na biologia evolutiva, daqui em diante, seguirei a terminologia de um dos pesquisadores que está entre os principais responsáveis pela aplicação exitosa das ideias de Shannon à biologia molecular e a evolução, Thomas D. Schneider, do NCI/NIH. Também seguirei as definições e explicações de Schneider porque ele parece empregar a terminologia da maneira mais coerente, inclusive preservando as noções intuitivas sobre o que é informação e o que consistiria em um ganho desta mesma quantidade, o que é essencial para que consigamos compreender seu papel na evolução dos sistemas biológicos, pelo menos, ao nível molecular. Com este intuito farei uso extenso das explicações e exemplos contidos no tutorial [1] criado por Schneider e disponível em sua página, adicionando algumas informações e explicações retiradas de outras fontes, além de fazer alguns comentários, quando julgá-los pertinentes.

Informação e Incerteza:

Talvez a maior causa de confusão seja a equiparação dos termos ‘informação’, ‘incerteza’ e ‘entropia’ (informacional) que está presente em muitas das apresentações (inclusive técnicas) da teoria da informação e suas aplicações. A própria literatura da área, como explica Schneider, nos fornece vários exemplos disso. De acordo com o pesquisador, a principal razão para esta equiparação foi dada por Tribus (citado por Schneider) ao relatar a história clássica de que Shannon, ao não saber como chamar a sua medida (H(x)), aceitou a sugestão do famoso matemático austro-húngaro John von Neumann:

‘Você deveria chamá-lo de entropia … [pois] … ninguém sabe o que realmente é a entropia, assim, em um debate, você sempre terá a vantagem’ (Tribus, 1971 citado por Schneider) [1].

Shannon também referia-se a sua medida não só como ‘entropia, mas também como incerteza‘, que, aliás, é a forma preferida por Schneider e que também adotarei neste post, principalmente, porque não se tem a incerteza unidades físicas a ela associada, como é o caso da entropia (devido a termodinâmica). Schneider é bem enfático ao apontar os perigos de equipararmos informação à incerteza. Caso não prestemos atenção para a diferença entre entropia/incerteza, de um lado, e informação, de outro, podemos acabar chegando a conclusão que a informação é equivalente a aleatoriedade em sistemas físicos, tornando as coisas ainda mais confusas do que elas já são. Embora obviamente haja relação entre informação e incerteza, já que ambas podem ser usadas para descrever qualquer processo em que há a seleção de um ou mais estados ou objetos de um conjunto maior de objetos [1], devemos ter em mente que, ainda assim, existem diferenças fundamentais entre ambas. Mais adiante comentarei mais sobre isso, mas já fica aqui o alerta.

Mas afinal o que é informação?

A explicação de Schneider começa com ele pedindo ao leitor que suponha que exista um dispositivo que produza três símbolos diferentes, A, B ou C. Até que a máquina produza o próximo símbolo, não temos certeza de qual ele será, mas assim que o símbolo é produzido e nós o vemos, a nossa incerteza é diminuída e com isso podemos sinalizar que recebemos alguma informação. Este ponto é muito importante e deixa clara qual a relação entre informação e incerteza. Portanto, sem muita enrolação:

“A informação é a diminuição da incerteza.”

Para quantificarmos a informação, então, precisamos medir a incerteza. A maneira mais simples de fazer isso é simplesmente dizermos que temos um grau de incerteza de “3 de símbolos“, já que são três símbolos possíveis e não sabemos quais deles serão produzidos. Porém, isso começa a ficar mais complicado ao imaginarmos que exista um segundo dispositivo. Esse dispositivo porém produz os símbolos 1 e 2. Caso usássemos a mesma estratégia anterior diríamos que o segundo dispositivo tem um grau de incerteza de “2 símbolos“. O problema de verdade surge ao combinarmos os dois dispositivos. Como existem seis possibilidades (A1, A2, B1, B2, C1, C2) caso usarmos a mesma estratégia teríamos que dizer que os dispositivos têm um grau de incerteza de “6 de símbolos“. Acontece que essa não é a maneira como geralmente pensamos sobre informação e muito menos sobre como como acreditamos que ela deveria ser quantificada [1]. Como afirma Schneider:

Por exemplo, se recebemos dois livros, nós preferíamos dizer que recebemos duas vezes a informação de um único livro.” [1]

Ou seja uma medida aditiva seria muito mais preferível. Felizmente, podemos obter este tipo de propriedade ao usarmos o logaritmo do número de símbolos possíveis. Este pequeno truque nos permite somar os logaritmos, ao invés da opção anterior que envolvia multiplicar o número de símbolos. Voltando ao exemplo de Schneider, o primeiro dispositivo nos deixaria em um estado de incerteza equivalente ao log(3), o segundo ao log(2) e os dois dispositivo combinados: log(3) + log(2) = log(6). Assim:

A base do logaritmo determina as unidades. Quando usamos a base 2 as unidades estão em bits (base 10 nos dá ‘digits’, a dos logaritmos naturais, nos dá ‘nats’ [14] ou nits [15]). Assim, se um dispositivo produz um símbolo, temos a certeza de log2(1) = 0 bits, assim não temos incerteza sobre o que o dispositivo irá fazer em seguida. Se ele produz dois símbolos nossa incerteza seria log2(2) = 1 bit. Ao ler um mRNA, caso o ribossomo encontre qualquer uma das quatro bases igualmente prováveis, então a incerteza é de 2 bits.” [1]

Isso nos permite concluir que a fórmula para a incerteza é log2 (M)**. Aqui M refere-se ao número de símbolos. Esta fórmula pode ser também estendida para os casos em que os símbolos não são igualmente prováveis:

Por exemplo, se existem 3 símbolos possíveis, mas um deles nunca aparece, então a nossa incerteza é de 1 bit. Se o terceiro símbolo aparece raramente, em relação aos outros dois símbolos, a nossa incerteza deve ser um pouco maior do que 1 bit, mas não tão elevada como log2 3 bits.” [1]

Podemos reorganizar a fórmula, o que nos deixa com:

de modo que P=1/M é simplesmente a probabilidade de qualquer símbolo aparecer.

É possível também generalizarmos esta equação para levarmos em contra as várias probabilidades dos símbolos Pi, de modo que as probabilidades somem 1 no total, o que equivale a 100% no jargão popular:

Lembrando aqui que o simbolo (SOMATÓRIO) significa que devemos adicionar todas as Pi, para todos i, começando em 1 e indo até M. A surpresa que temos quando observamos o iésimo tipo de símbolo foi chamada, “surpresa” (“surprisal”) por Tribus e é definida por analogia como sendo – log2P para ser

Assim, caso Pi aproxime-se de 0, ou seja, a probabilidade dele aparecer na mensagem seja muio baixa, ficaríamos muito surpresos ao descobrir o iésimo símbolo, uma vez que quase nunca ele deveria aparecer. Neste, caso, pela fórmula, ui aproxima-se do infinito, ∞. Em contraste, caso Pi =1, então, não haveria surpresa alguma ao nos deparamos com o iésimo símbolo, já que este símbolo deveria sempre aparecer, e, portanto, ui = 0. A incerteza, portanto, poder ser vista como a ‘surpresa’ média para uma sequência infinita de símbolos produzidas pelo dispositivo imaginado por Schneider [1].

A partir daí podemos encontrar a média para uma sequência de símbolos com N símbolos de comprimento que tenha um alfabeto formado por M símbolos. Caso suponhamos que o tipo do iésimo símbolo apareça Ni vezes, de modo que, se somarmos através de toda a cadeia e juntarmos os símbolos, isso seria o mesmo que somarmos através de todos os símbolos da cadeia, como podemos ver abaixo.

Desta maneira existirão Ni casos nos quais temos a surpresa ui e a surpresa média dos N símbolos será:


Substituindo N pelo denominador e trazendo-o para dentro do somatório de cima, obteremos:


Então, para uma sequência infinita de símbolos, a frequência Ni/N torna-se Pi, a probabilidade do iésimo símbolo. Fazendo essa substituição podemos notar que a nossa surpresa média (H) é:

Finalmente, substituindo ui, obtemos a famosa fórmula geral de Shannon para a incerteza:

Como vimos bem no começo deste artigo (diferente dos exemplos de Schneider, como ele próprio deixa claro [1]), Shannon chegou a esta fórmula por um caminho muito mais rigoroso**** do que nós, ao postular várias propriedades desejáveis para a medida da incerteza, e só depois disso derivar a função. Ao lado podemos ver como se parece a função H no caso de apenas dois símbolos. Ali fica claro que a curva simétrica atinge seu máximo quando ambos os símbolos são igualmente prováveis, isto é Pi = 0.5) e cai para zero sempre que um dos símbolos torna-se dominante em detrimento do outro. Podemos ver isso com mais clareza ao seguirmos o exercício proposto por Schneider [1].

Comecemos supondo que todos os símbolos são igualmente prováveis. Isso quer dizer que Pi=1/M. Substituindo isso na equação da incerteza obtemos:

Uma vez que M não é uma função de i, podemos retirá-lo do somatório:



Fazendo isso acabamos com a mesma equação com a qual começamos. De acordo com Schneider, pode ser mostrado que para um determinado número de símbolos (ou seja, quando M é fixo) que a incerteza, H, tem seu maior valor somente quando os símbolos são igualmente prováveis. Por exemplo, uma ‘moeda honesta’ é mais difícil de prever os seus resultados (dos seus arremessos) do que uma ‘moeda viciada’ [1].

Mas e a informação do DNA?

Uma vez compreendidos esses conceitos mais fundamentais podemos dar um exemplo mais relevante, usando a biologia molecular, com o polímero biológico mais famoso, o DNA. Essa molécula é formada por cadeias de 4 tipos diferentes de nucleotídeos, portanto, M = 4:

A, C, G e T

Com probabilidades (Pi):

PA=½

PC=¼

PG=

PT=

As surpresas destas dos nucleotídeos equivalem a (-Log2Pi ):

uA=-Log2PA = Log2PA(½)= 1 bit

uC=-Log2PC= Log2PC(¼)= 2 bits

uG=-Log2PG= Log2PG()= 3 bits

uT=-Log2PT= Log2PT()= 3 bits

Neste casos a incerteza, H, é:

Mas o que significa dizer que um sinal tem 1,75 bits por símbolo?

Significa que podemos converter o sinal original em uma sequência de 1’s e 0’s (dígitos binários), de modo que, em média, existam 1,75 dígitos binários para cada símbolo no sinal original. Alguns símbolos terão mais dígitos binários (os mais raros) e outros terão menos (os mais comuns). Podemos recodificá-los para que o número de dígitos binários seja igual a ‘surpresa‘ ( ‘surprisal‘ ) [1]:

Desta forma, a cadeia ACATGAAC, cujas letras aparecem nas mesmas frequências que as probabilidades definidas anteriormente, podem ser codificadas como 10110010001101, onde 14 dígitos binários são utilizados para codificar oito símbolos, o que nos dá a média de 14/8 = 1,75 dígitos binários por símbolo (Schneider, 2006 e 2010) [2, 3]. Este é o chamado de “código de Fano” [1].

Esse tipo de código permite sua decodificação sem a necessidade de espaços entre os símbolos, mas, normalmente, é preciso saber o quadro de leitura, que neste exemplo pode ser facilmente descoberto. Isso acontece porque nesta forma de codificação em particular o primeiro dígito binário distingue entre o conjunto que contém A, (simbolizado por {A}) e o conjunto (C, G, T), que são, no conjunto, igualmente prováveis já que 1/2 = 1/4 + 1/8 + 1/8. O segundo dígito, usado caso o primeiro dígito seja 0, distingue C de G e T. O dígito final distingue G de T. Como cada escolha é tão provável como qualquer outra (na nossa definição original das probabilidades dos símbolos), cada dígito binário, neste código, carrega apenas 1 bit de informação [1].

Cuidado! Isso nem sempre será verdade. Um dígito binário fornece um bit apenas se os dois conjuntos representados pelos dígitos forem igualmente prováveis – como o caso aqui, pois o ajustamos deliberadamente o exemplo para que assim o fosse. Porém, nos casos que eles não sejam equiprováveis, cada dígito binário fornece menos de 1 bit, o que é óbvio pois a função H é máxima quando as probabilidades são as mesmas para todos os símbolos. (Schneider, 2006 e 2010) [2, 3].

Porém, como explica Schneider, não há nenhuma maneira de atribuir um código (finito) de modo que cada dígito binário tenha o valor de 1 bit, embora seja possível (ao empregar-se grandes blocos de símbolos) chegar mais perto deste ideal. No exemplo ajustado que acabamos de ver não há maneira de usar menos de 1,75 dígitos binários por símbolo, mas, nada impede que usemos mais e esbanjemos, usando dígitos extras para representar a mensagem. A medida da incerteza, H, portanto, nos diz o que é possível obter em uma situação ideal de codificação, o que automaticamente nos revela o que é impossível, ou seja, enviar a mensagem do exemplo com menos de 1,75 bits por símbolo, codificados utilizando-se apenas um dígito binário por símbolo (Schneider, 2010) [3].

Lembrando-nos que definimos informação como a redução da incerteza, agora, como temos uma fórmula geral para a incerteza, podemos começar a expressar a informação a partir dela.

Comecemos por imaginar que um computador contém alguma informação em sua memória. Então, caso fossemos vasculhar cada estado ligado-desligado*** – i.e. os equivalentes físicos das possibilidade binárias na memória do computador – teríamos uma incerteza de Hantes bits por estado ligado-desligado. Agora, porém, nós limpamos parte da memória do computador, definindo todos os valores como ‘zero’, (‘desligados’), o que faz com que haja uma nova incerteza, menor do que o anterior: Hdepois*****.

Então, a memória do computador perdeu uma média de R= Hantes Hdepois bits de informação por estado ‘ligado-desligado’. Se o computador fosse completamente limpo, então Hdepois= 0 e R = Hantes.

Este ponto é muito importante. Muita confusão terminológica pode ser gerada caso isso não fique claro.

Agora vamos para outro exemplo. Desta vez, devemos pensar em uma antiga máquina de teletipo que recebe caracteres por meio de uma linha telefônica. Caso não houvesse qualquer ruído na linha telefônica e nenhuma outra fonte de erro existisse, o teletipo imprimiria o texto perfeitamente, sem qualquer erro. Porém, como existe ruído sempre haverá alguma incerteza em relação a se o caractere impresso é realmente o caractere que havia sido enviado. Portanto, antes de um caractere ser impresso, o teletipo deve estar preparado para qualquer um dos caracteres possíveis, e este estado tem a incerteza de Hantes . A questão é que mesmo após todos os caracteres tenham sido recebidos ainda há incerteza. É isso que Schneider chama de Hdepois. Esta incerteza é baseada na probabilidade de que o símbolo que foi recebido através da linha não seja igual ao símbolo que foi enviado e, portanto, mede a quantidade de ruído.

Por exemplo, imagine um sistema em que são transmitidos dois símbolos equiprováveis transmitidos a cada segundo a uma taxa de 1 bit por segundo sem erros. Agora, suponha que a probabilidade de que um ‘0’ seja recebido quando um ‘0’ é enviado é de 0,99, enquanto a probabilidade de que seja recebido um ‘1’, quando de fato um ‘0’ foi enviado, é de 0,01. No caso de ter sido enviado um ‘1’, temos os mesmos valores, ou seja, 0,99 de ser recebido um ‘1’ e por conseguinte 0,01 de ser recebido um ‘0’. Neste caso, a incerteza após o recebimento de um símbolo Hdepois= -0,99log20,99 – 0,01log20,01 = 0,081, de modo que a taxa real de transmissão, R = 1- 0,081=0,919 bits por segundo:

Infelizmente muitas pessoas têm cometido erros porque não compreendem esse ponto claramente. Os erros ocorrem porque as pessoas assumem implicitamente que não há ruído na comunicação. Quando não há ruído, R = Hantes, como é o caso da memória de um computador sendo completamente apagada. Isto é, se não há ruído, a quantidade de informação transmitida é igual à incerteza antes da comunicação. Quando há ruído, e alguém assume que não há nenhum, isso leva a todos os tipos de filosofias confusas. Deve-se sempre levar em conta o ruído.” [1]

Nestas últimas décadas pesquisadores como Schneider vêm aplicando esta abordagem à biologia molecular, especialmente a evolução de biomoléculas, como as sequências de DNA e RNA e proteínas. No caso de Schneider, mais especificamente ao que alguns chamam de “máquinas moleculares” e a compreensão do como elas evoluíram nos seres vivos. Além de várias aplicações práticas na própria biologia molecular e biotecnologia, estes estudos servem de inspiração para o campo ainda mais amplo da nanotecnologia [2].

Aqui cabe destacar que a teoria da informação de Shannon aplicada a biologia molecular e a evolução não é uma mera curiosidade e nem uma tentativa desesperada de responder aos criacionistas. Existe um grande histórico da área e medida desenvolvida por Schneider baseada na teoria de Shannon tem mostrado-se tremendamente útil para caracterizar os padrões de sequências de DNA e RNA que definem os sistemas de controle genético [1, 2, 3]. De fato, Schneider mostrou que os sítios de ligação dos ácidos nucleicos (ou seja, aquelas sequências nas quais proteínas específicas ligam-se e modulam a ativação dos genes, alterando seus padrões de transcrição) geralmente contêm a quantidade certa de informação necessária para que os fatores de transcrição liguem-se a elas, encontrando-as no genoma [3]. Desta maneira, eventuais discrepâncias podem ser ainda mais ilustrativas. E exatamente isso que veremos nos próximos posts desta série. No próximo post vou me aprofundar mais um pouco no trabalho de Schneider e apresentar exemplos mais concretos do uso das medidas de R, Rsequência e Rfrequênciae sua relevância à biologia evolutiva. Por fim, apresentarei uma tradução de um vídeo criado pelo usuário cdk007 do youtube sobre a evolução da informação por meio da seleção natural de mutações aleatórias, inspirado em um trabalho de Schneider publicado em 2000 na revista Nuclear Acid Research, usando a teoria da informação molecular de Shannon e seu programa EV [4]. Até lá!

———————————————

* Existem várias medidas de informação, inclusive aplicadas à biologia, como explica Steve Frank em alguns artigos publicados na revista Journal of Evolutionary biology. Além disso, além de existirem precedentes a proposta por Shannon (inclusive nas quais o matemático americano se baseou para construir o seu trabalho a partir dos anos de 1940), existe uma outra versão bem conhecida da teoria da informação, a ‘Teoria Algorítmica da Informação’ (TAI), proposta e desenvolvida por vários autores diferentes, mas cujos principais nomes associados a ela são os dos matemáticos Andrei Kolmogorov e Gregory Chaitin. A TAI é outra abordagem ao problema da definição e quantificação da informação e sobre sua relação com a computação e com a aleatoriedade. Ela tem como base o conceito de ‘complexidade algorítmica’ (ou ‘conteúdo informacional’) de Kolmogorov que mede os recursos  computacionais necessários para especificar uma dado objeto, como uma sequência de sinais, uma string – como em um texto, por exemplo. O conteúdo de informação ou a complexidade algorítmica de um objeto, neste sentido, pode ser medido pelo comprimento da sua descrição mais curta; ou, mais formalmente, como o ‘comprimento do programa mais curto que calcula (ou gera como saída) o objeto em questão, sendo o programa executado em algum computador universal de referência fixo‘ [Hutter, 2008]. 

De acordo com Grunwald e  Vitanyi (2008), tanto a versão da Teoria da Informação “clássica”, de Shannon, como a Teoria Algorítmica da Informação partem da mesma ideia, isto é, que a informação (na verdade a função H) pode ser medida pelo número mínimo de bits necessários para descrever a observação. A diferença, segundo eles, é que, enquanto Shannon considera métodos de descrição dessa grandeza que são ideais em relação a alguma distribuição dada de probabilidade, a Teoria Algorítmica adota uma abordagem não probabilística, considerando qualquer programa de computador que primeiro calcule (imprima) a sequência que representa a observação e depois pare como sendo uma descrição válida. A quantidade de informação na sequência (string) é então definida como o tamanho (medido em bits) do programa mais curto de computador que gera a sequência e depois para. Isso implica que sequências regulares têm complexidade baixa, enquanto sequências aleatórias têm complexidade de Kolmogorov mais ou menos igual ao seu próprio comprimento, ou seja, uma sequência aleatória pode ser mais complexa do que uma sequência cheia de padrões. Isso pode também causar grande confusão, remetendo de novo ao alerta de Schneider sobre o uso mais técnico do termo informação e o perigo da equiparação de informação à incerteza e à entropia.

Segundo Chaitin, a TAI é “o resultado de colocar a teoria da informação de Shannon e teoria da computabilidade de Turing em uma coqueteleira e agitando vigorosamente.” [via wikipedia]. A TAI também sofre abusos por parte dos criacionistas, mas desta vez é o conceito de complexidade (que tem uma definição formal bem rigorosa) que é o alvo. Devo, em outra oportunidade, explorar algumas abordagens à biologia molecular e à evolução que empregam mais esta teoria.

  • Frank, S. A. Natural selection. V. How to read the fundamental equations of evolutionary change in terms of information theory. Journal of Evolutionary Biology 25:2377-2396. doi:10.1111/jeb.12010

  • Frank, S. A. Natural selection maximizes Fisher information. Journal of Evolutionary Biology 22:231-244. doi:10.1111/j.1420-9101.2008.01647.x

  • Grunwald, Peter D.;  Vitanyi, Paul M. B. (2008) Algorithmic information theory ARXIV eprint arXiv:0809.2754 2008arXiv0809.2754G.
  • Hutter, Marcus (2008), Algorithmic complexity Scholarpedia, 3(1):2573. doi:10.4249/scholarpedia.2573

**Também é possível usar outras bases de logaritmo, como fazem outros grupos de pesquisadores, como veremos em outro post desta série, como é o caso dos trabalhos de Christof Adami e Charles Ofria que empregam como base dos logaritmos o número de monômeros das macromoléculas de interesse (20 para os aminoácidos e 4 para os ácidos nucleicos). Porém, por enquanto, usaremos a base 2 o que nos permite quantificar a informação em termos de Bits.

***Schneider adota o termo “flip-flop” que eu preferi chamar de ‘ligado-desligado’ para evitar o uso da palavra “bit” enquanto discute a codificação de Fano já que há dois significados para essa palavra:

1. Um dígito binário, 0 ou 1. Só podendo ser um inteiro. Estes “bits” são as partes individuais dos dados dos computadores.

2. Uma medida de incerteza, H ou R. Esta informação pode ser qualquer número real porque é uma média. É a medida que Shannon utilizado para discutir sistemas de comunicação.

****O objetivo de Shannon era desenvolver uma forma de quantificar a informação associada a uma mensagem de modo que quanto mais improvável fosse a mensagem maior seria a informação ganha pelo receptor. Portanto, dado um conjunto de mensagens X no qual X = {x1,x2, x3,… xk}, uma distribuição de probabilidades do tipo P [X], isto é, P = {P1, P2, P3,… Pk} em que a probabilidade pi = P(xi) para cada mensagem xi. Lembrando que pi deve ser maior ou igual a zero ( pi 0) e a soma total deve ser igual a 1 ( p1 + p2+…+ pk = 1), já que não existem probabilidades menores que 0 e nem maiores que 1 (ou 100%).

Para conseguir alcançar este objetivo, Shannon precisava de uma fórmula bem específica, uma vez que uma medida da incerteza na comunicação de X teria que exibir uma série de características que mais ou menos já vinham sendo investigadas e postuladas por vários outros matemáticos e cientistas; devendo ser uma função com um valor real, (1) H(X), ou seja, H(X) teria que uma distribuição de probabilidade de X, tal que P[X] → R; (2) contínua [H(p1, …, pk)], (3) aditiva [H (p1q1, …, pkqk) = H(P) + H(Q) para as distribuições de probabilidade P e Q]; (4) monotônica [ou seja, deveria aumentar com k para distribuições uniformes: If l > k, então H(Q) > H(P) para qualquer P = (1/k, …, 1/k) e Q = (1/l, …, 1/l); além de ser (5) ‘ramificada’, isto é, H(p1,…, pk) deveria ser independente de como o processo é dividido em partes, e, por fim, (6) deveria ser normalizável em bits, onde o ganho médio de informação para duas mensagens igualmente prováveis seria 1 bit: H(1/2, 1/2) = 1.

De acordo com Shannon existiria uma única função que teria todas estas propriedades e que poderia quantificar a tal ‘entropia informacional’ ou seja, o valor esperado médio de uma distribuição de probabilidade P:

H(X ) = −∑ pi log pi

H(X) é máxima quando p1 = p2 = … = pk = 1/k, isto é quando a distribuição de probabilidade é uniforme e as probabilidades são equiprováveis.

H(X) = 0 apenas quando a probabilidade de xi (pi ) é 1 e todas as outras são 0.

O logaritmo usado é de base 2: logx = y ⇒ x = 2y, o que permite a quantificação em bits.

*****Shannon usou a notação Hy(x), ou seja, a incerteza condicional do receptor y dada a mensagem enviada a partir de x, para o que chamamos de Hdepois, que, por sinal, ele também chamou de “equivocação” [1].

—————————————————————-

Referências:

  1. Schneider, Thomas D. Information Theory Primer With an Appendix on Logarithms version = 2.65 of primer.tex 2012 Mar 14 [PDF]
  2. Schneider TD. A brief review of molecular information theory. Nano Commun Netw. 2010 Sep;1(3):173-180. doi:  10.1016/j.nancom.2010.09.002
  3. Schneider TD. Claude Shannon: biologist. The founder of information theory used biology to formulate the channel capacity. IEEE Eng Med Biol Mag. 2006 Jan-Feb;25(1):30-3.
  4. Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. doi: 10.1093/nar/28.14.2794

A Nova Filogenia das Aves Modernas

Um conjunto de artigos publicados esta semana na revista Science serviu para esclarecer questões importantes a respeito da evolução das aves atuais. Uma equipe internacional composta por pesquisadores de 20 países formaram um consórcio para estudar a evolução, dissecar as bases genômicas das características complexas, e resolver um debate secular em relação à árvore filogenética das espécies atuais de aves. Os dados resultantes do conjunto de 48 genomas de aves consistentemente anotados abrangem 32 das 35 ordens de aves propostas recentemente, incluindo todos as 30 ordens de neognathas, e, portanto, representa uma vasta gama de diversidade evolutiva aviária. As análises do consórcio resultaram em oito artigos publicados na Science , bem como 20 artigos em outras revistas como Genome Biology e GigaScience. Entre estas publicações estão incluídos dois trabalhos emblemáticos: uma exploração em escala dos dados genômicos para gerar uma filogenia das ordens aviárias altamente fundamentada, o que resolve muitos debates sobre a cronologia e a topologia de sua radiação; o outro, uma análise genômica comparativa explorando a evolução do genoma aviário e da base genética das características complexas. Outros estudos publicados na Science descrevem as regiões convergentes do cérebro e a expressão do gene para a aprendizagem do canto das aves e da fala humana.

Há 66 milhões de anos os dinossauros, tal e como se conhecem, se extinguiram, porém alguns répteis e aves sobreviveram a esta extinção em massa. As aves que sobreviveram sofreram uma rápida evolução e uma grande diversificação mas, até agora, não tem sido fácil para os cientistas explicar a árvore familiar das aves modernas. Os estudos filogenéticos disponíveis até agora sobre a evolução das aves modernas havia analisado conjuntos de genes concretos que se relacionavam com características anatômicas ou comportamentais nas aves. Os resultados apresentados pelo “Avian Phylogenomic Consortium” comparam o genoma inteiro de todas as espécies, o que permitiu aos cientistas reconstruir a árvore filogenética das aves com muito mais detalhes, incluindo informações sobre as relações de parentesco entre grupos e o momento em que se separaram.

O consorcio internacional para o estudo da genômica das aves, liderado por Guoije Zhang, do ‘National Genebank BGI‘, na China e da Universidade de Copenhague, trabalhou durante quatro anos no sequenciamento massivo do genoma das 48 espécies de aves e de outros animais como os crocodilos (os crocodilianos modernos constituem o grupo externo (‘outgroup) mais próximo das aves atuais).

De acordo com a Wikipedia:

“evidências fósseis e análises biológicas intensas tem demonstrado que as aves descendem dos dinossauros terópodes. Mais especificamente, elas são membros do clado Maniraptora, um grupo de terópodes que inclui as famílias Dromaeosauridae e Oviraptoridae. Com a descoberta de mais terópodes não pertencentes ao clado Avialae, a distinção entre terópodes e aves ficou ofuscada. Recentes descobertas na província de Liaoning no nordeste da China, que demonstraram que muitos pequenos terópodes possuíram penas, contribuíram para essa ambiguidade.”

As aves se diversificaram numa grande variedade de formas durante o período Cretáceo. Muitos grupos retiveram características primitivas, como garras nas asas e dentes, embora os dentes foram perdidos independentemente em vários grupos de aves. Enquanto as formais primitivas, como o Archaeopteryx e o Jeholornis, retiveram os longos ossos da cauda dos seus ancestrais, as caudas das aves mais avançadas foram encurtadas com o advento do osso pigóstilo no clado Pygostylia.

A primeira linhagem grande e diversa de aves de cauda curta a evoluir foi a Enantiornithes, nomeada em função da construção dos ossos do ombro estarem em posição contrária a das aves modernas. Os Enantiornithes ocuparam uma grande variedade de nichos ecológicos, de filtradores de areia e piscívoros a trepadores e granívoros. Algumas linhagens mais avançadas também se especializaram em um dieta a base de peixes, como a classe Ichthyornithes. Uma ordem de aves marinhas do Mesozoico, a Hesperornithiformes, tornou-se tão adaptada ao ambiente aquático que perdeu a capacidade de voar. Apesar dessas especializações extremas, os Hesperornithiformes representam uma das linhagens mais próximas as aves modernas.”

A classificação tradicional segue o padrão de Clements (também conhecido como as ordens de Clements):

Subclasse †Archaeornithes Gadow, 1893 – aves ancestrais

Ordem †Archaeopterygiformes Lambrecht, 1933 – arqueopterix

Ordem †Confuciusornithiformes Hou et al., 1995

Subclasse Neornithes Gadow, 1893 – aves modernas

Superordem Paleognathae Pycraft, 1900 – aves com asas atrofiadas e osso esterno sem quilha
Superordem Neognathae Pycraft, 1900 – aves com asas bem desenvolvidas e osso esterno com quilha”

Cladograma mostrando a recente classificação das Neoaves, baseada em diversos estudos filogenéticos.

A classificação radicalmente diferente de Sibley-Monroe (Taxonomia de Sibley-Ahlquist), baseada em dados moleculares de hibridização DNA-DNA, encontrou corroboração, por evidências moleculares, fósseis e anatômicas, de algumas modificações propostas, entre elas o apoio para o clado Galloanserae”.

Segundo um dos cientistas que participaram do projeto, o brasileiro Claudio Mello, da Universidade de Ciência e Saúde do Oregon (Estados Unidos):

as aves são um dos grupos mais diversos que existem, com cerca de dez mil espécies. Essa diversidade tornava complexa a tarefa de entender as relações entre elas e, por isso, até hoje não tínhamos uma árvore filogenética confiável”. [Veja aqui]

Muitos ramos surgiram quase simultaneamente. Isso aumentava a dificuldade para organizar a árvore evolutiva das aves. Agora, temos dados confiáveis que deverão gerar muitas descobertas nos próximos anos”, disse Mello. [Veja aqui]

Os principais artigos deste estudo publicados na Science indicam que a aprendizagem vocal, isto é, a capacidade para emitir sons, modificar o tom e reproduzir um som por imitação, evoluiu de forma independente, no mínimo em duas ocasiões. Um grupo de cientistas brasileiros – liderado por Claudio Mello, Maria Paulo Schneider, da Universidade Federal do Pará (UFPA), e Francisco Prosdocimi, da Universidade Federal do Rio de Janeiro (UFRJ) – mapeou os genes relacionados ao aprendizado vocal em grupos de pássaros e os comparou com os marcadores do cérebro humano que controlam a fala:

Muitos dos genes ligados ao canto do passarinho estão também nas áreas do cérebro humano responsável pela fala”, explicou o cientista Claudio Mello [Veja aqui].

Geralmente, tem se admitido que os circuitos cerebrais para a aprendizagem musical e vocal em aves e humanos são similares, porém se tinha chegado a eles por vias diferentes na evolução. Esta macroanálise feita pelo consórcio constata que os pássaros apresentavam mutações em grupos de genes que codificam o esmalte e a dentina e cinco destes genes relacionados com a formação de dentes haveria se desabilitado há uns 116 milhões de anos em algum antepassado das aves modernas.

Com a base da evidência fóssil e molecular, os pesquisadores propõem um cenário de duas fases em que a perda dos dentes e o desenvolvimento do bico evoluíram juntos no ancestral comum de todas as aves modernas. Na primeira etapa, a perda dos dentes e o desenvolvimento de um bico parcial começou na parte anterior da mandíbula superior e inferior, enquanto a segunda fase consistiu na progressão concorrente da perda dos dentes e o desenvolvimento da parte do bico anterior de ambas mandíbulas até parte posterior.

Entre outras coisas, os pesquisadores do consórcio estimam que os pinguins apareceram pela primeira vez há cerca de 60 milhões de anos. O estudo mostra que a população de pinguins de Adelia aumentou rapidamente há aproximadamente 150.000 anos, quando o clima se tornou mais quente, porém mais tarde se reduziu em 40% faz unos 60.000 anos, durante um período glacial frio e seco, enquanto a população de pinguins imperador se manteve estável, o que sugere que se adaptou melhor as condições glaciais, por exemplo, ao serem capazes de proteger seus ovos contra temperaturas abaixo de zero e incubá-los em seus pés.

O consórcio descobriu também que ambos pinguins expandiram genes relacionados com beta-queratinas, as proteínas que constituem 90% das penas, com ao menos 13 genes responsáveis por um só tipo de beta-queratina, que é o número mais alto em comparação com todos os outros genomas de aves conhecidas e tudo isso explicaria sua importância em garantir que as penas dos pinguins sejam curtas, rígidas e densamente concentradas para minimizar a perda de calor, sendo resistentes a água e ajudando a nadar embaixo d’água.

———————————————–

Referências:

  • Zhang G, Jarvis ED, Gilbert MT. Avian genomes. A flock of genomes. Introduction. Science. 2014 Dec 12;346(6215):1308-9. doi:10.1126/science.346.6215.1308.

  • Pfenning, AR, et al. Convergent transcriptional specializations in the brains of humans and song-learning birds. Science. 2014 Dec 12;346(6215):1256846. doi: 10.1126/science.1256846.

  • Cracraft, . in The Howard and Moore Complete Checklist of the Birds of the World, E. C. Dickinson, J. C. J. Remsen, Eds. (Aves Press, Eastbourne, UK, 2013), pp. xxi–xliii.

  • Zhang, G. et al. Comparative genomics reveals insights into avian genome evolution and adaptation.  12 December 2014: Vol. 346 no. 6215 pp. 1311-1320 
    DOI: 10.1126/science.1251385.

  • Duke University. “‘Big Bang’ of bird evolution mapped: Genes reveal deep histories of bird origins, feathers, flight and song.” ScienceDaily. ScienceDaily, 11 December 2014. [Veja também aqui e aqui]

Celacanto Ainda Causa Maremoto na Biologia Evolutiva

Quem já passou dos 50 anos, certamente se lembra do seriado National Kid, exibido na televisão brasileira entre 1964 e 1970. O seriado foi criado em 1960, por encomenda, com a finalidade de servir de merchandising para a fábrica de eletrodomésticos National Electronics Inc., atual Panasonic. Vestido com roupa espacial, capacete, máscara, capa, luva e com uma grande letra “N” estampado no peito, nosso herói salvava a todos e era auxiliado (ou atrapalhado) por vários personagens. 

Dentre os muitos povos inimigos que o personagem heróico combatia, havia os seres abissais. Governados por Nelkon, os seres abissais andavam a bordo do submarino-monstro cujo nome era Guilton. Quando este balançava as barbatanas, provocava um maremoto, daí a famosa frase: “Celacanto provoca maremoto” que foi muito pichada nas paredes, principalmente no Rio de Janeiro, durante o regime militar. Seriam eles, os celacantos, seres das profundezas do mar revoltados com a constante poluição provocadas pelo homem lançando destroços e lixo radioativo no mar (isso já naquele tempo).

Mais não é sobre esse celacanto da ficção que eu quero falar. Quero me referir ao celacanto capturado em 1938 na região do rio Chalumna, na costa leste da África do Sul, em uma rede de tubarões, pelo capitão Goose e sua tripulação. Como os pescadores acharam que o aspecto do peixe era muito bizarro, resolveram alertar o museu local sobre o achado. A diretora do museu era, na época, a Sra. Marjorie Courtney- Latimer. Então, ela avisou ao proeminente ictiologista sul-africano, o Dr. J.B. Smith sobre a interessante descoberta. O celacanto foi então batizado como Latimeria chalumnae em homenagem à Sra. Courtney-Latimer. Durante sessenta anos pensou-se que este era o único celacanto existente.

Em 30 de julho de 1998, outro celacanto foi capturado em rede de tubarão, em águas profundas, perto da ilha vulcânica de Manado Tua, no norte de Sulawesi, Indonésia (o local está a cerca de 10 mil quilômetros a leste do primeiro achado). Quando o celacanto de Sulawesi foi documentado, a diferença mais óbvia encontrada em relação ao achado das Ilhas Comores era apenas a cor: enquanto a cor do celacanto de Comores era azul-metálica, a do celacanto de Sulawesi era marrom. Em 1999, o celacanto de Sulawesi foi descrito como uma nova espécie, Latimeria menadoensis.

A descoberta do celacanto pela ciência em 1938 causou uma grande excitação no mundo científico da época (semelhante a um maremoto), porque se pensava que eles eram os ancestrais dos tetrápodes. Hoje sabemos que os peixes pulmonados estão mais estreitamente relacionados com os tetrápodes do que os celacantos. Mesmo assim, muitos consideram a descoberta de L. chalumna como o maior feito zoológico do século XX. Apesar dos novos estudos, o celacanto ainda continua causando muito rebuliço entre os pesquisadores do assunto. A recente análise do transcriptoma do celacanto indonésio por Pallavicini e seus colaboradores é uma prova que as pesquisas não vão parar por aí. Duas postagens de Rodrigo Véras aqui no Evolucionismo esclarecem bem esta relação destes peixes relicários com os tetrápodes atuais e também mostra os resultados das análises genômicas das duas espécies de Latimeria, entre outras considerações. Vale a pena conferir Ainda vivos e evoluindo: A diversidade dos modernos celacantos do l… e O genoma do celacanto e a evolução dos vertebrados terrestres

———————————————

Referências:

  • Mcgrouther, M and Miller, L.Australian Museum Fish. Disponível em 
  • Pallavicini,A. et al. Analysis of the transcriptome of the Indonesian coelacanth Latimeria menadoensis. BMC Genomics 2013 , 14: 538 , DOI10,1186 / 1471-2164-14-538

Semelhanças e diferenças entre os genomas e transcriptomas dos animais.

Os seres humanos guardam semelhanças impressionantes com outros animais tão distintos como as moscas de fruta e os vermes nematodes, com os quais compartilhamos um ancestral comum que viveu há mais de 540 milhões de anos. Contudo, além das semelhanças já bem conhecidas entre os números de genes, as sequências dos genes, e das proteínas que eles codificam (e mesmo do padrão de organização espacial de certas famílias multigênicas), novos estudos revelam outras similaridades, desta vez no próprio parão de expressão de muitos destes genes e nas redes regulatórias que eles estão envolvidos, normalmente associados com as regiões do DNA onde ligam-se os fatores de transcrição e elementos que controlam o estado da cromatina [(Ilustração de Darryl Leja, NHGRI, NIH].

As sequências de DNA associadas aos genes precisam ser expressas na forma de RNAs funcionais (como os microRNAs regulatórios), ou, como é mais conhecido, na forma de RNAs mensageiros  (que serão traduzidos na forma de peptídeos e proteínas. Estas biomoléculas, por sua vez, combinam-se para fazer várias estruturas biológicas, agem no metabolismo modulando reações químicas ou interagem entre si e como outras pequenas moléculas não proteicas formando redes de sinalização intra e intercelular que controlam a morfologia das células e dos tecidos que elas formam, modulam a composição da matriz ao seu redor, além de controlarem as taxas de proliferação e morte celular, suas propriedades mecânicas, seu movimento e, assim, seus padrões de migração. Este processo se dá de modo bem organizado, com certos conjuntos de genes formando redes de interação metabólica ou de sinalização, através de seus produtos. Estas redes (ou ‘módulos’) não apenas regulam certas atividades bioquímicas e celulares mais gerais, como controlam também a expressão de seus próprios (e outros conjuntos de) genes. Isso é feito, por exemplo, por meio de expressão de proteínas chamadas de fatores de transcrição que ligam-se às regiões não codificantes do DNA, os elementos cis-regulatórios (como promotores, reforçadores, repressores etc) que, quando associadas aos fatores de transcrição, modulam a transcrição gênica, ligando-a e desligando-a, ou mesmo, aumentando ou diminuindo sua intensidade em diferentes situações e contextos. Estes conjuntos de genes e redes regulatórias são essenciais no processo de desenvolvimento embriológico, estando, por exemplo, por trás da formação dos padrões corporais gerais de cada tipo de organismo [Para saber mais sobre isso veja “É a evolução genética previsível? Parte I” e “É a evolução genética previsível? Parte II ou Além da genética parte I“].

Uma gigantesca análise de dados de expressão genômica liderada por pesquisadores da universidade de Yale e outros estudos conduzidos por cientistas das Universidades de Harvard e Stanford, todos recentemente publicados na revista Nature, mostram claramente que vermes e moscas, apesar das diferenças óbvias, conservam aquilo que muitos biólogos chamam de ‘kits de ferramentas moleculares’: conjuntos de genes co-expressos (e suas vias bioquímicas e de sinalização correspondentes) que são empregados durante o seu desenvolvimento ontogenético e portanto na formação dos seus padrões corporais característicos. Os pesquisadores puderam inclusive utilizar os padrões de expressão para alinhar as fases de desenvolvimento dos nematodes e das moscas, conseguindo encontrar uma nova correspondência entre uma fase do embrião do verme e a pupa da mosca, além daquelas correspondências embrião-embrião e larva-larva que já eram conhecidas.

Na figura ao lado vemos à esquerda uma matriz de associação gene-gene de seres humanos, vermes nematodes e mosca-de-fruta na qual a coloração mais escura reflete o aumento da probabilidade (verossimilhança) de que um par de genes sejam atribuídos a um mesmo módulo. Um bloco escuro ao longo da diagonal representa um grupo de genes dentro de uma espécie. Caso isso esteja associado a um bloco fora da diagonal, então é um módulo inter-espécies (por exemplo, um módulo de três espécies conservadas é mostrado como um círculo e um módulo de verme-mosca é mostrado por uma estrela). No entanto, se um bloco da diagonal não tem associações fora da diagonal então ele forma um módulo espécie-específico de (por exemplo, pentágono verde). A direita é mostrado o enriquecimento funcional da Ontologia de Genes para os genes conservados dentro dos 16 módulos. [GF, fator de crescimento; nuc, nuclear.; proc., processamento. Em b, observamos os alinhamentos primários e secundários dos estágios de desenvolvimento verme-mosca realizados com base em todos os genes ortólogos (com a mesma origem ancestral) entre vermes e moscas]. Em seguida temos o alinhamento verme-mosca dos estágios usando apenas ortólogos da fase da ampulheta que é mais significativo e apresenta um ‘gap‘ (marrom) correspondente ao estágio chamado fase filotípica [Veja para maiores detalhes Genomas e mais genomas em abril de 2013: Parasitas e Tartarugas e Por que cinco dedos?]. A escala do ‘mapa de calor’ em b é indicada no lado esquerdo, em um alinhamento de estágio destacado. Em c, vemos a expressão normalizada dos módulos conservados na mosca que mostra a menor divergência intra-organismo durante a fase filotípica (castanho). Um módulo representativo é indicado com um asterisco azul em a e c. [Nature 512, 445–448 (28 August 2014) doi:10.1038/nature1].

De fato, em um dos artigos os seus autores também relataram que, nos três organismos estudados, é possível prever os níveis de expressão gênica (tanto de elementos codificantes como não-codificantes) por meio de um “modelo universal”, construído a partir de características da cromatina nas regiões promotoras (aquelas nos quais ligam-se proteínas, como fatores de transcrição e a RNA polimerase, que controlam a expressão dos genes), que utiliza apenas um único conjunto de parâmetros, independente do organismo. Porém, um outro estudo feito pelo mesmo pessoal de Yale, publicado em separado em artigo da revista PNAS, documenta diferenças genéticas extensas entre as várias regiões genômicas destas várias linhagens, sendo bastante particulares da história evolutiva de cada uma delas. Os autores, por exemplo, relataram que o complemento de pseudogenes do genoma humano reflete uma explosão maciça de atividade retrotransposons (‘genes móveis‘ que usam intermediários de RNA para se proliferarem pelo genoma) que teria ocorrido na aurora da evolução dos primatas, diferentemente do que ocorre com os pseudogenes do verme e da mosca, que são reflexo de uma história de cópias extras inativadas. Porém, nos três casos, os pesquisadores puderam observar que pseudogenes mantinham um nível consistente de expressão, por volta de 15% deles sendo transcritos.

Estes resultados não são um paradoxo, mas ilustram um princípio básico da evolução molecular. Enquanto regiões com alta relevância funcional e estrutural tendem a ser mantidas por meio da seleção natural purificadora, as modificações nestas regiões normalmente ocorrem de maneira conservadora e indireta, por meio, principalmente, da duplicação de genes funcionais e da divergência mutacional das sequências das cópias que se dá através de processos como a subfuncionalização, neofuncionalização, originação gênica e por efeitos de dose. No entanto, não é geralmente isso que acontece com a maioria das sequências que perdem sua relevância funcional e estrutural. Em geral, elas transformam-se em pseudogenes, verdadeiros fósseis moleculares. A ‘pseudogenização’ é  o resultado mais provável da duplicação de um gene, uma vez que a maioria das cópias extras é deteriorada e inativada por mutações. Eventualmente, um gene, mesmo sem ser duplicado, que era antes funcional também pode tornar-se um pseudogene caso ele perca da sua utilidade, por exemplo, por uma mudança ambiental que passa a prover o recurso que antes era fornecido apenas por um processo de conversão bioquímica, guiado pelo gene em questão. Porém, o mais importante é que quando ocorre a pseudogenização, diferentemente das sequências gênica e regulatórias funcionais, há uma tendência à divergência, com as sequências passando a refletir muito mais a história contingente particular de cada linhagem, após a separação de outras linhagens, com sua evolução passando a ser muito mais governada por processos estocásticos, como a deriva genética e o efeito carona.

“Por um lado, vimos semelhanças que refletem a necessidade biológica e, por outro lado, as diferenças que espelhavam a história do organismo”, disse Cristina Sisu, do grupo de Yale e primeira autora do artigo do PNAS.

Estes resultados mostram como grandes diferenças nos padrões corporais podem ser obtidas a partir dos mesmos genes (e dos módulos gênicos básicos que eles constituem), que foram duplicados e reformulados de maneira contingente ao longo da evolução de cada grupo, mas, mesmo assim, mantendo certas semelhanças cruciais. Estas semelhanças, por sua vez, são um reflexo tanto de uma origem comum, como provavelmente também de ‘princípios biológica de construção’ universais, muito deles associados a restrições na forma como novas funções e estruturas surgem, ou seja, a partir de outras pré-existentes e, portanto, da organização genético-desenvolvimental prévia. Ao mesmo tempo, o estudo dos pseudogenes deixa claro que aquelas regiões que não estão diretamente envolvidas com a organização e funcionamento mais básico dos organismos estão bem mais livres para divergir e acumular as marcas da história e do acaso.

————————————–

Referências:

  • Hathaway, Bill Evolution used similar molecular toolkits to shape flies, worms, and humans Yale News, August 27, 2014

  • Gerstein, Mark B. et al Comparative analysis of the transcriptome across distant species. Nature, 2014; 512 (7515): 445 DOI: 10.1038/nature13424

  • Araya, Carlos L. et al Regulatory analysis of the C. elegans genome with spatiotemporal resolution Nature, 2014 512, 400–405 28 DOI: 10.1038/nature13497

  • Brown, James B. Diversity and dynamics of the Drosophila tanscriptome Nature 2014 512, 393–399 doi:10.1038/nature12962

  • Ho, Joshua W. K. et al Comparative analysis of metazoan chromatin organization Nature, 2014 512, 449–452 doi:10.1038/nature13415

  • Boyle, Alan P. et al. Comparative analysis of regulatory information and circuits across distant species Nature, 2014 512, 453–456 doi:10.1038/nature13668

  • Sisu, Cristina et al. Comparative analysis of pseudogenes across three phyla PNAS 2014 [published ahead of print August 25, 2014] doi:10.1073/pnas.1407293111

Opinião: por que sou um biólogo conservador com a teoria da evolução

Hoje, quero sair do armário como um conservador. Mas, calma lá: é conservadorismo com a teoria da evolução.

Venho acompanhando há mais de 6 anos algumas propostas de reforma da teoria para uma Síntese Evolutiva Estendida.

Para resumir um pouco a história, há alguns biólogos evolutivos que crêem que a chamada Síntese Evolutiva das décadas de 1930 e 1940 deixa de fora fenômenos importantes ao explicar a variedade dos seres vivos e a origem das espécies e suas adaptações.

Chamamos de “síntese” porque houve o encontro de duas teorias da biologia que, à primeira vista, no fim do século XIX e começo do século XX, pareciam incompatíveis. Trata-se da teoria da evolução pela seleção natural, de Charles Darwin, e a teoria da genética de Gregor Mendel. As incompatibilidades foram resolvidas, com o efeito de deixar de lado algumas poucas ideias que não eram essenciais: por exemplo, a ideia do quinto capítulo do Origem das Espécies, de que era possível a herança de características adquiridas durante o desenvolvimento.

A síntese, feita por um punhado de biólogos e estatísticos muito competentes, é que a definição de Darwin para o que é “evolução” – descendência com modificação nas populações dos seres vivos – pode ser entendida, no nível da genética, como a mudança das frequências dos alelos ao longo das gerações. Neste novo contexto a ideia de “aptidão” (fitness) ganhou um sentido, digamos, mais “puro”: há genótipos mais ou menos aptos, e podemos medir a aptidão pela contribuição relativa de cada genótipo para os números de organismos viáveis observados na prole. Com base desse foco nos genes como detentores da informação herdável, a teoria sintética estabeleceu uma definição clara de processo evolutivo – são os processos que alteram em alguma direção o equilíbrio das frequências dos genes ao longo das gerações: seleção natural, deriva genética, mutação e migração.

Esses são os processos básicos, a partir dos quais entendemos mais coisas. Se hoje podemos entender por que motivo há certos sacrifícios de organismos, como o de uma aranha macho que é devorada pela fêmea durante a cópula, é porque reduzimos com sucesso alguns dos fenômenos do nível do organismo ao nível do gene. A aranha macho se sacrifica porque o sacrifício é indiretamente vantajoso para sua prole: ou seja, os genes da aranha estão em vantagem nisso mesmo que a própria aranha não esteja. Esse é um reducionismo saudável para o entendimento do fenômeno. Em ciência, fazer reducionismo é necessário para gerar boas teorias, frequentemente.

Desde a graduação tenho lido textos que propõem que a síntese evolutiva não é suficiente para explicar certas coisas na descendência com modificação. Por exemplo, diz-se que Lamarck foi vingado pela descoberta do fenômeno de herança de características adquiridas pela via da epigenética (marcações periféricas ao genoma que influenciam na expressão dos genes). Diz-se que a construção de nichos (quando o ser vivo altera e constrói seu ambiente, como fazem cupins, castores, árvores, minhocas etc.) não é apenas uma curiosidade, mas um processo ou mecanismo evolutivo (ao lado dos listados acima). Na biologia evolutiva do desenvolvimento, propõe-se que há vieses de plano corporal que influenciam grandemente a forma das adaptações, e que o surgimento da variação sobre a qual age a seleção natural não é realmente aleatório. Também se aponta como novidade a ser abraçada na teoria evolutiva a plasticidade fenotípica – que fenótipos muito díspares podem ser produzidos pelos mesmos genes, e que portanto boa parte da adaptação, especialmente em estágios iniciais, é fruto da agência de organismos e não apenas um produto passivo da retenção de variedade genética selecionada ao longo das gerações.

Tudo isso não é inventado. De fato há exemplos descritos de cada uma dessas coisas. O que se disputa são as interpretações. Eu estive numa palestra do Kevin Laland, um dos principais teóricos em construção de nicho, por exemplo, em que ele propôs que o foco da biologia evolutiva no processo evolutivo da seleção natural é um acidente histórico: que, se recomeçássemos o filme da história da biologia, a construção de nicho teria igual probabilidade de ter sido o primeiro processo evolutivo descrito pelos biólogos, pois é tão importante quanto a seleção natural.

Eu não concordo. Não vejo na construção de nicho nada que lembre um processo evolutivo, mas fenômenos periféricos aos fenômenos relacionados à descendência com modificação, mais contingentes que ela. Uma coleção limitada de exemplos de construção de nicho, por mais que deixe claro que pode ser dramática a ação dos organismos sobre sua própria evolução, por conta de como alteram o ambiente e o deixam como herança para as próximas gerações – a oxigenação da atmosfera terrestre deve ser o exemplo mais dramático disso – deixa também difícil abstrair algo para ser generalizado a todos os seres vivos como atores dessa construção e não alvos passivos da ação de alguns poucos. Li alegações de que até no contexto da origem das primeiras formas de vida, a construção de nicho ocorria. Eu acho que isso é uma expansão desnecessária de um conceito importante. Em qualquer espaço finito em que temos seres vivos evoluindo, haverá necessariamente modificação do ambiente. Não acho que valoriza o conceito de construção de nicho ou a importância desse fenômeno na história da vida alegar que o elaborado ritual de construção de barragens dos castores é basicamente a mesma coisa que o ambiente ser modificado pelas excretas de bactérias – e que isso é um “processo/mecanismo” evolutivo. Ver isso como um processo evolutivo traz uma certa obscuridade. Teorias servem para generalizar, descrever padrões que se aplicam a no mínimo (no contexto da biologia) fenômenos que ocorrem à grande maioria das espécies – para que então as generalizações possam fazer previsões com boa chance de acerto. Enquanto posso imaginar algumas previsões a serem feitas pelos processos da deriva genética e da seleção natural, por exemplo, não vejo de forma tão clara que tipo de previsão (surpreendente, pra usar a qualificação de Lakatos) seria gerada por um “mecanismo” da construção de nicho: a “previsão” de que o ambiente será modificado quando certo processo de adaptação ocorrer ou não se qualifica como previsão de fato ou não é uma previsão surpreendente.

Sobre as propostas de englobar a herança “inclusiva”, com a epigenética, até hoje, como dizem os conservadores que publicaram na Nature, não se observou característica (fenótipo) cuja base fosse estritamente epigenética e divorciada da sequência dos genes. Inclusive, as enzimas que fazem as mudanças epigenéticas são em si codificadas por genes. Não entendo por que motivo Eva Jablonka e Marion Lamb pensam que a epigenética tem algo a ver especificamente com Lamarck, quando o próprio Darwin defendia que a modificação de características durante a história de vida fosse herdável, e Lamarck, talvez mais que Darwin, estava mais interessado em explicar mudanças macroevolutivas. Não tenho notícia também de qualquer novidade evolutiva como as de interesse de Lamarck – por exemplo, a modificação dos pés das aves de acordo com seus “hábitos” (nichos ecológicos) – que tenha sido melhor explicada por força da herança de características adquiridas pelas vias da epigenética.

Sobre essas e as outras propostas de modificação da teoria da evolução, eu creio que os conservadores estão com a razão: os fenômenos envolvidos são todos muito interessantes, a maioria deles requer mais estudos para sabermos até que ponto são frequentes entre as espécies e quão profundamente são influentes na história da vida. Mas não são novidade que tenha o mérito de gerar algo que mereça ser visto como teoria nova.

Penso que no campo dos reformadores há alguns problemas de natureza filosófica: (1) uma noção mais rigorosa do que é teoria científica, para justificar que a teoria sintética seja modificada e ao mesmo tempo justificar que não esteja apenas sendo enriquecida por pesquisas de ponta nesses fenômenos; (2) uma noção mais rigorosa de processo/mecanismo evolutivo, pois não parece que o que estão propondo se qualifique como tal. Há também o problema de rotina de pesquisa: é preciso ter um corpo maior de evidências e uma amplitude filogenética/taxonômica maior para determinar que certos fenômenos sejam tão importantes quanto alegam ser (aqui merecem ser citados os vieses de desenvolvimento e as alegações de origem direcionada da variação).

Em time que está ganhando não se mexe. Concordo em não deixar que tudo na biologia evolutiva seja feito com uma “viseira molecular no nível do gene”, e me entusiasmo com as novas fronteiras sendo abertas na biologia moderna, mas casa em que se confunde fundação com argamassa, pilar com azulejo, não para em pé.

Referências para dois debates relevantes:

1. Laland, K. et al. 2014 Does evolutionary theory need a rethink? Nature 514, 161–164. (doi:10.1038/514161a) Disponível aqui.
2. Scott-Phillips, T. C., Laland, K. N., Shuker, D. M., Dickins, T. E. & West, S. A. 2014 The Niche Construction Perspective: A Critical Appraisal. Evolution 68, 1231–1243. (doi:10.1111/evo.12332) Disponível aqui.
Crédito da imagem: moeda de 25 centavos de Euro astríaca lançada em janeiro de 2014. Design de Helmut Andexlinger. Foto de NobbiP.