Rodrigo Véras

É a evolução genética previsível? Parte I

ResearchBlogging.orgAs ciências modernas são empreitadas intelectuais e sociais bastante complexas, dificilmente contidas pela camisa de força de um “método científico” único e estanque. Os desenvolvimentos históricos, o contexto tecnológico e a criatividade, são ingredientes importantíssimos que também fazem parte desta federação de formas de investigação (para usar a expressão de Susan Haack) a qual denominamos “ciência”.

Esta heterogeneidade não impede que reconheçamos as diversas disciplinas científicas e as diferenciemos de outras empreitadas e atividades intelectuais humanas. Os cientistas lançam mão de vários métodos específicos de investigação, que constituem-se em uma série de ferramentas heurísticas que vão desde estratégias de inferência variadas (indução, dedução, abdução), testes estatísticos, modelos matemáticos, simulações computacionais, protocolos para estudos observacionais e experimentais controlados, métodos analíticos e comparativos, esquemas causais de modelagem etc. Mas além disso, as ciências valem-se de ferramentas cognitivas de avaliação e escolha de teorias e hipóteses, que podem ser vistas como ‘virtudes cognitivas’ que se mostraram eficientes na condução da pesquisa científica. Entre estas é possível citar várias como: poder explanatório, precisão, reprodutibilidade, escopo e abrangência, coerência inter-teórica, fecundidade, etc além da principal virtude epistêmica, a acessibilidade empírica, especialmente via testes controlados que dependem da implementação dos métodos antes mencionados.

As teorias físicas mais tradicionais, estruturadas de forma mais rigorosa e baseadas em leis matemáticas e probabilísticas muito precisas (amplamente válidas e testáveis em condições muito controladas e idealizadas), obtém muito de seu status de seu poder preditivo, como nos casos da relatividade geral e da mecânica quântica, e mesmo como (foi) é o caso da mecânica newtoniana. Nestas áreas o modelo nomológico-dedutivo tem sua melhor representação de instanciamento. Porém a ciência é mais do que isso.

Diferentemente das teorias físicas tradicionais as teorias biológicas sobre evolução concentram-se em seu conteúdo explanatório e na possibilidade de ‘retrodizer’ fenômenos, ao invés de predizê-los, como as ciências físicas (e mesmo a biologia experimental) fazem, o que é óbvio pois a evolução é uma ciência histórica, como a arqueologia, a geologia, bem como parte da astronomia planetária e, até mesmo, da cosmologia, guardando as devidas diferenças em termos de precisão e nível de matematização (veja os artigos de Carol C. Cleland sobre os assunto nas referências).

As explicações de eventos passados integram os resultados experimentais e analíticos (de diversas outras áreas, tais como biologia molecular e bioquímica, fisiologia, anatomia e fisiologia comparativa funcional, biologia do desenvolvimento, sistemática, ecologia, biogeografia, paleobiologia etc) em um quadro mecanicístico mais geral que reúne narrativas históricas em um arcabouço estatístico elaborado em termos da genética de populações e da genética quantitativa. Estas diferentes áreas e evidências são amarradas em um contexto abdutivo, que permite testes empíricos, formulação de hipóteses adicionais e investigação analítica mais aprofundada, através do que se convencionou chamar de ‘Inferência pela melhor explicação‘.

Futurologia, ou seja extrapolação de ‘tendências’ históricas para o futuro, em ciências históricas ainda é algo, no mínimo, bastante controverso. As inúmeras cadeias causas que se encontram nos processos históricos, sejam eles a história social, política ou cultural humana, a geologia, a paleobiologia, a origem de sistemas planetários ou a evolução da vida, tornam estes processos tremendamente contingentes e, portanto, muito difíceis de prever. Para muitos estas considerações impõem limites severos a disciplinas como a biologia evolutiva.

Esta situação, entretanto, está longe de ser um consenso inabalável dentro da própria comunidade científica e filosófica, por isso talvez não seja algo que precisemos nos conformar. Estudos em evolução experimental tanto em campo como em laboratório (especialmente usando populações de microorganismo como os efetuados pelo grupo de Richard E. Lenski na Michigan State University) e as plataformas de AL (Artificial Life), como Avida e Polyword sugerem uma tendência diferente. Por isso, mesmo com a consciência de que a aleatoriedade, juntamente com outros processos estocásticos e contingentes, tem importância inegável durante a evolução biológica, alguns fenômenos indicam que a evolução biológica pode ter alguns aspectos replicáveis e até predizíveis.

A evolução convergente e paralela são os principais exemplos deste tipo de fenômeno e, desde muito tempo, levaram os cientistas a especularem sobre ‘leis gerais’ da evolução. Alguns padrões fósseis expressos na forma em que certas linhagens se ramificam e se extinguem também sugerem que características associadas as estratégias reprodutivas (K-selecionistas vs r-selecionistas) e de forrageio (generalistas vs especialistas) também possam indicar padrões gerais reprodutíveis, talvez mesmo definidos por processos de níveis hierárquicos mais elevados, como a ‘seleção de espécies’ ou de clados.

Ao mesmo tempo, exemplos de particularidades e singularidades históricas na evolução são também muito conhecidos, especialmente os padrões de sobrevivência relacionados às grandes extinções. Stephen Jay Gould batizou um de seus livros mais interessantes de ‘Wonderful Life‘ (‘Vida Maravilhosa‘), inspirado no filme It’s a Wonderful Life (em português “A felicidade não se compra”) de Frank Capra, estrelado por James Stewart. No filme George Bailey, o personagem de James Stewart, um frustrado e desesperado homem de negócios, recebe ajuda de um anjo que mostra a ele como seria a vida das pessoas, com que ele teve contato, caso ele jamais tivesse existido.


Gould aproveita esta idéia na forma de um experimento mental (sem a necessidade de um anjo) que consiste em “repassar o videotape (ou DVD ou Bluray, para os mais jovens) da vida novamente” e verificar como pequenas alterações afetariam o resto da evolução. Como as diversas possibilidades seriam afetadas caso certos eventos não tivessem ocorrido? Como grupos extintos poderiam alterar a atual configuração da vida caso algum (ou alguns deles) não tivessem sido extintos, por exemplo, por impactos de meteoros (ou grandes mudanças climáticas, vulcanismo, pandemias virais) ou, mesmo se, as mutações apropriadas tivesse ou não ocorrido no tempo e na ordem correta?

Neste livro, Gould nos conta a história da estranhamente bela fauna fóssil, datada do período cambriano, achada no folhelho de Burgess (Burgess Shale) na Colúmbia Britânica, que havia sido ‘redescoberta’ por um time de paleontólogos e que revelava uma riquíssima variedade de planos corporais (para muitos) extremamente mais díspares (disparidade é, neste contexto, um termo técnico) do que os encontramos hoje. Este fato poderia significar que o número de possíveis filos (no caso de animais, filos são distinguidos pelos diferentes planos de organização corporal básica) no cambriano seria, na realidade, muito maior do que o atual, mesmo que a diversidade (em termos de número de espécies e linhagens) atualmente seja maior.

Filos inteiros, de aparência bastante alienígena para nós, teriam sido extintos, com isso reduzindo drasticamente a bio-disparidade existente. Assim, ao invés de uma árvore com uma copa larga e florida, a representação mais adequada da história da vida animal (em relação a disparidade morfológica) seria uma conífera, como um pinheirinho de natal. Hoje esta perspectiva em relação a diminuição da disparidade é posta em dúvida por vários cientistas. Assim como, também é questionada a idéia de que muitos destes filos extintos não teriam parentesco mais próximo com filos atuais. O que se acredita atualmente é que a maioria daqueles seres, na realidade, fossem formas basais, ainda não completamente características moderna do grupo, mas ainda assim aparentados com os filos ‘descendentes’ modernos (crown groups). Embora, as idéias mais radicais de Gould, como a idéia de que a disparidade da própria fauna de Burgess superava em muito a disparidade atual. Mas mesmo assim, hoje, após muitas avanços em técnicas de quantificação da ‘disparidade’, estes estudos revelaram que a disparidade, i.e. variedade de planos corporais, alcançou seu máximo já neste período inicial da evolução animal e só mais tarde foi seguida pela diversidade taxonômica, portanto, preservando algumas das intuições de Gould. O Paleobiólogo, Douglas Erwin, coloca a questão da seguinte maneira:

“Com as avaliações quantitativas da morfologia substituindo a contagem de taxa ‘superiores’ como uma métrica de disparidade morfológica, numerosos estudos demonstraram a construção rápida do morfo-espaço no início das radiações evolutivas, e enfatizou a diferença entre as medidas taxonômicas da diversidade morfológica e avaliações quantitativas de disparidade.” (Erwin, 2007)

A questão principal, no entanto, é que um número enorme de animais bizarros foi extinta por algum processo contingente, e a vida animal atual é apenas uma fração bastante derivada deste momento da evolução dos seres multicelulares conhecida como ‘explosão’ cambriana. Imagine então, se estes fatores que causaram a extinção destas linhagens, em particular, não tivessem ocorrido. O quão diferente seria a vida atual? Será que uma cascata de eventos de especiação e extinção muito diferentes aconteceria? Será que ainda teríamos tido os dinossauros e mais tarde a explosão de diversificação de mamíferos, ambos grupos de vertebrados, membros do filo Chordata? Ou será que criaturas diferentes teriam surgido ocupando os mesmos habitats, porém de forma muito diferente e criando novos nichos? Ou ainda: Será que mesmo que criaturas diferentes evoluíssem (descendentes de linhagens extintas, diferentes das nossas linhagens parentais), estas teriam convergido em direção a formas semelhantes as das biotas modernas, talvez ocupando habitats muito parecidos, formando assim nichos equivalentes aos modernos? No momento, realmente não sabemos, apesar de suspeitarmos fortemente que (em um nível mais detalhado) muitas das criaturas e nichos atuais provavelmente não existiriam. Quem sabe, o nosso próprio nicho (generalistas de distribuição global com organização sociocultural extremante complexa, muito dependentes de tecnologia) não estaria entre os que, simplesmente, não teriam evoluído, sendo a evolução de criaturas inteligentes e capazes de nosso nível cultural e de tecnologia, um mero acidente, associado a vários eventos particulares e contingentes.

No entanto, observações recentes indicam que os genes não são todos iguais aos olhos da evolução. Mutações evolutivamente relevantes tendem a se acumular em genes conhecidos como hotspot e mesmo em posições específicas dentro destes genes. Assim a evolução genética é limitada pela função do gene, a estrutura das redes genéticas e pela biologia populacional.
A base genética da evolução pode ser previsível, pelo menos até certo ponto, e uma maior compreensão do presente exigiria a incorporação da previsibilidade das funções e características específicas de genes na teoria evolutiva (Stern e Orgogozo, 2009).

Desde o começo da moderna biologia evolutiva – quando Charles Darwin e Alfred Russell Wallace propuseram que a biodiversidade era basicamente resultado da seleção natural agindo sobre variações hereditárias nas populações – já havia o reconhecimento, tanto por Darwin quanto por Wallace, da importância da variação hereditária para a compreensão da evolução, mesmo que não fosse claro como a herança se daria. Apenas no início do século 20, com a ‘redescoberta’ dos estudos de Mendel, é que foi possível tratar matematicamente a dinâmica dos alelos nas populações, o que iniciou o campo da genética de populações.

Geneticistas de populações tratam genes e alelos (as variantes de um mesmo gene em um dado locus) como entidades genéricas, como ‘partículas’ herdadas e que de alguma forma causam variação na aparência, comportamento e fisiologia dos organismos, o que chamamos conjuntamente de fenótipo (Stern e Orgogozo, 2009).

Stern & Orgogozo chamam a atenção para um fato muito importante:

Esse nível de abstração era adequado, já que uma compreensão molecular da função do gene estraria muitas décadas no futuro. Mesmo com essa visão rudimentar da função do gene, no entanto, a genética da populações esclareceu muito a forma como as populações evoluem, e essa compreensão teórica estimulou a ‘nova síntese’, a combinação genética de populações com a ecologia, sistemática e biogeografia para explicar e explorar as muitas questões em evolução.” (Stern & Orgogozo, 2009)

Acontece que nos últimos 40 anos, a biologia molecular têm elucidado, de forma cada vez mais detalhada, qual a participação dos genes na regulação de processos biológicos. Infelizmente, apenas algumas observações mecanicísticas mais básicas foram integradas à biologia evolutiva, como a distinção entre substituições ‘sinônimas’ (substituições de nucleotídeos que não alteram o aminoácido codificado) e ‘não-sinônimas’ (substituições de nucleotídeos que alteram o aminoácido codificado) em regiões gênicas codificadoras de proteínas. Porém, outros aspectos da biologia molecular atual contribuem muito pouco para a teoria evolutiva, mas como Stern e Orgogozo (2009) afirmam:

O tempo chegou agora para integrar as especificidades da biologia molecular e desenvolvimento à biologia evolutiva. Nos últimos 15 anos, muitos exemplos de genes e mutações que causam mudanças evolutivas foram identificadas (1). Padrões nestes dados sugerem que uma síntese da biologia molecular do desenvolvimento com a teoria evolutiva irá revelar novos princípios gerais da evolução genética.” (Stern & Orgogozo, 2009)

Bem vindos a simpática ‘Evo Devo’!

Em artigo da revista Science, Stern e Orgogozo (2009) discutem várias evidências que apontam para que a evolução genética seja, pelo menos parcialmente, previsível já que a arquitetura genômica (fruto da evolução pregressa) dos seres vivos coage e limita alguns caminhos evolutivos.

1) Distribuição não-aleatória das mutações evolutivamente relevantes:

Estudos recentes sugerem que as mutações que contribuem para a variação fenotípica [mutações evolutivamente relevantes (2)] não são distribuídas aleatoriamente em todas as regiões genéticas. A evidência mais convincente vem de casos de evolução genética paralela: a evolução independente de alterações fenotípicas semelhantes em espécies diferentes devido às mudanças em genes homólogos ou às vezes na posição mesmo aminoácido de genes homólogos.” (Stern e Orgogozo, 2009)

Muitos casos de evolução paralela foram descobertos em todos os reinos. Seguem alguns exemplos:

1.a) Pelo menos 20 populações separadas da planta Arabidopsis thaliana têm evoluído mutações de codificação nulas (as mutações que eliminar completamente a função da proteína) no gene frigida que causa início do florescimento.

1.b) Resistência ao DDT e a piretróides evoluiu em 11 espécies de insetos a partir de mutações no gene que codifica, ou um ou outro, aminoácido, Leu1014 ou Thr929, que formam o canal de sódio dependentes da voltagem codificado pelo gene para.

1.c) Duas populações de vírus, submetidos, independentemente, à evolução experimental em um hospedeiro acumularam muitas das mesmas mutações de aminoácidos.

No total, são cerca de 350 mutações evolutivamente relevantes que têm sido encontradas em plantas e animais, e mais da metade desses casos representam casos de evolução genética paralela.

Stern & Orgogozo, então, afirmam:

Uma explicação para a evolução genética paralela é que a maioria dos genes desempenha um papel especializado durante o desenvolvimento, e apenas alguns genes podem evoluir para gerar variantes fenotípicas particulares. Por exemplo, mutações na rodopsina podem alterar a sensibilidade à luz de diferentes comprimentos de onda (6), e as mutações no lisozima podem aumentar a atividade enzimática no pH especial de fermentação intestinal (7). Mas o inverso não seria verdadeiro. Mutações na rodopsina não são susceptíveis de melhorar a fermentação e as mutações em uma enzima digestiva não ajudam a detecção de um determinado comprimento de onda de luz, mesmo que cada proteína fosse expressa no órgão de reciprocidade.” (Stern e Orgogozo, 2009)

Em parte, a função do gene explica e evolução paralela, mas isso não é sempre verdade já que em vários casos os padrões observados de evolução genética paralela, podem ser alcançados por mutações em um grande número de genes semelhantes, capazes de produzir as mesmas alterações fenotípicas:

Por exemplo, embora mais de 80 genes regulam o tempo de floração (8), alterações em apenas um subconjunto desses genes têm produzido mudanças evolutivas no tempo de floração (3). Centenas de genes regulam o padrão de muitas projeções epidérmicas, chamadas ‘tricomas’, em larvas de Drosophila melanogaster. Mas apenas um gene, chamado shavenbaby, evoluiu para alterar os padrões de tricomas das larvas entre as espécies Drosophila e este gene tem múltiplas mutações acumuladas evolutivamente relevantes (9).” (Stern e Orgogozo, 2009)

Então o que existe de especial sobre esses genes hotspots?

A resposta para esta questão encontram-se em grande parte na biologia do desenvolvimento. Inclusive, no caso particular de genes hotspots como shavenbaby, para ‘o porquê’ genes como eles existem. A estrutura dos genes eucarióticos e o controle espacial e temporal de sua expressão está na base deste processo. Abaixo pode se observar um esquema simplificado que ilustra a estrutura de um gene eucariótico.

Um conceito chave para compreendermos o desenvolvimento embriológico e, desta forma, a emergência e evolução dos planos corporais e das outras estruturas morfológicas, é o de ‘vias de sinalização‘. Para que um ser multicelular cresça e se desenvolva, como é mais freqüente, a partir de uma única célula, é que esta célula inicial deve se multiplicar de forma integrada e controlada, assim as diversas linhagens de células ‘filhas‘ diferencie-se em células particulares e formem tecidos específicos, órgãos e estruturas através de migração, movimentos coletivos e deformações conjuntas que geram a forma final do ser multicelular que está se desenvolvendo.

Estes processos dependem da habilidade das células ‘comunicarem-se‘ entre si e com seu meio adjacente, alterando seu comportamento de acordo com estas informações contextuais podendo assim contribuir para a formação de um todo auto-organizado. Esta comunicação se dá através da troca de sinais químicos entre as células (por exemplo, através de moléculas difusíveis de curta e longa distância, como secreções parácrinas e hormônios) ou do contato direto entre células através do entre moléculas de superfície, proteínas transmembrana cujos domínios extra-celulares funcionam como sistemas receptores-ligantes, como ocorre com as chamadas moléculas de adesão celular. Estas mensagens químicas, e outras ‘pistas’ de contexto, ao interagir (por exemplo, ao ligarem-se com um proteína receptora de membrana) com as células-alvo, produzem mudanças nos estados bioquímicos internos destas células, inclusive nos seus estados de ativação genômica. Isto é, genes são silenciados e expressos (‘ligados’ e ‘desligados‘) ou tem seus níveis de expressão aumentados ou diminuídos como conseqüência destes sinais. Estas mudanças, por sua vez, podem induzir estas células a multiplicar, migrar, diferenciar-se, aumentar de tamanho, mudar de forma, morrer (a chamada morte celular programada ou apoptose), liberar outras moléculas de sinalização ou expressar proteínas diferentes em suas membranas. Os eventos bioquímicos intracelulares que servem de intermediários para esta comunicação constituem-se nas ‘vias de sinalização‘ e nos mecanismos de ‘transdução de sinal’. São por estas vias bioquímicas que muitos biólogos evolutivos tem se interessado nas últimas décadas, como forma de explicar a evolução morfológica através de modificações nos sistemas de controle do desenvolvimento.

Os processos de transdução de sinal começam com a ligação de uma molécula, um ligante (difusível ou um
domínio extracelular de uma proteína de membrana de uma célula vizinha), a um receptor de membrana. Isto é, uma proteína transmembrana que é estimulada a mudar de conformação ao interagir com o seu ligante, no caso a molécula sinalizadora, induzindo uma cascata de eventos bioquímicos como a produção de segundos

mensageiros (como DAG e IP3), hidrolisação de ATP, ativação de proteínas fosforiladoras chamadas de proteínas quinases, abertura de canais iônicos, liberação de Ca++, indução ou inibição da transcrição de genes e conseqüente síntese (ou bloqueio) de novas proteínas.

Um dos elementos cruciais deste processo são os chamados elementos Cis-regulatórios e os fatores Trans-ativos, unidades essenciais no controle da transcrição gênica que tem ocupado muitas das pesquisas em genética do desenvolvimento e genética evolutiva. Os primeiros (elementos Cis-) são seqüencias de DNA que modulam a transcrição do genes a que estão associadas. Já os fatores Trans- são os elementos protéicos que ligam-se as estas seqüencias Cis- modulando-as.

Durante o desenvolvimento, várias vias de sinalização celular e fatores de transcrição agem conjuntamente para dividir progressivamente o embrião em um mapa virtual que especifica quando e onde irão se formar os órgãos (Stern e Orgogozo, 2009). As interações entre os genes que codificam estas moléculas de sinalização e os fatores de transcrição podem ser representadas como uma rede genética. Interações entre genes são moduladas em grande parte pelas regiões cis-regulatórias (veja esquema a direita e abaixo – Clique a figura para aumentá-la).

A estas regiões Cis-regulatórias ligam-se fatores de transcrição, e os efeitos somados de destes fatores em um gene-alvo determinam se o gene é expresso ou não. Genes controladores de padrões agem dentro de complexas redes genéticas e, normalmente, cada gene contribui para a formação de padrões de desenvolvimento em vários tipos de células. Por exemplo, os genes controladores de padrões que são mais ativos durante o desenvolvimento embrionário da epiderme contribuem também para o desenvolvimento dos sítios de inserção de músculos, órgãos sensoriais, poço traqueal, tricomas, ou outros tipos celulares. Nesta rede regulatória de desenvolvimento genes controladores de padrões primeiro colaboram para dividir a epiderme embrionária em domínios que expressam fatores de transcrição distintos. Estes genes controladores de padrões, então, regulam a expressão do gene shavenbaby, que funciona como um sistema de controle de ‘input-output‘ (‘entrada-saída‘). Estes genes de ‘entrada-saída’, funcionam como nós de uma rede causal, integrando as informações espaço-temporais complexas (a entrada) e ativando todo um ‘programa’ de diferenciação celular (a saída) (Stern & Orgogozo, 2009).

A proteína Shavenbaby ativa a expressão de uma bateria de genes-alvo que transformam uma célula epidérmica em uma célula de tricomas. Cada gene alvo desencadeia um aspecto específico de diferenciação celular e a produção de tricomas diferenciados requer uma expressão coordenada de todos os genes-alvo. O padrão de tricomas por todo o corpo é, assim, determinada pela distribuição da proteína Shavenbaby na epiderme, que é controlada pela região cis-reguladora do gene shavenbaby (Stern & Orgogozo, 2009):

“O gene shavenbaby serve como um elo para as informações de formação de padrões fluírem para dentro e para a informação dos destinos celulares fluírem para fora.” (Stern & Orgogozo, 2009)

O ponto que Stern & Orgogozo querem enfatizar é que, em toda a rede de regulação gênica do desenvolvimento dos embriões de drosófila, apenas um gene, no caso shavenbaby, por sua posição nodal na

rede de sinalização e função muito especializada de integrar ‘o módulo da morfogênese tricomas’, pode acumular mutações que alteram os padrões de tricomas sem perturbar outros processos de desenvolvimento. Assim, alterações em genes desta mesma via de desenvolvimento, porém a cima na hierarquia de sinalização, irá alterar a produção de tricomas, mas estas mutações também perturbarão outros órgãos. De forma complementar, alterações em qualquer um dos genes a baixo, na hierarquia da rede, não serão suficientes para criar ou eliminar um tricoma; alterações em concerto em vários genes ‘abaixo’ são necessárias para construir um tricoma (Clique nas figuras para aumentá-las).

Além disso, Stern & Orgogozo nos lembram, que todas as mutações evolutivamente relevantes em shavenbaby, que foram identificadas até o momento, alteram a região cis-regulatória e não a região codificadora da proteína. Mutações na região codificadora da proteína que alteram a função shavenbaby em todas as células em que a proteína shavenbaby se acumula, iriam alterar todos os tricomas produzidos em larvas e adultos (Stern & Orgogozo, 2009).

Assim, em uma perspectiva desenvolvimental, esclarece por que shavenbaby é um hotspot para mutações evolutivamente relevantes e por que essas mutações ocorrem na região cis-reguladora do gene. Nós prevemos
que as regiões cis-regulatórias de outros genes de ‘entrada-saída’ podem ser hotspots para outras características fenotípicas.”

O gene shavenbaby fornece um exemplo de um princípio mais geral: que as mutações que afetam várias características fenotípicas, as chamadas mutações pleiotrópicas, não são susceptíveis de contribuir para a evolução adaptativa. Como discutiremos a seguir, pleiotropia e outros parâmetros genéticos e da genética de
populações parecem influenciar a distribuição das mutações evolutivamente relevantes.”
(Stern & Orgogozo, 2009)

2. Os fatores que influenciam a distribuição de mutações evolutivamente relevantes:

2.1 Pleiotropia:

Mutações pleiotrópicas alteram várias características aparentemente não relacionados ao mesmo tempo. Duas mutações que causam aumento evolutivo do número de cerdas torácicas na drosófila ilustram a diferença entre mutações com efeitos específicos e pleiotrópicos (Fig. 2):

“Uma mudança em uma seqüencia cis-reguladora do gene scute afeta o número de órgãos sensoriais apenas sobre o tórax (12), enquanto que uma mutação na codificação dos gene poils au dos aumenta o número de órgãos sensoriais no tórax e nas asas (13). Mutações sobre poils au dos são mais pleiotrópicas que mutações sobre as regiões cis-regulatórias do gene scute. Scute, shavenbaby são genes do tipo ‘entrada-saída’, enquanto poils au dos é um gene de controle de padrões que, em conjunto com outro genes, regula a expressão scute (Fig. 2). Mutações, com efeitos pleiotrópicos, raramente mudam todas as características fenotípicas de uma forma favorável, e evidências experimentais indicam que os efeitos pleiotrópicos tendem a reduzir a aptidão (14). Seleção pode favorecer cerdas extras no tórax, mas não em órgãos como a asa. Mesmo se um efeito de uma mutação pleiotrópica induzisse uma grande melhoria na condição física, outros efeitos podem ser deletérios e reduzir a probabilidade de que a mutação se estabeleça na população (15).” (Stern & Orgogozo, 2009)

2.2 Epistasia:

A epistasia é um fenômeno também particularmente importante e é evidenciado por uma observação bastante simples. Quando examinamos os efeitos de uma mutação sobre um único fundo genético (os demais genes, e variantes alélicas, que compõem o genoma afetado em questão), esta mutação pode ter um efeito específico ou mesmo pleiotrópico, mas, em outro fundo genético, a mesma mutação pode produzir um efeito fenotípico diferente por causa das interações alélicas não aditivas, e é isso que chamamos ‘epistasia’. São os efeitos da interação entres os produtos de genes diferentes que não podem ser reduzidos a um soma simples de seus efeitos individuais (Stern & Orgogozo, 2009).

Por exemplo, um alelo de A. thaliana aumenta o crescimento em um fundo genético, mas reduz o crescimento em um fundo genético diferente (16). O segundo fundo genético não é simplesmente deletério, em geral, pois um alelo variante em um segundo locus provoca maior crescimento neste fundo. Assim, os efeitos de uma mutação podem depender da variação genética presente em outros loci.” (Stern & Orgogozo, 2009)

Epistasia é extremamente comum em populações naturais e, por vezes, podem reduzir a taxa de evolução, aumentando a variância associada a uma mutação em particular, causando efeitos flutuantes de aptidão nas
mutações tornando estes efeitos dependentes da herança genética de cada indivíduo:

Assim, em uma população de Arabidopsis contendo múltiplas origens genéticas, esperamos que a seleção para tamanho maior tenderá a favorecer alelos não-epistáticos que aumentem o crescimento em todas as fundos genéticos, em vez de alelos epistáticos que aumentem o crescimento em apenas um fundo genético.” (Stern & Orgogozo, 2009)

2.3 Plasticidade:

Populações expostas a repetidas alterações ambientais podem evoluir mecanismos genéticos que produzem diferentes fenótipos adaptados a diferentes condições ambientais: chamada de plasticidade fenotípica.

Por exemplo, os pulgões podem produzir múltiplas formas fenotípicas em resposta às condições ambientais, incluindo as formas assexuadas que se reproduzem rapidamente e formas sexuadas que depositam ovos hibernantes. As mutações que eliminam as formas sexuadas que reduzem a plasticidade podem dar, a uma linhagem, uma vantagem a curto prazo, uma taxa muito mais rápida de reprodução. Mas, a longo prazo, as linhagens de pulgões que não produzem formas sexuadas tendem a se extinguir, talvez porque eles não consigam se adaptar às novas condições ambientais.” (Stern & Orgogozo, 2009)

Algo semelhante ocorre em A. thaliana com o gene frigida que controla a plasticidade para o tempo de floração. Frigida responde a baixas temperaturas para induzir a floração. Em regiões com invernos quentes, mutações nulas em frigida podem fornecer um benefício de curto prazo de forma consistente, ao desencadear o florescimento, mesmo na ausência de um inverno frio. Mas estas mutações eliminam a plasticidade para época de floração, possivelmente prevenindo estas plantas de se adaptar a temperaturas mais frias ou de recolonizar áreas em climas mais frios. Assim, a abundância de mutações nulas em frigida em populações de Arabidopsis deve resultar de fatores que compensam as conseqüências negativas da plasticidade reduzida (Stern & Orgogozo, 2009).

2.4 Força de seleção:

Quando uma mudança de ambiente favorece o fenótipo que é muito diferente do fenótipo médio em uma população, mutações que causam grandes alterações fenotípicas para o novo ‘ideal’ serão favorecidas, pelos menos inicialmente (Stern & Orgogozo, 2009).

Por exemplo, raças domesticadas recentemente experimentaram provavelmente forte seleção por parte dos criadores, e muitos traços, típicos de domesticação recente, são resultantes de mutações que causam grandes efeitos fenotípicos, incluindo efeitos pleiotrópicos deletérios. Como exemplo, seis diferentes tipos de mutações nulas que interferem diretamente com a codificação do gene da miostatina causam hipertrofia muscular em diferentes raças de bovinos .

A Miostatina é um membro da superfamília de fatores de crescimento transformadores-β, atuando como regulador negativo do desenvolvimento muscular. Embora mutações nulas no gene da miostatina gerem animais com mais carne e menos gordura, estes animais têm dificuldades no parto e reduzida tolerância ao estresse. Isso indica que forte seleção artificial, durante a domesticação podem, obviamente, superar os efeitos negativos pleiotrópicos das mutações nulas no gene da miostatina (Stern & Orgogozo, 2009).

2.5 História da População:

O artigo de Stern & Orgogozo enfatiza um outro determinante importante da evolução genética, o tamanho das populações, passadas e atuais (Para maiores detalhes veja aqui). Estes influenciam em muito a evolução genética, sobretudo a eficiência da seleção natural, já que tamanhos pequenos de populações aumentam os efeitos da amostragem aleatória dos alelos, aquilo que os geneticistas chamam de deriva genética aleatória e já foi discutido, em outras ocasiões, aqui no evolucionismo:

Em pequenas populações, a deriva genética permitirá que alelos deletérios ocasionalmente aumentem em freqüência. Por exemplo, uma pequena população pura de beduínos em Israel desenvolveu uma alta freqüência de um alelo recessivo que provoca surdez (20). Com a forte deriva genética em pequenas populações, a seleção natural vai deixar de promover a disseminação de mutações adaptativas de pequeno efeito. Em vez disso, em comparação com grandes populações, mutações adaptativas de efeito relativamente grandes tendem a evoluir através da seleção natural em populações pequenas.” (Stern & Orgogozo, 2009)

Pequenas populações também têm um outro efeito crítico sobre a evolução. Elas limitam o número total de novas mutações introduzidas em uma população a cada geração. Logo, populações pequenas podem acabar ficando relegadas a mutações, longe das ‘ideais’ (com conseqüências pleiotrópicos e epistáticos) simplesmente porque as mutações potencialmente superiores ocorrem a uma taxa inferior e são perdidas pelos efeitos da deriva genética (Stern & Orgogozo, 2009).

A abundância de mutações nulas no gene frigida em populações de A. thaliana destaca a importância da história na evolução genética das populações:

Mutações nulas em frigida tem a conseqüência negativa de reduzir a plasticidade para o tempo de floração. Essas mutações também têm efeitos pleiotrópicos [reduzem a produção de frutos (21)] e mostrar epistasia em relação a outros genes que controlam o tempo de floração (22).” (Stern & Orgogozo, 2009)

Stern & Orgogozo (2008, 2009), afirmam, então que ‘estas observações sugerem que as mutações nulas em frigida não refletem os ‘alelos ideais’ para controle o tempo de floração‘. Para os pesquisadores, mutações nulas neste gene (frigida) apenas raramente, se é que alguma vez, devem estar envolvidas na divergência fenotípica entre as espécies, mas a seleção natural superou os efeitos deletérios das mutações nulas em frigida e promoveu a difusão dessas mutações em populações pequenas. As subpopulações de A. thaliana que migraram da Escandinávia, aparentemente, seguindo as pegadas da agricultura ao redor do mundo, se adaptaram às condições locais, incluindo os invernos relativamente quentes e mais curto de regiões temperadas, o que foi facilitado pelo fato destas plantas serem auto-fertilizadas, por isso mesmo uma única planta pode dar origem a uma nova população. Assim, estas subpopulações pequenas forneceriam poucas oportunidades para mutações benéficas com efeitos específicos, e não-pleiotrópicos, aparecerem, assim a seleção acabou por favorecer mutações de maior efeito, tais como mutações nulas como as que ocorrem em frigida. Desta forma Stern & Orgogozo (2009) concluem que ‘a abundância de mutações nulas em frigida provavelmente reflete o fato de que estas mutações ocorrem a uma taxa superior à mutações associadas sem conseqüências deletérias‘.

A base genética da evolução de curto e longo prazo:


O exemplo frigida não é o único. Em muitas plantas e animais, a evolução ao longo de períodos extensos de tempo (variação entre espécies) parece diferir de várias formas da evolução em períodos mais curtos de tempo(variação entre raças domesticadas e entre indivíduos dentro de uma espécie) . Aqui estão três maneiras
gerais em que a evolução genética a longo prazo e de curto prazo são diferentes (Stern & Orgogozo, 2009).

Primeiro, a epistasia é comumente encontrada em mutações que contribuem para a variação fenotípica dentro das espécies, que é raramente observada para as mutações que causam as diferenças entre as espécies. Dentro de D. melanogaster, a variação no número de cerdas é causada por múltiplos loci de efeito relativamente pequeno, e esses loci têm efeitos epistáticos da mesma ordem de grandeza que os efeitos aditivos. Em contrapartida, as diferenças morfológicas entre as espécies Drosophila são devidas a múltiplos loci de efeito pequeno para intermediário que raramente mostram epistasia. Estudos de variação do tamanho corporal em frangos mostram um padrão semelhante, com alelos segregantes dentro das espécies mostrando mais epistasia que os alelos envolvidos na diferenciação das espécies (Stern & Orgogozo, 2009).

Por outro lado, mutações nulas que surgem com freqüência, e muitas vezes causam efeitos pleiotrópicos e epistáticos, parecem contribuir mais para a variação fenotípica dentro das espécies do que as diferenças fenotípicas entre as espécies. Cerca de 55% das 99 mutações conhecidas por causar traços que tornam animais e plantas mas adequados a domesticação são mutações nulas que atingem as regiões de codificação dos genes, enquanto apenas 7% dos 75 mutações conhecidas para causar diferenças interespecíficas são mutações nulas envolvendo a codificação (Fig. 3). Por exemplo, embora os rebanhos domésticos de gado evoluíram múltiplas vezes mutações nulas do gene da miostatina, todas as espécies de mamíferos estudados até o momento possuem um gene da miostatina funcional (Stern & Orgogozo, 2009).

Em terceiro lugar, a proporção de mutações cis-regulatórias causando variação morfológica difere entre os níveis taxonômicos. As mudanças em características morfológicas podem se dar através de alterações em regiões codificadoras ou através de alterações nas seqüencias cis-regulatórias (Fig. 2). Como as mutações em regiões cis-regulatórias, muitas vezes, têm menos efeitos pleiotrópicos do que mutações em regiões codificantes, é esperado que as alterações morfológicas envolvam principalmente mutações nessas seqüencias. Dentro das espécies, a maioria das mutações que causam a variação morfológica encontradas ocorriam em regiões codificadoras de proteínas (Fig. 3). Em contraste, entre as espécies, mais mutações que causam diferenças morfológicas foram encontradas em regiões cis-regulatórias. Presumivelmente, muitas das mutações em regiões codificadoras encontradas dentro de uma espécie não se espalham através das populações, talvez por causa dos efeitos pleiotrópicos deletérios (Stern & Orgogozo, 2009). Então as pressões seletivas podem evitar ou dificultar a fixação deste tipo de mutação.

Estas diferenças notáveis e inesperadas entre a evolução genética, de curto e longo prazo, só recentemente acumularam-se em um número suficiente de estudos de casos para adquirirem relevância científica. Esses padrões são coerentes com as expectativas teóricas de como os cinco parâmetros discutidos anteriormente (pleiotropia, epistasia, plasticidade, resistência da seleção, e estrutura da população) devem influenciar a evolução da genética.

  1. Evolução durante longos períodos, refletida nas diferenças entre as espécies, deve resultar de mutações relativamente livres de efeitos pleiotrópicos e epistáticos.

  2. Em contraste a evolução, em períodos mais curtos, refletida nas diferenças entre as raças domesticadas e na variação dentro da espécie, pode muitas vezes resultar de mutações que perturbam plasticidade ou que tenham efeitos pleiotrópicos e epistáticos.

Em resumo, as diferenças entre as espécies são causadas por um subconjunto parcial das mutações que surge no seio das populações naturais (Stern & Orgogozo, 2009).

Conclusões:

Embora acreditemos, normalmente, que as mutações ocorram de forma aleatória (para maiores detalhes sobre a questão da aleatoriedade nas mutações veja aqui) no genoma, a distribuição das mutações que causam a diversidade biológica parece ser altamente não randômica. Os efeitos evolutivamente relevantes de uma mutação, que contribuem para a evolução fenotípica, dependem, portanto, de todo um conjunto de questões genéticas, mais especialmente:

  1. Função do gene;

  2. Estrutura do gene;

  3. Papéis dos genes e de seus produtos

Assim, para algumas mudanças fenotípicas (associadas às mutações evolutivamente relevantes), espera-se que estas se acumulem em alguns genes hotspot e até mesmo em determinadas regiões dentro destes genes individuais. Além disso, a biologia populacional e ecologia influenciam o espectro de mutações evolutivamente relevantes. Durante curtos períodos, as mutações adaptativas com efeitos pleiotrópicos deletérios poderão ser selecionadas por que as mutações ‘próximas ao ideal’ (i.e. sem efeitos deletérios) ainda não apareceram. Em contraste, durante longos períodos, mutações adaptativas sem efeitos pleiotrópicos deletérios têm mais oportunidades para surgir e serem assim selecionadas (Stern & Orgogozo, 2009).

Estas constatações levaram Stern & Orgogozo (2009) a sugerir que a base genética da evolução fenotípica, portanto, parece ser de certa forma previsível, mas estes fazem algumas ressalvas importantes que merecem atenção:

“Esses padrões que emergem na distribuição de mutações que causam modificações na diversidade fenotípica, são derivados a partir de um conjunto limitado de dados que foram extraídos da literatura, portanto, é possível que esses padrões reflitam tendenciosidades no modo como os cientistas têm procurado por mutações evolutivamente relevantes (1). Por exemplo, muitos pesquisadores focam em genes candidatos, o que impede a descoberta de genes previamente desconhecidos. No futuro, esperamos que a adoção generalizada de abordagens experimentais imparciais, como o mapeamento genético, por exemplo, irão fornecer dados para testes robustos da previsibilidade da evolução genética.” (Stern &Orgogozo, 2009)

O mapeamento genético pode ser realizado dentro de cada espécie e, em casos raros, entre espécies estreitamente relacionadas através de cruzamentos controlados e análise de QTL (Quantitative Trace Locus) das características de híbridos com diferentes fundos genéticos. Como alternativa, a substituição de todos os genes de uma espécie elos de uma segunda espécie, gene por gene, embora experimentalmente entediante, pode permitir inquéritos imparciais para as espécies que não podem ser cruzadas. Esta abordagem permitiria comparações entre táxons distantemente relacionados e forneceria um teste direto para revelar se os táxons distantemente relacionados acumulam diferentes tipos de mutações evolutivamente relevantes que as espécies estreitamente relacionadas (Stern & Orgogozo, 2009).

Espera-se que mais previsões quantitativas precisas, sobre as mutações responsáveis pela evolução fenotípica, venham desta síntese adicional da biologia molecular do desenvolvimento e da genética populacional. Novos modelos teóricos provavelmente abordarão vários parâmetros de genética de populações, em um quadro de referência que leve em conta a estrutura genômica e organização desenvolvimental no qual estes parâmetros estão inseridos. Estes modelos podem ajudar a explicar como a distribuição das mutações, surgidas espontaneamente, se traduz na distribuição de mutações e efeitos mutacionais em populações segregantes e como estes processo influenciam a evolução em curto e longo prazo (Stern & Orgogozo, 2009).

O fato de que a evolução genética possa, a longo prazo, representar apenas um subconjunto parcial das mutações tem várias conseqüências práticas. Entre elas podemos citar o desenvolvimento de algoritmos computacionais mais eficientes – que utilizem as estratégias de busca evolutiva, para a melhoria das colheitas agrícolas e criação de animais, já que a domesticação frequentemente seleciona mutações efeitos pleiotrópicos deletérios – juntamente com a ajuda aos engenheiros e criadores na exploração das classes de mutações que parecem estar em jogo na evolução de longo prazo (que envolve a seleção de mutações efeitos fenotípicos específicos e que minimizem efeitos pleiotrópicos e epistáticos), o que pode facilitar a escolha de raças que possuam características desejáveis sem propriedades associadas desfavoráveis.

No entanto, de um ponto de vista teórico mais abrangente, estes fatos nos permitem uma melhor apreciação da importância dos processos de desenvolvimento na evolução biológica. As seqüencias Cis- e fatores Trans- são apenas a ponta do iceberg dos sistemas epigenéticos de controle do desenvolvimento. Mas deixemos estas questões para um próximo artigo.

____________________________________________________________________

Referências:

Stern, D., & Orgogozo, V. (2009). Is Genetic Evolution Predictable? Science, 323 (5915), 746-751 DOI: 10.1126/science.1158997
Stern, D., & Orgogozo, V. (2008). THE LOCI OF EVOLUTION: HOW PREDICTABLE IS GENETIC EVOLUTION? Evolution, 62 (9), 2155-2177 DOI: 10.1111/j.1558-5646.2008.00450.x

Referências adicionais:

Cleland, Carol E. (2001). “Historical science, experimental science, and the scientific method,” Geology 29, pp. 987-990.

Cleland, Carol E. (2002). “Methodological and Epistemic Differences Between Historical Science and Experimental Science,” Philosophy of Science 69, pp. 474-496.

Gould, Stephen Jay (1990) VIDA MARAVILHOSA – O acaso na evolução e a natureza da história (Tradução: Paulo César de Oliveira) Companhia das Letras ISBN 9788571641419 – http://www.companhiadasletras.com.br/detalhe.php?codigo=10228

Erwin, D.H. 2007.
Disparity: Morphological patterns and developmental context, Palaeontology, 50:57-73.

Haack, Susan Inquiry and advocacy, fallibilism and finality: culture and inference in science and the law Law, Probability and Risk (2003) 2, 205–214

Lipton, Peter (2000)Inference to the Best Explanation, in W.H. Newton-Smith (ed.), A Companion to the Philosophy of Science, Blackwell 184-193.

Mosher
DS, Quignon P, Bustamante CD, Sutter NB, Mellersh CS, Parker HG, Ostrander EA. A mutation in the myostatin gene increases muscle mass and enhances racing performance in heterozygote dogs. PLoS Genet. 2007 May 25;3(5):e79. Epub 2007 Apr 30. PubMed PMID: 17530926; PubMed Central PMCID: PMC1877876

Créditos figuras:

RICHARD BIZLEY / SCIENCE PHOTO LIBRARY
CHRISTIAN JEGOU PUBLIPHOTO DIFFUSION/ SCIENCE PHOTO LIBRARY
ALAN SIRULNIKOFF / SCIENCE PHOTO LIBRARY
LIBRARY OF CONGRESS / SCIENCE PHOTO LIBRARY
LAWRENCE BERKELEY NATIONAL LABORATORY/ SCIENCE PHOTO LIBRARY
EYE OF SCIENCE / SCIENCE PHOTO LIBRARY
DR JEREMY BURGESS / SCIENCE PHOTO LIBRARY

Based on PDB 1CUL http://commons.wikimedia.org/wiki/File:GPCR_mechanism.png (Original uploader was Bensaccount at en.wikipedia).

PDB 1rm1 EBI.jpg http://commons.wikimedia.org/wiki/File:PDB_1rm1_EBI.jpg (auhor: Jawahar Swaminathan and MSD staff at the European Bioinformatics Institute).

Conceitos problemáticos em evolução parte II: Causa e Acaso

ResearchBlogging.org“Ajudar as pessoas a compreender a evolução não é uma questão de acrescentar aos seus conhecimentos já existentes, mas ajudá-los a rever seus modelos anteriores do mundo para criar uma maneira inteiramente nova de ver” (Sinatra et al., 2008).

A epigrafe deste artigo nos remete a questão de como a mudança conceitual é importante durante o ensino e aprendizagem, sobretudo em relação ao ensino de ciências que, muitas vezes, necessita que adotemos formas de pensar e encarar o mundo que podem chocar-se com o senso comum e com algumas doutrinas muita arraigadas em nossa sociedade. Talvez o primeiro passo para lidar com esta questão seja reconhecer que os alunos já chegam com uma série de informações e conceitos, para não dizer preconceitos, que precisam ser reconhecidos e tratados de alguma maneira que seja condutiva ao aprendizado, mas, ao mesmo tempo, não seja hostil. Dando continuidade a este tema (iniciado em artigo anterior, Problem Concepts in Evolution Part I: Purpose and Design, e aqui comentado), Louise S. Mead e Eugene C. Scott, ambas no National Center for Science Education, estendem sua análise a dois outros conceitos que podem gerar grandes problemas para muitos alunos, no artigo Problem Concepts in Evolution Part II: Cause and Chance.

Neste artigo as autoras concentram sua atenção nos conceitos “chance” – ou mais especificamente “acaso” (em português) – e “causa”. Ambos conceitos têm usos bastante técnicos dentro das ciências que são relativamente não problemáticos, mas, como no caso de “propósito e design”, necessitam do esclarecimento de seu significado científico, em contraste a sua utilização na linguagem comum e religiosa. Tarefa fundamental para vencer a resistência de alunos mais religiosos e acostumados com o linguajar mais ortodoxo. Esta compreensão é importante porque os alunos precisam dominar os conceitos científicos de causalidade e acaso e usá-los de modo apropriado no contexto das explicações evolutivas. Veja a seguir, por exemplo:

“No Inventário do conceito de seleção natural (Anderson et al. 2002) pede-se aos alunos para realizar o seguinte exercício: determinar a “o que causou as populações de aves, com formas e tamanhos de bicos diferentes, tornarem-se espécies distintas distribuídas em várias ilhas” como “diferentes tipos de bico surgiram pela primeira vez nos tentilhões de Galápagos”, porque “as mudanças em bicos dos tentilhões ocorreram por acaso “, no sentido de que as mudanças ocorreram independente da intenção ou necessidade (grifo nosso). Os alunos precisam ter uma compreensão clara de como esses conceitos são utilizados no contexto da evolução.” (Mead e Scott, 2010)

Aristóteles, costumava separar as causas em quatro categorias:

1)Causas materiais;
2)Causas formais;
3)Causas efetivas;
4)Causas finais.

O primeiro tipo de causa, “causa material”, seria relacionada, hoje, a composição de uma entidade ou sistema em investigação. A segunda, entretanto, “a causa formal”, estaria mais próxima das relações entre as partes e suas interações, portanto, mais relacionada a organização de um sistema. Originalmente, este tipo de causação também poderia envolver a idéia de projeto, mas em um sentido mais abstrato, como a relação entre uma planta de engenharia e um edifício. O terceiro tipo de causa estaria ligado a causação compreendida em seu sentido mais direto, em que a causa provocaria um (ou mais) efeito(s). Este sentido é bem mais próximo a noção física de causação. E por fim, a quarta causa, a “causa final”, entendida tanto como o propósito/função de uma dada entidade ou sistema como a intenção por trás desta função.

Em ciências naturais, atualmente, o que se entende por causa é muito mais semelhante ao conceito de ‘causa eficiente’, para muitos, pelo menos desde Hobbes, o único tipo de causa realmente importante. Interações diretas entre partículas e átomos, que pode ser pensadas em termos de trocas de energia, estão no cerne do pensamento causal moderno. No último século, entretanto, algumas alterações nesta visão levaram a considerar a causação básica em seu sentido mais estatístico, principalmente, devido ao advento da mecânica quântica, já que muitos fenômenos fundamentais parecem simplesmente não ter uma causa individual discernível. No entanto, como já aludido, outros determinantes associados a origem, função e organização dos sistemas físicos e biológicos continuam sendo estudados pelos cientistas, mantendo uma certa proximidade a algumas das causas aristotélicas.

Porém, os problemas aparecem de verdade quando o termo “causa” é equiparado a uma finalidade por trás de algum fenômeno. No sentido de uma suposta motivação de um agente racional baseada em uma associação entre meios e fins estabelecida de modo intencional. Algo que só faz sentido para agentes cognitivos, como nós humanos, capazes de prever as conseqüências de determinadas relações e propriedades e, através delas, projetar um artefato para alguma função específica. Esta é uma das principais confusões que podem acontecer quando lidamos com causação em ciências.
Entretanto, mesmo deixando a ação de agentes cognitivos de lado, em um sentido mais restrito – o de “adequação funcional” (no sentido que buscamos elucidar com perguntas como “para que serve?”)- a função de um sistema tem um papel explicativo importante na biologia. Este é mais um motivo para estabelecer com cuidado as diferenças entre estes dois sentidos de “causa” que são associados a características funcionais de um sistema. Esta constatação nos remete a algumas distinções muito importantes discutidas na literatura de biologia teórica e filosofia da biologia moderna.

Causas: Últimas e próximas

Em biologia, a investigação da estrutura e função de sistemas biológicos pode envolver múltiplas instâncias de causação, já que existem muitos níveis de interações. A presença de sistemas homeostáticos e o homeodinâmicos de regulação – envolvendo laços de retro-alimentação positiva e negativa, limiares de ativação e muitos outros tipos de relações não-lineares – tornam mais complicada a compreensão destas relações causais.
Algumas destas interações aproximam-se do sentido de ‘causa material’, em que a composição ou estrutura de um sistema ou subsistema biológico é fundamental para a compreensão de seu funcionamento. Outras, no entanto, podem ser melhor compreendidas como semelhantes a idéia de ‘causa formal’, na qual as relações entre as partes e seu arranjo no todo (e, em particular, sua dinâmica coletiva) são mais salientes do que seus componentes ou as propriedades individuais deles.
Este ponto pode ser melhor compreendido ao analisarmos os sistemas de herança genética, as redes de controle de expressão gênica ou dinâmica tecidual e embrionária, que podem ser melhor compreendidas como sistemas dinâmicos não-lineares, como aqueles modelados pelas ciências da complexidade, análogos a uma série de outros fenômenos naturais auto-organizados da física e química. A utilização da teoria de redes é uma destas abordagens possíveis para explicar estes processos e compreender como eles possibilitam e causam vários fenômenos biológicos.

Por outro lado, as ‘causas finais’, em seu sentido clássico, foram consideradas becos sem saída teóricos e empíricos em biologia. O mesmo acontece em em outras ciências como a física e química. As exceções óbvias acontecem em domínios bem específicos de estudo, como a sociologia, psicologia, etologia e antropologia. Nestes campos de estudo a organização social e o comportamento dirigido são bem conhecidos, sendo vistos como oriundos de processos naturais. Porém, a agência sobrenatural – sobretudo quando pensamos em divindades super-poderosas e ultra-inteligentes – é deixada de lado, simplesmente, por não ser condutiva a investigação científica, não se enquadrando bem a análise experimental e investigação empírica de modo geral, a não ser de modo muito limitado e que, certamente, não seria aceito pela imensa maioria dos seguidores, e teólogos, das mais diversas religiões.

Para a biologia, a idéia que mais se aproxima da idéia de ‘causas finais’ é o que Ernst Mayr chamou de “causas últimas” que são propostas em contrapartida a idéia de “causas próximas”:

“Na maioria dos casos, os biólogos modernos reconhecem duas categorias de causas: próximas e últimas. Em biologia causas próximas demandam explicações que respondam a perguntas sobre um organismo durante a sua vida (Ariew, 2003), por exemplo, a dispersão do gorila macho pode ser causada por influências demográficas e comportamentais (al Stoinski et al. 2009) e, muitas vezes, têm relação com causas desenvolvimentais ou mecanicista. Por outro lado, causas últimas estão associados com as explicações evolutivas, a ” formação e mudança de programas genéticos” (Mayr, 1993), por exemplo, dados sugerem que a seleção divergente para a utilização de recursos alternativos é a causa última da radiação adaptativa “cruza-bicos” (Benkman 2003) .” (Mead and Scott, 2010)

O primeiro tipo de questão pede uma resposta que envolve a compreensão da fisiologia, ecologia ou demografia do ser vivo, ou da espécie, em questão. A segunda, entretanto, demanda uma explicação em termos de cenários evolutivos, e vai depender de evidências advindas da biologia comparativa, paleontologia, além das áreas de genética e ecologia evolutiva. Então, quando biólogos falam em “causas próximas” costumam estar a se referir às ‘causas eficientes’ (e, em certa medida, às ‘causas materiais’ e ‘formais, como discutido anteriormente em um contexto moderno). Estes tipos causais não estão em contradição entre si, constituindo apenas níveis diferentes de análise e explicação. Como se pode perceber, ambas questões estão ligadas historicamente, pelo simples fato de que as características funcionais de um organismos são resultantes de um processo de evolução, um processo histórico transgeracional de mudança hereditária, diversificação de linhagens e adequação destas populações aos seus diferentes contextos ecológicos. Muitas vezes as respostas, a determinadas perguntas em biologia, envolvem ambos tipos causais em investigados instanciados em diversos níveis diferentes:

“Por exemplo, porque é frequentemente o caso que os machos são vistosos pássaros e fêmeas são monótonas? Respondendo a questão em termos de causas próximas, um biólogo que discute as diferenças hormonais entre machos e fêmeas relacionadas às diferenças na expressão de alelos, limitados a um único sexo ou reprimidos ou promovidos em apenas um determinado sexo por elementos de regulação (Coyne et al. 2007). Respondendo a questão em termos de causas finais, um biólogo que refletisse sobre a história evolutiva da diferença de plumagem (Mayr, 1993): dada a existência de tais diferenças de base genética que produzem variações de cor em machos e fêmeas, a seleção natural e sexual, deriva e migração, operando através de muitas gerações, porque a população a mudar no que diz respeito a estes personagens.” (Mead e Scott, 2010)

Embora a maioria das pessoas não use termos como ‘causas próximas’ ou ‘causas finais’, o público leigo aceita bem a idéia de múltiplos níveis de causação:

“Digamos, uma arritmia, uma anormalidade no ritmo cardíaco, certamente [um leigo] não teria qualquer dificuldade em distinguir entre a afirmação de que uma parada cardíaca repentina foi devida (proximalmente) a um anomalia específica no sistema elétrico do coração, da afirmação de que a parada cardíaca foi devida (mais, em última instância) a um desequilíbrio de nutrientes, um choque elétrico, consumo de drogas ilegais, ou de uma doença cardíaca preexistente, como a doença de artéria coronária. Também não teriam qualquer dificuldade em compreender que as causas mais imediatas são compatíveis com mais causas profundas: […] poderia ser razoável dizer que a parada cardíaca foi causada por um problema específico e que também foi causada por uma doença cardíaca preexistente.” (Mead e Scott, 2010)

Entretanto, ainda assim existe uma diferença na compreensão que os leigos têm de cada um destes tipos causais. Por terem de ser inferidas, aquilo que se afirma sobre “causas profundas” torna-se mais incerto. Lidar com tais alegações e fenômenos, em nível mais geral, mais abstrato e teórico, pode ser bastante difícil. Por isso, pode tornar-se tentador para parte do público invocar causas finais de natureza divina nos casos em que causas naturais últimas são difíceis de compreender ou acessar, sobretudo quando existe a aparência de um suposto choque entre com pontos de vista religioso ou morais. Esta facilidade, em apelar para explicações intencionais, também pode ser explicada pela familiaridade que nós seres humanos tempos com explicações personalistas, baseadas em agentes intelectuais e suas intenções. Mead e Scott dão o seguinte exemplo:

“Por exemplo, as causas imediatas dos terremotos de 2010 no Haiti e Chile foram o movimento das placas tectônicas em que cada nação se assenta. A maioria dos americanos entendem que os continentes se moveram ao longo do tempo (National Science Board 2010) e entendem que a causa imediata para a devastação foi natural. Da mesma forma, as causas naturais podem ser facilmente encontradas para explicar a diferença entre o maior grau de devastação sofrido no Haiti do que no Chile: a proximidade do epicentro do terremoto da capital do Haiti, a densamente povoada Port-au-Prince, em comparação com o epicentro mais rural, no Chile; códigos de construção civil mais fracos no Haiti do que no Chile, e assim por diante. O evangelista Pat Robertson, no entanto, apesar de não negar as causas naturais do terremoto, explicou que a causa principal da devastação no Haiti era que seu povo “firmara um pacto com o diabo”, no século XVIII (Anônimo 2010), igualando a causa máxima do terremoto com algum nexo de causalidade do tipo de sobrenatural, aqui diabólico.” (Mead e Scott, 2010)

As autoras, nesta parte, tecem algumas considerações sobre o naturalismo metodológico (NM) e como os cientistas não conjecturam a atividade de uma entidade sobrenatural, divina ou diabólica, em suas explicações de fenômenos naturais. Este ponto precisa ser enfatizado de forma explicita. Isto é, explicações em termos de causas finais sobrenaturais em biologia não são empregadas, apenas explicações naturais, em particular, evolutivas, racionalmente acessíveis e passíveis de teste e acordo intersubjetivo.

Mead e Scott, lembram de que a maioria dos alunos são religiosos, por isso professores devem explicar, de forma clara, os vários tipos de explicações causais, enfatizando a distinção entre causas próximas e últimas, salientando que as hipóteses científicas devem ser testáveis e cognitivamente acessíveis. Apesar deste ser um conselho particularmente importante para o ambiente religiosamente polarizado dos EUA, creio que também se aplica aos nossos alunos. O fato das causas próximas em biologia serem freqüentemente observáveis, torna mais fácil para os alunos compreendê-las. O problema maior é mesmo com as causas últimas, tipicamente inferidas indiretamente. Portanto, é muito importante enfatizar que as hipóteses evolutivas são também testáveis, diferentemente de hipóteses sobrenaturais, baseadas em uma agente cujas motivações, habilidades e intenções não são cognoscíveis ou pelo menos não se espera obter acordo sobre elas:

“Hipóteses sobrenaturais podem incluir elementos empíricos que são testáveis, naturalmente: a hipótese de que Deus criou o Universo cerca de 6.000 anos atrás, por exemplo, é testável, tem sido testada, e acabou por ser falseada. Mas a hipótese mais ampla, que não só no que diz respeito a idade do universo, a de que Deus criou o universo não é afetada pela falha da hipótese específica que foi falseada. Portanto, apesar da tentação de pensar de outra forma, as explicações finais em ciência não pode invocar causas sobrenaturais.” (Mead e Scott, 2010)

A questão tocada pelas autoras é tremendamente importante e tem sido alvo de debate dentro das comunidades científicas e filosóficas. Muitos artigos recentes tem defendido que hipóteses sobrenaturalistas podem sim ser alvo de investigação científica em contextos mais amplos, podendo ser elas mesmas adequadamente tratadas pelo NM. A maioria destes autores defende inclusive que isso tem sido feito e culminou com o sucesso da visão de mundo naturalista. Um dos argumentos é de que as ciências postulam constantemente entidades não observáveis, mas que implicam em condições observáveis e mesmo acessíveis experimentalmente. Como a investigação científica tem sempre uma natureza conjectural e falível, muitos filósofos e cientistas não vem problema em testar, de forma indireta e provisória, determinados postulados sobrenaturalistas com implicações não-ambíguas detectáveis na natureza.

Dois artigos recentes escritos por Yonatan Fishman (2008) e por Maarten Boudry, Stefaan Blancke & Johan Braeckman (2010) defendem exatamente este ponto. Estas considerações são importantes porque alguns criacionistas acusam as ciências modernas, ao assumir o NM, de rejeitar a priori o sobrenatural. Ambos autores, rejeitam estas alegações e concluem que as explicações sobrenaturalistas deram lugar as explicações naturalistas por causa do fracasso das primeiras e o sucesso das últimas em permitir o avanço científico e o desenvolvimento de programas de pesquisa empiricamente orientados centrados no teste de hipóteses naturais e acessíveis intelectualmente ao acordo intersubjetivo. Outros autores, como Robert Pennock (2009) e Barbara Forrest (2000), discordam desta avaliação, mas também não aceitam a acusação de que o sobrenaturalismo é rejeitado a priori pelos cientistas, insistindo na distinção entre o NM e a versão metafísica ou filosófica do naturalismo (que não deixa espaço para o sobrenaturalismo), NF. Sendo, apenas o primeiro tipo de naturalismo, o metodológico, o único compromisso que precisa ser adotado, de fato, na investigação científica.

Em artigo recente, Pennock (2009) deixa claro o que está em jogo, se aproximando, em muitos sentidos, da posição de outros filósofos anteriormente citados reconhecendo a orientação pragmática do NM, mas divergindo em pontos importantes. Pennock reforça a idéia da importância e exeqüibilidade da demarcação entre ciência, não-ciência e pseudo-ciência, muito criticada nos últimos 30 anos. Muitas destas críticas advém de certos argumentos do filósofo Larry Laudan que Pennock esclarece e rebate (Para uma ótima introdução ao atual estado do debate sobre o problema da demarcação veja Science and Pseudo-Science). Ao analisarmos esta questão, entretanto, o que mais fica patente é que o acordo entre filósofos e cientistas, em relação as diferenças entre os programas científicos e as pseudociência, é muito maior do que muitos imaginam, com a imensa maioria deles concordando naquilo que consideram ciências e naquilo que consideram pseudociências. Este acordo se estende ao Design Inteligente cuja natureza pseudocientífica é difícil de disfarçar.

As diferenças ocorrem em um terreno mais abstrato. Certos filósofos e cientistas julgam que é possível separar as idéias de seus proponentes e estruturá-las de tal forma que possam ser operacionalizadas e testadas empiricamente. Porém, como afirma Pennock, esta concepção esbarra no fato de que a natureza conjectural, provisória e pragmática das ciências não é aceita pela imensa maioria dos proponentes do criacionismo e Design Inteligente. Eles não pretendem transformar suas crenças em hipóteses testáveis de forma independente, preferindo insistir em desafiar as ciências tradicionais, especialmente a biologia evolutiva. Existe, portanto, uma unilateralidade clara em relação as atitude criticas destes grupos, diferentemente da comunidade científica que depende da crítica metódica e constante de suas próprias idéias que esta seja constantemente feita em bases consensuais e sistemáticas. Algo semelhante ocorre em relação com as pessoas que, mesmo aceitando a evolução biológica, mantém uma fé sobrenaturalista pessoal. Estas pessoas, que incluem muitos cientistas, no caso específico de suas crenças religiosas pessoais, utilizam-se de outros tipos de estratégias de “conhecimento” para acessar e manter sua fé, separando os domínios do transcendental e do empiricamente testável.

Religiosos moderados e liberais, assim como os cientistas praticantes que mantém sua fé teísta, separam suas crenças pessoais do domínio de investigação científica, mantendo aqueles aspectos emocionais e contemplativos de suas crença (juntamente com aqueles aspectos metafísicos logicamente compatíveis com a visão de mundo científica) em um domínio à parte, sem submetê-los aos rigores da investigação científica, mas sem prejuízo para ambos. Esta possibilidade deve ficar clara para os alunos, sobretudo os de formação mais religiosa, de modo que eles não tenham medo de encarar a visão de mundo científica e suas estratégias de pesquisa e aquisição de conhecimento.

Esta questão torna-se ainda mais evidente quando percebemos a enfase que muitos sistemas teológicos dão a inacessibilidade e inefabilidade dos desígnios, métodos e procedimentos divinos. Este postura torna os fenômenos sobrenaturais, claramente, inadequados ao teste empírico. Seus proponentes não esperam operacionalizar conceitos, vendo esta atitude como uma “naturalização” de seus “objetos” de fé e contemplação que os privam de aspectos essenciais de sua fé. Então, sem um consenso metodológico e operacional mínimo que é requerido pelas ciências – mesmo que em principio seja possível delimitar certas idéias sobrenaturalistas e a partir de suas conseqüência contrastando-as com observações e experimentos – não é possível investigar cientificamente tal (suposto) domínio. Por isso, a atitude naturalista dos cientistas não é um preconceito a priori, mas uma posição pragmática. A melhor solução de compromisso em relação as demandas epistemológicas e metodológicas da investigação racional, compatível com vários posicionamentos metafísicos e ideológicos diferentes, como várias formas de teísmo, deísmo, agnosticismo, panteísmo e o ateísmo.

Na prática, então, o que acaba ocorrendo é uma separação entre os resultados científicos (e toda abordagem metódica, crítica e sistemática que está por trás destes das ciências), em si, da discussão sobre as implicações destes resultados nas nossas visões de mundo e nas nossas crenças metafísicas mais profundas. Este fato pode ser atestado ao nos darmos conta que a equiparação de ambos domínios envolveria a aceitação de compromissos epistêmicos e cognitivos que nem todos estão dispostos a seguir, estando na base de um debate teológico-filosófico mais amplo que não deve ser uma questão discutidas nas aulas de ciências. Em contrapartida, a tentativa de forçar a inclusão de crenças sobrenaturalistas no hall das explicações cientificamente aceitáveis, abre este tipo de abordagem ao escrutínio crítico e sistemático característico do NM. Os criacionistas e adeptos do Design Inteligente, entretanto, não respeitam estes compromissos e não estendem sua crítica a seus próprios pressupostos. E é exatamente, neste ponto, que Pennock (2009) insiste, e com toda razão, separando questões de princípio e lógicas das atitudes das comunidades que acreditam em determinadas questões metafísicas. Isto é, precisamos separar o NM das discussões metafísicas filosófico-teológicas mais amplas já que, do contrário, estaríamos assumindo a aceitação, por parte dos defensores do DI, do NM, o que exigiria dos mesmos a extensão desta abordagem ao próprio Designer, o que os criacionistas e teórico do DI evitam acima de tudo. Portanto, mesmo que seja possível testar postulados supostamente sobrenaturais em contextos restritos, em teoria, isso não acontece na
prática, como pode ser atestado pelas estratégias de ataque e distorção em que incidem, constantemente, os adeptos destas visões de mundo anti-científicas.

Barbara Forrest, em um artigo intitulado “The non-epistemology of intelligent design: its implications for public policy”, explora o descompromisso, dos advogados do Design Inteligente, em fornecer, ou mesmo desenvolver, uma epistemologia e, principalmente, uma metodologia alternativa às atitudes epistemológicas e ao NM característicos das ciências modernas. Esta incapacidade, ou indisposição – que não pode ser cobrada das crenças religiosas e metafísicas das pessoas comuns – torna-se inaceitável em uma suposta teoria ou programa de pesquisa que se propõe científico. Então, como os criacionistas tradicionais e adeptos do DI não aceitam o NM, muito menos propõem um programa meta-metodológico rival, e não possuem uma epistemologia alternativa à científica, portanto, não podem ser levados a sério enquanto ciência e este fato não depende de nenhum preconceito a priori.

O ponto importante, que vale ser repetido e enfatizado, é que o NM é uma orientação meta-metodológica a posteriori,
resultado do desenvolvimento histórico e pragmático das ciências. Ao longo do tempo as que explicações e estratégias investigativas, e de decisão e escolha de teorias e hipóteses, naturalistas foram as que conduziram aos melhores resultados, mesmo que continuem sendo constantemente reavaliadas. Por outro lado, as explicações baseadas em agentes super-poderosos, sobretudo aqueles com poderes e informações
ilimitadas, não foram suficientemente restritivas e rigorosas para que uma metodologia crítica pudesse ser desenvolvida a partir delas. Com o tempo este processo resultou na separação entre religião e filosofia/ciências e, mais tarde, entre a filosofia e as ciências, estas últimas tremendamente comprometidas com uma atitude epistemológica empirista e muito mais pragmática.

Mead e Scott finalizam seu artigo com a seguinte proposta:

“Convidamos os professores que ensinam evolução, ou qualquer outra área da ciência, para pensar cuidadosamente sobre como ensinar esses conceitos de “problema” da evolução: reconhecer que se trata de termos de arte na ciência que tem diversos significados fora da ciência e para definir e usá-los com cuidado e explicitamente, distinguindo os significados no contexto científico, sem denegrir significados extracientíficos. É possível preservar a integridade da ciência como uma forma naturalista de saber sobre a natureza de fato, a melhor epistemologia para este fim, enquanto ainda deixa-se aberta a porta para os estudantes religiosos para acomodar uma variedade de opiniões com a compreensão científica do mundo natural. Inadvertidamente, fecha-se a porta por não reconhecer os alunos significados extracientíficos associados aos os conceitos “problema”, derrotando o propósito da educação.” (Mead e Scott, 2010)

Muito tem sido publicado sobre mudança conceitual, sobre os viéses cognitivos humanos e sobre como estes relacionam-se entre si. Um exame conceitual mais apurado por parte dos educadores, provenientes do reconhecimento do aprendizado prévio e dos tipo de aparato conceitual com que os alunos chegam em sala de aula é fundamental.

Sinatra e colaboradores (2008) escreveram alguns destas fontes de coerção em nossos processos cognitivos, particularmente ativos no desenvolvimento infantil:

“Muita pesquisa tem sido feita desde Piaget, e as especificidades de sua teoria subjacente – o que uma criança pode aprender e quando – têm sido substancialmente revistas. Um legado, no entanto, é a sua intuição fundamental que as crianças são complexas, ativas e alunos extremamente sofisticados. Através de estudos elegantes e inteligentemente projetados, os psicólogos do desenvolvimento têm mostrado que, desde a infância, ainda possuímos várias extremamente poderosas “regras de ouro” que modelam o nosso pensamento (Wellman e Gelman 1998), e tornam o aprendizado sobre a evolução muito desafiador, pois a evolução não funciona de acordo com essas regras (Evans 2000, 2001). Estas ‘regras’, muitas vezes chamadas de “restrições cognitivas” ou “viéses cognitivos” são o que estamos chamando de ‘restrição essencialista, ‘restrição teleológica’ e ‘restrição de intencionalidade’.”[Sinatra et al. 2008]

1) Restrição essencialista: Essencialismo, neste contexto, é ilustrado pela tendência das crianças acreditarem que as coisas pertencem a categorias precisas, porque possuem uma natureza subjacente que não pode ser vista, mas que, no entanto, dá, as coisas desse tipo particular, a sua identidade básica. Além disso, para elas esta essência é imutável. Assim, um pássaro não pode se tornar um cão, e um rapaz não pode se tornar uma garota (Sinatra et al. 2008).

2) Restrição teleológica: Crianças também assumem intuitivamente (ou pelo menos são mais inclinadas a assumir) a posição de que as coisas são feitas para um propósito. Teleologia, um termo atribuído a Aristóteles, é a atribuição de design e propósito à natureza e à criações humanas, e pode ser contrastado com o naturalismo, a postura metodológica mais ampla em que a ciência está hoje calcada (Sinatra et al. 2008).

“As crianças são como jovem Aristóteles, elas tendem a acreditar que os animais têm olhos, porque eles precisam ver, e os pássaros têm asas, porque eles precisam voar. Tal pensamento persiste nos adultos, embora os adultos tendem a aplicar tais explicações, principalmente, aos seres vivos ou objetos complexos (como os computadores), enquanto as crianças, em idade escolar primária, podem ser ouvidas reivindicando que pedras são pontiagudas para se proteger de serem esmagadas por animais (Kelemen, 1999).” (Sinatra et al, 2008)

Este viés induz as crianças, e mesmo adultos, a crer que explicações baseadas em um projeto prévio sejam muito mais plausíveis, já que estão de acordo com sua visão de mundo, do que uma explicação evolucionista.

3) Restrição de intencionalidade: O raciocínio teleológico está intimamente relacionado com a restrição de intencionalidade. Envolvendo a suposição que os eventos não são somente propositais, mas que podem ser causados por um agente intencional, um agente com uma “mente própria” (Sinatra et al, 2008).

Esta tendenciosidade, em particular, associada a experiência prévia com ações deliberadas por seres humanos, torna o criacionismo tradicional ou Design inteligente muito atraentes às crianças, sendo visões de mundo facilmente adquiridas. Elas, não só se encaixam perfeitamente com as tendências desenvolvimentais das restrições de essencialismo e da teleologia, mas também reforçam estas tendências intuitivas cognitivas (Sinatra et al, 2008).

Portanto, uma definição cuidadosa dos termos em uso, associada a explicitação das diferenças entre os termos em seu uso técnico e leigo, torna-se o primeiro passo para introduzir as teorias científicas e campos de pesquisa que tendem a chocar-se com nossas concepções do senso comum.

Esta série de artigos, de autoria de Louise S. Mead e Eugene C. Scott, esboçam alguns desses problemas e apresentam algumas possibilidade de lidar com eles em sala de aula, buscando minimizar mal entendidos e evitar choques desnecessários. O trabalho de Sinatra e colaboradores (2008), também publicado na revista Evolution: Education Outreach, é outra ótima fonte de informação sobre o que as ciências cognitivas e a psicologia do desenvolvimentos têm nos mostrado sobre a natureza do aprendizado humano e como algumas tendências nos fazem cristalizar, com maior facilidade, determinados “aparatos interpretativos mentais”, permitindo reconhecê-los e lidar com eles de forma apropriada.

Conhecer estas restrições e tendenciosidades, além de estar ciente do conhecimento prévio dos aluno (principalmente de como eles interpretam determinados termos), são pré-requisitos indispensáveis aos educadores que se dispõem a, não só “passar conteúdo”, mas realmente ensinar. Produzindo, assim, mudanças conceituais que permitam aos alunos lidarem com conceitos científicos, fornecendo-lhes um ferramental cognitivo extremamente valioso, porém, sem desencorajá-los e aliená-los.


Referência:
Mead, L., & Scott, E. (2010). Problem Concepts in Evolution Part II: Cause and Chance Evolution: Education and Outreach, 3 (2), 261-264 DOI: 10.1007/s12052-010-0231-3

Referências Adicionais:
Sinatra, G., Brem, S., & Evans, E. (2008). Changing Minds? Implications of Conceptual Change for Teaching and Learning about Biological Evolution Evolution: Education and Outreach, 1 (2), 189-195 DOI: 10.1007/s12052-008-0037-8

Pennock, R. (2009). Can’t philosophers tell the difference between science and religion?: Demarcation revisited Synthese DOI: 10.1007/s11229-009-9547-3

Forrest, B. (2009). The non-epistemology of intelligent design: its implications for public policy Synthese DOI: 10.1007/s11229-009-9539-3

Boudry, M, and Braeckman, J. (2010). Immunizing strategies & epistemic defense mechanisms. Philosophia, 10.1007/s11406-010-9254-9.

Boudry, M, Blancke, Stefaan and Braeckman, J. (2010) How Not to Attack Intelligent Design Creationism: Philosophical Misconceptions About Methodological Naturalism Foundations of Science Volume 15, Number 3 ISSN 1233-1821 DOI 10.1007/s10699-010-9178-7

Fishman, Yonatan I. (2010) Can Science Test Supernatural Worldviews? Science & Education, Volume 18, Issue 6-7, pp. 813-837 DOI:10.1007/s11191-007-9108-4

Forrest, B Methodological Naturalism and Philosophical Naturalism: Clarifying the Connection, Philo 3 (Fall-Winter 2000): 7-29.

Pennock, Robert T (1997) Supernaturalist Explanations and the Prospects for a Theistic Science or “How do you know it was the lettuce?” Naturalism, Theism and the Scientific Enterprise” Conference – March 20-23, 1997.

Hansson, Sven Ove Science and Pseudo-Science (2008) Stanford Encyclopedia of Philosophy, SEP

Crédito das imagens:
VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY
AMERICAN INSTITUTE OF PHYSICS / SCIENCE PHOTO LIBRARY
LAGUNA DESIGN / SCIENCE PHOTO LIBRARY
GUSTOIMAGES / SCIENCE PHOTO LIBRARY
IAN BODDY / SCIENCE PHOTO LIBRARY
BILL ANDERSON / SCIENCE PHOTO LIBRARY
http://commons.wikimedia.org/wiki/File:Ernst_Mayr_PLoS.jpg
http://commons.wikimedia.org/wiki/File:Human_brain_in_a_vat.jpg

Mutações: A aleatoriedade em sua essência*

A evolução adaptativa e a seleção natural são os tópicos mais freqüentes nas discussões não técnicas sobre evolução biológica. Entretanto, é preciso sempre insistir que a seleção não é o único fator evolutivo. Este fato, muitas vezes deixado de lado, fica claro quando compreendemos que a evolução tem dois sentidos principais. Um deles mais básico – a mudança transgeracional das características hereditárias de uma população – e o outro mais geral – a origem da diversidade através da cladogênese, ou seja, a ramificação de linhagens evolutivas pelo processo de especiação. A grande contribuição de Darwin e Wallace não está apenas em enfatizar o primeiro processo, mas oferecer uma perspectiva nova em relação a origem de novas linhagens e propor um mecanismo que liga ambos aspectos da evolução.

O grande biólogo evolutivo e historiador da biologia, Ernest Mayr, chama de evolução variacional o modelo evolutivo de Darwin e Wallace, distinguindo-o de outras teorias transformacionistas ou transmutacionistas que existiam antes que os dois naturalistas propusessem seu modelo (Mayr, 2001). Possivelmente, juntamente com a idéia de seleção natural, esta foi a contribuição mais original de Darwin e Wallace.

A evolução se sustenta em dois pilares principais, a existência de variação hereditária e a reprodução diferencial dos indivíduos. Dois processos principais controlam o destino desta variação hereditária em populações biológicas: A deriva genética aleatória e a seleção natural. O primeiro processo está associado a “erros aleatórios de amostragem” populacional que ocorrem a cada ciclo reprodutivo, de geração para geração. O segundo é um processo essencialmente não-aleatório (i.e. direcional, ainda que contingente) que ‘ajusta’ a variação natural ao seu contexto ecológico-funcional e, em geral, aumenta a proporção daquelas características que tornam, ao longo das gerações, seus portadores mais propensos a sobreviver e a se reproduzir em uma dada população em um dado contexto ecológico. Entretanto, quando nos debruçamos sobre a própria origem da variação, sobre a qual atuam a seleção e a deriva, as coisas tornam-se um pouco mais complicadas.

A origem da variação biológica hereditária:

Atualmente, compreende-se que a variação hereditária é fruto de dois processos, a recombinação genética e a mutação. Sendo esta última a real fonte de inovação biológica. Na Enciclopédia de genética encontramos:

“Uma mutação é uma alteração hereditária na estrutura e composição do DNA. Dependendo da função do segmento de DNA alterado, o efeito de uma mutação pode variar de indetectável a causar grandes deformidades e até mesmo a morte. A mutação é um processo natural pelo qual a nova diversidade genética é produzida. No entanto, poluentes químicos e radiações podem aumentar as taxas de mutação e ter um sério efeito sobre a saúde.”[Thompson Jr., J. N. & Woodruff, R. C., Mutation and mutagenesis in Ness, Bryan D. (Editor, Revised Edition) Knight, Jeffrey A. (Editor, First Edition) Encyclopedia of Genetics -Revised Edition 2004, by Salem Press, Inc. p. 561]

Existem, portanto, vários tipos de mutações que vão desde a substituição de um nucleotídeo por outro, passando por grandes alterações cromossômicas – como deleções, inversões, fusões e translocações de grandes fragmentos cromossômicos (veja figura a esquerda) – chegando a não disjunção de cromossomos inteiros durante o processo de formação de gametas, ou divisão do embrião. Porém, são as alterações do material genético que ocorrem na linhagem germinativa as mais importantes para a evolução.

O ‘ABC’, ou melhor, ‘ATCG’ das mutações:

Antes de entrarmos nos detalhes de alguns processos mutacionais, precisamos relembrar um pouco dos fundamentos da biologia molecular, especialmente como funciona o processo de replicação do DNA.

Os genes são, tradicionalmente, definidos como segmentos de moléculas de DNA, o ácido desoxirribonucleico, que codificam RNAs e polipeptídeos. O DNA, por sua vez, é um longo biopolímero formado por subunidades chamadas de nucleotídeos. Cada nucleotídeo é constituído por um açúcar, a desoxirribose, um grupo fosfato e uma de quatro bases nitrogenadas, A (adenina), C (citosina), G (guanina) ou T (timina). Estruturalmente o DNA está organizado como uma dupla hélice, formada por duas cadeias antiparalelas, complementares, que se auto-estabilizam através de ligações de hidrogênio entre os nucleotídeos de cada cadeia. Estas ligações seguem regras de pareamento específicas, em que as bases A pareiam com T; e C com G. Os pares A:T ligam-se através de duas ligações de hidrogênio e os pares de G:C, através de três ligações (Veja figura abaixo à direita). Como já mencionado, o tipo mais simples de mutação é a substituição de um nucleotídeo por outro. Estas mutações são também chamadas de mutações pontuais. Entretanto, existem outros tipos de mutações, incluindo deleções e inserções de pequenos ou grandes segmentos de DNA, podendo chegar a grandes fragmentos cromossômicos, envolvendo vários genes ao mesmo tempo. Estas mutações estão mais associadas à alterações nas proteínas motoras e do citoesqueleto; especialmente, as que formam e controlam os microtúbulos, responsáveis pela divisão celular.

Tipos de mutações pontuais:

Dizemos, normalmente, que as mutações são ‘aleatórias’ porque são fenômenos estocásticos, ou seja, de natureza probabilística, não querendo isto significar que todas as mutações são equiprováveis. Na realidade, certas regiões do genoma são mais propensas à mutações do que outras. Os chamados hotspost são um exemplo destas regiões.

Entretanto, apesar de não serem equiprováveis, as mutações são essencialmente fenômenos aleatórios, pelo menos, tão aleatórios como algo pode ser. Aleatoriedade, neste contexto, enfatiza a incerteza inerente ao processo. Ao analisarmos o tipo mais simples de mutação, as substituições – alterações que envolvem apenas um nucleotídeo responsáveis pelos SNPs (single nucleotides polymorphism) – veremos que a aleatoriedade está no cerne do fenômeno mutacional. Alguns dos principais tipos de mutações envolvendo um único nucleotídeo são ilustrados na figura abaixo.

.

Direcionalidade na aleatoriedade?

Agentes mutagênicos tem afinidades químicas que os tornam mais propensos a induzir certos tipos de danos em certas regiões do genoma. Além disso, existem também diferenças nas probabilidades de certos tipos de mutações espontâneas.

Transições e Transversões:

As transições são mudanças reversíveis entre purinas, bases formadas por dois anéis (AG), ou entre pirimidinas, bases de um único anel (CT). Estas mutações envolvem, portanto, bases de estrutura muito mais similar. Transversões, por outro lado, são mudanças de uma purina para uma pirimidina ou vice-versa. Estas mutações envolvem a troca entre nucleotídeos estruturalmente bem mais diferentes, ou seja, de um anel por nucleotídeos de dois anéis. Porém, apesar de existir o dobro de transversões possíveis, em relação as transições, as transições são produzidas em maior frequência do que transversões, muito provavelmente, por causa dos mecanismos moleculares através dos quais eles são geradas. Além disso, em virtude das transições terem uma menor propensão em resultar em substituições de aminoácidos, acabam tendo uma probabilidade maior de persistir, sendo, portanto, mais frequentemente observadas em populações naturais (Carr, 2009).

Viés de mutação:

Além das tendenciosidades incluídas sob o rótulo ‘Transição vs Transversão’ existem outros tipos de vieses mutacionais. Por exemplo, mudanças de C:G → A:T são mais frequentes do que as mutações reversas de A:T → C:G. A existência deste tipo de viés na introdução de variação genética é considerado por alguns pesquisadores um fator de extrema importância para a evolução (Yampolsky & Stoltzfus, 2001; Stoltzfus, 2006). Estas tendenciosidades tornam-se ainda mais importantes quando investigam-se mutações maiores, envolvendo extensas regiões genômicas. Processos como impulso meiótico (meiotic drive), crossing over desigual e conversão gênica enviesada parecem ter preferência por alguns tipos de seqüências de nucleotídeos, refletindo os mecanismos de formação de cromossomos e a dinâmica do aparato enzimático de duplicação do DNA (pense por exemplo no “deslise da DNA polimerase“).


DNA polymerase strand slippage


dagritche | Vídeo do MySpace

Alguns cientistas, como Gabriel Dover, sugerem que este conjunto de processos receba seu próprio nome, impulso genético, e seja considerado como outro fator evolutivo, em pé de igualdade com a seleção natural e deriva genética, já que estas tendenciosidades podem mesmo se contrapor a estes dois outros fatores (Dover, 2002). Por estes motivos compreender a origem das mutações, assim como os mecanismos que as produzem, torna-se muito importante no estudo da evolução.

Porém continuamos com a questão: Afinal, quais as causas das mutações?

Infelizmente não existe uma resposta absoluta para esta pergunta. Ao compreendermos os passos inicias, por trás das mutações, acabamos por perceber que talvez não possamos atribuir-lhes uma causa, pelo menos, em sentido tradicional. Esta estranha conclusão advém do fato de que processos quânticos estão no coração das mutações pontuais e de outros tipos de mutação. Causalidade não parece ser um parte das regras do ‘mundo quântico’. A aleatoriedade neste nível parece ser irredutível e o princípio da incerteza de Heisenberg impede o conhecimento exato da posição e momento de um elétron ou de outras partículas elementares. Como diz Ruvinsky (2010):

” … a descrição probabilística de tais fenômenos é a única opção disponível. Em termos filosóficos, pode ser interpretado como a geração de certeza a partir da aleatoriedade. Esse processo ocorre várias vezes por hora em cada ciclo celular e só a existência de sistemas de revisão e reparo robustos é que podem reduzir a quantidade de novas mutações”.

O mais importante, entretanto, é que este fenômeno ocorre de forma independente das necessidades dos organismos que sofrem as mutações. Além disso, sua geração é um fenômeno extremamente complicado e variável. Cada tipo de mutação possui seus fatores determinantes. Sem mencionar que envolvem várias etapas distintas, já que todo o processo de divisão celular e replicação do DNA possui vários mecanismos de controle de erros e reparo. Inclusive, são alguns destes mecanismos que podem enviesar as mutações. A seguir vamos acompanhar alguns exemplos destes processos.

Transições ceto-enol e incerteza quântica:

A tautomerização é um processo em que uma mesma molécula pode apresentar-se em mais de uma forma. As transições tautoméricas entre as formas ceto de molécula e sua forma enol (e vice-versa) são um bom exemplo. Esta mesma mudança tautomérica ocorre em nucleotídeos que constituem as moléculas de DNA, de forma absolutamente espontânea, principalmente com o nucleotídeo (G)uanina.

O mecanismo de transição ceto-enol é bem compreendido e envolve o reposicionamento da ligação entre elétrons e o movimento de um próton. Assim as duas formas alternativas guanina diferenciam-se apenas na distribuição da densidade eletrônica e na posição de um único próton (Ruvinsky, 2010). Parece pouco, mas estas pequenas diferenças podem ter repercussões químicas importantes, cruciais para a compreensão de como algumas mutações ocorrem.

.

O equilíbrio ceto-enol é geralmente tendencioso em favor da forma ceto. A forma ceto é mais regular e estável, enquanto, a forma enol é bem mais variável, sendo também mais rara. Até a construção dos primeiros modelos da dupla-hélice do DNA em 1951-1952, este fato não era conhecido. No entanto, assim que Watson e Crick concluíram o modelo de dupla hélice perceberam, imediatamente, uma possibilidade de que uma mudança tautoméricas poderia ser uma causa potencial de mutações (Ruvinsky, 2010). Como as transições tautoméricas são instantâneas e reversíveis, normalmente não afetam a estrutura da molécula de DNA. Claro, a menos que tais transições ocorram durante a replicação do DNA (Ruvinsky, 2010).

O sistemas de detecção e reparo de erros e seu papel nas novas mutações:

Ruvinsky (2010) comenta:

“A replicação do DNA é um processo único e absolutamente essencial. A vida, como nós a conhecemos, simplesmente, não é possível ele. A estrutura das duas cadeias complementares da molécula de DNA está na base do processo de replicação. Porém, este processo demanda uma
complexa maquinaria bioquímica, que emprega várias enzimas. A replicação depende de dois passos criticamente importantes. O primeiro é o desenrolamento da dupla hélice, que possibilita a síntese complementar; e o segundo é a síntese de nucleotídeos, com a cadeia de DNA servindo
como molde, com a síntese de novos nucleotídeos da cadeia crescente a partir dos nucleotídeos da fita molde, seguindo a regra de pareamento: A :T e G :C. A fidelidade da replicação do DNA é bastante alta, mesmo assim, erros são inevitáveis. Vários mecanismos de reparo e revisão
estão, constantemente, procurando (por) e/ou reparando os erros de replicação.”

A forma enol é bem mais propensa ao mal pareamento (mispairing) do que a forma ceto, a mais comum. Isto quer dizer que a forma enol tem maior propensão a parear-se com um outro nucleotídeo que não seja seu par canônico. Como resultado um mal pareamento, como entre G.T, poderia acontecer (veja exemplos de mal pareamentos de formas tautoméricas enol e imino raras). Sendo assim, caso este mal pareamento escape do sistema de correção, reparo ou revisão, uma nova mutação irá ocorrer.

Nesta situação, existem três passos extremamente importantes para que uma mutação consolide-se. A primeira é uma mudança da guanina da forma ceto para a forma enol, possibilitando o malpareamento possibilidade com um nucleotídeo, diferente do canônico, na fita de DNA complementar recém sintetizada. Este primeiro passo é uma condição necessária mas não suficiente para a produção de mutação,já que a mesma mudança tautomérica ocorrida antes (ou após) a replicação do DNA não conduz a uma mutação em função da extrema velocidade da transição para enol e de volta para a forma ceto. O segundo passo é a síntese do DNA complementar durante a rodada de replicação em que a forma enol de guanina (G) pareia (‘malpareia’) com uma timina normal (T), provocando uma mudança, potencialmente, duradoura na molécula de DNA recém sintetizada, o que seria o passo suficiente para o processo de mutação. Ainda assim, os mecanismos de reparo podem desfazer a mudança em potencial. É nesta etapa que todas as mutações, relacionadas a replicação do DNA, são geradas. Porém, até a rodada seguinte de replicação, o malpareamento G:T ainda é vulnerável e, a rigor, não é uma mutação propriamente dita, mas sim uma pré-mutação, havendo alta probabilidade de correção caso o T seja substituído por C. No entanto, se tal correção não ocorrer, a situação muda completamente após a rodada seguinte de replicação. Esta é a terceira e última etapa do processo, quando o recém-surgido par de nucleotídeos A:T torna-se “legítimo”, quimicamente indistinguível de qualquer outro par (Ruvinsky, 2010). Como mostra a figura abaixo, após a replicação uma das moléculas filhas de DNA carrega o par A:T ao invés do par parental G:C, ou seja, uma substituição ocorreu.

Nucleotídeos diferem em sua capacidade de sofrer mudanças tautoméricas. Por exemplo, a freqüência das mudanças tautoméricas na citosina, de sua forma ceto para sua forma enol, é consideravelmente inferior à da guanina e, portanto, a contribuição da citosina para as mutações espontâneas pontuais de G.C para A:T é insignificante. Cálculos de química quântica, estimando a freqüência das mudanças tautoméricas do par Watson-Crick padrão que causam malpareamento, foram feitos e mostram uma correspondência razoável com o taxa de mutação espontânea. Então, podemos concluir que a transformação de uma flutuação quântica em uma mutação é a essência deste processo (Ruvinsky, 2010).

Dimerização da Timina por radiação UV:

Além da tautomerização, existem muitas outra fontes de novas mutações. As mutações induzidas pela luz ultravioleta (UV) são um exemplo claro e muito bem estudado na fotobiologia e física médica.

A irradiação com luz UV (comprimentos de onda variando entre 400 nm até 1 nm) provoca o aparecimento de ligações químicas incomuns, entre timinas vizinhas na mesma fita de DNA. As estruturas T = T, caso não sejam revertidas ou reparadas, bloquearão a replicação do DNA, já que a enzima DNA polimerase não é capaz de reconhecer T=T. Como consequência, ocorrerá a parada da síntese ou a inserção arbitrária de um outro nucleótidos qualquer na fita de DNA crescente.

No entanto, como a radiação UV tem sido uma constante há bilhões de anos e os seres vivos evoluiram sistemas de reparo capazes de lidar com os danos produzidos por este tipo de radiação, o que reduz drasticamente o risco de novas mutações geradas pelo UV. A fotorreativação é a maneira mais eficaz de reverter a estrutura T = T para sua forma normal, quando a timinas vizinhas não estão quimicamente ligadas por ligações covalentes. Isso ocorre quando a fotoliase, uma enzima especial ativada por luz, liga-se ao dímero timina e o divide, revertendo o dano. Além disso, outro grupo de enzimas podem cortar todo o segmento danificado e substitui-lo por uma sequência correta, usando o segmento da fita não danificada como molde.

Os fótons são as partículas elementares responsáveis pelas interações eletromagnéticas e sua emissão segue as regras da MQ, portanto, sua aleatoriedade é intrínseca e inevitável. Os fótons UV atingem aleatoriamente nucleotídeos nas moléculas de DNA (nas bases nitrogenadas dos nucleotídeos que estão devidamente orientadas no momento da absorção de luz) iniciando fotolesões mutagênicas pontuais ultra-rápidas – por volta de 1 picosegundo.

As células bacterianas possuem um sistema de reparo especial, quando vários segmentos danificados pela radiação UV se acumulam ou quando ocorre o bloqueio da replicação, a chamada resposta SOS. Este sistema de reparo ativa DNAs polimerases de menor fidedignidade que ‘ignoram” os segmentos danificados. Entretanto, esta falta de precisão pode gerar novas mutações (Ruvinsky, 2010). Então, o processo de fotolesão pode ser intensificado, ao ser acrescentada outra camada de aleatoriedade, através do recrutamento do sistema de reparo SOS que, de vez em quando, incorpora nucleotídeos errados na cadeias de DNA recém sintetizada, promovendo também adições e exclusões de nucleotídeos (Ruvinsky, 2010).

A importância dos sistemas de reparo não pode ser subestimada. Eles desempenham um papel fundamental no controle da intensidade do processo de mutação. Este fato pode ser ilustrado pelo xeroderma pigmentoso, uma doença genética autossômica recessiva, que acomete seres humanos. Os indivíduos portadores desta condição tem comprometida sua capacidade de reparar danos ao DNA causados pela luz UV, acabando por desenvolver precocemente numerosos cânceres de pele. Nossos genomas são constantemente bombardeados por mutações recém-surgidas que necessitam ser reparadas a cada ciclo de replicação celular.

Estas mutações são causadas por vários processos, além dos dois já discutidos; como depurinação, responsável por vários milhares de mutações por geração, ou desaminação, metilação, alquilação e oxidação que produzem muitas centenas de mutações a cada dia (veja para maiores detalhes o capítulo The Molecular Basis of Mutation do livro Modern Genetic Analysis). Sem os sistemas de reparo a vida complexa, como a conhecemos, provavelmente seria inviável. A alta eficiência dos sistemas de reparo e de replicação do DNA é realmente impressionante (Ruvinsky. 2010). Nucleotídeos erroneamente inseridos podem ser encontrados no DNA recém sintetizado, aproximadamente, a cada 1091010bases. A questão, entretanto, é que, apesar da probabilidade de um evento mutacional por nucleotídeos, não ser realmente alta (até muito pelo contrário), ao levarmos em conta o número total de nucleotídeos ( ex: ~ 3 ×109 no genoma nuclear), podemos facilmente perceber que, aproximadamente, uma mutação nova deve ocorrer a cada nova replicação de uma única célula (Ruvinsky, 2010). .

Outras fontes de aleatoriedade:

Outro possível efeito quântico, que pode levar a mudanças tautoméricas, é o tunelamento de prótons. O tunelamento é outro daqueles efeitos da MQ (mecânica quântica), sem contrapartida no nosso dia a dia. Ele ocorre quando um próton se move através da barreira de energia, ‘tunelando-a’. Graças ao princípio da incerteza, e a natureza probabilística da MQ, tanto a posição quanto a energia de uma partícula podem eventualmente ser suficientes para que esta vença um obstáculo qualquer. Infelizmente, várias tentativas recentes de verificar esta hipótese não foram capazes de detectar este possível mecanismo, continuando apenas como possibilidade teórica, ainda não descartada (Ruvinsky, 2010).

As mutações também podem ser promovidas ao nível ‘supra-subatômico’ (Ruvinsky, 2010 ). Flutuações térmicas ou, em outros termos, o movimento browniano, são também uma fonte potencial de substituições. A DNA polimerase, a enzima responsável pela replicação do DNA, por ser uma molécula de proteína muito grande, é constantemente sujeita à flutuações térmicas que podem interferir com a fidelidade da atividade de polimerase. Este fato pode levar, por sua vez, à substituição de um nucleotídeo por outro que não corresponde ao par correto,do outro nucleotídeo presente na fita molde.

O destino das mutações:

Quando uma mutação é finalmente incorporada na estrutura de uma molécula de DNA, como no caso da substituição de um par G:C por um par A:T, este é apenas o início do complexo processo de evolução. A aprtir daí o destino desta uma nova mutação será determinado fatores como a seleção natural e deriva genética aleatória, quando mais uma nova camada contingente e probabilística será adicionada a esta dinâmica.

Ruvinsky (2010 p. 33) conclui:

Cada e qualquer mutação é imprevisível. Perguntas como, quando ou por que a próximo mutação vai ocorrer não tem uma resposta e, assumindo uma natureza quântica, pelo menos algumas deles nunca terão. Como mencionado anteriormente, mais de sessenta anos atrás Schrödinger (1944), mesmo sem o conhecimento da estrutura do DNA e da natureza molecular de mutações, extraiu uma conclusão similar, de que as flutuações quânticas podem ser a causa de algumas mutações. Esta conclusão foi um de fato baseada em princípios gerais. Apesar dos fundadores da mecânica quântica claramente enfatizaram a universalidade das leis quânticas, até hoje a aplicação desses princípios para os organismos vivos não tem sido a tendência predominante. A diferença entre os eventos e processos subatômicos parece demasiado grande para a associação direta dos fenômenos quânticos e processos biológicos. Biólogos são geralmente preocupados com os problemas que poderiam ser resolvidos por métodos experimentais ou teóricos. No entanto, se assumirmos que os eventos quânticos levam à mutações, a incerteza e imprevisibilidade, nos processo biológico básicos, é inevitável.

A compreensão da importância dos eventos quânticos na gênese das mutações torna a incerteza e imprevisibilidade inerentes à vida. Limites à compreensão dos processos físicos mais fundamentais parecem se impor, ao mesmo tempo permitindo-nos construir uma ponte entre dois níveis, aparentemente, tão distantes da organização da matéria: o subatômico e o nível macroscópico dos seres vivos (Ruvinsky, 2010).

As descrições probabilísticas e estatísticas, em vários níveis (no nível sub-atômico, molecular, celular e populacional etc) tem sido a tônica das ciências modernas nas últimas décadas e, esta tendência, não parece dar sinais de esmorecimento A aleatoriedade não pode ser ignorada e encarada apenas como fruto de uma incapacidade (ignorância) prática momentânea, a ser remediada em um futuro próximo. As abordagens probabilísticas são inevitáveis já que os processos estocásticos são intrínsecos à natureza, e a vida não é diferente do resto do universo, pelo menos, neste aspecto.

Este artigo apenas toca, bem de leve, a superfície da questão sobre a origem das mutações, concentrando-se em algumas fontes de aleatoriedade que influenciam os processos biológicos, especialmente a evolução. Vivemos em uma época interessante na qual começamos a reinir, de forma bela e elegante (mesmo que muito ‘ruidosa’), o ‘micro e o macro’. Os próximos anos deverão continuar sendo estimulantes.

*Este artigo foi baseado principalmente no capítulo II “Quantum fluctuations, mutations, and “fixation” of “uncertainty” de Ruvinsky (2010)


Referências:

  • Carr, Steve M. Transversions vs Transitions (2009)
  • Dover, G. Molecular drive. Trends Genet. (2002) Nov;18(11):587-9. PubMed PMID: 12414190.
  • Mayr, Ernst (2009) O que e a evoluçao Editora: Rocco ISBN: 8532523803
  • Pray, L. (2008) DNA replication and causes of mutation. Nature Education 1(1)
  • Ruvinsky, Anatoly (2010) Genetics and Randomness CRC Press Taylor & Francis Group ISBN: 978-1-4200-7885-5
  • Stoltzfus, A.. Mutationism and the dual causation of evolutionary change. Evol Dev. (2006) May-Jun;8(3):304-17. Review. PubMed PMID: 16686641.
  • Thompson Jr., James N. & Woodruff , R. C., (2004) Mutation and mutagenesis in Ness, Bryan D. (editor, Revised Edition) Knight, Jeffrey A. (Editor, First Edition) Encyclopedia of Genetics -Revised Edition , Salem Press, Inc.
  • Yampolsky, L.Y, Stoltzfus, A. Bias in the introduction of variation as an orienting factor in evolution. Evol Dev. (2001) Mar-Apr;3(2):73-83. PubMed PMID:11341676.

————————————
Livros recomendados:

  • Alberts, Bruce, Johnson, Alexander, Lewis, Julian, Raff, Martin, Roberts, Keith and Walter, Peter Molecular Biology of the Cell, 4th edition New York: Garland Science; 2002. ISBN: 0-8153-3218-1 ISBN: 0-8153-4072-9
  • Griffiths, Anthony JF, Gelbart, William M, Miller, Jeffrey H and C Lewontin, Richard Modern Genetic Analysis New York: W. H. Freeman; 1999. ISBN: 0-7167-3118-5
  • Lodish, Harvey; Berk, Arnold; Zipursky, S. Lawrence; Matsudaira, Paul; Baltimore, David; Darnell, James E. Molecular Cell Biology New York: W. H. Freeman & Co.; c1999 ISBN: 0-7167-3136-3

Estes e outros livros estão disponíveis via NCBI Bookshelf.

Créditos das figuras:
LAGUNA DESIGN / SCIENCE PHOTO LIBRARY
BENJAMIN CAMPILLO / SCIENCE PHOTO LIBRARY
JACOPIN / SCIENCE PHOTO LIBRARY
DAVID MACK / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY
JOHN BAVOSI / SCIENCE PHOTO LIBRARY
PATRICK LANDMANN / SCIENCE PHOTO LIBRARY
JACOPIN / SCIENCE PHOTO LIBRARY
FRIEDRICH SAURER / SCIENCE PHOTO LIBRARY
SEYMOUR / SCIENCE PHOTO LIBRARY
DR JEREMY BURGESS / SCIENCE PHOTO LIBRARY

http://commons.wikimedia.org/

O grande biólogo evolutivo e historiador da biologia, Ernest Mayr, chama de evolução variacional o modelo evolutivo de Darwin e Wallace, distinguindo-o de outras teorias transformacionistas ou transmutacionistas que existiam antes que os dois naturalistas propusessem seu modelo (Mayr, 2001). Possivelmente, juntamente com a idéia de seleção natural, esta foi a contribuição mais original de Darwin e Wallace.

A evolução se sustenta em dois pilares principais, a existência de variação hereditária e a reprodução diferencial dos indivíduos. Dois processos principais controlam o destino desta variação hereditária em populações biológicas: A deriva genética aleatória e a seleção natural. O primeiro processo está associado a “erros aleatórios de amostragem” populacional que ocorrem a cada ciclo reprodutivo, de geração para geração. O segundo é um processo essencialmente não-aleatório (i.e. direcional, ainda que contingente) que ‘ajusta’ a variação natural ao seu contexto ecológico-funcional e, em geral, aumenta a proporção daquelas características que tornam, ao longo das gerações, seus portadores mais propensos a sobreviver e a se reproduzir em uma dada população em um dado contexto ecológico. Entretanto, quando nos debruçamos sobre a própria origem da variação, sobre a qual atuam a seleção e a deriva, as coisas tornam-se um pouco mais complicadas.

Marcas da adaptação: A teoria neutra e as assinaturas moleculares da seleção natural

A investigação de dados genômicos, em busca de pistas de seleção, constitui-se em uma poderosa ferramenta na identificação de regiões genômicas funcionalmente importantes. A identificação de regiões conservadas tem sido a tônica de muitos destes métodos. Entretanto, a seleção positiva pode também nos dar uma indicação da importância funcional de certas regiões e genes. O ponto principal é que a seleção natural, ao agir sobre os seres vivos, deixa determinadas “marcas” no padrão de diversidade dos nucleotídeos dos individuos de uma população (ou entre diferentes espécies aparentadas) e estas “marcas” são verdadeiras “assinaturas moleculares”, características do regime de seleção ao qual determinado grupo de organismos foi submetido. Muitos métodos estatísticos foram desenvolvidos nas últimas três décadas para detectar a seleção natural com base na análise das seqüências de DNA ou outros dados moleculares.

Podemos dividir estes métodos em dois grandes grupos, (a) aqueles baseados na análise das distribuições alélicas e dos níveis de variabilidade; frequentemente dependentes de pressupostos muito restritivos quanto as características demográficas da população estudada; e (b) os baseados em comparações do grau de variabilidade entre sítios sinônimas e não-sinônimo. Estes, em marcante contraste com o grupo anterior, podem ser construídos sem os pressupostos demográficos que limitam as conclusões dos testes do primeiro grupo. Estes testes são úteis para a identificação de regiões especificas e sítios que tenham sido (ou sejam) alvos da seleção.

Antes de começarmos a discutir estes testes, porém, precisamos relembrar alguns conceitos e termos chave. Primeiro, é preciso que fique bem clara a diferença entre mutações sinônimas e não- sinônimas. Para tanto precisamos compreender o significado de um termo frequentemente empregado de forma errônea por não biólogos. O termo em questão é “código genético”.

Sempre que você ouvir algo como “os cientistas estão desvendando o código genético por trás da característica …” desconfie, pois isso já foi feito há décadas. Não se enegane, o que estamos apenas começando a entender é a complexa arquitetura genética por trás de características morfológicas, fisiológicas e comportamentais dos seres vivos que emergem das interações que ocorrem durante o desenvolvimento. Aquilo que alguns chamam de mapeamento genótipo-fenótipo. Da mesma maneira, nossa compreensão sobre os padrões de herança de características complexas, como sucetibilidade a certas doenças relacionadas, é ainda muito precária. Porém, nós já temos uma ótima idéia do que é de como funciona o código genético.

O código genético é tão somente a relação entre certos tripletos de nucleotídeos [personificadas pelas cinco bases nitrogenadas A, T (ou U), G, C], que formam as porções
codificadoras dos genes e seus transcritos, e as proteínas codificadas por estas seqüências. A descoberta do “código genético universal” (e suas ilustrativas exceções) foi um dos pontos altos da biologia molecular da segunda metade do século XX. Então, quando vc pensar em “código genético” pense na tabela abaixo:

A síntese protéica se inicia com a transcrição de um segmento de DNA que serve de molde para a geração de uma fita de RNA mensageiro. Esta fita, então, é lida por grandes complexos macromoleculares, formados por proteínas e RNAs, chamados de ribossomos. Cada um dos tripletos, chamados de códons, pareiam com os anti-códons complementares (seguindo as regras de pareamento tradicionais A:U e C:G) das moléculas de RNA transportador que estão ligadas a aminoácidos específicos. Assim os ribossomos transferem a informação dos genes, contidas na seqüência de DNA (através de um RNA mensageiro), para a seqüência polipeptídica da nova proteína ou peptídeo que está sendo sintetizada..

Existem 20 aminoácidos e 64 combinações possíveis de três nucleotídeos. Mesmo se considerarmos que algumas destas combinações exercem funções como sinalizar o começo da transcrição e o final da mesma, mesmo assim somos obrigados a aceitar que existem mais códons do que aminoácidos. Por isso é que dizemos que o código genético é degenerado, como pudemos notar na figura anterior. Isso quer dizer que certas mutações modificam um códon, mutando-o em outro, porém, sem alterar o aminoácido codificado, portanto, não alterando a seqüência do polipeptídio. Essas mutações, em geral, não tem conseqüências* apreciáveis e, geralmente, acometem a terceira posição dos códons, sendo chamadas de mutação sinônima (ou silenciosa). Por outro lado, as mutações que alteram o códon, fazendo o ribossomo inserir outro resíduo de aminoácido na cadeia polipeptídica, são chamadas de não-sinônimas.

Mutações sinônimas, em geral, por terem um impacto funcional negligenciável, interferem muito pouco (ou não interferem) com a aptidão, entendida aí como uma medida de sucesso reprodutivo de um individuo. Estas mutações, bem como muitas outras mutações em regiões não codificadoras (como as em pseudogenes) tendem a evoluir muito mais rápido por não serem funcionalmente ‘coagidas’, escapando dos efeitos da seleção natural purificadora (ou negativa) que purga mutações deletérias que interferem com a função dos genes e proteínas.

Motoo Kimura (1968) e King & Jukes (1969) foram os primeiros a sugerir que a maioria dos polimorfismos são seletivamente neutros. Desde então, testar a hipótese de neutralidade tem sido um dos principais objetivos da genética molecular de populações. Porém, o mais interessante é que a teoria neutra fornece uma hipótese de nulidade para a evolução molecular. Isto é, ela descreve matematicamente como seria a dinâmica populacional de novos alelos na ausência de vantagens adaptativas conferidas por algum alelo, ou seja, quando apenas a deriva genética aleatória contribui para sua fixação (chegar a 100% de frequência), já que a seleção purificadora apenas elimina as variantes deletérias. Assim, nas
últimas décadas, passou-se a usar a teoria neutra como um modelo de nulidade (H
0) contra o qual as ocorrências especificas de seleção podem ser detectadas (HAlternativa). Boa parte do interesse tem sido em usar procedimentos baseados neste modelo para fornecer evidências que corroborem instâncias de seleção positiva e “varreduras seletivas” (selective sweeps).

Como afirma Nielsen (2001), a seleção positiva ocorre quando uma nova mutação seletivamente vantajosa (que aumentam a aptidão de seu portador, ao mudar alguma característica sua) está segregando em uma população. O interesse, deste tipo particular de seleção, é que ele pode fornecer evidências para a adaptação ao nível molecular, contribuindo para a nossa compreensão das relações entre genótipo e fenótipo. Selective sweeps referem-se à eliminação de variação em loci neutros ligados a um alelo positivamente selecionado ruma para a fixação em uma população.

Testes baseados na distribuição de alelos ou níveis de variabilidade:

Um dos testes mais populares, deste grupo, é o teste D de Tajima, onde D é a diferença escalonada na estimativa de θ4Neμ (Ne= tamanho efetivo da população, μ=a taxa de mutação por geração), com base no número de pares de diferenças e no número de sítios polimórficos segregantes em uma amostra de seqüências de nucleotídeos. É definido quando θ^π é um estimador de θ com base no número médio de pares de diferenças, θ^ω é um estimador de θ com base no número de sítios polimórficos e Sθ^π é uma estimativa do erro padrão da diferença das duas estimativas. Se o valor de D é muito grande, ou muito pequeno, a hipótese neutra (H0) é rejeitada. O valor crítico é obtido por meio de simulações, se a variação da taxa de mutação e recombinação sejam levadas em conta. Existem vários testes semelhantes com base em teste estatísticos um pouco diferentes.

Este tipo de teste, foi até certo ponto, bem sucedido em muitas aplicações, principalmente ao testar o modelo de equilíbrio neutro. Porém, não é fácil interpretar os resultados significantes obtidos a partir destes testes. A hipótese de nulidade, não é puramente a hipótese neutra. Ela é uma hipótese composta que inclui certas suposições sobre a demografia das populações, como tamanho constante da população e ausência de estrutura populacional. Em suma, desvios significantes do modelo de equilíbrio neutro, isoladamente, não fornecem evidências suficientes contra neutralidade seletiva.

As simulações de genealogias podem nos revelar, com mais detalhe, os problemas relativos a este tipo de teste. Em (a) podemos observar o que acontece como o modelo de equilíbrio padrão neutro. Já em (b) notamos que tanto o modelo com um estrangulamento severo (gargalo de garrafa populacional) ou uma completa ‘varredura seletiva’ (selective sweep) t gerações no passado produzem o mesmo padrão. Portanto, o efeito de um gargalo de garrafa severo ou uma varredura completa seletivo é forçar todas as linhagens a coalescer no momento do estrangulamento/ varredura (gargalo de garrafa/ selective sweep). Por isso o D de Tajima não consegue diferenciar estes dois tipos de eventos. Além disso, testes de neutralidade baseados na distribuição alélica podem, muitas vezes, ter muito menos poder (estatístico) contra os modelos comuns de seleção do que contra os desvios do modelo de equilíbrio neutro, causados por alterações demográficas (Para maiores detalhes veja Nielson, 2005).


Comparando a variabilidade em diferentes classes de mutações:

O outro grupo de testes compara a variabilidade em diferentes classes de mutações, sendo bastante robustos em relação à alterações de características demográficas e estruturais de uma população. Estes testes de neutralidade tem como base estatísticas com distribuições que são independente da genealogia, ou só depende da genealogia através de um ‘parâmetro incômodo’ que pode ser eliminado. O teste de McDonald-Kreitman é um dos exemplos mais famosos deste tipo de teste. Neste teste, a razão entre polimorfismos não-sinônimoe sinônimo, dentro da espécie, é comparada com a razão entre o número de diferenças não-sinônimas e sinônimas, entre as espécies, em uma tabela de contingência 2×2.

A justificativa deste teste baseia-se no fato de que polimorfismo e divergência serem impelidos apenas por mutação e deriva genética, portanto, a razão do número de diferenças fixas para o de polimorfismo deve ser a mesma tanto para mutações não-sinônimas como para as sinônimas. Em estatística, os parâmetros que não são de interesse para o pesquisador, mas não pode ser ignorado, são chamados de ‘parâmetros incômodos’. Entretanto, é possível eliminar tais parâmetros ao condiciona-los, usando uma estatística suficiente, ou seja, uma estatística que contém todas as informações pertinentes dos dados sobre o parâmetro. No caso do teste de McDonald-Kreitman, o comprimento total da árvore é o ‘parâmetro incômodo’ e o número total de substituições é uma estatística suficiente para este parâmetro. Ao condicionar a partir do número total de substituições, na tabela de 2×2, o parâmetro de comprimento total da árvore é eliminado. Desta forma, um teste de neutralidade, que seja válido para qualquer possível modelo demográfico, pode ser estabelecido. O teste de McDonald-Kreitman tem sido muito útil para detectar seleção. Testes, como este, não se baseiam em pressupostos demográficos das populações porque são construídos através da comparação de diferentes tipos de variabilidade dentro do mesmo locus, ou região do genoma. Já que sítios não-sinônimos e sinônimos, por exemplo, são intercalados entre si em regiões codificadoras, o efeito do modelo demográfico é o mesma para ambos os tipos de sítios.

Porém, o método mais direto para mostrar a presença da seleção positiva é demonstrar que o número de substituições sinônimas por sítio não-sinônimo (dN) é significativamente maior do que o número de substituições sinônimas por sítio sinônimo (dS). Vários autores desenvolveram diversos métodos estatísticos para estimar o número de substituições sinônimas por sítio sinônimo (dS) e o número de substituições sinônimas por sítio não não-sinônimos.
Diferentes métodos dependem de pressupostos diferentes, mas dão estimativas semelhantes, a menos que o grau de divergência de seqüência (d) seja muito elevado. Quando d é elevado, a confiabilidade das estimativas de dN e dS é baixa em todos os métodos. Nei (2005) afirma que, para efeitos de teste de seleção positiva ou negativa, estimativas conservadoras de dN e dS são preferíveis, porque os pressupostos dos métodos paramétricos não são atingidos. Para minimizar os erros devido a suposições incorretas, pode-se usar também o número de diferenças
sinônimas por sítio sinônimo te (pS) e o número de diferenças sinônimas por sítio não sinônimo. Nesta abordagem, a evolução neutra é examinada testando a hipótese nula de dN = dS ou pN = pS. Assim, um valor de dN> dS significante implica que as mutações sinônimas são fixadas com uma maior probabilidade do que as neutras, devido à seleção positiva. Então, se pN (dN) é significativamente maior do dS (pS), pode-se concluir que a seleção positiva está envolvida.
Em contrapartida, dN (pN) < dS (pS) implica a ocorrência de seleção negativa ou depuradora. A Figura a seguir retirada de Nei (2005) mostra a relação dN / dS quando um grande número de genes ortólogos (cuja similaridade é inferida como resultado de ancestralidade comum) são comparados entre humanos e camundongos. Esses resultados indicam claramente que a maioria dos genes estão sob seleção purificadora.

Hughes & Nei (1988) mostraram que dN> dS no sítio de ligação antigênica do Complexo Principal de histocompatibilidade (MHC). Esta observação forneceu provas inequívocas da ocorrência de seleção positiva na região, provavelmente do tipo sobre-dominante ou dependente da freqüência.

Os pesquisadores compararam dN e dS para sítios do peptídeo de ligação (PBS), o sítio de reconhecimento de antígeno (composto por cerca de 57 aminoácidos), e sítios não-PBS entre genes do MHC de seres humanos e camundongos. As moléculas do MHC estão envolvidas no reconhecimento de peptídeos ‘próprio(s)’ (do próprio indivíduo) e peptídeos ‘não-próprio(s)’ ao indivíduo. Esta distinção é crucial para os sistema imunológico e o MHC desempenha um papel muito importante nas etapas iniciais de resposta imune adaptativa. Os resultados destas comparações mostram de forma clara que dN>dS para as regiões PBS, mas dN < dS para as não-PBS. Esses resultados sugerem que, em PBS, a seleção positiva está atuando, enquanto que nos sítios não-PBS a seleção purificadora prevalece.

A relevância biológica deste resultado não deve ser subestimada. O elevado grau de polimorfismo dos loci do MHC de vertebrados já vinha sendo debatido, por mais de duas décadas, antes de 1988, sendo que uma das hipóteses levantadas para explicar este polimorfismo era a chamada vantagem do heterozigoto ou seleção sobre-dominante. Entretanto, não haviam evidências que corroborassem esta hipótese. Como dN seria maior do que dS caso a seleção sobre-dominante existivesse ocorrendo, Hughes e Nei (1988) propuseram que o alto grau de polimorfismo MHC é, provavelmente, causado por este tipo de regime seletivo. O grupo de Nei demonstrou, posteriormente, que a hipótese sobredominância também pode explicar o polimorfismo trans-específico de genes do MHC já observado por vários pesquisadores no passado.

Estes estudos estimularam uma gama de outros trabalhos sobre os valores relativos de dN e dS de genes MHC de diferentes espécies, sendo que a maioria dos estudos mostraram resultados compatíveis. Investigações semelhantes se seguiram, envolvendo outros genes do sistema imune, incluindo aqueles para IGS, receptores de células T (TCR) e de células natural killer (NK). Valores de dN > dS também foram observados em muitos genes, como os de resistência a patógenos em plantas. Outro genes que mostram frequentemente a razão dN.> dS são os genes antigênicos do vírus influenza, do vírus HIV-1, de plasmódios, e outros parasitas. Estes genes, especialmente o RNA viral, apresentam uma alta taxa de mutação o que ajuda os parasitas a evadirem os sistemas de vigilância dos organismos hospedeiros. Estes estudos sugerem que a alta taxa de substituição não-sinônima comparada com a de substituição sinônima é, aparentemente, causada pela ‘corrida armamentista’ entre hospedeiros e parasitas. Existem muitos outros testes que não poderiam ser resumidos neste espaço e que envolvem considerações matemáticas bem mais complicadas, o que fogem ao escopo deste artigo de divulgação e mesmo as minhas capacidades de compreensão e explicação. Porém, a tabela abaixo dá uma idéia geral dos principais testes empregados na biologia evolutiva para detectar as assinatura moleculares da seleção natural.

Como realizar o teste de McDonald-Kreitman?

Para termos uma idéia melhor de como funcionam estes testes, vamos olhar para os dados reais coletados por John McDonald e Marty Kreitman, como mostrado na tabela a seguir. A primeira linha mostra o número de substituições envolvendo mudanças de aminoácidos no gene Adh, a de baixo mostra o número de mudanças silenciosas, sinônimas. A coluna a esquerda mostra o número de alterações fixas entre as espécies e a da direita mostra o número de polimorfismos em Drosophila melanogaster.

Existem 42 polimorfismos silenciosos em Drosophila melanogaster e 2 diferenças fixas entre as espécies. Além disso, os pesquisadores observaram 2 polimorfismos com mudança de aminoácidos e 17 diferenças fixas silenciosas. Com base na teoria neutra, as razões das diferenças fixas para os polimorfismos devem ser as mesmas das diferenças de substituição (7/2=3,5) para as diferenças silenciosas (17/42~0,4). Porém, as razões não são as mesmas, mas seriam estas diferenças, entre as razões obtidas e esperadas, estatisticamente significantes? Para descobrir isso, é preciso primeiro determinar os valores esperados para cada uma das quatro células. O valor esperado para o número de mudanças fixas com mudança de aminoácidos é igual ao número total de mudanças com troca de aminoácidos (7+2=9) vezes o número total de diferenças fixas (7+17=24), dividido pelo total geral (7+17+2+42=68). A resposta é 3,176, arredondado para 3.2. Fazendo o mesmo para todas as quatro células da tabela, obtemos:

Baseado nos dados de McDonald e Kreitman, esperaríamos observar 3,2 diferenças fixas com trocas de aminoácidos e 5,8 polimorfismos com troca de aminoácidos, 20.8 mudanças silenciosas fixas e 38,2 polimorfismos silenciosos. O passo final é comparar os números reais observados (primeira tabela) com os número esperados (segunda tabela) para todas as quatro células. Comparado com os valores esperados, existem 3.8 alterações fixas a mais do que o esperado. Nós vemos desvios da mesma magnitude, mas, por vezes, de sinais diferentes para as outras células na tabela. Por exemplo, existem 3,8 menos polimorfismos com troca de aminoácidos do que o esperado.

Como podemos ter confiança de que estes desvios não podem ser explicados pelo acaso, ou por alguma outra força em operação? McDonald e Kreitman usaram um um teste estatístico de goodness-of-fit que, como o próprio nome sugere, nos diz o quão bem o esperado se ajusta ao observado. O teste utilizado por McDonald e Kreitman foi o teste-G. Os resultados deste teste indicaram que a probabilidade dos valores observados diferirem tanto em relação aos valores esperados, como os dados de McDonald-Kreitman fizeram, é de menos de 1%. Portanto, podemos estar bastante confiantes de que o excesso de substituições que alteram os aminoácidos codificados não se devem apenas ao acaso. No
entanto, outra possibilidade poderia produzir o mesmo padrão de excesso de substituições não-silenciosas. Isso poderia acontecer caso as populações de ambas espécies de Drosophilas passassem por um gargalo de garrafa, acumulando muitas mutações ligeiramente deletérias, que seriam mantidas graças a ineficiência da seleção negativa devido a redução do tamanho efetivo da população. Este processo resultaria em muitas diferenças nas substituições entre as espécies, e quando as populações voltassem a se expandir muitas destas mutações, ligeiramente deletérias, seriam purgadas pela seleção natural, o que poderia gerar o padrão observado. Porém, além do fato desta explicação
ser menos parcimoniosa, existem evidências de que as populações de Drosophilas permaneceram constantes ao longo do tempo.

Existem outros complicadores, como a eventual falta de poder estatístico destes testes. Porém, a principal utilidade deste tipo de teste é gerar hipóteses biológicas adaptativas para posterior verificação experimental, aumentando as possibilidades de teste em laboratório. Hoje, métodos filogenéticos permitem-nos reconstituir os estados ancestrais de seqüências de DNA e de ourras moléculas. Assim é possível usá-los para descobrir os estados ancestrais das seqüências de interesse e, com o auxílio da tecnologia do DNA recombinante e expressão destes genes em organismos modelo ou células isoladas, podemos gerar moléculas representando as diversas etapas evolutivas. Então, ao medir as propriedades bioquímicas e farmacológicas das proteínas resultantes, podemos estimar a aptidão conferida por cada variante. Assim testes ainda mais robustos podem nos revelar mais detalhes sobre como a seleção natural age nos genomas destes seres vivos.


Referências:

Nei, M. (2005) Selectionism and neutralism in molecular evolution. Mol. Biol. Evol. 22:2318-2342.
Nielsen R. Statistical tests of selective neutrality in the age of genomics. Heredity. 2001 Jun;86(Pt 6):641-7. Review. PubMed PMID: 11595044.
Nielsen R. Molecular signatures of natural selection. Annu Rev Genet. 2005;39:197-218. Review. PubMed PMID: 16285858.

Para o exemplo como o teste de MacDonald-Kreitman foram utilizados principalmente:
Forber P. (2005) Testing the Neutral Theory of Molecular Evolution.
Johnson, Norman A. ( 2007) Darwinian Detectives: Revealing the Natural History of Genes and Genomes Oxford University Press
MacDonald, J., and Kreitman, M. (1991) “Adaptive protein evolution at the Adh locus in Drosophila.” Nature 351: 652–654.

Referências adicionais:

Duret, L. (2008) Neutral theory: The null hypothesis of molecular evolution. Nature Education 1(1)
Hughes, A. L. and M. Nei (1988) Pattern of nucleotide substitution at
major histocompatibility complex class I loci reveals overdominant
selection. Nature 335:167-170.
Kimura, M. “Evolutionary Rate at the Molecular Level,” Nature (1968), 217: 624-26.
King JL, Jukes TH. Non-Darwinian evolution. Science. 1969 May 16;164(881):788-98. PubMed PMID: 5767777.

Créditos das figuras:

MEHAU KULYK / SCIENCE PHOTO LIBRARY
CHRISTIAN DARKIN / SCIENCE PHOTO LIBRARY
JACOPIN / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY
VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY
EYE OF SCIENCE / SCIENCE PHOTO LIBRARY


Termodinâmica e evolução: O velho argumento da segunda lei

ResearchBlogging.org

Como Jason, personagem da série de filmes “Sexta-feira 13”, ou Mike Myers, da série de filmes “Halloween”, que sempre levantam após serem “mortalmente” golpeados (ao fundo em imagem desfocada), certos argumentos anti-evolucionistas parecem também ter o mesmo vigor “sobrenatural”. Nestes casos, precisamos de um “algo mais”. Algum tipo de estratégia de combate que seja simples, efetiva e possa ser rapidamente divulgada. Na falta de turbas enfurecidas portanto tochas, ancinhos e foices, como as que perseguiram e cercaram o pobre monstro do doutor Frankenstein. Mortos-vivos são sempre um problema, George Romero que o diga, por isso precisamos desenvolver estratégias mais diretas ao seu combate. Por isso, precisamos de algo tão efetivo e simples como estacas e machados no combate aos vampiros, pelo menos aqueles da mitologia cinematográfica clássica.

Uma das primeiras providências é entender contra o que estamos lutando, já que estacas não adiantam contra zumbis e tiros na cabeça não funcionam contra s vampiros. No máximo estas estratégias podem nos dar algum pouco de tempo para fugir e reagrupar. Precisamos mesmo é de métodos específicos para cada ameaça e cuidados específicos para evitar a infecção em cada caso.

Deixando os filmes de terror de lado (e voltando para o assustador mundo real), na contenda entre cientistas e anti-evolucionistas, o primeiro passo é perceber que esta é uma disputa de natureza política e ideológica. Não existe debate científico sobre os méritos da evolução, como fato, e da biologia evolutiva como o campo legítimo de investigação deste fenômeno, o que resta de disputa sobre estes dois tópicos é fruto de pura ideologia e desinformação. Por isso, nem sempre as definições e argumentos que os cientistas estão habituados a empregar, dentro de suas próprias comunidades de pesquisa, são os mais indicados para convencer leigos e não-especialistas. Isto acontece porque as ciências são empreitadas bastante heterogenias em seu conteúdo e em seus métodos. As ciências são subdivididas em campos nos quais a especialização é muito necessária. O problema é que no debate entre cientistas e criacionistas, apenas um lado se preocupa com a precisão das informações e o rigor dos métodos, o outro lado usa qualquer argumento distorcido, falácia ou estratégia retórica dúbia para chegar aos seus objetivos. Assim físicos, ao explicar os detalhes sobre a cosmologia do Big Bang, podem ser interpelados por criacionistas questionando sobre a origem da vida ou funcionamento da seleção natural. De forma semelhante, biólogos, dissertando sobre a genética de populações, podem ouvir perguntados sobre a segunda lei da termodinâmica. Sim a famigerada “segunda lei”.

Esta lei está na base de um dos argumentos “mortos-vivos” mais insistentemente repetidos pelos criacionistas. Recentemente, em artigo para o periódico Evolution: Education and Outreach, dois pesquisadores propuseram-se à fornecer algumas i

estratégias (e exemplos retirados de um ‘experimento de pensamento’ muito plausível) para desarmar as distorções que cercam certos enunciados da segunda lei da termodinâmica, frequentemente usados como argumento anti-evolucionista. O artigo Evolution and the Second Law of Thermodynamics Effectively Communicating to Non-technicians, de autoria de Alexander Schreiber & Steven Gimbel, é uma ótima aquisição ao arsenal de “armas” na defesa do ensino de evolução.

Neste artigo, Schreiber e Gimbeli, desenvolvem algumas explicações, imagens e metáforas acessíveis para ajudar aos não-técnicos compreender o funcionamento do mundo natural, ilustrando as falhas na argumentação anti-evolucionista. Nas palavras dos próprios autores:

“Neste trabalho, buscamos formular ferramentas efetivas para comunicar as falácias contidas no argumento dos advogados do anti-evolucionismo de que a especiação pela evolução viola a segunda lei da termodinâmica (ver, por exemplo, Morris 1987, 38-64). O argumento anti-evolucionista pode ser apresentado da seguinte forma:

1. A teoria da evolução sustenta que as espécies atuais desenvolveram-se a partir de formas de vida anteriores.

2. Essas formas de vida anteriores eram mais simples tendo menos capacidades e sistemas menos complexos.

3. Portanto, teoria evolutiva afirma que os organismos tornaram-se melhor ordenados ao longo do tempo.

4. A segunda lei da termodinâmica diz que a entropia aumenta, isto é, sistemas ao longo do tempo tornam-se mais desordenados.

5. Assim, tanto a teoria evolutiva e a segunda lei da termodinâmica não podem ser ambas corretas.

6. A Física é um campo mais básicas ou bem estabelecido que biologia.

7. Portanto, devemos preferir a segunda lei da termodinâmica e rejeitar a teoria evolucionista.”

Segundo Schreiber e Gimbeli, existem três erros principais neste argumento:(a) seu entendimento da segunda lei da termodinâmica e da noção de entropia, (b) o âmbito de aplicação da segunda lei da termodinâmica, (c) não compreender a maneira pela qual os mecanismos subjacentes genética estão em perfeita consonância com as leis físicas. A partir destes fatos os autores concluem que é preciso criar maneiras de
comunicar de forma eficaz estas falhas para o público em geral.

A segunda lei da termodinâmica é bem conhecida por excluir a possibilidade de máquinas de movimento perpétuo. Os autores enfatizam o fato de como é impressionante como formulações tão “esotéricas” tenham sua origem em uma questão tão prática como “quão eficiente podemos tornar motores a vapor?”. A idéia de que a a segunda lei afirma que a desordem invariavelmente aumentará em um sistema, advém de uma confusão dos próprios cientistas que primeiro a formularam. A segunda lei foi formulada de diversas formas por vários pesquisadores, desde Sardi Carnot, até Boltzmann, passando por Clausius, Lorde Kelvin e Max Planck. Uma divisão entre estes cientistas era com relação a natureza deste principio, com alguns deles (como Clausius) enfatizando a universalidade e determinismo do processo, em analogia as leis de movimento de Newton, e outros, especialmente Boltzmann, preferindo uma versão probabilística que por fim se mostrou a mais utilizada, com o advento da mecânica estatística.

Cientistas e engenheiros descobriram que, ao tentar converter uma forma de energia, por exemplo, o calor, em outra forma de energia, por exemplo, o movimento, nunca eramos capazes de fazer a transferência de forma completa, há sempre alguma energia perdida. Pense nisto em termos de moeda. Sempre que trocar dinheiro, por exemplo de dólares para euros, o banco cobra uma taxa de transação. Assim Se nós continuássemos trocando sempre o dinheiro, acabaríamos por falir mesmo com uma taxa de câmbio fixa. Dado o sua bem-comportada irmã, a primeira lei da termodinâmica (Que a energia é sempre conservada, nem criado nem destruídos), os investigadores procuraram uma forma de quantificar a e explicar essa ‘taxa de transação de energia’. Essa explicação os levaram a postular uma estranha quantidade, não diretamente observável: a entropia. Ela mede a “desordem” de um sistema em termos do número de micro-arranjos de moléculas acessível para um sistema em um determinado macro-estado em uma determinada temperatura, pressão e volume. Eles constataram que “em qualquer processo em que um isolado termicamente sistema passa de um macroestado para outro, a entropia tende a aumentar (Reif 1965, 122).”

Esta tendência é que recebeu diversas interpretações e foi alvo de intenso debate que acabou sendo vencido, postumamente, por Boltzmann.

Então o que é entropia?

“A entropia é uma medida do número de estados possíveis em que um sistema pode ser encontrado, caso o sondemos. Uma vez que o fluxo de calor vai no sentido de ‘morno’ para ‘frio’, um sistema que ainda não está em equilíbrio, está em fluxo, ou seja está mudando. Assim, o número de estados possíveis em que o sistema poderia ser encontrado aumenta ao longo do tempo.”

Para esclarecer a natureza probabilística da segunda lei da termodinâmica, Schreiber e Gimbel propõem a seguinte analogia:

‘”Pense em um baralho de cartas. Se você sentar numa mesa de poker com sete pessoas a jogar five-card stud e usar um baralho novinho saído direito da caixa lacrada, os resultados são óbvios porque as novas cartas são inseridas na caixa de forma ordenada. A pessoa a esquerda de quem dá as mãos receberá necessariamente um seis e rei de espadas, um de sete e Ás de ouros, e de oito dos paus e terá a mão mais alta. Mas se as cartas forem embaralhadas uma vez, os resultados serão diferentes. Dado que a metade superior da pilha estará organizada em ordem crescente de espadas e o embaralhamento, em geral, começa quando as cartas cortadas mais ou menos no meio e entrelaçadas, aproximadamente, alternando umas as outras cartas, há uma boa chance de que o ás de espadas será um das primeiras cartas dadas e quase certamente acabará nas mãos de alguém. Agora, se as cartas são embaralhadas sete, dez ou vinte vezes, as chances de que o ás de espadas apareça, torna-se menor e menor , e a cada embaralhada adicional das cartas, a probabilidade de obter o ás de espadas se aproxima do probabilidade de obter qualquer outra carta. Isso é o que a entropia mede. Com um sistema aproximando-se do equilíbrio, as chances de encontrá-lo em algum estado particular dosistema – alguma ordem particular de cartas – aproxima-se do probabilidade de encontrá-lo em qualquer outro estado, ou qualquer outra ordem de cartas.

Em seguida, Schreiber e Gimbel buscam três objetivos: (1) explicitar que uma característica inerente de todos os organismos vivos é que estes são sistemas abertos que mantêm ordem que o seu entorno através da importação livre energia (nutrientes) e exportando a entropia (calor e de resíduos); os autores concentram-se no papel da membrana celular semi-permeável como mediador da ordem interna. (2) explicar como entropia pode diminuir localmente dentro de subsistemas e como a complexidade dos organismos pode aumentar ao longo do tempo evolutivo enquanto houver um maior aumento na entropia em outra parte do sistema. O foco aqui é no Sol, como a fonte derradeira da Terra, de luz de baixa entropia, e como os produtores (plantas e cianobactérias) capturaram esta baixa entropia impulsionando a evolução da complexidade; (3) discutir como os organismos podem ser vistos termodinamicamente como sistemas de transferência de energia, com mutações benéficas permitam que os organismos dispersem energia de forma mais eficiente para seu ambiente. No artigo, os autores propõem um simples “experimento mental ” utilizando culturas de bactérias para transmitir a idéia de que a seleção natural favorece mutações genéticas que levam à taxas mais rápidas de aumento de entropia em um ecossistema.

A segunda lei da termodinâmica:

Mesmo que ainda hajam muitos desafios em compreender em detalhe os processos biológicos de um ponto de vista termodinâmico (além de seu papel particular na evolução) não existe contradição entre a segunda lei e a biologia evolutiva. Este é o primeiro ponto a ser enfatizado.

O estudo da termodinâmica na biofísica e bioquímica vem de longa data. Erwin Schrödinger, com seu livro “O que é vida?”, foi um dos primeiros a lançar luz sobre esta questão, reconhecendo que os seres vivos são sistemas abertos e mantem sua ordem a partir do consumo de “neguentropia”, ou seja, forma mais ordenadas de energia. Já nos anos 50 e 60, o físico-químico Russo-Belga Illya Prigogine, começou a estudar os
sistemas longe do equilíbrio termodinâmico, submetidos a gradientes de energia. Prigogine foi um dos primeiros a reconhecer que os seres vivos, juntamente com processos físicos e químicos, eram um subconjunto daquilo que ele chamou de estruturas dissipativas, que incluem redemoinhos, ciclones, reações químicas oscilantes, como a de Belousov-Zhabotinsky, e células convectivas de Rayleigh-Bénard.

Mais recentemente alguns físicos se propuseram a calcular o impacto da evolução no aumento de entropia da biosfera e suas adjacências e compará-lo com o aporte de energia fornecido pelo sol. Daniel Styler mostrou elegantemente que a Terra é banhada por cerca de um trilhão de vezes a quantidade de fluxo de entropia necessária para suportar a evolução da vida complexa. De forma semelhante o físico Emory Bunn mostrou que a evolução da vida complexa existente é perfeitamente compatível com a segunda lei da termodinâmica, desde que este processo tenha levado pelo menos cerca de 107segundos, ou seja, 116 dias.

Este é o tempo mínimo necessário para gerar a complexidade que vemos ao nosso redor, levando-se em conta o fluxo de energia do sol. Este simples cálculo é corroborado pelo fato de que a vida teve, pelo menos, 4 bilhões de anos para evoluir em nosso planeta.

Schreiber e Gimbeli citam Kaila e Annila, da Universidade de Helsínque, que descreveram matematicamente a evolução biológica com equações de movimento. Seus resultados mostram que, na ausência de uma fonte externa de alta energia, a energia flui em direção a um estado estacionário (Equilíbrio), conforme descrito pela segunda lei da termodinâmica. Os pesquisadores descreveram a evolução como um processo de transferência de energia, e uma vez que o movimento físico sempre leva a caminho de menor resistência (ou seja, o princípio de ação mínima) organismos pode ser descritos matematicamente como sistemas dissipativos que maximizam a taxa de produção de entropia de um sistema mais amplo.

“A segunda lei da termodinâmica claramente não proibe a construção de complexidade a partir da simplicidade. A natureza é repleta de exemplos de ordem espontânea que emanam de uma estado menos ordenado, tais como gases (por exemplo, vapor de água nas nuvens) que condensam em um estado mais ordenado líquido (chuva) e congelamento de líquidos em um mesmo mais altamente ordenado sólidos estado cristalino (por exemplo, cristais de gelo). Talvez o mais dramático exemplo biológico mais comum de que ordem espontânea, derivada de um estado menos ordenado, é o desenvolvimento de um única célula, o zigoto, em um complexo ser multicelular formado por bilhões células, possuindo dezenas órgãos especializados, células e tecido diferenciados de diversos tipos. Claramente, a síntese do floco de neve e embriogênese não violar nenhuma lei da física, então o que está acontecendo?”

“Em suma, a síntese da ordem cobra um preço energético: O custo da conversão de água relativamente desordenada de gotas, em um floco de neve, mais ordenada é a liberação de calor ao meio ambiente; o custo da embriogênese é a conversão de nutrientes em resíduos menos ordenados e calor. No final, os processos de formação de floco de neve e embriogênese sempre uiuiem de forma mais geral a entropia do sistema como um todo, de acordo com o a segunda lei da termodinâmica. De acordo com os criacionistas “com sua compreensão de jardim de infância de entropia” (Asimov 1984), nem a síntese de um floco de neve, nem o desenvolvimento animal poderiam ter lugar, e muito menos evolução organísmica.”

O fluxo de energia em sistemas biológicos pode ser facilmente visualizado ao pensarmos em uma célula com sua menbrana semi permeável, através da qual as trocas de matéria e energia com o meio ambiente são realizadas. Na figura 1 (clique na figura para ver os detalhes) podemos ver como este processo funciona em total conformidade com a segunda lei da termodinâmica. As células mantêm um grau relativamente elevado de ordem, em relação ao ambiente, fazendo isso através da continua importação de energia livre, na forma de nutrientes, e exportação de entropia, na forma de resíduos desordenados e calor. Elas importam nutrientes ordenados, seletivamente, de um mundo em grande parte caótico, através da proteínas transmembrana (cilindros coloridos), que formam canais e transportadores (substrato-específicas), embebidas em uma membrana fosfolipídica relativamente impermeável (linha pontilhada).

O metabolismo celular converte nutrientes em formas utilizáveis de energia (ATP) e diferentes biomoléculas que são usadas na manutenção, auto-reprodução e crescimento. Os custos de conversão de nutrientes para estas formas úteis de auto-preservação, de baixa entropia, são a produção de resíduos de alta entropia e calor. A exportação de entropia constante de células através da membrana celular garante a manutenção de um estado de maior ordenação interno quando comparado ao ambiente externo.


Os produtores primários do nosso planeta, como as plantas fotossintéticas e cianobactérias, podem fazer uso desta baixa entropia, assim reduzindo sua entropia própria. Organismos não-fotossintéticos reduzem sua entropia consumindo estes produtores primários direta ou indiretamente, e usam o oxigênio liberado pela fotossíntese para a respiração celular. Portanto, produtores primários fotossintéticos podem ser vistos como as pás de uma usina hidroelétrica (ou de um moinho) cujo movimento, causado pelo fluxo de energia solar, gira a “roda dentada” ou “as turbinas” da máquina da vida, alimentada pela conversão de luz baixa entropia em luz infravermelha de maior entropia (Fig. 2 – clique na figura para ver os detalhes).

Esta ‘engrenagem motriz’ alimenta praticamente todas os organismos da Terra e abastecem a ‘máquina da vida’ Este processo é análogo ao abastecimento de uma cidade através de um rio, cujo fluxo de água move as turbinas de uma usina hidrelétrica para produzir eletricidade. Enquanto o rio fornecer um fluxo de água suficiente para girar as turbinas, a cidade será capaz de usar o eletricidade resultante para manter-se “viva” e até mesmo “crescer” e tornar-se mais complexa.

Os autores fazem uma sábia ressalva, lembrando os argumentos do finado paleontólogo Stephen Jay Gould, que alertava para os perigos de igualar evolução ao aumento da complexidade. Na realidade, o próprio conceito de complexidade até hoje não foi definido de forma consensual, apesar de existirem várias propostas interessantes, muitas delas não mutuamente excludentes. Além disso, mesmo ao analisarmos questões e medidas, aparentemente mais óbvias, como complexidade celular, ou tamanho do genoma, observamos várias exceções e desvios. A perda de estruras (e genes) e a simplificação morfológica são bem comuns em linhagens de parasitas, por exemplo. Boa parte da biomassa terrestre é formada por procariontes que também garantem os ciclos biogeoquímicos e contribuem para a produção primária que sustenta a vida na terra.

Então, mesmo que exista uma certa tendência ao aparecimento de certos seres ,aparentemente, mais complexos ao longo do tempo, esta pode ser apenas uma tendência passiva. Para Gould, as formas de vida (tidas como) complexas representavam apenas a cauda de uma distribuição assimétrica, na qual a moda (a medida que detém o maior número de observações, ou seja, o valor ou valores mais frequentes) é constituída pelos procariontes. Este tipo de distribuição é compatível com um processo estocástico assimétrico, em que a barreira da complexidade mínima (unicelularidade) garante que eventualmente apenas a cauda, em direção a maior complexidade, “se estique”. A figura abaixo (clique na figura para ver os detalhes) à direita ilustra a visão de Gould sobre como o aumento de complexidade pode ser apenas uma tendência passiva, associada a uma barreira à esquerda de complexidade organizacional mínima. Dan McShea, tem investigado esta questão e enfatiza a dificuldade de se definir e medir a complexidade, defendendo que existem pelo menos quatro tipos diferentes de tendências evolutivas, além de vários tipos de complexidade, algumas delas podendo aumentar em função da diminuição de outras. Por isso, há uma necessidade de assumirmos extremo cuidado ao discutirmos qualquer suposta tendência a uma maior complexidade na evolução, além de ser fundamental superarmos a idéia egocêntrica de uma escalada ascendente em direção a um cume ou à perfeição.

A proposta final dos autores é fornecer um pequeno experimento de pensamento, fácil de visualizar e compreender, demonstrando como o processo evolutivo pode ser encarado como sendo termodinamicamente guiado. Nele a seleção natural agiria ‘criando’ formas mais eficazes de processar energia e aumentar a entropia total do sistema, ao mesmo tempo que geraria ordem e complexidade local. Assim, ao invés da visão anti-científica, de que a evolução se opõe a segunda lei da termodinâmica, esta visão defende exatamente o contrário.

O experimento de pensamento da figura 3 exige apenas que imaginemos três placas de petri com a mesmo quantidade de glicose no tempo 0. A primeira delas contém apenas glicose, que depois de certo tempo é oxidada espontaneamente. A segunda possui 100 bactérias da espécie Escherichia coli que, em pouco tempo, metabolizam a glicose, já que, por serem entidades muito bem organizadas, “ciclam” este nutriente de forma muito mais eficiente do que as reações de oxidação, não catalizadas e não compartimentalizadas, da primeira placa de petri. A terceira placa no tempo zero, possui a mesma quantidade de glicose que as demais e a mesma quantidade de bactérias E. coli que a segunda. Porém, após passado um certo tempo, uma destas bactérias sofre uma mutação vantajosa que a possibilita transportar, com mais eficiência, a glicose para dentro da célula. Digamos que esta mutação aumente o número de proteínas transportadoras de glicose nas membranas, ou aumente a afinidade das mesmas por moléculas de glicose. Depois de mais um período de tempo, esta bactéria multiplica-se de forma mais rápida e acaba tornando-se o tipo principal da placa 3. Com a proliferação da estirpe mais eficiente, a metabolização da glicose torna-se também mais rápida, o que reduz o tempo para a degradação total de glicose, e chegada ao equilíbrio, em relação a segunda placa.

Este pequeno experimento de pensamento deixa bem claro como a evolução pode aumentar a eficiência termodinâmica de um sistema biológico e aumentar a entropia total do ambiente circundante. E, como já discutido, existe energia de sobra (em sua forma de baixa entropia fornecida pelo sol) para ser convertida em formas mais entrópicas e utilizada da manutenção de processos biológicos e na própria evolução de estruturas mais complexas. Esta energia, em última instância, se origina da gravidade e das reações de fusão termonuclear que ocorrem no interior do Sol. Além disso, boa parte dos elementos mais pesados que compõem nosso planeta, como o carbono, por exemplo, originaram-se também no interior das estrelas e são distribuídos pelo universo através da explosão de supernovas. Portanto, não existe contradição entre a segunda lei da termodinâmica e a evolução biológica que se insere de forma elegante dentro da astrofísica e cosmologia modernas.

Este artigo é extremante útil aos educadores e a todos que já estão cansados de ouvir a mesma retórica, confusa e desinformada, vociferada pelos antievolucionistas de plantão. Pode não ser a arma derradeira, mas sem dúvida é uma aquisição fundamental, podendo guiar, cientistas e educadores, no desenvolvimento de formas mais efetivas de comunicação e divulgação, mais adequadas ao ensino da biologia evolutiva e menos susceptíveis aos ataques retóricos que teimam em ressurgir do ‘mundo dos mortos’.


Referências:

Schreiber, A., & Gimbel, S. (2010). Evolution and the Second Law of Thermodynamics: Effectively Communicating to Non-technicians Evolution: Education and Outreach, 3 (1), 99-106 DOI: 10.1007/s12052-009-0195-3

Bunn, E. (2009). Evolution and the second law of thermodynamics American Journal of Physics, 77 (10) DOI: 10.1119/1.3119513

Styer, D. (2008). Entropy and evolution American Journal of Physics, 76 (11) DOI: 10.1119/1.2973046

Referências de apoio:

Carroll SB. Chance and necessity: the evolution of morphological complexity and diversity. Nature. 2001 Feb 22;409(6823):1102-9. Review. PubMed PMID: 11234024.

GOULD, S.J. A evolução da vida na Terra. [1994] 2004 Scientific American Brasil, Edição Especial nº 5.

Kaila VRI, Annila A. Natural selection for least action. Proc R Soc A. 2008;464:3055–70.

McShea, DW Possible largest-scale trends in organismal evolution: Eight “live hypotheses” ANNUAL REVIEW OF ECOLOGY AND SYSTEMATICS VL 29 BP 293 EP 318 PY 1998

McShea, DW Mechanisms of large-scale evolutionary trends evolution 1994 48 (6):1747-1763 TC 124 UT

Livros:

Atkins, P. & de Paula, J.(2008) Físico-Química Biológica editora LTC ISBN: 9788521616238.

Nelson, philip Física Biológica – energia, informação, vida (2006) editora Guadabara Koogan ISBN 8527712091.

Nussenzveig, H. Moysés (1999) “Complexidade e Caos”, Editora UFRJ/COPEA.

Prigogine, Ilya (1980). From Being To Becoming. Freeman. ISBN 0716711079.

Schrödinger, Erwin (1997). O que é Vida? O Aspecto Físico da Célula Viva Seguido de Mente. São Paulo: UNESP, ISBN 8571391610.

Crédito das figuras:

SCOTT CAMAZINE / SCIENCE PHOTO LIBRARY
DR. ARTHUR WINFREE / SCIENCE PHOTO LIBRARY.
SCIENCE PHOTO LIBRARY
AMERICAN INSTITUTE OF PHYSICS / SCIENCE PHOTO LIBRARY
SEGRE COLLECTION / AMERICAN INSTITUTE OF PHYSICS / SCIENCE PHOTO LIBRARY
RICHARD BIZLEY / SCIENCE PHOTO LIBRARY
HELENE FOURNIE, ISM / SCIENCE PHOTO LIBRARY
SCOTT SINKLIER / AGSTOCKUSA / SCIENCE PHOTO LIBRARY

A origem de nova informação genética. Parte II

Em post anterior comentei sobre alguns dos mecanismos responsáveis pela introdução de nova “informação genética” nos genomas dos seres vivos, através da criação de novos genes. Na figura abaixo está ilustrado um caminho potencial para o surgimento e diversificação estrutural e funcional de um novo gene, que envolve quatro dos processos discutidos anteriormente: (i) duplicação gênica, (ii) retro-tranposição (através da ação da transcriptase reversa de um retroposon) de um RNA mensageiro codificado por um segundo locus; (iii) embaralhamento exônico (exon shuffling); seguido de (iv) fusão gênica, culminando com a formação de uma novo gene que codifica para uma proteína quimérica.

Chamemos de gene A, o gene duplicado. Após a duplicação, que pode ser provocada por um crossing over desigual, uma das cópias pode sofrer mutações e se transformar em um pseudogene, sendo perdida ao longo do tempo. Pseudogenes, entretanto, podem funcionar como fósseis moleculares e nos ajudar a recriar as etapas de formação de um novo gene. Porém, o ponto importante, é que a função estará protegida, já que existe uma cópia extra. Esta cópia extra pode, por sua vez, pode sofrer uma inserção de um novo segmento de DNA. Neste caso, este segmento é resultado da transcrição reversa (intermediada por um retrotransposon, como o L1, que sintetiza um DNA a partir do transcrito de RNA) de um outro gene, que chamaremos de gene B. Como este transcrito já foi processado e teve seus introns removidos, isto se refletirá no DNA resultante, que possuirá um único grande éxon originado a partir do RNA já processado. Estas “marcas” continuarão no gene novo e, assm, ao compararmos este novo gene com seqüências homólogas, poderemos recriar sua história a partir destes detalhes.

Ao se inserir no genoma, no meio da cópia do gene A, esta sequência de DNA poderá acrescentar um códon de parada precoce, interrompendo parcialmente a cópia do gene A. Assim todo os segmentos posteriores a einserção, no sentido da transcrição pela RNA polimerase, serão perdidos. Assim esta porção se degenerará, em um processo semelhante a “pseugenisação”. Caso este novo gene não tenha se originado há muito tempo, poderemos identificar esta região que seria muito semelhante em seqüência, a região homóloga, do gene A original.

O novo gene produziria uma proteína quimérica, formada a partir da junção de partes dos exons do gene A com o grande éxon resultado do processamento e remoção dos introns do transcrito do gene B. Como cada éxon pode codificar um domínio petídico semi-autônomo, problemas de enovelamento poderiam ser corrigidos posteriormente com mutações compensatórias que estabilizariam termodinamicamente a proteína. Uma função inteiramente nova poderia surgir já que os diferentes domínios combinados poderiam agir sinergisticamente. Como abordado em outro artigo, este processo poderia ser ainda mais facilitado pela redução da população efetiva, o que tornaria a seleção purificadora menos eficaz, aumentando o número de mutações toleráveis. Mesmo problemas de enovelamento que pudessem ter um impacto mais drástico (induzindo doenças degenerativas ligadas a formação de muitas folhas beta, um tipo de estrutura secundária) através da formação de agregados protéicos, como os associados ao mal de Alzheimer, poderiam ser tolerados caso este processo atingisse seu estado crítico apenas após a idade fértil e o auge do período reprodutivo, como ocorre com o próprio mal de Alzheimer e a doença de Parkinson, etc.

Em um primeiro olhar, todo este modelo pode parecer um pouco forçado, mas certamente é um caminho possível, corroborado por estudos comparativos e pela genética evolutiva de populações moderna, que respalda esta possibilidade. Porém, o mais curioso, é que esta especulação, na realidade, não é uma especulação, mas a descrição da origem do gene Jingwei, a partir da duplicação do gene Yellow-empire e da fusão de uma das cópias, o gene Yande (funcional em outras espécies), com um transcrito reverso do gene Adh, em moscas do gênero Drosophila. Uma ótima descrição do processo pode ser encontrado aqui.

Tudo isso foi possível graças a possibilidade de comparação entre genes homólogos, e das regiões a eles adjacentes, que permitiram re-construir, e desvendar, os processos que deram origem a este novo gene.

O acúmulo de dados genômicos, associado a invetividade dos cientistas (amparados por novos algoritmos, aumento da capacidade computacional, além de novos procedimentos experimentais), nos trará ainda mais surpresas e detalhes sobre a evolução de novos genes e genomas.


Referências:

Wang W, Zhang J, Alvarez C, Llopart A, Long M. The origin of the Jingwei gene and the complex modular structure of its parental gene, yellow emperor, in Drosophila melanogaster. Mol Biol Evol. 2000 Sep;17(9):1294-301. PubMed PMID: 10958846.

Chandrasekaran , C. & Betrán , E. (2008) Origins of new genes and pseudogenes . Nature Education 1(1)

Créditos das imagens:
TEK IMAGE / SCIENCE PHOTO LIBRARY
VOLKER STEGER / SCIENCE PHOTO LIBRARY
PHANTATOMIX / SCIENCE PHOTO LIBRARY
SHEILA TERRY / SCIENCE PHOTO LIBRARY

Ambos esquemas, descrevendo a origem dos genes e o alinhamento como os genes “parentais”, foram criados por mim. Usem (modifiquem), mas creditem e não impliquem que concordo com vcs sem me consultar.

Conceitos problemáticos e evolução Parte I: Propósito e “Design”

ResearchBlogging.org

Nossa linguagem pode ser traiçoeira, sobretudo no que se refere ao ensino de ciências, especialmente quando lidamos com tópicos, socialmente e ideologicamente, polêmicos como a evolução. Pesquisas, nas últimas décadas, tem indicado que nosso aparato cognitivo evoluiu para um estado no qual a atribuição de “agência”, volição, intenção, etc parece ser bastante generalizada.

Explicações personalistas e teleológicas são muito comuns em nosso meio cultural e, enquanto, absolutamente adequadas quando se tratam de artefatos e criações humanas, são, extremamente enganosas quando extrapoladas para os seres vivos e demais entidades naturais. Esta questão é tremendamente
pertinente quando lidamos com o ensino de ciências biológicas, especialmente ao discutirmos tópicos de biologia evolutiva. Este problema fica muito claro ao analisarmos os usos de certos termos e expressões, que apresentam diversos significados, dependendo dos seus contextos de uso. Alguns, com seu uso nas ciências, em franco contraste com a linguagem leiga. Louise S. Mead e Eugene C. Scott, do National Center for Science Education (NCSE), em um curto e interessante artigo, publicado no Evolutionary Education Outreach, discutem algumas das questões relacionadas com o impacto de determinadas expressões e termos, como empregados na biologia evolutiva, em alunos com formação religiosa mais conservadora, que possuem, pelo menos nos EUA, maior resistência aos tópicos de biologia evolutiva. Esta tendência parece ser reforçada pela naturalidade com que atribuímos intencionalidade ao mundo natural. Algo forte, não só em adultos, mas principalmente em crianças. Portanto, um cuidado com o emprego terminológico e esclarecimento da atitude científica frente a
explicações sobrenaturais, não pode ser evitado. O ponto central do argumento de Mead e Scott, envolve a equiparação de duas formas de naturalismo, o naturalismo metodológico (partilhado pelos cientistas das mais diversas filiações religiosas, ideologias e posturas filosóficas) e o naturalismo filosófico (também chamado de naturalismo metafísico ou ontológico) que envolve uma postura muito mais ampla de rejeição ao teísmo, de forma geral. Apesar da grande (e talvez, melhor dizendo, imensa) maioria dos ateus (e outros naturalistas metafísicos) e agnósticos, subscreverem-se ao naturalismo metodológico; o contrário não é verdadeiro. Muitos cientistas, que seguem o naturalismo metodológico, são teístas ou deístas, portanto, assumindo, portanto, alguma forma de supernaturalismo metafísico.

O primeiro ponto a ser esclarecido é sobre o naturalismo metodológico, tão citado nas discussões entre cientistas e criacionistas. Mead e Scott, exemplificam esta postura ao chamar a atenção para o fato das ciências dependerem da testabilidade de seus construtos teóricos e hipóteses. Além disso, estes testes, dependem da nossa capacidade de controlar várias condições relevantes ao fenômeno a ser investigado. Em experimentos controlados, os cientistas podem tentar controlar o máximo possível variáveis, como luz, calor, pressão, densidade populacional etc. Mesmo em estudos observacionais (como análises epidemiológicas) existe a necessidade da utilização de métodos de controle estatístico de variáveis, onde lança-se mão de suposições plausiíveis sobre a natureza do fenômeno (que podem e devem ser investigadas independentemente, sempre que possível), possibilitando sua investigação. Variáveis que não possuem restrições e não são coagidas, nem empiricamente, nem teoricamente, simplesmente não se prestam a investigação pela comunidade científica, assim defende o naturalismo metodológico. Entidades sobrenaturais e irrestritas em seus poderes, habilidades, capacidades cognitivas (e cujas intenções estão acima de nossas vãs esperanças de compreensão) não são úteis como explicações científicas. Portanto, “Deus” é deixado de fora da investigação científica, uma vez que não existem restrições para sua ações, sendo ele logicamente compatível com qualquer estado de coisas.

É claro que conceitos particulares podem ser discutidos, mas a inabilidade de se concordar e estabelecer metodologias de comparação objetivas e consensuais, nos debates teológicos, tornam esta atitude [meta]metodológica pragmaticamente necessária, ao se conduzir a atividade científica. Resumindo, o naturalismo metodológico é a idéia de que apenas causas, processos, leis, princípios e explicações naturais (ou materiais – baseadas em matéria e energia) devem ser buscados pelos cientistas, em sua práticas profissionais, já que estes tipos de explicações são passíveis de acordo mínimo (além de discussão e validação inter-subjetiva), a partir de testes empíricos e procedimentos metodológicos sistemáticos e rigorosos. Esta postura, pragmática em seu seio, não é uma constação a prori. Ela é resultado de um longo processo histórico em que as ciências se separaram da teologia e da filosofia, ao longo dos séculos, tornando-se independentes, com suas próprias metodologias (de caráter naturalista) e epistemologia (de caráter empirista, como sugere Barbara Forrest; ou talvez, mais adequadamente, “racioempirista” ou pragmatista). O naturalismo metodológico é mantido a posteriori, como resultado do histórico de sucesso da abordagem científica ao lidar com o mundo natural. Esta atitude epistêmica e metodológica, portanto, não exclui logicamente a possibilidade de entidades sobrenaturais, sendo ortogonais a estas possibilidades. As ciências não nos dizem nada sobre a possibilidade da existência do sobrenatural, quando compreendidas desta maneira.

Mead e Scott, enfatizam que estes conceitos devem ser muito bem definidos e separados, pelos professores, ao se ensinar e discutir evolução. Porém, isto não é suficiente, como as autoras mesmo lembram. Termos como “propósito” e “design”, usados tanto por leigos, leigos-religiosos e cientistas, causam enorme confusão. A palavra “propósito” pode ser tanto usada como função, então sendo completamente compatível com a enfase na análise funcional típica da biologia evolutiva, como pode significar objetivo ou meta de um agente cognitivo, inclusive uma divindade; ou pode referir-se ao significado ou “objetivo transcendente” de um individuo ou se sua vida.

A palavra “design” (que parece ser menos problemática em português), com suas alusões ao desenho e projeto consciente, é outro caminho para uma possível armadilha conceitual e confronto ideológico. Este problema parece ser mais relevante em terras anglófonas, mas posso estar errado, já que não tenho uma experiência direta com o ensino de evolução no ensino médio, por exemplo. Porém, em inglês, o termo “design” é usado por cientistas ao descreverem estruturas biológicas, principalmente quando o foco é seu papel adaptativo. Esta tradição se originou, muito provavelmente, a partir da teologia natural, sobretudo na versão William Paley, extremamente influente nos meios de filosofia e história natural anglófonos. Darwin (e Wallace) com a teoria da evolução por seleção natural, explicaram exatamente como a , pelo menos aparente, extrema à adequação funcional, entre as estruturas (morfológicas, fisiológicas e comportamentais) dos seres vivos e o meio-ambiente. Este, até hoje, é um dos principais objetivos da biologia evolutiva, explicar o processo de adaptação através de mecanismos naturais, como a seleção natural.

O problema é que estes termos tem significados muito diferentes, quando usados por não cientistas, especialmente por crianças. Estes usos são facilmente co-optados pelo discurso criacionista, e por sua versão mais moderna, a teoria do Design Inteligente, que capitaliza, exatamente, em cima da idéia de “projeto” (design). Os dois termos são relacionados, “propósito” e “design”, com o “design” sendo um meio de alcançar um “propósito”, esta linguagem tremendamente carregada e teleológica, muitas vezes é propensa a gerar ainda mais confusão sobretudo se ocorre equiparação entre o naturalismo metodológico com o naturalismo metafísico. Criando uma sensação de que os estudantes devessem simplesmente optar. Como Mead e Scott colocam, citando Sinatra, aprender evolução não pode ser simplesmente adicionar um novo conhecimento, mas sim repensar o mundo e desenvolver “uma nova forma de conhecer” . Por isso, este tipo de suposta escolha não parece condutivo as ciências e ao aprendizado desta nova forma de ser pensar e conhecer a origem e modificação das funções e estruturas, que é a biologia evolutiva.

Na verdade, a atitude [meta]metodológica naturalista não é diferente da que adotamos ao ensinar (e investigar) sobre o ciclo celular ou sobre as leis de Mendel. Entretanto, a idéia de que a biologia evolutiva exclui a possibilidade de Deus e do sobrenatural, parece tornar este campo mais propício a estas confusões conceituais e epistêmicas.

As autoras sugerem evitar pronunciamentos que pareçam desabonar a existência de qualquer “propósito ultimo”, como se estes fossem logicamente incompatíveis com prática científica, para isso, enfatizando os compromisso e limitações epistêmicas e metodológicas das ciências e como estas, pragmaticamente, tornam a utilização de explicações sobrenaturais e religiosas inadequadas. Ao mesmo tempo que se diferenciam as duas formas de naturalismo e os compromissos conceituais de ambos. Mead e Scott, propõem explicitar as diferenças entre os usos populares e científicos do termo “propósito”, além de substituir a utilização do termo “design”, por equivalente como “adaptação” e “estrutura”, quando estes forem convenientes. Estas propostas dificilmente vão acabar com todos os problemas relativos ao ensino da evolução, já que termos como “adaptação”, como seus múltiplos significados (como os filósofos da biologia e biólogos teóricos não nos deixam esquecer) não são isentos de problemas. Porém, ao evitar termos como “design”, alguns equívocos conceituais muito sérios podem ser minimizados. Em condições ideais, uma “atmosfera” melhor pode ser alcançada. Uma que não coloque o ensino de evolução em choque direto com as tendências cognitivas, ideologias familiares e familiaridade lingüística (semântica e pragmática), por parte dos alunos, como certos termos e seus usos.

Por não conhecer exatamente o contexto do ensino de evolução no Brasil (nos níveis fundamental e médio) não posso afirmar se estes são os mesmos problemas que acometem nossas escolas. Porém, creio que mesmo assim, este artigo (e o que dará continuidade a ele), valha muito a pena ser lido e digerido, pelos educadores, divulgadores e interessados em evolução e seu ensino. Toda a base teórica por trás destas considerações é também de grande importância. Os estudos de antropologia e psicologia cognitiva que inspiram o artigo de Mead e Scott merecem muita atenção. Assim como, estudos de outros autores sobre a origem da religiosidade humana, como Scott Atran, Pascal Boyer e Ilkka Pyysiäinen.

Referências:

Mead, L., & Scott, E. (2010). Problem Concepts in Evolution Part I: Purpose and Design Evolution: Education and Outreach, 3 (1), 78-81 DOI: 10.1007/s12052-010-0210-8

Leituras sugeridas:

Sinatra GM, Brem SK, Evans EM. Changing minds? Implications of conceptual change for teaching and learning about biological evolution. Evol Edu Outreach. 2008;1:189–95.

Livros recomendados:

Boyer, Pascal. The Naturalness of Religious Ideas: A Cognitive Theory of Religion. Berkeley: University of California Press, 1994.

Atran, Scott. In Gods We Trust: The Evolutionary Landscape of Religion. New York: Oxford University Press, 2002

Pennock RT. Tower of Babel: the evidence against the new creationism. Cambridge: Bradford; MIT; 1999.

Pyysiäinen, Ilkka and Veikko Anttonen, eds. Current approaches in the cognitive science of religion. New York : Continuum, 2002.

Scott EC. Creationism vs evolution: an introduction. 2nd ed. Westport: Greenwood; 2009.

Créditos das imagens:

WILL & DENI MCINTYRE / SCIENCE PHOTO LIBRARY
GARY HINCKS / SCIENCE PHOTO LIBRARY
CECILE DEGREMONT / LOOK AT SCIENCES / SCIENCE PHOTO LIBRARY
JEFF GREENBERG / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY
MIKE AGLIOLO / SCIENCE PHOTO LIBRARY

Foto de Eugenie C. Scott via Wikimedia Commons

Detetives Darwinianos

Este é um livro que eu gostaria de ver traduzido em português e editado, aqui, no Brasil. Norman A. Johnson é professor do departamento de entomologia da University of Massachusetts, Amherst. Suas áreas de interesse são o oestudo dos aspectos genéticos e evolutivos dos mecanismos de isolamento reprodutivo pós-copulatórios, e como eles afetam a aptidão dos híbridos de espécies nascentes. Porém, o livro “Darwinian Detectives ” (“Detetives Darwinianos”) tem um escopo muito mais amplo, além de ser o primeiro livro de divulgação em biologia evolutiva, pelo menos que eu tenha lido, que se concentra nas metodologias e procedimentos de investigação de evolução molecular, filogenia e genética de populações, adotados pelos cientistas para investigar a evolução. Publicado em 2007, escrito de forma clara e agradável., exige apenas um pouco mais do que os livros tradicionais de divulgação, sendo um complemento poderoso para os livros textos utilizados em cursos introdutórios de genética e evolução. “Darwinian Detectives” é uma ótima, e bem atualizada, introdução às principais questões da genética evolutiva e genômica, além de se concentrar nos aspectos relacionados à evolução humana.

Um livro fantástico para os não iniciados (além de extremamente útil para os já iniciados e professores), interessados não só nos fatos, mas em entender como os biólogos evolutivos investigam e inferem os processos e padrões de transformação da vida na terra.


Johnson, Norman A. ( 2007) Darwinian Detectives: Revealing the Natural History of Genes and Genomes Oxford University Press – OUP

Além da seleção natural ou a importância da evolução neutra.

A palavra “evolução” descreve o padrão arborescente de ancestralidade comum, a poderosa idéia de Darwin, que gera uma “hierarquia aninhada” com as mesmas características das árvores genealógicas de famílias humanas, estendendo a noção de parentesco à todas as espécies.

Entretanto, “evolução”, em seu sentido minimo (estando este significado implícito no sentido mais popular, comentado no parágrafo anterior), é simplesmente a mudança transgeracional de características hereditárias de uma população, algo que é maravilhosamente capturado pela expressão criada por Darwin, “descendência com modificação, antes que o termo “evolução” fosse empregado para descrever este processo. Em realidade, esta
mudança transgeracional depende de outros dois processos. O primeiro é a geração de variabilidade hereditária e o segundo é a sobrevivência e reprodução diferencial destas variantes. Por este motivo, a evolução é muitas vezes definida operacionalmente, por geneticistas de populações, como mudanças das freqüências alélicas (isto é, de variantes gênicas) ao longo das gerações em uma população.

Darwin, juntamente com o naturalista, Alfred Russell Wallace, contribuiu com outra idéia fundamental ao estudo da evolução biológica, a seleção natural. Este conceito surgiu em analogia a seleção artificial de características morfológicas e fisiológicas, levada a cabo por criadores de animais e cultivadores de plantas. O termo “seleção natural” descreve o processo de sobrevivência e reprodução diferencial dos indivíduos de uma população, quando este é afetado causalmente, diga-se de passagem, pela posse de determinadas características hereditárias, desta forma aumentando a proporção destas características nas gerações futuras da população em questão. Então, o destino da variabilidade hereditária (i.e., genética, criada por mutações) quando estas
alteram características, que envolvem as capacidades de sobrevivência e reprodução dos organismos que as possuem, é, parcialmente, determinado pela seleção natural.

Desta forma, caso os novos alelos, introduzidos em uma população por mutações, tornem seus portadores mais propensos a deixarem mais descendentes, aumentando sua aptidão, conferindo vantagens aos portadores destas características, estamos observando “seleção natural positiva”. Por outro lado, caso as mutações diminuam a aptidão de seus portadores, diminuindo suas chances de sobrevivência e reprodução (portanto, reduzindo sua representação nas próximas gerações), temos o que se chama de “seleção natural negativa
(ou purificadora)”. Em uma terceira situação, na qual o alelo só traga vantagem em heterozigose, observamos a “seleção balanceadora” que manterá ambas versões alélicas na população, mesmo que individualmente, em homozigose, estes mesmos alelos sejam deletérios e causem prejuízo aos indivíduos que os possuem.

No caso em que a seleção positiva está atuando, ao longo do tempo, ela elevará a freqüência do alelo que confere maior aptidão em uma dada população. Por fim, levando a substituição completa do alelo anterior pelo alelo mutante, o que se chama de fixação, ou seja, a freqüência do alelo chega a 100% naquela dada população.

Entretanto, ao analisarmos estes processos com mais atenção, notamos que para que ocorra seleção natural é preciso que os alelos envolvidos causem, pelo menos em parte, diferenciais reprodutivos, alterando a aptidão de seus portadores. Caso contrário não haverá seleção. Se isso não acontece, ainda assim, a evolução continua.

Se as populações, simplesmente, não continuarem crescendo indefinidamente, ao longo das gerações, as freqüências genéticas dos alelos tenderão a flutuar. Imagine, por exemplo, que os diversos alelos presentes em uma população confiram exatamente a mesma aptidão. Mesmo assim, apenas uma fração dos gametas darão origem a indivíduos adultos capazes de gerar seus próprios gametas e, assim, se reproduzir. Uma grande quantidade de alelos será perdida apenas pelo efeito de erro de amostragem no processo de reprodução. Este efeito será, quanto mais drástico, quanto menor o tamanho da população.

Este efeito é basicamente produzido por “erros de amostragem estatística” a cada geração, já que, da enorme gama de gametas produzidos, apenas uma fração diminuta contribuirá à proxima geração. A figiua abaixo ilustra o efeito desta dinamica de amostragem aleatória (clique nela para ver a animação).

Neste caso, quando as populações são pequenas, mesmo alelos que confiram vantagens adaptativas, aos seus portadores, podem ser perdidos nesta “loteria” reprodutiva. De forma complementar, alelos que confiram pequenas desvantagens, diminuindo a aptidão, podem ser mantidos e levados a fixação em uma população.

Este processo, chamado de deriva genética, proposto por Sewall Wrigth, é de extrema importância para evolução (Na figura ao lado, está ilustrado o efeito da deriva genética aleatória na probabilidade de fixação de alelos em relação ao tamanho da população.). Porém, apenas a partir dos anos sessenta, com os primeiros estudos sobre o relógio molecular e
a descoberta da grande diversidade bioquímica das proteínas nas populações biológicas, é que este fenômeno começou a ganhar sua devida atenção. Isto aconteceu, principalmente, através dos trabalhos do geneticista matemático japonês, Motoo Kimura, proponente da “teoria neutra da evolução molecular”. Pela primeira vez, os biólogos evolutivos possuíam uma elegante e robusta teoria “nula” para explicar a grande, e inesperada, diversidade molecular, além da constância do relógio molecular em muitas espécies diferentes. Esta teoria foi crucial na criação de testes para as hipóteses de seleção natural no nível molecular.

Os trabalhos de Kimura, e o artigo seminal de Jukes e King, iniciaram uma contenda científica conhecida como a “controvérsia selecionista vs. neutralista”. Este saudável e interessante debate, envolvendo os biólogos evolutivos, adentrou pelos anos 70 e 80, continuando de forma muito menos intensidade, até os dias de hoje. Este debate foi responsável por uma nova gama de abordagens matemáticas e teóricas que nos ajudam a compreender melhor a biologia evolutiva.

Na década de setenta, Kimura junto a uma colaboradora mais jovem, Tomoko Ohta, propuseram uma versão modificada da teoria neutra, a “teoria quase-neutra”. Nesta nova versão era dado muito mais atenção ao tamanho populacional e a possibilidade de que mutações ligeiramente deletérias pudessem ser levadas a fixação, por se comportar de forma “quase-neutra”, nestas situações.

As principais evidências que comprovam a importância da teoria neutra, foram sumarizado por Kimura, em um artigo de 1991:

  • Em seqüências de proteínas, substituições conservadoras de aminoácidos por aminoácidos com características físico-químicas semelhantes (ou seja, que causam poucas alteações bioquímicas sem
    muito afetar a função protéica) ocorrem em maior freqüência que alterações mais radicais.
  • Substituições sinônimas (i.e. aquelas que não alteram o aminoácido codificado) ocorrem quase sempre em uma taxa muito maior do que as substituições não sinônimas.
  • Seqüências não-codificadoras, como introns, evoluem em uma taxa mais alta, similar a de sítios sinônimos.
  • Pseudogenes, evoluem a uma taxa maior, semelhante a taxa da terceira posição de um códon.

Estas observações são extensamente corroboradas pelos dados genômicos e não se ajustam ao modelo selecionista tradicional.

Hoje a evolução neutra não pode mais ser ignorada, principalmente porque, ela esta na base dos testes para a detecção de seleção natural em genes. No entanto, hoje reconhece-se que a divisão das mutações em
deletérias, neuras e vantajosas é uma simplificação grosseira, havendo na realidade um continuum de efeitos fenotípicos que podemvariar de a cordo com o contexto, e, principalmente (como foi reconhecido pelos trabalhos de Kimura e Ohta), pelo tamanho efetivo da população.

Então, a importância da deriva genética vai ser proporcional a dois valores: (i) o tamanho efetivo da população, Ne,;e (ii) o coeficiente de seleção, s, que exprime a efeito fenotípico da mutação na aptidão do seu portador. Desta forma, mutações cujo valor de Nes for muito menor do que 1z, podem ser consideradas “efetivamente neutras”, tendo seu destino definido pelos efeitos estocásticos da deriva genética. Assim, quanto menor for Ne
maior será o efeito da deriva nos genes, mesmo que estes confiram vantagens adaptativas.

De acordo com a teoria neutra, a probabilidade de uma mutação neutra atingir a fixação é igual a sua freqüência na população, por isso, uma nova mutação tem probabilidade de 1/N (em uma população haplóide, mas o mesmo raciocínio é válido para populações diplóides), onde N é o tamanho da população. Então, se consideramos que a taxa de mutação em um determinado sítio é igual u, em uma população haplóide, a cada
geração, ocorrem Nu mutações. Assim, a taxa de substituições por geração (K) pode ser obtida simplesmente
ao multiplicar-se o número de mutações que ocorrem a cada geração ( Nu) pela sua probabilidade de fixação (1/N), o que nos dá, para sítios evoluindo de forma neutra:

K = Nu × 1/N = u

Porém, como a seleção natural altera a probabilidade de fixação de uma mutação (com a seleção positiva a aumentando, e a seleção negativa, a diminuindo, em relação as mutações neutras) espera-se que sítios afetados pela seleção positiva evoluam mais rápido (K>u), e, os afetados pela seleção negativa, evoluam mais
devagar (K<u) do que sítios neutros. Muitos dos testes para detectar a seleção natural baseiam-se nestas expectativas. Porém, é sempre preciso um pouco de cuidado, já que outros processos podem influenciar K, como a “conversão enviesada gênica” (BGC, Biased Gene conversion), assim como expansões populacionais e relaxamento da seleção negativa. Por isso, estes processos também devem ser levados em consideração. Portanto, em condições ideais, é importante que se tenha uma hipótese ecológico-funcional, ou bioquímica, para reforçar a hipótese seletiva, permitindo testar e estimar os ganhos em aptidão das variantes envolvidas.

Kimura e os defensores do modelo neutro de evolução jamais negaram a existência ou, mesmo, a importância da seleção natural, sobretudo para a evolução fenotípica. Apenas enfatizavam a maior importância relativa da fixação de alelos, seletivamente neutros, por deriva genética, na evolução molecular. Porém, nas últimas décadas um papel mais positivo para a deriva genética e outros processos estocásticos, tem sido ativamente investigado. Entre estes processos não adaptativos, podemos citar a deriva genômica em famílias multi-gênicas, como a dos receptores olfativos em primatas, e o aumento do tamanho e complexificação dos genomas, e da estrutura dos genes, nos eucariontes, por conta do acumulo de mutações efetivamente neutras propiciado pela diminuição no tamanho efetivo das populações através da árvore da vida.

A evolução dos genomas tem merecido especial atenção. Os genomas variam dramaticamente em relação ao tamanho (variando em 4 ordens de magnitude apenas nos eucariontes) e estrutura, com os genomas de procariontes sendo bastante compactos, densos em seqüências codificadoras, em marcante contraste aos genomas de eucariontes, repletos de elementos não codificadores, como seqüências inter-genicas, introns, regiões UTR e muito, mas muitos mesmo, transposons. Isto resulta em um padrão geral no qual, a grosso modo, a complexidade e tamanho dos genomas aumentam na passagem dos procariontes, para os eucariontes unicelulares e destes para os eucariontes multicelulares, como animais e plantas. Um crescente número de estudos que compilam os dados genômicos de espécies representantes dos três domínios, baseados em princípios de genética de populações muito bem estabelecidos, tem sugerido um modelo teórico capaz de explicar esta situação. O grupo de Michael Lynch, da Universidade de Indiana, vem propondo que muitas das
características genômicas são resultado de processos não adaptativos, muitos de natureza estocásticas baseados nas grandes diferenças nos tamanhos efetivos das populações (Ne) que tendem a decrescer drasticamente, na passagem de procariontes para eucariontes e de unicelulares para pluricelulares.

A taxa de deriva genética é proporcional a 1/Ne; e o efeito conjunto da seleção natural e da deriva genética em uma nova população, pode ser aproximado pela probabilidade de fixação de um novo alelo selecionado, relativamente a de um alelo neutro, o que dado por 4Nes/1 -e -4Nes. Assim o destino de uma nova mutação é determinado pelo seu efeito seletivo, relativizado pelo efeito do tamanho da população efetiva em que ele é introduzido. Portanto, um mutação que cause uma pequena desvantagem (por exemplo, s = -10 -5), caso surja em uma população com Ne=106, praticamente não terá chance de ser fixada. Não obstante, esta mesma mutação, caso a população tivesse Ne.=30000, ou seja Nes=-0,3, a chance de fixação desta mutação, ligeiramente desvantajosa, estaria por volta de 86% da chance de fixação de uma mutação neutra. Esta mutação se comportaria de forma muito semelhante a uma mutação neutra. Então, como já vimos,para mutações com |Nes| << 1, a deriva genética passa a ter uma importância substancial em seu destino. Por isso, Lynch propõe que mutações que satisfaçam |4Nes| < 1, cuja probabilidade de fixação seja 88% da de uma mutação neutra, sejam consideradas efetivamente neutras.

Na figura 1, em seguida, podemos observar como varia a probabilidade de fixação de um alelo selecionado em relação a um neutro, com o aumento do valor de Nes (no qual Nes=0, representa o caso da neutralidade, ou seja, probabilidade de fixação igual a 1). Estas considerações nos levam a perceber que o número de mutações
efetivamente neutras variará em função do tamanho populacional, como ilustrado na figura 2. Assim, a complexidade da arquitetura genômica de eucariontes, sobretudo dos multicelulares, é resultado da acumulação de mutações que cairiam na categoria de “efetivamente neutras”. Os genomas de espécies com pequenos Ne proveriam um ambiente genético adequado para o acúmulo de mutações quase neutras, como conseqüência da redução na eficiência da seleção purificadora, o que é corroborado pela diminuição nos tamanhos das populações efetivas através da “árvore da vida”. Assim, a complexidade genômica correlaciona-se negativamente com Ne.

O modelo de Lynch é também conformado pelo fato de que muitas das mutações, associadas ao ganho de complexidade estrutural nos genes e criação de redes regulatórias, seriam, pelo menos, ligeiramente deletérias, como ocorre com o acréscimo de introns (que precisa de cerca 20 a 40 pb, para que possam ser adequadamente reconhecidos e editados pelos spliceossomas) e regiões UTR (untranslated regions). A compilação de grande quantidade de dados de genomas dos três domínios revelam que a diversidade de sítios neutros (πs) que é equivalente à 4Neμ (onde μ é a taxa de mutação neutra) em populações diplóides em equilíbrio. Assim, como cada um dos sítios intrônicos podem sofrer mutações, que podem impedir seu correto funcionamento e processamento, é possível aproximar esta desvantagem seletiva, na inserção de um novo intron, por s=n μ, onde μ é a taxa de mutação por sítio. Então, para n=20, o valor crítico seria de 4Neμ= πs<0.05. Este valor é completamente compatível com as estimativas para sítios silenciosos (lembrando-se que |4Nes| < 1 pode ser considerados efetivamente neutros) em animais e plantas. Nestas espécies, que exibem grande quantidades de introns, este valor está bem a baixo deste ponto crítico. Porém, ainda mais interessante, é o fato de que o ajuste do dados da distribuição de introns entre procariontes e eucariontes unicelulares é excelente ao usarmos a hipótese de que πs= 0.05 represente o ponto crítico. Assim a redução da eficiência da seleção negativa, devido as pequenas populações, levaria a acumulação de introns, podendo levar a complexificação genômica. Além disso, algo muito semelhante seria também verdadeiro para o acúmulo de regiões UTR e para a modularização dos sistemas de regulação gênica. Tudo muito bem amparado pela teoria de genética de populações e a enorme gama de dados empíricos coletados pelo grupo de Lynch.

O modelo de Lynch explica os padrões gerais vistos na transição dos procariontes para os eucariontes e da unicelularidade para a multicelularidade, mas como o próprio Lynch admite, muitos dos detalhes de seu modelo se mostrarão errados. No entanto, a perspectiva geral parece ser muito robusta e oferece uma sólida e elegante hipótese a ser testadas. Resultados preliminares, ao analisar-se dados de herbívoros e carnívoros, parecem destoar das previsões do modelo de Lynch (ainda que o modelo tenha sido criado para explicar padrões bem mais gerais), mas estudos em peixes de
nadadeiras com arcos raiados, controlando para o metabolismo e tamanho corporal (dois outros fatores que podem confundir as análises e explicar o aumento do tamanho genômico, são compatíveis com as análises de Lynch.

A idéia de de que processos não adaptativos sejam os responsáveis por permitir a complexificação genômica, refinamentos na arquitetura dos genes e modularização das redes de controle genético, não exclui o papel da seleção natural, no ajuste e “aperfeiçoamento” destes sistemas, ou desvios desta tendências gerais em grupos particulares de eucariontes. Esta interação entre seleção e processos estocásticos, como mutação e deriva, especialmente em espécies
com substancial redução no tamanho das populações efetivas, é que parece ser a chave para a compreensão da evolução da complexidade e diversidade.

Referências:

Este artigo usou como fontes principais o ótimo artigo do portal scitable, de autoria de Laurent Duret, e uma esclarecedora revisão dos artigos de Michael Lynch, esrcrita por Soojin V. Yi, publicada no BioEssays,de onde foram retiradas as duas figuras usadas neste texto:


Duret, L. (2008) Neutral theory: The null hypothesis of molecular evolution. Nature Education 1(1)

Yi SV. Non-adaptive evolution of genome complexity. Bioessays. 2006 Oct;28(10):979-82. Review. PubMed PMID: 16998825.


Referências adicionais recomendadas:


Gregory TR, Witt JD. Population size and genome size in fishes: a closer look. Genome. 2008 Apr;51(4):309-13. PubMed PMID: 18356967.


King JL, Jukes TH. Non-Darwinian evolution. Science. 1969 May 16;164(881):788-98. PubMed PMID: 5767777.


Kimura, M. “Evolutionary Rate at the Molecular Level,” Nature (1968), 217: 624-26.

Kimura M. Recent development of the neutral theory viewed from the Wrightian tradition of theoretical population genetics. Proc Natl Acad Sci U S A. 1991 Jul 15;88(14):5969-73. PubMed PMID: 2068072; PubMed Central PMCID: PMC52003.

Lynch M. The origins of eukaryotic gene structure. Mol Biol Evol. 2006 Feb;23(2):450-68. Epub 2005 Nov 9. PubMed PMID: 16280547.


Lynch M. The evolution of genetic networks by non-adaptive processes. Nat Rev Genet. 2007 Oct;8(10):803-13. PubMed PMID: 17878896.


Ohta, Tomoko; John H. Gillespie (1996). “Development of Neutral and Nearly Neutral Theories”. Theoretical Population Biology 49 (2): 128–42. doi:10.1006/tpbi.1996.0007. , pp 130-131


Nei M, Rooney AP. Concerted and birth-and-death evolution of multigene families. Annu Rev Genet. 2005;39:121-52. Review. PubMed PMID: 16285855; PubMed Central PMCID: MC1464479.


Nei, M. (2005) Selectionism and neutralism in molecular evolution. Mol. Biol. Evol. 22:2318-2342.


Nei, M. (2006) Selectionism and neutralism in molecular evolution. Erratum Mol. Biol. Evol. 23:1095.


Stoltzfus A. On the possibility of constructive neutral evolution. J Mol Evol. 1999 Aug;49(2):169-81. PubMed PMID: 10441669.


Yi S, Streelman JT. Genome size is negatively correlated with effective population size in ray-finned fish. Trends Genet. 2005 Dec;21(12):643-6. Epub 2005 Oct 5. PubMed PMID: 16213058.


Livros recomendados:


Kimura, Motoo. 1983. The neutral theory of molecular evolution. Cambridge


Michael Lynch 2007 The Origins of Genome Architecture Sinauer


Transcrição da palestra de Lynch no Brasil:


http://www.revistapesquisa.fapesp.br/pdf/revolucao_genomica/lynch.pdf


Video da palestra de Lynch:


http://revistapesquisa.fapesp.br/?art=4977&bd=2&pg=1&lg=



Mais links de interesse:


http://authors.library.caltech.edu/5456/1/hrst.mit.edu/hrs/evolution/public/neutraltheory.html


http://authors.library.caltech.edu/5456/1/hrst.mit.edu/hrs/evolution/public/nearlyneutral.html

Crédito das imagens:
MARTIN KRZYWINSKI / SCIENCE PHOTO LIBRARY

NEMO RAMJET / SCIENCE PHOTO LIBRARY

Figuras sobre deriva genética:

Professor Marginalia através da commons.wikimedia.org.

A origem de nova informação genética. Parte I

Um dos argumentos mais irritantes, repetidos ad nauseam por aqueles que negam a evolução biológica, é o de que não existem mecanismos que aumentem o “conteúdo de informação”, ou a complexidade genética, dos seres vivos. Este argumento é irritante por dois motivos. O primeiro deles é o uso abusivo do termo ‘informação’, um conceito de aplicação muito ampla, porém, com um sentido matemático bastante rigoroso, desenovlvido a partir dos trabalhos de Claude Shannon e, posteriormente, de Kolmogorov e Chaitin, sobre a teoria algorítmica da informação. Ambas versões são constantemente, implícita ou explicitamente, trazidas à baila pelos criacionistas, principalmente os adeptos do Design Inteligente, de forma abusiva e distorcida (teoria da informação e criacionismo). O problema é que existem muitas aplicações da teoria da informação na biologia molecular e, especialmente, na biologia evolutiva, como fica bastante claro ao analisarmos a teoria das máquinas moleculares de Tom Schneider e os trabalhos, do físico teórico, Christoph Adami e, do cientista da computação, Charles Ofria. Em segundo lugar, a afirmação de que não existem, ou não se conhecem, mecanismos naturais, que aumentem o conteúdo informacional dos genomas (E olha que esta quantidade jamais é definida de forma rigorosa pelos criacionistas) é, simplesmente, falsa. Existem muitos mecanismos que fazem exatamente isso, ou seja, aumentam o conteúdo de informação dos genomas, possibilitando a criação de novos genes, e aumentando a complexidade das redes de regulação. Em um post futuro , pretendo aprofundar-me em algumas novas abordagens que explicam como certos mecanismos estocásticos podem contribuir para a complexidade da arquitetura genômica e estrutural dos genes em eucariontes, como a criação de introns, explorando os trabalhos do grupo do biólogo evolutivo, Michael Lynch.

Neste post pretendo dar uma rápida passada neste tema e citar alguns destes mecanismos que, em outra ocasião, serão explorados em artigos mais específicos.

Duplicação gênica:

A existência de genes muito semelhantes, às vezes em estreita proximidade física, que muitas vezes formam “clusters” de chamados genes parálogos, são um dos mais claros exemplos de como novos genes podem surgir. Isto é, a partir de ‘velhos’ genes. Ao estudarmos os mecanismos de duplicação do DNA é possível perceber como determinados processos podem gerar duplicações de determinadas seqüências genéticas. Por exemplo, o chamado DNA polimerase slippage (‘deslise’ da polimerase) e crossing over desigual,
além da ação de elementos genéticos móveis (que podem, ao se multiplicar, levar com eles seqüências de DNA
), são alguns dos mecanismos que podem duplicar segmentos de DNA contíguos. Na realidade, existem evidências de duplicações muito mais extensas, de cromossomos e, até mesmo, de genomas inteiros (por exemplo na origem dos vertebrados), envolvendo processos de poliploidia ou não disjunção meiótica, durante a produção de gametas, ou mitótica, durante a primeira divisão do zigoto. Eventos, como estes, acontecem em nosso tempo de vida em várias espécies, sendo muito bem documentados. Não são meras especulações teóricas ou fantasias dos biólogos. São realidades empiricamente atestadas.

Pesquisadores, como Masatoshi Nei, tem defendido que boa parte da evolução genômica dos seres multicelulares, envolva este tipo de dinâmica, de perda e ganho de genes duplicados. Esta dinâmica, por sua vez, abre espaço à diversificação molecular crescente e especialização funcional contingente. A origem de certas redes de controle genéticas, como a formada pelos ‘clusters’ de genes homeóticos (que possuem a sequência de 180 nucleotídios que codifica o domínio proteico homeobox de interação com o DNA distribuídos co-linearmente nos cromossomos, responsáveis pelo formação do eixo cabeça-cauda em animais e formação de apêndices em vertebrados), são um dos maiores exemplos do poder da duplicação gênica. Além disso, estudos genéticos recentes indicam que existe, intra-especificamente, uma grande quantidade de variação no número de cópias de genes e pseudogenes, inclusive na nossa própria espécie, o que mostra o quão frequente é a ocorrência de duplicação gênica.

Após a duplicação de um gene, pelo menos, três coisas podem acontecer. Em primeiro lugar, este gene pode sofrer mutações que o tornem não funcional. Por exemplo, ao ganhar uma mutação do tipo nonsense, cuja
alteração de um dos nucleotídeos, cria um códon de parada precoce, resultando em uma proteína truncada, não funcional; ou ainda, uma mutação no sítio promotor que pode tornar o gene não transcrito. Neste caso, temos a formação de um pseudogene que acumulará mutações de forma muito mais acentuada, do que o gene original, tendo seus destino guiado pela deriva genética ao aproximar-se da neutralidade funcional. Estes genes, ainda assim, podem adquirir funções novas ao serem, mais tarde, “ressuscitados” por mutações fortuitas.

Em segundo lugar, mutações podem acometer os dois genes parálogos, comprometendo sua função (por exemplo ao diminuir suas taxas de transcrição), apenas parcialmente, fazendo que ambos passem a ser necessários para a homeostasia do organismo, já que individualmente não conseguiriam dar conta do recado. Esta chamada ‘subfuncionalização’ é a porta de entrada para a complexificação de circuitos genéticos que pode conduzir da redundância à subdivisão de papéis funcionais.

Em terceiro lugar, as mutações sofridas pela nova cópia podem criar uma função nova, ou liberar o gene antigo para adquirir uma função nova, através de mutações adicionais e seleção natural, através do processo que se convencionou chamar de ‘neofuncionalização’.

O ponto principal é que a redundância, oferecida pela nova cópia, pode facilitar a diversificação mutacional posterior, além da co-optação funcional por uma outra rede genética, por exemplo, através de mutações nas regiões reguladoras de um dos genes duplicados. Este mesmo mecanismo pode funcionar quando existem duplicações parciais, apenas de segmentos dos genes, como de regiões regulatórias ou de exons, podendo contribuir para a evolução de novos domínios proteicos, o que é fortemente sugerido pelo fato de que muitos destes domínios são codificados por éxons, sendo unidades funcionais distintas (modulares) , inclusive enovelando-se (isto é, adquirindo sua conformação tridimensional, fundamental para a atividade proteica) de forma semi-autônoma.

As mutações, em uma região regulatória duplicada de um gene, podem acabar por fazê-lo interagir com outro fator de transcrição, facilitando sua co-optação por outra rede genética em outro tecido, por exemplo.

Todos estes processos, duplicação (mesmo duplicações múltiplas sequenciais), subfuncionalização, neofuncionalização e co-optação funcional, não são excludentes e podem se suceder, colaborando para criar novos circuitos genéticos e, desta forma, novas características, ao modificarem as propriedades de diferenciação, proliferação, adesividade, secreção de matriz extra-celular e interação hormonal das células e tecidos.

Transferência lateral:

A transferência de material genético lateral, principalmente, através de vírus e bactérias, pode ser outra forma de um organismo adquirir um gene, uma sequência reguladora, ou mesmo, um conjunto de genes já prontinhos, de um única vez. Claro, um processo de evolução subseqüente deverá ocorrer para a ustar funcionalmente os novos genes ao novo organismo.

As transferências de plasmídios, com genes de resistência a os antibacterianos, são bem comuns em procariontes e ilustram a importância da transferência genética lateral. Em eucariontes, incluindo certos animais, possuímos evidências de que genomas de bactérias comensais, como a Wolbachia, foram parcialmente transferidos para os genomas nucleares dos hospedeiros, algo semelhante acontecendo com parte do genoma das bactérias que deram origem as nossas mitocôndrias. Então, neste caso, a simbiose pode ser o passo prévio fundamental para o surgimento de uma nova função,. Assim a transferência lateral pode ocorrer aos poucos, seja ao ponto de incorporar completamente ao genoma alheio, (descartando a necessidade do simbionte ou comensal), seja incorporando o próprio simbionte, ou comensal, como uma organela endossimbiótica, como no caso das mitocôndrias e cloroplastos. Além disso, nosso genoma é repleto daquilo que parecem ser sequências virais dormentes, além de certos tipos de elementos genéticos móveis que só fazem se replicar, sendo verdadeiros “DNAs egoístas”. Esta é mais uma evidência de como a transferência lateral, e os ‘genes saltadores’, não são mera ficção, mas sim uma realidade genômica importante durante a evolução.

Domesticação de elementos genéticos móveis:

Como já foi dito, elementos genéticos móveis como os transposons e os retroposons, são basicamente formas parasíticas de DNA, e só fazem se multiplicar, aumentando o tamanho do genoma, as vezes mutando genes, ao se inserirem dentro deles, além de não codificarem proteínas funcionalmente relevantes para a célula. Porém, uma forma de adquirir novos genes, e novas funcionalidades, é através da mutação e “domesticação” destes transposons e retrotransposons (que ao se copiarem criam um intermediário de RNA), recrutando as proteínas codificadas por estas sequências para funções específicas, ao mesmo tempo que perdem a capacidade de se copiarem e se inserirem livremente no genomas. Exemplos, associados a formação de redes de controle genético e origem do sistema imune de vertebrados, tem sido bastante investigados nas últimas décadas.

Fusão e fissão gênica:

Genes podem tanto se fundir, ou seja, formar um único transcrito que gera uma única proteína; como podem sofrer fissão, dando origem a dois transcritos. Estes processos, principalmente se combinados com a duplicação genica (como alguns estudo em Drosphila sugerem), contribuiem para evolução de novas proteínas, principalmente no caso da fusão de genes dupilcados e na formação de proteínas quiméricas.

Origem de novo:

Outra possibilidade é a de que novos genes surjam a partir de regiões não codificantes, por exemplo, pelo acréscimo de uma sequência reguladora e elementos promotores, em um segmento de DNA,, ajustando em uma janela de leitura apropriada. Estes segmentos promotores, podem ser derivados da inserção parcial de um genoma viral (ou elemento genético móvel) ou causada por uma falha no mecanismo de duplicação e reparo de DNA. Neste caso uma proteína nova pode surgir e ser, posteriormente, alvo da seleção natural. O exemplo mais famoso de aquisição de uma nova enzima, por mutações envolvendo alterações na janela de leitura de uma sequência, é da ‘nylonase’, uma enzima capaz de metabolizar nylon.

Além destes processos, o embaralhamento de éxons e conversão gênica, podem contribuir para a criação de novas funções a partir de genes já existentes, especialmente aqueles derivados de duplicação, artificialmente protegidos da seleção negativa por causa da redundância funcional. Outro ponto, não abordado neste post, é a origem de genes de micro-RNAs e outros RNAs regulatórios. Estes sistemas de controle genético, entretanto, também podem ser explicados por mecanismos naturais, principalmente os associados à replicação de retrotransposons, captura e reinserção, no genoma, de RNAs mensageiros. Em outro post pretendo abordar esta questão mais a fundo. A figura a seguir retirada com fins exclusivamente didáticos ilustra os principais mecanismos comentados acima.

Os exemplos, acima citados, são apenas alguns dos mecanismos investigados por cientistas que buscam explicar, como as novidades evolutivas surgem e evoluem,. Estes processos lançam luz aos mecanismos de evolução biológica, sobretudo, se combinados com a investigação de processos estocásticos (associadas a diminuição na população efetiva e consequente relaxamento da seleção purificadora), além de certas tendenciosidades nos tipos de erros dos mecanismos de duplicação, reparo de DNA e divisão celular. Estes processos, em conjunto, podem gerar a tremenda complexidade estrutural e funcional dos genomas de eucariontes, principalmente dos multicelulares.

Voltando a questão dos que negam a evolução, o que mais me impressiona é o fato da ideia de duplicação genética ter um pedigree relativamente antigo. Susumu Ohno, no começo dos anos setenta, foi o primeiro a especular e mostrar evidências para a importância da duplicação de genes e formação de pseudogenes. Por´´em, desde a década de trinta já haviam especulações sobre o assunto, e indícios cromossômicos. Este, portanto, não é um conhecimento inteiramente novo e guardado a sete chaves. Claro, agora, através de nossa habilidade de sequenciamento de genes (e, mesmo, genomas inteiros) com grande precisão, somos capazes de investigar em detalhe este e outros processos. Porém, este fato não diminui o paradoxo associado a negação veemente de que processos e mecanismos com estes existam e sejam, há décadas, alvo de pesquisa científica. Os cientistas sabem, e investigam a fundo, diversos mecanismos naturais que geram nova informação genética. Isto é um fato.

A insistência no discurso de que os biólogos evolutivos não conhecem nenhum mecanismos capaz de criar novas funcionalidade, aumentar a complexidade (ou mesmo, o conteúdo informacional de um genoma, ou ser vivo) não pode ser sustentado de forma honesta. Apenas a ignorância e a desonestidade intelectual podem justificar tal atitude. Veja a Parte II


Esta lista de processos que explicam a origem de novos genes é inspirada no artigo do portal Scitable:

Para saber mais sobre a teoria da informação na biologia molecular e evolução:

http://www.ccrnp.ncifcrf.gov/~toms/papers/ev/

http://www.ccrnp.ncifcrf.gov/~toms/papers/shannonbiologist/

———————————————————————

Referências:

  • Adami C. Information Theory in Molecular Biology Physics of Life Reviews 1 3-22 (2004).

  • Force A, Lynch M, Pickett FB, Amores A, Yan YL, ostlethwait J. Preservation of duplicate genes by complementary, degenerative mutations. Genetics. 1999 Apr;151(4):1531-45. Review. PubMed PMID: 10101175; PubMed Central PMCID: PMC1460548.

  • Hotopp JC, Clark ME, Oliveira DC, Foster JM, Fischer P, Torres MC, Giebel JD, Kumar N, Ishmael N, Wang S, Ingram J, Nene RV, Shepard J, Tomkins J, Richards S, Spiro DJ, Ghedin E, Slatko BE, Tettelin H, Werren JH. Widespread lateral gene transfer from intracellular bacteria to multicellular eukaryotes. Science. 2007 Sep 21;317(5845):1753-6. Epub 2007 Aug 30. PubMed PMID: 17761848.

  • Kasahara M. The 2R hypothesis: an update. Curr Opin Immunol. 2007 Oct;19(5):547-52. Epub 2007 Aug 17. Review. PubMed PMID: 17707623.

  • Long M, Betrán E, Thornton K, Wang W. The origin of new genes: glimpses from the young and old. Nat Rev Genet. 2003 Nov;4(11):865-75. Review. PubMed PMID:14634634.

  • Lynch M, Conery JS. The origins of genome complexity. Science. 2003 Nov 21;302(5649):1401-4. PubMed PMID: 14631042.

  • Nam J, Nei M. Evolutionary change of the numbers of homeobox genes in bilateral animals. Mol Biol Evol. 2005 Dec;22(12):2386-94. Epub 2005 Aug 3. PubMed PMID: 16079247; PubMed Central PMCID: PMC1464090.

  • Nei M, Rooney AP. Concerted and birth-and-death evolution of multigene families. Annu Rev Genet. 2005;39:121-52. Review. PubMed PMID: 16285855; PubMed Central PMCID: MC1464479.

  • Perry GH, Yang F, Marques-Bonet T, Murphy C, Fitzgerald T, Lee AS, Hyland C, Stone AC, Hurles ME, Tyler-Smith C, Eichler EE, Carter NP, Lee C, Redon R. Copy number variation and evolution in humans and chimpanzees. Genome Res. 2008 Nov;18(11):1698-710. Epub 2008 Sep 4. PubMed PMID: 18775914; PubMed Central PMCID: PMC2577862.

  • Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. PubMed PMID: 10908337; PubMed Central PMCID: PMC102656.

  • Zhang J (2003). “Evolution by gene duplication: an pdate”. Trends in Ecology & Evolution 18 (6): 292–8. doi:10.1016/S0169-5347(03)00033-8.

Créditos das imagens:

VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY

ANDERSON / OMIKRON / SCIENCE PHOTO LIBRARY

PROFESSOR STANLEY COHEN / SCIENCE PHOTO LIBRARY