Sem categoria

Regra a três

Quando estudamos a história evolutiva das espécies, suas interações ecológicas com outros indivíduos e com o meio, sua dinâmica de populações e das comunidades, podemos chegar a conclusão que uma eterna luta é travada na natureza, seja numa floresta úmida, num deserto solitário e escaldante, nas termas submarinas e ácidas ou até mesmo dentro dos nossos do corpos. Um guerra entre presa, predador, e entre indivíduos da mesma espécie, onde somente um sai vencedor…

“Não desista. Lute até o fim!”

Mas nem sempre a história é escrita dessa forma, as vezes uma trégua, é necessário para continuar a sobreviver. O termo Simbiose, foi utilizado pelo primeira vez em 1879 pelo Micologista alemão Heinrich Anton de Bary e foi definido como “organismos diferentes vivendo juntos”. Desde então o estudo dessa área veio crescendo e demonstrando que a simbiose deu origem a grandes saltos evolutivos, como o surgimento das células eucarióticas e dos cloroplastos nas plantas. O ditado popular “uma mão lava a outra” vem a calhar nesse conto, mas venho aqui para falar de seres que não possuem mãos para serem “lavadas”…

Homalodisca vitripennis

O drama da vida neste teatro evolutivo que vos apresento é encenado pela cigarra Homalodisca vitripennis, e as bactérias hospedadas em seu corpo, a Baumannia cicadellinicola e Sulcia muelleri, numa espécie de “Threesome” estes organismos convivem intimamente, e quando falo de intimidade, viver dentro do corpo de outro talvez seja o máximo de intimidade que se pode alcançar. A cigarra H. vitripennis, como diversos artrópodes que convive com endossimbiontes, possui uma estrutura corporal especializada para isso, o bacterioma, onde residem os bacteriócitos, as células que protegem as bactérias, provém nutrientes, aminoácidos necessários para sua manutenção e são transmitidas maternalmente para a prole.

A dupla de endossimbiontes: Baummania (verde) e Sulcia (vermelho)

Claro que viver junto tem suas consequências, como a redução do genoma do endossimbionte, e a inabilidade de viverem separados tanto o hospedeiro quanto o hospedado, tática utilizada para exterminar insetos que muitas vezes se tornam pragas de lavouras, ou vetores de doenças, mas os benefícios desse estilo de vida, neste caso podem ser resumidos em: A espécie Baummania sintetiza vitaminas e cofatores, enquanto a Sulcia produz alguns aminoácidos, complementando a síntese da Baummania e provendo uma fonte energética para a cigarra Homalodisca, que se alimenta do xilema de algumas plantas que não possuem tais “mantimentos” para a sobrevivência da cigarra.

Neste regra à três, diferente da música do Vinicius de Moraes “regra três”, o menos não vale mais…

Referências:

http://www.pnas.org/content/104/49/19392.full
http://www.ncbi.nlm.nih.gov/pubmed/16729848
http://www.ncbi.nlm.nih.gov/pmc/articles/PMC368156/
Letra da música Regra Três

Imagens: Aqui e daqui.

Teoria E O Argumento Da Definição Do Termo

O que é uma Teoria?


Muitas pessoas ao discutir sobre teorias científicas ou falar sobre ciência em geral, tem o costume de menosprezar alguma “teoria” pelo motivo de ser “apenas uma teoria!”. Isso indica um desconhecimento da definição do termo teoria usada no meio acadêmico, que é diferente da usada no cotidiano.

Diariamente quando falamos que temos uma teoria para explicar alguma coisa, geralmente ela não é suportada por evidências e experimentos, simplesmente é uma hipótese, um “achismo”. Cientificamente, teoria engloba um arcabouço de idéias lógicas de acordo com as já estabelecidas leis da natureza, evidências e experimentos ciêntificos.


A teoria é construída através da observação de fatos. Sendo assim, teoria é um modelo lógico e consistente que descreve o comportamento de um dado fenômeno natural ou social. Nesse sentido, uma teoria é uma expressão sistemática e formalizada de todas as observações prévias, que são previsíveis, lógicas e testáveis. Em princípio, teorias científicas são sempre tentativas, e sujeitas a correções ou inclusão numa teoria mais abrangente.

Quando a teoria passa a ser considerada fato?

Toda teoria cientifica válida tem sua existência confirmada e reforçada por milhares de observações e experimentações. Mas essas observações e experimentações não tem fim, sempre é possível avançar mais no entendimento de algum fenômeno. Sendo assim, ela é considerada a mais provável. Isso porque o método científico foi concebido para evitar ser dogmático e minimizar os erros humanos por preconceitos,
orgulho, vaidade, etc.. Então, desta forma, é anti-científico falar que essa teoria está 100% correta, mesmo não existindo nenhuma evidência contrariando-a; se realmente existir, a teoria será revista e modificada.

Apesar disso, existe muitas verdades absolutas na ciência. Por exemplo: quando começou-se com a hipótese de que a terra poderia ser “redonda”, essa idéia não passava de uma hipótese. Mas depois de muitas evidências, experimentos e comprovações passou-se a ser uma teoria. Como nunca surgiu uma evidencia contra esta teoria e até o homem já foi ao espaço conferir com os próprios olhos, ela já é considerada um fato. Na verdade, extritamente falando, a Terra possui um formato chamado geóide. E
como os números são infinitos não existe um número exato do coeficiente de “esfericidade” da Terra; sempre é possível usar mais casas decímais para a medição, isso só depende da evolução dos quipamentos de medida. Desta forma nunca saberemos o formato exato da Terra. Mas isso não muda nada na nossa forma de compreender o universo. Ninguem deve perder o sono com isso, nem viver pensando que existe a chance de a Terra ser chata ou quadrada, por exemplo.

Outro exemplo é a Teoria da Evolução. Se alguém pensa e fala que “a teoria da evolução é só uma teoria”, que o “próprio nome já diz que não foi comprovada ainda”, essa pessoa não possui compreensão suficiente sobre o assunto nem sobre ciência. Usei o exemplo da evolução, porque é a teoria mais atacada com o
Argumento Da Definição Do Termo.

Podemos falar em Teoria da Gravidade do mesmo modo que em Teoria da Evolução, e mesmo assim ninguém vai duvidar da existência da gravidade. A gravidade existe do mesmo modo que a evolução, a única diferença é que a evolução possui mais resistência por conta de idéias dogmáticas e ocorre de forma gradual em espaços de tempo muito longos, além de não ser sentida de modo direto. Hoje em dia, não há
qualquer discussão no meio cientifico sério, sobre a validade ou não da Teoria da Evolução (ou Fato da Evolução, se preferir). Isso se dá pelo motivo de haver 150 anos de acúmulo de evidencias e provas, confirmando todas as observações da Teoria. Apesar do que se fala por aí, não existe nenhuma evidencia indicando que as idéias centrais da Teoria de Darwin, a seleção natural e a evolução, podem estar erradas. No mínimo essas idéias centrais já podem ser consideradas como fatos!

Do mesmo modo como ocorre com a precisão da medição da “esfericidade” da Terra, o entendimento cientifico sobre os detalhes da evolução estão sempre avançando, mas a idéia central não vai mudar. Por mais incrível que pareça, todos os animais e plantas são parentes em algum grau pois a vida surgiu de elementos inanimados (aqui na Terra ou em algum lugar do universo) e modificou-se durante 4 bilhoes de anos…

Mutações: A aleatoriedade em sua essência*

A evolução adaptativa e a seleção natural são os tópicos mais freqüentes nas discussões não técnicas sobre evolução biológica. Entretanto, é preciso sempre insistir que a seleção não é o único fator evolutivo. Este fato, muitas vezes deixado de lado, fica claro quando compreendemos que a evolução tem dois sentidos principais. Um deles mais básico – a mudança transgeracional das características hereditárias de uma população – e o outro mais geral – a origem da diversidade através da cladogênese, ou seja, a ramificação de linhagens evolutivas pelo processo de especiação. A grande contribuição de Darwin e Wallace não está apenas em enfatizar o primeiro processo, mas oferecer uma perspectiva nova em relação a origem de novas linhagens e propor um mecanismo que liga ambos aspectos da evolução.

O grande biólogo evolutivo e historiador da biologia, Ernest Mayr, chama de evolução variacional o modelo evolutivo de Darwin e Wallace, distinguindo-o de outras teorias transformacionistas ou transmutacionistas que existiam antes que os dois naturalistas propusessem seu modelo (Mayr, 2001). Possivelmente, juntamente com a idéia de seleção natural, esta foi a contribuição mais original de Darwin e Wallace.

A evolução se sustenta em dois pilares principais, a existência de variação hereditária e a reprodução diferencial dos indivíduos. Dois processos principais controlam o destino desta variação hereditária em populações biológicas: A deriva genética aleatória e a seleção natural. O primeiro processo está associado a “erros aleatórios de amostragem” populacional que ocorrem a cada ciclo reprodutivo, de geração para geração. O segundo é um processo essencialmente não-aleatório (i.e. direcional, ainda que contingente) que ‘ajusta’ a variação natural ao seu contexto ecológico-funcional e, em geral, aumenta a proporção daquelas características que tornam, ao longo das gerações, seus portadores mais propensos a sobreviver e a se reproduzir em uma dada população em um dado contexto ecológico. Entretanto, quando nos debruçamos sobre a própria origem da variação, sobre a qual atuam a seleção e a deriva, as coisas tornam-se um pouco mais complicadas.

A origem da variação biológica hereditária:

Atualmente, compreende-se que a variação hereditária é fruto de dois processos, a recombinação genética e a mutação. Sendo esta última a real fonte de inovação biológica. Na Enciclopédia de genética encontramos:

“Uma mutação é uma alteração hereditária na estrutura e composição do DNA. Dependendo da função do segmento de DNA alterado, o efeito de uma mutação pode variar de indetectável a causar grandes deformidades e até mesmo a morte. A mutação é um processo natural pelo qual a nova diversidade genética é produzida. No entanto, poluentes químicos e radiações podem aumentar as taxas de mutação e ter um sério efeito sobre a saúde.”[Thompson Jr., J. N. & Woodruff, R. C., Mutation and mutagenesis in Ness, Bryan D. (Editor, Revised Edition) Knight, Jeffrey A. (Editor, First Edition) Encyclopedia of Genetics -Revised Edition 2004, by Salem Press, Inc. p. 561]

Existem, portanto, vários tipos de mutações que vão desde a substituição de um nucleotídeo por outro, passando por grandes alterações cromossômicas – como deleções, inversões, fusões e translocações de grandes fragmentos cromossômicos (veja figura a esquerda) – chegando a não disjunção de cromossomos inteiros durante o processo de formação de gametas, ou divisão do embrião. Porém, são as alterações do material genético que ocorrem na linhagem germinativa as mais importantes para a evolução.

O ‘ABC’, ou melhor, ‘ATCG’ das mutações:

Antes de entrarmos nos detalhes de alguns processos mutacionais, precisamos relembrar um pouco dos fundamentos da biologia molecular, especialmente como funciona o processo de replicação do DNA.

Os genes são, tradicionalmente, definidos como segmentos de moléculas de DNA, o ácido desoxirribonucleico, que codificam RNAs e polipeptídeos. O DNA, por sua vez, é um longo biopolímero formado por subunidades chamadas de nucleotídeos. Cada nucleotídeo é constituído por um açúcar, a desoxirribose, um grupo fosfato e uma de quatro bases nitrogenadas, A (adenina), C (citosina), G (guanina) ou T (timina). Estruturalmente o DNA está organizado como uma dupla hélice, formada por duas cadeias antiparalelas, complementares, que se auto-estabilizam através de ligações de hidrogênio entre os nucleotídeos de cada cadeia. Estas ligações seguem regras de pareamento específicas, em que as bases A pareiam com T; e C com G. Os pares A:T ligam-se através de duas ligações de hidrogênio e os pares de G:C, através de três ligações (Veja figura abaixo à direita). Como já mencionado, o tipo mais simples de mutação é a substituição de um nucleotídeo por outro. Estas mutações são também chamadas de mutações pontuais. Entretanto, existem outros tipos de mutações, incluindo deleções e inserções de pequenos ou grandes segmentos de DNA, podendo chegar a grandes fragmentos cromossômicos, envolvendo vários genes ao mesmo tempo. Estas mutações estão mais associadas à alterações nas proteínas motoras e do citoesqueleto; especialmente, as que formam e controlam os microtúbulos, responsáveis pela divisão celular.

Tipos de mutações pontuais:

Dizemos, normalmente, que as mutações são ‘aleatórias’ porque são fenômenos estocásticos, ou seja, de natureza probabilística, não querendo isto significar que todas as mutações são equiprováveis. Na realidade, certas regiões do genoma são mais propensas à mutações do que outras. Os chamados hotspost são um exemplo destas regiões.

Entretanto, apesar de não serem equiprováveis, as mutações são essencialmente fenômenos aleatórios, pelo menos, tão aleatórios como algo pode ser. Aleatoriedade, neste contexto, enfatiza a incerteza inerente ao processo. Ao analisarmos o tipo mais simples de mutação, as substituições – alterações que envolvem apenas um nucleotídeo responsáveis pelos SNPs (single nucleotides polymorphism) – veremos que a aleatoriedade está no cerne do fenômeno mutacional. Alguns dos principais tipos de mutações envolvendo um único nucleotídeo são ilustrados na figura abaixo.

.

Direcionalidade na aleatoriedade?

Agentes mutagênicos tem afinidades químicas que os tornam mais propensos a induzir certos tipos de danos em certas regiões do genoma. Além disso, existem também diferenças nas probabilidades de certos tipos de mutações espontâneas.

Transições e Transversões:

As transições são mudanças reversíveis entre purinas, bases formadas por dois anéis (AG), ou entre pirimidinas, bases de um único anel (CT). Estas mutações envolvem, portanto, bases de estrutura muito mais similar. Transversões, por outro lado, são mudanças de uma purina para uma pirimidina ou vice-versa. Estas mutações envolvem a troca entre nucleotídeos estruturalmente bem mais diferentes, ou seja, de um anel por nucleotídeos de dois anéis. Porém, apesar de existir o dobro de transversões possíveis, em relação as transições, as transições são produzidas em maior frequência do que transversões, muito provavelmente, por causa dos mecanismos moleculares através dos quais eles são geradas. Além disso, em virtude das transições terem uma menor propensão em resultar em substituições de aminoácidos, acabam tendo uma probabilidade maior de persistir, sendo, portanto, mais frequentemente observadas em populações naturais (Carr, 2009).

Viés de mutação:

Além das tendenciosidades incluídas sob o rótulo ‘Transição vs Transversão’ existem outros tipos de vieses mutacionais. Por exemplo, mudanças de C:G → A:T são mais frequentes do que as mutações reversas de A:T → C:G. A existência deste tipo de viés na introdução de variação genética é considerado por alguns pesquisadores um fator de extrema importância para a evolução (Yampolsky & Stoltzfus, 2001; Stoltzfus, 2006). Estas tendenciosidades tornam-se ainda mais importantes quando investigam-se mutações maiores, envolvendo extensas regiões genômicas. Processos como impulso meiótico (meiotic drive), crossing over desigual e conversão gênica enviesada parecem ter preferência por alguns tipos de seqüências de nucleotídeos, refletindo os mecanismos de formação de cromossomos e a dinâmica do aparato enzimático de duplicação do DNA (pense por exemplo no “deslise da DNA polimerase“).


DNA polymerase strand slippage


dagritche | Vídeo do MySpace

Alguns cientistas, como Gabriel Dover, sugerem que este conjunto de processos receba seu próprio nome, impulso genético, e seja considerado como outro fator evolutivo, em pé de igualdade com a seleção natural e deriva genética, já que estas tendenciosidades podem mesmo se contrapor a estes dois outros fatores (Dover, 2002). Por estes motivos compreender a origem das mutações, assim como os mecanismos que as produzem, torna-se muito importante no estudo da evolução.

Porém continuamos com a questão: Afinal, quais as causas das mutações?

Infelizmente não existe uma resposta absoluta para esta pergunta. Ao compreendermos os passos inicias, por trás das mutações, acabamos por perceber que talvez não possamos atribuir-lhes uma causa, pelo menos, em sentido tradicional. Esta estranha conclusão advém do fato de que processos quânticos estão no coração das mutações pontuais e de outros tipos de mutação. Causalidade não parece ser um parte das regras do ‘mundo quântico’. A aleatoriedade neste nível parece ser irredutível e o princípio da incerteza de Heisenberg impede o conhecimento exato da posição e momento de um elétron ou de outras partículas elementares. Como diz Ruvinsky (2010):

” … a descrição probabilística de tais fenômenos é a única opção disponível. Em termos filosóficos, pode ser interpretado como a geração de certeza a partir da aleatoriedade. Esse processo ocorre várias vezes por hora em cada ciclo celular e só a existência de sistemas de revisão e reparo robustos é que podem reduzir a quantidade de novas mutações”.

O mais importante, entretanto, é que este fenômeno ocorre de forma independente das necessidades dos organismos que sofrem as mutações. Além disso, sua geração é um fenômeno extremamente complicado e variável. Cada tipo de mutação possui seus fatores determinantes. Sem mencionar que envolvem várias etapas distintas, já que todo o processo de divisão celular e replicação do DNA possui vários mecanismos de controle de erros e reparo. Inclusive, são alguns destes mecanismos que podem enviesar as mutações. A seguir vamos acompanhar alguns exemplos destes processos.

Transições ceto-enol e incerteza quântica:

A tautomerização é um processo em que uma mesma molécula pode apresentar-se em mais de uma forma. As transições tautoméricas entre as formas ceto de molécula e sua forma enol (e vice-versa) são um bom exemplo. Esta mesma mudança tautomérica ocorre em nucleotídeos que constituem as moléculas de DNA, de forma absolutamente espontânea, principalmente com o nucleotídeo (G)uanina.

O mecanismo de transição ceto-enol é bem compreendido e envolve o reposicionamento da ligação entre elétrons e o movimento de um próton. Assim as duas formas alternativas guanina diferenciam-se apenas na distribuição da densidade eletrônica e na posição de um único próton (Ruvinsky, 2010). Parece pouco, mas estas pequenas diferenças podem ter repercussões químicas importantes, cruciais para a compreensão de como algumas mutações ocorrem.

.

O equilíbrio ceto-enol é geralmente tendencioso em favor da forma ceto. A forma ceto é mais regular e estável, enquanto, a forma enol é bem mais variável, sendo também mais rara. Até a construção dos primeiros modelos da dupla-hélice do DNA em 1951-1952, este fato não era conhecido. No entanto, assim que Watson e Crick concluíram o modelo de dupla hélice perceberam, imediatamente, uma possibilidade de que uma mudança tautoméricas poderia ser uma causa potencial de mutações (Ruvinsky, 2010). Como as transições tautoméricas são instantâneas e reversíveis, normalmente não afetam a estrutura da molécula de DNA. Claro, a menos que tais transições ocorram durante a replicação do DNA (Ruvinsky, 2010).

O sistemas de detecção e reparo de erros e seu papel nas novas mutações:

Ruvinsky (2010) comenta:

“A replicação do DNA é um processo único e absolutamente essencial. A vida, como nós a conhecemos, simplesmente, não é possível ele. A estrutura das duas cadeias complementares da molécula de DNA está na base do processo de replicação. Porém, este processo demanda uma
complexa maquinaria bioquímica, que emprega várias enzimas. A replicação depende de dois passos criticamente importantes. O primeiro é o desenrolamento da dupla hélice, que possibilita a síntese complementar; e o segundo é a síntese de nucleotídeos, com a cadeia de DNA servindo
como molde, com a síntese de novos nucleotídeos da cadeia crescente a partir dos nucleotídeos da fita molde, seguindo a regra de pareamento: A :T e G :C. A fidelidade da replicação do DNA é bastante alta, mesmo assim, erros são inevitáveis. Vários mecanismos de reparo e revisão
estão, constantemente, procurando (por) e/ou reparando os erros de replicação.”

A forma enol é bem mais propensa ao mal pareamento (mispairing) do que a forma ceto, a mais comum. Isto quer dizer que a forma enol tem maior propensão a parear-se com um outro nucleotídeo que não seja seu par canônico. Como resultado um mal pareamento, como entre G.T, poderia acontecer (veja exemplos de mal pareamentos de formas tautoméricas enol e imino raras). Sendo assim, caso este mal pareamento escape do sistema de correção, reparo ou revisão, uma nova mutação irá ocorrer.

Nesta situação, existem três passos extremamente importantes para que uma mutação consolide-se. A primeira é uma mudança da guanina da forma ceto para a forma enol, possibilitando o malpareamento possibilidade com um nucleotídeo, diferente do canônico, na fita de DNA complementar recém sintetizada. Este primeiro passo é uma condição necessária mas não suficiente para a produção de mutação,já que a mesma mudança tautomérica ocorrida antes (ou após) a replicação do DNA não conduz a uma mutação em função da extrema velocidade da transição para enol e de volta para a forma ceto. O segundo passo é a síntese do DNA complementar durante a rodada de replicação em que a forma enol de guanina (G) pareia (‘malpareia’) com uma timina normal (T), provocando uma mudança, potencialmente, duradoura na molécula de DNA recém sintetizada, o que seria o passo suficiente para o processo de mutação. Ainda assim, os mecanismos de reparo podem desfazer a mudança em potencial. É nesta etapa que todas as mutações, relacionadas a replicação do DNA, são geradas. Porém, até a rodada seguinte de replicação, o malpareamento G:T ainda é vulnerável e, a rigor, não é uma mutação propriamente dita, mas sim uma pré-mutação, havendo alta probabilidade de correção caso o T seja substituído por C. No entanto, se tal correção não ocorrer, a situação muda completamente após a rodada seguinte de replicação. Esta é a terceira e última etapa do processo, quando o recém-surgido par de nucleotídeos A:T torna-se “legítimo”, quimicamente indistinguível de qualquer outro par (Ruvinsky, 2010). Como mostra a figura abaixo, após a replicação uma das moléculas filhas de DNA carrega o par A:T ao invés do par parental G:C, ou seja, uma substituição ocorreu.

Nucleotídeos diferem em sua capacidade de sofrer mudanças tautoméricas. Por exemplo, a freqüência das mudanças tautoméricas na citosina, de sua forma ceto para sua forma enol, é consideravelmente inferior à da guanina e, portanto, a contribuição da citosina para as mutações espontâneas pontuais de G.C para A:T é insignificante. Cálculos de química quântica, estimando a freqüência das mudanças tautoméricas do par Watson-Crick padrão que causam malpareamento, foram feitos e mostram uma correspondência razoável com o taxa de mutação espontânea. Então, podemos concluir que a transformação de uma flutuação quântica em uma mutação é a essência deste processo (Ruvinsky, 2010).

Dimerização da Timina por radiação UV:

Além da tautomerização, existem muitas outra fontes de novas mutações. As mutações induzidas pela luz ultravioleta (UV) são um exemplo claro e muito bem estudado na fotobiologia e física médica.

A irradiação com luz UV (comprimentos de onda variando entre 400 nm até 1 nm) provoca o aparecimento de ligações químicas incomuns, entre timinas vizinhas na mesma fita de DNA. As estruturas T = T, caso não sejam revertidas ou reparadas, bloquearão a replicação do DNA, já que a enzima DNA polimerase não é capaz de reconhecer T=T. Como consequência, ocorrerá a parada da síntese ou a inserção arbitrária de um outro nucleótidos qualquer na fita de DNA crescente.

No entanto, como a radiação UV tem sido uma constante há bilhões de anos e os seres vivos evoluiram sistemas de reparo capazes de lidar com os danos produzidos por este tipo de radiação, o que reduz drasticamente o risco de novas mutações geradas pelo UV. A fotorreativação é a maneira mais eficaz de reverter a estrutura T = T para sua forma normal, quando a timinas vizinhas não estão quimicamente ligadas por ligações covalentes. Isso ocorre quando a fotoliase, uma enzima especial ativada por luz, liga-se ao dímero timina e o divide, revertendo o dano. Além disso, outro grupo de enzimas podem cortar todo o segmento danificado e substitui-lo por uma sequência correta, usando o segmento da fita não danificada como molde.

Os fótons são as partículas elementares responsáveis pelas interações eletromagnéticas e sua emissão segue as regras da MQ, portanto, sua aleatoriedade é intrínseca e inevitável. Os fótons UV atingem aleatoriamente nucleotídeos nas moléculas de DNA (nas bases nitrogenadas dos nucleotídeos que estão devidamente orientadas no momento da absorção de luz) iniciando fotolesões mutagênicas pontuais ultra-rápidas – por volta de 1 picosegundo.

As células bacterianas possuem um sistema de reparo especial, quando vários segmentos danificados pela radiação UV se acumulam ou quando ocorre o bloqueio da replicação, a chamada resposta SOS. Este sistema de reparo ativa DNAs polimerases de menor fidedignidade que ‘ignoram” os segmentos danificados. Entretanto, esta falta de precisão pode gerar novas mutações (Ruvinsky, 2010). Então, o processo de fotolesão pode ser intensificado, ao ser acrescentada outra camada de aleatoriedade, através do recrutamento do sistema de reparo SOS que, de vez em quando, incorpora nucleotídeos errados na cadeias de DNA recém sintetizada, promovendo também adições e exclusões de nucleotídeos (Ruvinsky, 2010).

A importância dos sistemas de reparo não pode ser subestimada. Eles desempenham um papel fundamental no controle da intensidade do processo de mutação. Este fato pode ser ilustrado pelo xeroderma pigmentoso, uma doença genética autossômica recessiva, que acomete seres humanos. Os indivíduos portadores desta condição tem comprometida sua capacidade de reparar danos ao DNA causados pela luz UV, acabando por desenvolver precocemente numerosos cânceres de pele. Nossos genomas são constantemente bombardeados por mutações recém-surgidas que necessitam ser reparadas a cada ciclo de replicação celular.

Estas mutações são causadas por vários processos, além dos dois já discutidos; como depurinação, responsável por vários milhares de mutações por geração, ou desaminação, metilação, alquilação e oxidação que produzem muitas centenas de mutações a cada dia (veja para maiores detalhes o capítulo The Molecular Basis of Mutation do livro Modern Genetic Analysis). Sem os sistemas de reparo a vida complexa, como a conhecemos, provavelmente seria inviável. A alta eficiência dos sistemas de reparo e de replicação do DNA é realmente impressionante (Ruvinsky. 2010). Nucleotídeos erroneamente inseridos podem ser encontrados no DNA recém sintetizado, aproximadamente, a cada 1091010bases. A questão, entretanto, é que, apesar da probabilidade de um evento mutacional por nucleotídeos, não ser realmente alta (até muito pelo contrário), ao levarmos em conta o número total de nucleotídeos ( ex: ~ 3 ×109 no genoma nuclear), podemos facilmente perceber que, aproximadamente, uma mutação nova deve ocorrer a cada nova replicação de uma única célula (Ruvinsky, 2010). .

Outras fontes de aleatoriedade:

Outro possível efeito quântico, que pode levar a mudanças tautoméricas, é o tunelamento de prótons. O tunelamento é outro daqueles efeitos da MQ (mecânica quântica), sem contrapartida no nosso dia a dia. Ele ocorre quando um próton se move através da barreira de energia, ‘tunelando-a’. Graças ao princípio da incerteza, e a natureza probabilística da MQ, tanto a posição quanto a energia de uma partícula podem eventualmente ser suficientes para que esta vença um obstáculo qualquer. Infelizmente, várias tentativas recentes de verificar esta hipótese não foram capazes de detectar este possível mecanismo, continuando apenas como possibilidade teórica, ainda não descartada (Ruvinsky, 2010).

As mutações também podem ser promovidas ao nível ‘supra-subatômico’ (Ruvinsky, 2010 ). Flutuações térmicas ou, em outros termos, o movimento browniano, são também uma fonte potencial de substituições. A DNA polimerase, a enzima responsável pela replicação do DNA, por ser uma molécula de proteína muito grande, é constantemente sujeita à flutuações térmicas que podem interferir com a fidelidade da atividade de polimerase. Este fato pode levar, por sua vez, à substituição de um nucleotídeo por outro que não corresponde ao par correto,do outro nucleotídeo presente na fita molde.

O destino das mutações:

Quando uma mutação é finalmente incorporada na estrutura de uma molécula de DNA, como no caso da substituição de um par G:C por um par A:T, este é apenas o início do complexo processo de evolução. A aprtir daí o destino desta uma nova mutação será determinado fatores como a seleção natural e deriva genética aleatória, quando mais uma nova camada contingente e probabilística será adicionada a esta dinâmica.

Ruvinsky (2010 p. 33) conclui:

Cada e qualquer mutação é imprevisível. Perguntas como, quando ou por que a próximo mutação vai ocorrer não tem uma resposta e, assumindo uma natureza quântica, pelo menos algumas deles nunca terão. Como mencionado anteriormente, mais de sessenta anos atrás Schrödinger (1944), mesmo sem o conhecimento da estrutura do DNA e da natureza molecular de mutações, extraiu uma conclusão similar, de que as flutuações quânticas podem ser a causa de algumas mutações. Esta conclusão foi um de fato baseada em princípios gerais. Apesar dos fundadores da mecânica quântica claramente enfatizaram a universalidade das leis quânticas, até hoje a aplicação desses princípios para os organismos vivos não tem sido a tendência predominante. A diferença entre os eventos e processos subatômicos parece demasiado grande para a associação direta dos fenômenos quânticos e processos biológicos. Biólogos são geralmente preocupados com os problemas que poderiam ser resolvidos por métodos experimentais ou teóricos. No entanto, se assumirmos que os eventos quânticos levam à mutações, a incerteza e imprevisibilidade, nos processo biológico básicos, é inevitável.

A compreensão da importância dos eventos quânticos na gênese das mutações torna a incerteza e imprevisibilidade inerentes à vida. Limites à compreensão dos processos físicos mais fundamentais parecem se impor, ao mesmo tempo permitindo-nos construir uma ponte entre dois níveis, aparentemente, tão distantes da organização da matéria: o subatômico e o nível macroscópico dos seres vivos (Ruvinsky, 2010).

As descrições probabilísticas e estatísticas, em vários níveis (no nível sub-atômico, molecular, celular e populacional etc) tem sido a tônica das ciências modernas nas últimas décadas e, esta tendência, não parece dar sinais de esmorecimento A aleatoriedade não pode ser ignorada e encarada apenas como fruto de uma incapacidade (ignorância) prática momentânea, a ser remediada em um futuro próximo. As abordagens probabilísticas são inevitáveis já que os processos estocásticos são intrínsecos à natureza, e a vida não é diferente do resto do universo, pelo menos, neste aspecto.

Este artigo apenas toca, bem de leve, a superfície da questão sobre a origem das mutações, concentrando-se em algumas fontes de aleatoriedade que influenciam os processos biológicos, especialmente a evolução. Vivemos em uma época interessante na qual começamos a reinir, de forma bela e elegante (mesmo que muito ‘ruidosa’), o ‘micro e o macro’. Os próximos anos deverão continuar sendo estimulantes.

*Este artigo foi baseado principalmente no capítulo II “Quantum fluctuations, mutations, and “fixation” of “uncertainty” de Ruvinsky (2010)


Referências:

  • Carr, Steve M. Transversions vs Transitions (2009)
  • Dover, G. Molecular drive. Trends Genet. (2002) Nov;18(11):587-9. PubMed PMID: 12414190.
  • Mayr, Ernst (2009) O que e a evoluçao Editora: Rocco ISBN: 8532523803
  • Pray, L. (2008) DNA replication and causes of mutation. Nature Education 1(1)
  • Ruvinsky, Anatoly (2010) Genetics and Randomness CRC Press Taylor & Francis Group ISBN: 978-1-4200-7885-5
  • Stoltzfus, A.. Mutationism and the dual causation of evolutionary change. Evol Dev. (2006) May-Jun;8(3):304-17. Review. PubMed PMID: 16686641.
  • Thompson Jr., James N. & Woodruff , R. C., (2004) Mutation and mutagenesis in Ness, Bryan D. (editor, Revised Edition) Knight, Jeffrey A. (Editor, First Edition) Encyclopedia of Genetics -Revised Edition , Salem Press, Inc.
  • Yampolsky, L.Y, Stoltzfus, A. Bias in the introduction of variation as an orienting factor in evolution. Evol Dev. (2001) Mar-Apr;3(2):73-83. PubMed PMID:11341676.

————————————
Livros recomendados:

  • Alberts, Bruce, Johnson, Alexander, Lewis, Julian, Raff, Martin, Roberts, Keith and Walter, Peter Molecular Biology of the Cell, 4th edition New York: Garland Science; 2002. ISBN: 0-8153-3218-1 ISBN: 0-8153-4072-9
  • Griffiths, Anthony JF, Gelbart, William M, Miller, Jeffrey H and C Lewontin, Richard Modern Genetic Analysis New York: W. H. Freeman; 1999. ISBN: 0-7167-3118-5
  • Lodish, Harvey; Berk, Arnold; Zipursky, S. Lawrence; Matsudaira, Paul; Baltimore, David; Darnell, James E. Molecular Cell Biology New York: W. H. Freeman & Co.; c1999 ISBN: 0-7167-3136-3

Estes e outros livros estão disponíveis via NCBI Bookshelf.

Créditos das figuras:
LAGUNA DESIGN / SCIENCE PHOTO LIBRARY
BENJAMIN CAMPILLO / SCIENCE PHOTO LIBRARY
JACOPIN / SCIENCE PHOTO LIBRARY
DAVID MACK / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY
JOHN BAVOSI / SCIENCE PHOTO LIBRARY
PATRICK LANDMANN / SCIENCE PHOTO LIBRARY
JACOPIN / SCIENCE PHOTO LIBRARY
FRIEDRICH SAURER / SCIENCE PHOTO LIBRARY
SEYMOUR / SCIENCE PHOTO LIBRARY
DR JEREMY BURGESS / SCIENCE PHOTO LIBRARY

http://commons.wikimedia.org/

O grande biólogo evolutivo e historiador da biologia, Ernest Mayr, chama de evolução variacional o modelo evolutivo de Darwin e Wallace, distinguindo-o de outras teorias transformacionistas ou transmutacionistas que existiam antes que os dois naturalistas propusessem seu modelo (Mayr, 2001). Possivelmente, juntamente com a idéia de seleção natural, esta foi a contribuição mais original de Darwin e Wallace.

A evolução se sustenta em dois pilares principais, a existência de variação hereditária e a reprodução diferencial dos indivíduos. Dois processos principais controlam o destino desta variação hereditária em populações biológicas: A deriva genética aleatória e a seleção natural. O primeiro processo está associado a “erros aleatórios de amostragem” populacional que ocorrem a cada ciclo reprodutivo, de geração para geração. O segundo é um processo essencialmente não-aleatório (i.e. direcional, ainda que contingente) que ‘ajusta’ a variação natural ao seu contexto ecológico-funcional e, em geral, aumenta a proporção daquelas características que tornam, ao longo das gerações, seus portadores mais propensos a sobreviver e a se reproduzir em uma dada população em um dado contexto ecológico. Entretanto, quando nos debruçamos sobre a própria origem da variação, sobre a qual atuam a seleção e a deriva, as coisas tornam-se um pouco mais complicadas.

Borel-Cantelli

Algum tempo atrás, em um comentário, fiz referência ao Lema de Borel-Cantelli, um teorema dos mais interessantes e de grande importância para a Teoria das Probabilidades e suas ramificações. Pretendo aqui explorar este assunto sob o ponto de vista de sua importância para os tipos de questões que aparecem em grande parte das mensagens de blog, fóruns,comentários, etc…propostos e debatidos pelos membros deste sítio eletrônico.Evidentemente está fora de propósito aqui qualquer exposição dos detalhes técnicos e de sua demonstração, sendo que me restringirei a enunciar uma versão mais fraca ( Corolário ) através de um exemplo de um caso particular que é aquele que nos interessa.Dito isto, imaginemos um editor de texto digitando aleatòriamente no teclado de um computador durante um tempo infinito, contado a partir de um instante inicial, que chamarei de ¨Digitador Aleatório de Tempo Infinito ¨ e que abreviarei para DATI . A seguir visualizamos o Espaço de Probabilidades constituido de todas as possíveis sequências infinitas desses caracteres e, de uma maneira natural, postulamos equi-probabilidades para todas as teclas, ou seja, cada tecla tem a mesma probabilidade de ser digitada.Enunciado: Para QUALQUER sequência FINITA, S*, de caracteres, com uma probabilidade de ocorrência fixada e não nula a seguinte proposição é válida :

PROB[ S* ocorre infinitas vezes na sequencia infinita ] = 1 ( !! )

Considerem a primeira edição do A Origem das Espécies. O que vai acontecer ? O Lema de Borel-Cantelli afirma o seguinte : DATI irá digitá-la sem nenhum erro um número infinito de vezes com probabilidade igual a 1 ( UM ). Obras completas de Darwin, Shakespeare, A Grande HIstória da Evolução ( Dawkins ), etc…, qualquer texto com um número finito de signos, todos sem nenhum erro um número infinito de vezes com probabilidade 1. ( !! ). Digitará também ( para perplexidade de muitos ) instruções para a ¨manufatura¨ de qualquer criatura viva ( seja o que for o que isso signifique ), imaginada ou não, um número infinito de vezes. Digitará também ( para perplexidade de alguns ) qualquer texto criacionista um número infinito de vezes com probabilidade 1, sendo que neste dois últimos casos, como na biblioteca de Babel, de Borges, a maioria deles impregnados de imperfeições e de tempo de vida muito curtos. Há uma diferença. No texto de Borges temos um acervo de informações muito grande ou infinito imerso em um espaço muito grande ou infinito. No nosso caso uma sequência linear infinita de signos que deve ser lida durante um tempo infinito ao longo do eixo uni-dimensional do tempo. É interessante observar também que o próprio Lema de Borel-Cantelli estaria anunciado no texto de DATI em toda a sua generalidade e precisão um número infinito etc…etc….

Bem, pensemos agora em uma hipótese das mais sugestivas e inspiradoras, a saber, uma possível correspondência entre este fato matemático e os fatos do mundo real. Após a revolução da Teoria Quântica, sabemos agora ( e de uma maneira definitiva, na minha opinião ) que o determinismo clássico estará para sempre bem longe das teorias fundamentasi da física que já nos colocaram desde então não como meros observadores privilegiados de uma realidade objetiva e independente mas, antes, como participantes de um cenário coadjuvado por fenômenos que oscilam entre a sorte e o azar patrocinados pela natureza estocástica do jogo das interações entre partículas e campos quânticos associados. Um Universo probabilístico assim constituído, quando associado à mensagem do Lema de Borel-Cantelli, é possivelmente a resposta para a questão da emergência da vida na Terra e outros lugares, bem como classes de eventos que, por definição, ninguem ainda imaginou. Diante desse quadro otimista, torna-se perfeitamente possível, e até mesmo inevitável, o surgimento no mundo de ilhas de baixa entropia imersas em um caos aparente relativamente àquilo que convencionamos definir como sistemas ordenados ou não, já devidamente subtraída a natureza contingente de suas características próprias sem que entretanto descartemos qualquer contingência possível como um vir-a-ser enquanto potência. Soma-se ainda à estas pressuposições de máxima parcimônia os fenômenos aleatórios de natureza recorrente, dotados de memória, que introduzem acréscimos significativos nas probabilidades de eventos futuros.É claro que não chegarei ao ponto de afirmar que o texto de DATI contém tudo pois, no meu modo de ver, tudo é um lugar que não existe. ( Marcelo Gleiser marcou um ponto comigo no seu ¨Criação Imperfeita ¨ ( ed. Record ) ao afirmar que o sonho dos físicos, a ¨Teoria de Tudo¨ é uma espécie de ilusão infantil ). Esclareço aqui que estas últimas considerações não estão em contradição com o que escrevi desde o início, pois o Espaço de Probabilidades acima imaginado contêm também sequências de signos do tipo wwwwwwww… que pertencem a sub-conjuntos de medida nula nesse espaço, ou seja, uma classe de eventos possíveis de probabilidade zero !

Gostaria de terminar minha breve mensagem com uma observação : A diversidade não é monopólio do mundo vivo.As instruções codificadas no texto de DATI parecem encontrar neste nosso universo um lugar adequado para muitas de suas realizações na arena dos fenômenos que envolvem uma grande quantidade de matéria e energia, tais como na Astronomia, Astrofísica e Comologia. Estamos apenas começando e espero que continuemos assim, para bem longe no tempo, tão longe quanto o código de DATI permitir.

Marcas da adaptação: A teoria neutra e as assinaturas moleculares da seleção natural

A investigação de dados genômicos, em busca de pistas de seleção, constitui-se em uma poderosa ferramenta na identificação de regiões genômicas funcionalmente importantes. A identificação de regiões conservadas tem sido a tônica de muitos destes métodos. Entretanto, a seleção positiva pode também nos dar uma indicação da importância funcional de certas regiões e genes. O ponto principal é que a seleção natural, ao agir sobre os seres vivos, deixa determinadas “marcas” no padrão de diversidade dos nucleotídeos dos individuos de uma população (ou entre diferentes espécies aparentadas) e estas “marcas” são verdadeiras “assinaturas moleculares”, características do regime de seleção ao qual determinado grupo de organismos foi submetido. Muitos métodos estatísticos foram desenvolvidos nas últimas três décadas para detectar a seleção natural com base na análise das seqüências de DNA ou outros dados moleculares.

Podemos dividir estes métodos em dois grandes grupos, (a) aqueles baseados na análise das distribuições alélicas e dos níveis de variabilidade; frequentemente dependentes de pressupostos muito restritivos quanto as características demográficas da população estudada; e (b) os baseados em comparações do grau de variabilidade entre sítios sinônimas e não-sinônimo. Estes, em marcante contraste com o grupo anterior, podem ser construídos sem os pressupostos demográficos que limitam as conclusões dos testes do primeiro grupo. Estes testes são úteis para a identificação de regiões especificas e sítios que tenham sido (ou sejam) alvos da seleção.

Antes de começarmos a discutir estes testes, porém, precisamos relembrar alguns conceitos e termos chave. Primeiro, é preciso que fique bem clara a diferença entre mutações sinônimas e não- sinônimas. Para tanto precisamos compreender o significado de um termo frequentemente empregado de forma errônea por não biólogos. O termo em questão é “código genético”.

Sempre que você ouvir algo como “os cientistas estão desvendando o código genético por trás da característica …” desconfie, pois isso já foi feito há décadas. Não se enegane, o que estamos apenas começando a entender é a complexa arquitetura genética por trás de características morfológicas, fisiológicas e comportamentais dos seres vivos que emergem das interações que ocorrem durante o desenvolvimento. Aquilo que alguns chamam de mapeamento genótipo-fenótipo. Da mesma maneira, nossa compreensão sobre os padrões de herança de características complexas, como sucetibilidade a certas doenças relacionadas, é ainda muito precária. Porém, nós já temos uma ótima idéia do que é de como funciona o código genético.

O código genético é tão somente a relação entre certos tripletos de nucleotídeos [personificadas pelas cinco bases nitrogenadas A, T (ou U), G, C], que formam as porções
codificadoras dos genes e seus transcritos, e as proteínas codificadas por estas seqüências. A descoberta do “código genético universal” (e suas ilustrativas exceções) foi um dos pontos altos da biologia molecular da segunda metade do século XX. Então, quando vc pensar em “código genético” pense na tabela abaixo:

A síntese protéica se inicia com a transcrição de um segmento de DNA que serve de molde para a geração de uma fita de RNA mensageiro. Esta fita, então, é lida por grandes complexos macromoleculares, formados por proteínas e RNAs, chamados de ribossomos. Cada um dos tripletos, chamados de códons, pareiam com os anti-códons complementares (seguindo as regras de pareamento tradicionais A:U e C:G) das moléculas de RNA transportador que estão ligadas a aminoácidos específicos. Assim os ribossomos transferem a informação dos genes, contidas na seqüência de DNA (através de um RNA mensageiro), para a seqüência polipeptídica da nova proteína ou peptídeo que está sendo sintetizada..

Existem 20 aminoácidos e 64 combinações possíveis de três nucleotídeos. Mesmo se considerarmos que algumas destas combinações exercem funções como sinalizar o começo da transcrição e o final da mesma, mesmo assim somos obrigados a aceitar que existem mais códons do que aminoácidos. Por isso é que dizemos que o código genético é degenerado, como pudemos notar na figura anterior. Isso quer dizer que certas mutações modificam um códon, mutando-o em outro, porém, sem alterar o aminoácido codificado, portanto, não alterando a seqüência do polipeptídio. Essas mutações, em geral, não tem conseqüências* apreciáveis e, geralmente, acometem a terceira posição dos códons, sendo chamadas de mutação sinônima (ou silenciosa). Por outro lado, as mutações que alteram o códon, fazendo o ribossomo inserir outro resíduo de aminoácido na cadeia polipeptídica, são chamadas de não-sinônimas.

Mutações sinônimas, em geral, por terem um impacto funcional negligenciável, interferem muito pouco (ou não interferem) com a aptidão, entendida aí como uma medida de sucesso reprodutivo de um individuo. Estas mutações, bem como muitas outras mutações em regiões não codificadoras (como as em pseudogenes) tendem a evoluir muito mais rápido por não serem funcionalmente ‘coagidas’, escapando dos efeitos da seleção natural purificadora (ou negativa) que purga mutações deletérias que interferem com a função dos genes e proteínas.

Motoo Kimura (1968) e King & Jukes (1969) foram os primeiros a sugerir que a maioria dos polimorfismos são seletivamente neutros. Desde então, testar a hipótese de neutralidade tem sido um dos principais objetivos da genética molecular de populações. Porém, o mais interessante é que a teoria neutra fornece uma hipótese de nulidade para a evolução molecular. Isto é, ela descreve matematicamente como seria a dinâmica populacional de novos alelos na ausência de vantagens adaptativas conferidas por algum alelo, ou seja, quando apenas a deriva genética aleatória contribui para sua fixação (chegar a 100% de frequência), já que a seleção purificadora apenas elimina as variantes deletérias. Assim, nas
últimas décadas, passou-se a usar a teoria neutra como um modelo de nulidade (H
0) contra o qual as ocorrências especificas de seleção podem ser detectadas (HAlternativa). Boa parte do interesse tem sido em usar procedimentos baseados neste modelo para fornecer evidências que corroborem instâncias de seleção positiva e “varreduras seletivas” (selective sweeps).

Como afirma Nielsen (2001), a seleção positiva ocorre quando uma nova mutação seletivamente vantajosa (que aumentam a aptidão de seu portador, ao mudar alguma característica sua) está segregando em uma população. O interesse, deste tipo particular de seleção, é que ele pode fornecer evidências para a adaptação ao nível molecular, contribuindo para a nossa compreensão das relações entre genótipo e fenótipo. Selective sweeps referem-se à eliminação de variação em loci neutros ligados a um alelo positivamente selecionado ruma para a fixação em uma população.

Testes baseados na distribuição de alelos ou níveis de variabilidade:

Um dos testes mais populares, deste grupo, é o teste D de Tajima, onde D é a diferença escalonada na estimativa de θ4Neμ (Ne= tamanho efetivo da população, μ=a taxa de mutação por geração), com base no número de pares de diferenças e no número de sítios polimórficos segregantes em uma amostra de seqüências de nucleotídeos. É definido quando θ^π é um estimador de θ com base no número médio de pares de diferenças, θ^ω é um estimador de θ com base no número de sítios polimórficos e Sθ^π é uma estimativa do erro padrão da diferença das duas estimativas. Se o valor de D é muito grande, ou muito pequeno, a hipótese neutra (H0) é rejeitada. O valor crítico é obtido por meio de simulações, se a variação da taxa de mutação e recombinação sejam levadas em conta. Existem vários testes semelhantes com base em teste estatísticos um pouco diferentes.

Este tipo de teste, foi até certo ponto, bem sucedido em muitas aplicações, principalmente ao testar o modelo de equilíbrio neutro. Porém, não é fácil interpretar os resultados significantes obtidos a partir destes testes. A hipótese de nulidade, não é puramente a hipótese neutra. Ela é uma hipótese composta que inclui certas suposições sobre a demografia das populações, como tamanho constante da população e ausência de estrutura populacional. Em suma, desvios significantes do modelo de equilíbrio neutro, isoladamente, não fornecem evidências suficientes contra neutralidade seletiva.

As simulações de genealogias podem nos revelar, com mais detalhe, os problemas relativos a este tipo de teste. Em (a) podemos observar o que acontece como o modelo de equilíbrio padrão neutro. Já em (b) notamos que tanto o modelo com um estrangulamento severo (gargalo de garrafa populacional) ou uma completa ‘varredura seletiva’ (selective sweep) t gerações no passado produzem o mesmo padrão. Portanto, o efeito de um gargalo de garrafa severo ou uma varredura completa seletivo é forçar todas as linhagens a coalescer no momento do estrangulamento/ varredura (gargalo de garrafa/ selective sweep). Por isso o D de Tajima não consegue diferenciar estes dois tipos de eventos. Além disso, testes de neutralidade baseados na distribuição alélica podem, muitas vezes, ter muito menos poder (estatístico) contra os modelos comuns de seleção do que contra os desvios do modelo de equilíbrio neutro, causados por alterações demográficas (Para maiores detalhes veja Nielson, 2005).


Comparando a variabilidade em diferentes classes de mutações:

O outro grupo de testes compara a variabilidade em diferentes classes de mutações, sendo bastante robustos em relação à alterações de características demográficas e estruturais de uma população. Estes testes de neutralidade tem como base estatísticas com distribuições que são independente da genealogia, ou só depende da genealogia através de um ‘parâmetro incômodo’ que pode ser eliminado. O teste de McDonald-Kreitman é um dos exemplos mais famosos deste tipo de teste. Neste teste, a razão entre polimorfismos não-sinônimoe sinônimo, dentro da espécie, é comparada com a razão entre o número de diferenças não-sinônimas e sinônimas, entre as espécies, em uma tabela de contingência 2×2.

A justificativa deste teste baseia-se no fato de que polimorfismo e divergência serem impelidos apenas por mutação e deriva genética, portanto, a razão do número de diferenças fixas para o de polimorfismo deve ser a mesma tanto para mutações não-sinônimas como para as sinônimas. Em estatística, os parâmetros que não são de interesse para o pesquisador, mas não pode ser ignorado, são chamados de ‘parâmetros incômodos’. Entretanto, é possível eliminar tais parâmetros ao condiciona-los, usando uma estatística suficiente, ou seja, uma estatística que contém todas as informações pertinentes dos dados sobre o parâmetro. No caso do teste de McDonald-Kreitman, o comprimento total da árvore é o ‘parâmetro incômodo’ e o número total de substituições é uma estatística suficiente para este parâmetro. Ao condicionar a partir do número total de substituições, na tabela de 2×2, o parâmetro de comprimento total da árvore é eliminado. Desta forma, um teste de neutralidade, que seja válido para qualquer possível modelo demográfico, pode ser estabelecido. O teste de McDonald-Kreitman tem sido muito útil para detectar seleção. Testes, como este, não se baseiam em pressupostos demográficos das populações porque são construídos através da comparação de diferentes tipos de variabilidade dentro do mesmo locus, ou região do genoma. Já que sítios não-sinônimos e sinônimos, por exemplo, são intercalados entre si em regiões codificadoras, o efeito do modelo demográfico é o mesma para ambos os tipos de sítios.

Porém, o método mais direto para mostrar a presença da seleção positiva é demonstrar que o número de substituições sinônimas por sítio não-sinônimo (dN) é significativamente maior do que o número de substituições sinônimas por sítio sinônimo (dS). Vários autores desenvolveram diversos métodos estatísticos para estimar o número de substituições sinônimas por sítio sinônimo (dS) e o número de substituições sinônimas por sítio não não-sinônimos.
Diferentes métodos dependem de pressupostos diferentes, mas dão estimativas semelhantes, a menos que o grau de divergência de seqüência (d) seja muito elevado. Quando d é elevado, a confiabilidade das estimativas de dN e dS é baixa em todos os métodos. Nei (2005) afirma que, para efeitos de teste de seleção positiva ou negativa, estimativas conservadoras de dN e dS são preferíveis, porque os pressupostos dos métodos paramétricos não são atingidos. Para minimizar os erros devido a suposições incorretas, pode-se usar também o número de diferenças
sinônimas por sítio sinônimo te (pS) e o número de diferenças sinônimas por sítio não sinônimo. Nesta abordagem, a evolução neutra é examinada testando a hipótese nula de dN = dS ou pN = pS. Assim, um valor de dN> dS significante implica que as mutações sinônimas são fixadas com uma maior probabilidade do que as neutras, devido à seleção positiva. Então, se pN (dN) é significativamente maior do dS (pS), pode-se concluir que a seleção positiva está envolvida.
Em contrapartida, dN (pN) < dS (pS) implica a ocorrência de seleção negativa ou depuradora. A Figura a seguir retirada de Nei (2005) mostra a relação dN / dS quando um grande número de genes ortólogos (cuja similaridade é inferida como resultado de ancestralidade comum) são comparados entre humanos e camundongos. Esses resultados indicam claramente que a maioria dos genes estão sob seleção purificadora.

Hughes & Nei (1988) mostraram que dN> dS no sítio de ligação antigênica do Complexo Principal de histocompatibilidade (MHC). Esta observação forneceu provas inequívocas da ocorrência de seleção positiva na região, provavelmente do tipo sobre-dominante ou dependente da freqüência.

Os pesquisadores compararam dN e dS para sítios do peptídeo de ligação (PBS), o sítio de reconhecimento de antígeno (composto por cerca de 57 aminoácidos), e sítios não-PBS entre genes do MHC de seres humanos e camundongos. As moléculas do MHC estão envolvidas no reconhecimento de peptídeos ‘próprio(s)’ (do próprio indivíduo) e peptídeos ‘não-próprio(s)’ ao indivíduo. Esta distinção é crucial para os sistema imunológico e o MHC desempenha um papel muito importante nas etapas iniciais de resposta imune adaptativa. Os resultados destas comparações mostram de forma clara que dN>dS para as regiões PBS, mas dN < dS para as não-PBS. Esses resultados sugerem que, em PBS, a seleção positiva está atuando, enquanto que nos sítios não-PBS a seleção purificadora prevalece.

A relevância biológica deste resultado não deve ser subestimada. O elevado grau de polimorfismo dos loci do MHC de vertebrados já vinha sendo debatido, por mais de duas décadas, antes de 1988, sendo que uma das hipóteses levantadas para explicar este polimorfismo era a chamada vantagem do heterozigoto ou seleção sobre-dominante. Entretanto, não haviam evidências que corroborassem esta hipótese. Como dN seria maior do que dS caso a seleção sobre-dominante existivesse ocorrendo, Hughes e Nei (1988) propuseram que o alto grau de polimorfismo MHC é, provavelmente, causado por este tipo de regime seletivo. O grupo de Nei demonstrou, posteriormente, que a hipótese sobredominância também pode explicar o polimorfismo trans-específico de genes do MHC já observado por vários pesquisadores no passado.

Estes estudos estimularam uma gama de outros trabalhos sobre os valores relativos de dN e dS de genes MHC de diferentes espécies, sendo que a maioria dos estudos mostraram resultados compatíveis. Investigações semelhantes se seguiram, envolvendo outros genes do sistema imune, incluindo aqueles para IGS, receptores de células T (TCR) e de células natural killer (NK). Valores de dN > dS também foram observados em muitos genes, como os de resistência a patógenos em plantas. Outro genes que mostram frequentemente a razão dN.> dS são os genes antigênicos do vírus influenza, do vírus HIV-1, de plasmódios, e outros parasitas. Estes genes, especialmente o RNA viral, apresentam uma alta taxa de mutação o que ajuda os parasitas a evadirem os sistemas de vigilância dos organismos hospedeiros. Estes estudos sugerem que a alta taxa de substituição não-sinônima comparada com a de substituição sinônima é, aparentemente, causada pela ‘corrida armamentista’ entre hospedeiros e parasitas. Existem muitos outros testes que não poderiam ser resumidos neste espaço e que envolvem considerações matemáticas bem mais complicadas, o que fogem ao escopo deste artigo de divulgação e mesmo as minhas capacidades de compreensão e explicação. Porém, a tabela abaixo dá uma idéia geral dos principais testes empregados na biologia evolutiva para detectar as assinatura moleculares da seleção natural.

Como realizar o teste de McDonald-Kreitman?

Para termos uma idéia melhor de como funcionam estes testes, vamos olhar para os dados reais coletados por John McDonald e Marty Kreitman, como mostrado na tabela a seguir. A primeira linha mostra o número de substituições envolvendo mudanças de aminoácidos no gene Adh, a de baixo mostra o número de mudanças silenciosas, sinônimas. A coluna a esquerda mostra o número de alterações fixas entre as espécies e a da direita mostra o número de polimorfismos em Drosophila melanogaster.

Existem 42 polimorfismos silenciosos em Drosophila melanogaster e 2 diferenças fixas entre as espécies. Além disso, os pesquisadores observaram 2 polimorfismos com mudança de aminoácidos e 17 diferenças fixas silenciosas. Com base na teoria neutra, as razões das diferenças fixas para os polimorfismos devem ser as mesmas das diferenças de substituição (7/2=3,5) para as diferenças silenciosas (17/42~0,4). Porém, as razões não são as mesmas, mas seriam estas diferenças, entre as razões obtidas e esperadas, estatisticamente significantes? Para descobrir isso, é preciso primeiro determinar os valores esperados para cada uma das quatro células. O valor esperado para o número de mudanças fixas com mudança de aminoácidos é igual ao número total de mudanças com troca de aminoácidos (7+2=9) vezes o número total de diferenças fixas (7+17=24), dividido pelo total geral (7+17+2+42=68). A resposta é 3,176, arredondado para 3.2. Fazendo o mesmo para todas as quatro células da tabela, obtemos:

Baseado nos dados de McDonald e Kreitman, esperaríamos observar 3,2 diferenças fixas com trocas de aminoácidos e 5,8 polimorfismos com troca de aminoácidos, 20.8 mudanças silenciosas fixas e 38,2 polimorfismos silenciosos. O passo final é comparar os números reais observados (primeira tabela) com os número esperados (segunda tabela) para todas as quatro células. Comparado com os valores esperados, existem 3.8 alterações fixas a mais do que o esperado. Nós vemos desvios da mesma magnitude, mas, por vezes, de sinais diferentes para as outras células na tabela. Por exemplo, existem 3,8 menos polimorfismos com troca de aminoácidos do que o esperado.

Como podemos ter confiança de que estes desvios não podem ser explicados pelo acaso, ou por alguma outra força em operação? McDonald e Kreitman usaram um um teste estatístico de goodness-of-fit que, como o próprio nome sugere, nos diz o quão bem o esperado se ajusta ao observado. O teste utilizado por McDonald e Kreitman foi o teste-G. Os resultados deste teste indicaram que a probabilidade dos valores observados diferirem tanto em relação aos valores esperados, como os dados de McDonald-Kreitman fizeram, é de menos de 1%. Portanto, podemos estar bastante confiantes de que o excesso de substituições que alteram os aminoácidos codificados não se devem apenas ao acaso. No
entanto, outra possibilidade poderia produzir o mesmo padrão de excesso de substituições não-silenciosas. Isso poderia acontecer caso as populações de ambas espécies de Drosophilas passassem por um gargalo de garrafa, acumulando muitas mutações ligeiramente deletérias, que seriam mantidas graças a ineficiência da seleção negativa devido a redução do tamanho efetivo da população. Este processo resultaria em muitas diferenças nas substituições entre as espécies, e quando as populações voltassem a se expandir muitas destas mutações, ligeiramente deletérias, seriam purgadas pela seleção natural, o que poderia gerar o padrão observado. Porém, além do fato desta explicação
ser menos parcimoniosa, existem evidências de que as populações de Drosophilas permaneceram constantes ao longo do tempo.

Existem outros complicadores, como a eventual falta de poder estatístico destes testes. Porém, a principal utilidade deste tipo de teste é gerar hipóteses biológicas adaptativas para posterior verificação experimental, aumentando as possibilidades de teste em laboratório. Hoje, métodos filogenéticos permitem-nos reconstituir os estados ancestrais de seqüências de DNA e de ourras moléculas. Assim é possível usá-los para descobrir os estados ancestrais das seqüências de interesse e, com o auxílio da tecnologia do DNA recombinante e expressão destes genes em organismos modelo ou células isoladas, podemos gerar moléculas representando as diversas etapas evolutivas. Então, ao medir as propriedades bioquímicas e farmacológicas das proteínas resultantes, podemos estimar a aptidão conferida por cada variante. Assim testes ainda mais robustos podem nos revelar mais detalhes sobre como a seleção natural age nos genomas destes seres vivos.


Referências:

Nei, M. (2005) Selectionism and neutralism in molecular evolution. Mol. Biol. Evol. 22:2318-2342.
Nielsen R. Statistical tests of selective neutrality in the age of genomics. Heredity. 2001 Jun;86(Pt 6):641-7. Review. PubMed PMID: 11595044.
Nielsen R. Molecular signatures of natural selection. Annu Rev Genet. 2005;39:197-218. Review. PubMed PMID: 16285858.

Para o exemplo como o teste de MacDonald-Kreitman foram utilizados principalmente:
Forber P. (2005) Testing the Neutral Theory of Molecular Evolution.
Johnson, Norman A. ( 2007) Darwinian Detectives: Revealing the Natural History of Genes and Genomes Oxford University Press
MacDonald, J., and Kreitman, M. (1991) “Adaptive protein evolution at the Adh locus in Drosophila.” Nature 351: 652–654.

Referências adicionais:

Duret, L. (2008) Neutral theory: The null hypothesis of molecular evolution. Nature Education 1(1)
Hughes, A. L. and M. Nei (1988) Pattern of nucleotide substitution at
major histocompatibility complex class I loci reveals overdominant
selection. Nature 335:167-170.
Kimura, M. “Evolutionary Rate at the Molecular Level,” Nature (1968), 217: 624-26.
King JL, Jukes TH. Non-Darwinian evolution. Science. 1969 May 16;164(881):788-98. PubMed PMID: 5767777.

Créditos das figuras:

MEHAU KULYK / SCIENCE PHOTO LIBRARY
CHRISTIAN DARKIN / SCIENCE PHOTO LIBRARY
JACOPIN / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY
VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY
EYE OF SCIENCE / SCIENCE PHOTO LIBRARY


Termodinâmica e evolução: O velho argumento da segunda lei

ResearchBlogging.org

Como Jason, personagem da série de filmes “Sexta-feira 13”, ou Mike Myers, da série de filmes “Halloween”, que sempre levantam após serem “mortalmente” golpeados (ao fundo em imagem desfocada), certos argumentos anti-evolucionistas parecem também ter o mesmo vigor “sobrenatural”. Nestes casos, precisamos de um “algo mais”. Algum tipo de estratégia de combate que seja simples, efetiva e possa ser rapidamente divulgada. Na falta de turbas enfurecidas portanto tochas, ancinhos e foices, como as que perseguiram e cercaram o pobre monstro do doutor Frankenstein. Mortos-vivos são sempre um problema, George Romero que o diga, por isso precisamos desenvolver estratégias mais diretas ao seu combate. Por isso, precisamos de algo tão efetivo e simples como estacas e machados no combate aos vampiros, pelo menos aqueles da mitologia cinematográfica clássica.

Uma das primeiras providências é entender contra o que estamos lutando, já que estacas não adiantam contra zumbis e tiros na cabeça não funcionam contra s vampiros. No máximo estas estratégias podem nos dar algum pouco de tempo para fugir e reagrupar. Precisamos mesmo é de métodos específicos para cada ameaça e cuidados específicos para evitar a infecção em cada caso.

Deixando os filmes de terror de lado (e voltando para o assustador mundo real), na contenda entre cientistas e anti-evolucionistas, o primeiro passo é perceber que esta é uma disputa de natureza política e ideológica. Não existe debate científico sobre os méritos da evolução, como fato, e da biologia evolutiva como o campo legítimo de investigação deste fenômeno, o que resta de disputa sobre estes dois tópicos é fruto de pura ideologia e desinformação. Por isso, nem sempre as definições e argumentos que os cientistas estão habituados a empregar, dentro de suas próprias comunidades de pesquisa, são os mais indicados para convencer leigos e não-especialistas. Isto acontece porque as ciências são empreitadas bastante heterogenias em seu conteúdo e em seus métodos. As ciências são subdivididas em campos nos quais a especialização é muito necessária. O problema é que no debate entre cientistas e criacionistas, apenas um lado se preocupa com a precisão das informações e o rigor dos métodos, o outro lado usa qualquer argumento distorcido, falácia ou estratégia retórica dúbia para chegar aos seus objetivos. Assim físicos, ao explicar os detalhes sobre a cosmologia do Big Bang, podem ser interpelados por criacionistas questionando sobre a origem da vida ou funcionamento da seleção natural. De forma semelhante, biólogos, dissertando sobre a genética de populações, podem ouvir perguntados sobre a segunda lei da termodinâmica. Sim a famigerada “segunda lei”.

Esta lei está na base de um dos argumentos “mortos-vivos” mais insistentemente repetidos pelos criacionistas. Recentemente, em artigo para o periódico Evolution: Education and Outreach, dois pesquisadores propuseram-se à fornecer algumas i

estratégias (e exemplos retirados de um ‘experimento de pensamento’ muito plausível) para desarmar as distorções que cercam certos enunciados da segunda lei da termodinâmica, frequentemente usados como argumento anti-evolucionista. O artigo Evolution and the Second Law of Thermodynamics Effectively Communicating to Non-technicians, de autoria de Alexander Schreiber & Steven Gimbel, é uma ótima aquisição ao arsenal de “armas” na defesa do ensino de evolução.

Neste artigo, Schreiber e Gimbeli, desenvolvem algumas explicações, imagens e metáforas acessíveis para ajudar aos não-técnicos compreender o funcionamento do mundo natural, ilustrando as falhas na argumentação anti-evolucionista. Nas palavras dos próprios autores:

“Neste trabalho, buscamos formular ferramentas efetivas para comunicar as falácias contidas no argumento dos advogados do anti-evolucionismo de que a especiação pela evolução viola a segunda lei da termodinâmica (ver, por exemplo, Morris 1987, 38-64). O argumento anti-evolucionista pode ser apresentado da seguinte forma:

1. A teoria da evolução sustenta que as espécies atuais desenvolveram-se a partir de formas de vida anteriores.

2. Essas formas de vida anteriores eram mais simples tendo menos capacidades e sistemas menos complexos.

3. Portanto, teoria evolutiva afirma que os organismos tornaram-se melhor ordenados ao longo do tempo.

4. A segunda lei da termodinâmica diz que a entropia aumenta, isto é, sistemas ao longo do tempo tornam-se mais desordenados.

5. Assim, tanto a teoria evolutiva e a segunda lei da termodinâmica não podem ser ambas corretas.

6. A Física é um campo mais básicas ou bem estabelecido que biologia.

7. Portanto, devemos preferir a segunda lei da termodinâmica e rejeitar a teoria evolucionista.”

Segundo Schreiber e Gimbeli, existem três erros principais neste argumento:(a) seu entendimento da segunda lei da termodinâmica e da noção de entropia, (b) o âmbito de aplicação da segunda lei da termodinâmica, (c) não compreender a maneira pela qual os mecanismos subjacentes genética estão em perfeita consonância com as leis físicas. A partir destes fatos os autores concluem que é preciso criar maneiras de
comunicar de forma eficaz estas falhas para o público em geral.

A segunda lei da termodinâmica é bem conhecida por excluir a possibilidade de máquinas de movimento perpétuo. Os autores enfatizam o fato de como é impressionante como formulações tão “esotéricas” tenham sua origem em uma questão tão prática como “quão eficiente podemos tornar motores a vapor?”. A idéia de que a a segunda lei afirma que a desordem invariavelmente aumentará em um sistema, advém de uma confusão dos próprios cientistas que primeiro a formularam. A segunda lei foi formulada de diversas formas por vários pesquisadores, desde Sardi Carnot, até Boltzmann, passando por Clausius, Lorde Kelvin e Max Planck. Uma divisão entre estes cientistas era com relação a natureza deste principio, com alguns deles (como Clausius) enfatizando a universalidade e determinismo do processo, em analogia as leis de movimento de Newton, e outros, especialmente Boltzmann, preferindo uma versão probabilística que por fim se mostrou a mais utilizada, com o advento da mecânica estatística.

Cientistas e engenheiros descobriram que, ao tentar converter uma forma de energia, por exemplo, o calor, em outra forma de energia, por exemplo, o movimento, nunca eramos capazes de fazer a transferência de forma completa, há sempre alguma energia perdida. Pense nisto em termos de moeda. Sempre que trocar dinheiro, por exemplo de dólares para euros, o banco cobra uma taxa de transação. Assim Se nós continuássemos trocando sempre o dinheiro, acabaríamos por falir mesmo com uma taxa de câmbio fixa. Dado o sua bem-comportada irmã, a primeira lei da termodinâmica (Que a energia é sempre conservada, nem criado nem destruídos), os investigadores procuraram uma forma de quantificar a e explicar essa ‘taxa de transação de energia’. Essa explicação os levaram a postular uma estranha quantidade, não diretamente observável: a entropia. Ela mede a “desordem” de um sistema em termos do número de micro-arranjos de moléculas acessível para um sistema em um determinado macro-estado em uma determinada temperatura, pressão e volume. Eles constataram que “em qualquer processo em que um isolado termicamente sistema passa de um macroestado para outro, a entropia tende a aumentar (Reif 1965, 122).”

Esta tendência é que recebeu diversas interpretações e foi alvo de intenso debate que acabou sendo vencido, postumamente, por Boltzmann.

Então o que é entropia?

“A entropia é uma medida do número de estados possíveis em que um sistema pode ser encontrado, caso o sondemos. Uma vez que o fluxo de calor vai no sentido de ‘morno’ para ‘frio’, um sistema que ainda não está em equilíbrio, está em fluxo, ou seja está mudando. Assim, o número de estados possíveis em que o sistema poderia ser encontrado aumenta ao longo do tempo.”

Para esclarecer a natureza probabilística da segunda lei da termodinâmica, Schreiber e Gimbel propõem a seguinte analogia:

‘”Pense em um baralho de cartas. Se você sentar numa mesa de poker com sete pessoas a jogar five-card stud e usar um baralho novinho saído direito da caixa lacrada, os resultados são óbvios porque as novas cartas são inseridas na caixa de forma ordenada. A pessoa a esquerda de quem dá as mãos receberá necessariamente um seis e rei de espadas, um de sete e Ás de ouros, e de oito dos paus e terá a mão mais alta. Mas se as cartas forem embaralhadas uma vez, os resultados serão diferentes. Dado que a metade superior da pilha estará organizada em ordem crescente de espadas e o embaralhamento, em geral, começa quando as cartas cortadas mais ou menos no meio e entrelaçadas, aproximadamente, alternando umas as outras cartas, há uma boa chance de que o ás de espadas será um das primeiras cartas dadas e quase certamente acabará nas mãos de alguém. Agora, se as cartas são embaralhadas sete, dez ou vinte vezes, as chances de que o ás de espadas apareça, torna-se menor e menor , e a cada embaralhada adicional das cartas, a probabilidade de obter o ás de espadas se aproxima do probabilidade de obter qualquer outra carta. Isso é o que a entropia mede. Com um sistema aproximando-se do equilíbrio, as chances de encontrá-lo em algum estado particular dosistema – alguma ordem particular de cartas – aproxima-se do probabilidade de encontrá-lo em qualquer outro estado, ou qualquer outra ordem de cartas.

Em seguida, Schreiber e Gimbel buscam três objetivos: (1) explicitar que uma característica inerente de todos os organismos vivos é que estes são sistemas abertos que mantêm ordem que o seu entorno através da importação livre energia (nutrientes) e exportando a entropia (calor e de resíduos); os autores concentram-se no papel da membrana celular semi-permeável como mediador da ordem interna. (2) explicar como entropia pode diminuir localmente dentro de subsistemas e como a complexidade dos organismos pode aumentar ao longo do tempo evolutivo enquanto houver um maior aumento na entropia em outra parte do sistema. O foco aqui é no Sol, como a fonte derradeira da Terra, de luz de baixa entropia, e como os produtores (plantas e cianobactérias) capturaram esta baixa entropia impulsionando a evolução da complexidade; (3) discutir como os organismos podem ser vistos termodinamicamente como sistemas de transferência de energia, com mutações benéficas permitam que os organismos dispersem energia de forma mais eficiente para seu ambiente. No artigo, os autores propõem um simples “experimento mental ” utilizando culturas de bactérias para transmitir a idéia de que a seleção natural favorece mutações genéticas que levam à taxas mais rápidas de aumento de entropia em um ecossistema.

A segunda lei da termodinâmica:

Mesmo que ainda hajam muitos desafios em compreender em detalhe os processos biológicos de um ponto de vista termodinâmico (além de seu papel particular na evolução) não existe contradição entre a segunda lei e a biologia evolutiva. Este é o primeiro ponto a ser enfatizado.

O estudo da termodinâmica na biofísica e bioquímica vem de longa data. Erwin Schrödinger, com seu livro “O que é vida?”, foi um dos primeiros a lançar luz sobre esta questão, reconhecendo que os seres vivos são sistemas abertos e mantem sua ordem a partir do consumo de “neguentropia”, ou seja, forma mais ordenadas de energia. Já nos anos 50 e 60, o físico-químico Russo-Belga Illya Prigogine, começou a estudar os
sistemas longe do equilíbrio termodinâmico, submetidos a gradientes de energia. Prigogine foi um dos primeiros a reconhecer que os seres vivos, juntamente com processos físicos e químicos, eram um subconjunto daquilo que ele chamou de estruturas dissipativas, que incluem redemoinhos, ciclones, reações químicas oscilantes, como a de Belousov-Zhabotinsky, e células convectivas de Rayleigh-Bénard.

Mais recentemente alguns físicos se propuseram a calcular o impacto da evolução no aumento de entropia da biosfera e suas adjacências e compará-lo com o aporte de energia fornecido pelo sol. Daniel Styler mostrou elegantemente que a Terra é banhada por cerca de um trilhão de vezes a quantidade de fluxo de entropia necessária para suportar a evolução da vida complexa. De forma semelhante o físico Emory Bunn mostrou que a evolução da vida complexa existente é perfeitamente compatível com a segunda lei da termodinâmica, desde que este processo tenha levado pelo menos cerca de 107segundos, ou seja, 116 dias.

Este é o tempo mínimo necessário para gerar a complexidade que vemos ao nosso redor, levando-se em conta o fluxo de energia do sol. Este simples cálculo é corroborado pelo fato de que a vida teve, pelo menos, 4 bilhões de anos para evoluir em nosso planeta.

Schreiber e Gimbeli citam Kaila e Annila, da Universidade de Helsínque, que descreveram matematicamente a evolução biológica com equações de movimento. Seus resultados mostram que, na ausência de uma fonte externa de alta energia, a energia flui em direção a um estado estacionário (Equilíbrio), conforme descrito pela segunda lei da termodinâmica. Os pesquisadores descreveram a evolução como um processo de transferência de energia, e uma vez que o movimento físico sempre leva a caminho de menor resistência (ou seja, o princípio de ação mínima) organismos pode ser descritos matematicamente como sistemas dissipativos que maximizam a taxa de produção de entropia de um sistema mais amplo.

“A segunda lei da termodinâmica claramente não proibe a construção de complexidade a partir da simplicidade. A natureza é repleta de exemplos de ordem espontânea que emanam de uma estado menos ordenado, tais como gases (por exemplo, vapor de água nas nuvens) que condensam em um estado mais ordenado líquido (chuva) e congelamento de líquidos em um mesmo mais altamente ordenado sólidos estado cristalino (por exemplo, cristais de gelo). Talvez o mais dramático exemplo biológico mais comum de que ordem espontânea, derivada de um estado menos ordenado, é o desenvolvimento de um única célula, o zigoto, em um complexo ser multicelular formado por bilhões células, possuindo dezenas órgãos especializados, células e tecido diferenciados de diversos tipos. Claramente, a síntese do floco de neve e embriogênese não violar nenhuma lei da física, então o que está acontecendo?”

“Em suma, a síntese da ordem cobra um preço energético: O custo da conversão de água relativamente desordenada de gotas, em um floco de neve, mais ordenada é a liberação de calor ao meio ambiente; o custo da embriogênese é a conversão de nutrientes em resíduos menos ordenados e calor. No final, os processos de formação de floco de neve e embriogênese sempre uiuiem de forma mais geral a entropia do sistema como um todo, de acordo com o a segunda lei da termodinâmica. De acordo com os criacionistas “com sua compreensão de jardim de infância de entropia” (Asimov 1984), nem a síntese de um floco de neve, nem o desenvolvimento animal poderiam ter lugar, e muito menos evolução organísmica.”

O fluxo de energia em sistemas biológicos pode ser facilmente visualizado ao pensarmos em uma célula com sua menbrana semi permeável, através da qual as trocas de matéria e energia com o meio ambiente são realizadas. Na figura 1 (clique na figura para ver os detalhes) podemos ver como este processo funciona em total conformidade com a segunda lei da termodinâmica. As células mantêm um grau relativamente elevado de ordem, em relação ao ambiente, fazendo isso através da continua importação de energia livre, na forma de nutrientes, e exportação de entropia, na forma de resíduos desordenados e calor. Elas importam nutrientes ordenados, seletivamente, de um mundo em grande parte caótico, através da proteínas transmembrana (cilindros coloridos), que formam canais e transportadores (substrato-específicas), embebidas em uma membrana fosfolipídica relativamente impermeável (linha pontilhada).

O metabolismo celular converte nutrientes em formas utilizáveis de energia (ATP) e diferentes biomoléculas que são usadas na manutenção, auto-reprodução e crescimento. Os custos de conversão de nutrientes para estas formas úteis de auto-preservação, de baixa entropia, são a produção de resíduos de alta entropia e calor. A exportação de entropia constante de células através da membrana celular garante a manutenção de um estado de maior ordenação interno quando comparado ao ambiente externo.


Os produtores primários do nosso planeta, como as plantas fotossintéticas e cianobactérias, podem fazer uso desta baixa entropia, assim reduzindo sua entropia própria. Organismos não-fotossintéticos reduzem sua entropia consumindo estes produtores primários direta ou indiretamente, e usam o oxigênio liberado pela fotossíntese para a respiração celular. Portanto, produtores primários fotossintéticos podem ser vistos como as pás de uma usina hidroelétrica (ou de um moinho) cujo movimento, causado pelo fluxo de energia solar, gira a “roda dentada” ou “as turbinas” da máquina da vida, alimentada pela conversão de luz baixa entropia em luz infravermelha de maior entropia (Fig. 2 – clique na figura para ver os detalhes).

Esta ‘engrenagem motriz’ alimenta praticamente todas os organismos da Terra e abastecem a ‘máquina da vida’ Este processo é análogo ao abastecimento de uma cidade através de um rio, cujo fluxo de água move as turbinas de uma usina hidrelétrica para produzir eletricidade. Enquanto o rio fornecer um fluxo de água suficiente para girar as turbinas, a cidade será capaz de usar o eletricidade resultante para manter-se “viva” e até mesmo “crescer” e tornar-se mais complexa.

Os autores fazem uma sábia ressalva, lembrando os argumentos do finado paleontólogo Stephen Jay Gould, que alertava para os perigos de igualar evolução ao aumento da complexidade. Na realidade, o próprio conceito de complexidade até hoje não foi definido de forma consensual, apesar de existirem várias propostas interessantes, muitas delas não mutuamente excludentes. Além disso, mesmo ao analisarmos questões e medidas, aparentemente mais óbvias, como complexidade celular, ou tamanho do genoma, observamos várias exceções e desvios. A perda de estruras (e genes) e a simplificação morfológica são bem comuns em linhagens de parasitas, por exemplo. Boa parte da biomassa terrestre é formada por procariontes que também garantem os ciclos biogeoquímicos e contribuem para a produção primária que sustenta a vida na terra.

Então, mesmo que exista uma certa tendência ao aparecimento de certos seres ,aparentemente, mais complexos ao longo do tempo, esta pode ser apenas uma tendência passiva. Para Gould, as formas de vida (tidas como) complexas representavam apenas a cauda de uma distribuição assimétrica, na qual a moda (a medida que detém o maior número de observações, ou seja, o valor ou valores mais frequentes) é constituída pelos procariontes. Este tipo de distribuição é compatível com um processo estocástico assimétrico, em que a barreira da complexidade mínima (unicelularidade) garante que eventualmente apenas a cauda, em direção a maior complexidade, “se estique”. A figura abaixo (clique na figura para ver os detalhes) à direita ilustra a visão de Gould sobre como o aumento de complexidade pode ser apenas uma tendência passiva, associada a uma barreira à esquerda de complexidade organizacional mínima. Dan McShea, tem investigado esta questão e enfatiza a dificuldade de se definir e medir a complexidade, defendendo que existem pelo menos quatro tipos diferentes de tendências evolutivas, além de vários tipos de complexidade, algumas delas podendo aumentar em função da diminuição de outras. Por isso, há uma necessidade de assumirmos extremo cuidado ao discutirmos qualquer suposta tendência a uma maior complexidade na evolução, além de ser fundamental superarmos a idéia egocêntrica de uma escalada ascendente em direção a um cume ou à perfeição.

A proposta final dos autores é fornecer um pequeno experimento de pensamento, fácil de visualizar e compreender, demonstrando como o processo evolutivo pode ser encarado como sendo termodinamicamente guiado. Nele a seleção natural agiria ‘criando’ formas mais eficazes de processar energia e aumentar a entropia total do sistema, ao mesmo tempo que geraria ordem e complexidade local. Assim, ao invés da visão anti-científica, de que a evolução se opõe a segunda lei da termodinâmica, esta visão defende exatamente o contrário.

O experimento de pensamento da figura 3 exige apenas que imaginemos três placas de petri com a mesmo quantidade de glicose no tempo 0. A primeira delas contém apenas glicose, que depois de certo tempo é oxidada espontaneamente. A segunda possui 100 bactérias da espécie Escherichia coli que, em pouco tempo, metabolizam a glicose, já que, por serem entidades muito bem organizadas, “ciclam” este nutriente de forma muito mais eficiente do que as reações de oxidação, não catalizadas e não compartimentalizadas, da primeira placa de petri. A terceira placa no tempo zero, possui a mesma quantidade de glicose que as demais e a mesma quantidade de bactérias E. coli que a segunda. Porém, após passado um certo tempo, uma destas bactérias sofre uma mutação vantajosa que a possibilita transportar, com mais eficiência, a glicose para dentro da célula. Digamos que esta mutação aumente o número de proteínas transportadoras de glicose nas membranas, ou aumente a afinidade das mesmas por moléculas de glicose. Depois de mais um período de tempo, esta bactéria multiplica-se de forma mais rápida e acaba tornando-se o tipo principal da placa 3. Com a proliferação da estirpe mais eficiente, a metabolização da glicose torna-se também mais rápida, o que reduz o tempo para a degradação total de glicose, e chegada ao equilíbrio, em relação a segunda placa.

Este pequeno experimento de pensamento deixa bem claro como a evolução pode aumentar a eficiência termodinâmica de um sistema biológico e aumentar a entropia total do ambiente circundante. E, como já discutido, existe energia de sobra (em sua forma de baixa entropia fornecida pelo sol) para ser convertida em formas mais entrópicas e utilizada da manutenção de processos biológicos e na própria evolução de estruturas mais complexas. Esta energia, em última instância, se origina da gravidade e das reações de fusão termonuclear que ocorrem no interior do Sol. Além disso, boa parte dos elementos mais pesados que compõem nosso planeta, como o carbono, por exemplo, originaram-se também no interior das estrelas e são distribuídos pelo universo através da explosão de supernovas. Portanto, não existe contradição entre a segunda lei da termodinâmica e a evolução biológica que se insere de forma elegante dentro da astrofísica e cosmologia modernas.

Este artigo é extremante útil aos educadores e a todos que já estão cansados de ouvir a mesma retórica, confusa e desinformada, vociferada pelos antievolucionistas de plantão. Pode não ser a arma derradeira, mas sem dúvida é uma aquisição fundamental, podendo guiar, cientistas e educadores, no desenvolvimento de formas mais efetivas de comunicação e divulgação, mais adequadas ao ensino da biologia evolutiva e menos susceptíveis aos ataques retóricos que teimam em ressurgir do ‘mundo dos mortos’.


Referências:

Schreiber, A., & Gimbel, S. (2010). Evolution and the Second Law of Thermodynamics: Effectively Communicating to Non-technicians Evolution: Education and Outreach, 3 (1), 99-106 DOI: 10.1007/s12052-009-0195-3

Bunn, E. (2009). Evolution and the second law of thermodynamics American Journal of Physics, 77 (10) DOI: 10.1119/1.3119513

Styer, D. (2008). Entropy and evolution American Journal of Physics, 76 (11) DOI: 10.1119/1.2973046

Referências de apoio:

Carroll SB. Chance and necessity: the evolution of morphological complexity and diversity. Nature. 2001 Feb 22;409(6823):1102-9. Review. PubMed PMID: 11234024.

GOULD, S.J. A evolução da vida na Terra. [1994] 2004 Scientific American Brasil, Edição Especial nº 5.

Kaila VRI, Annila A. Natural selection for least action. Proc R Soc A. 2008;464:3055–70.

McShea, DW Possible largest-scale trends in organismal evolution: Eight “live hypotheses” ANNUAL REVIEW OF ECOLOGY AND SYSTEMATICS VL 29 BP 293 EP 318 PY 1998

McShea, DW Mechanisms of large-scale evolutionary trends evolution 1994 48 (6):1747-1763 TC 124 UT

Livros:

Atkins, P. & de Paula, J.(2008) Físico-Química Biológica editora LTC ISBN: 9788521616238.

Nelson, philip Física Biológica – energia, informação, vida (2006) editora Guadabara Koogan ISBN 8527712091.

Nussenzveig, H. Moysés (1999) “Complexidade e Caos”, Editora UFRJ/COPEA.

Prigogine, Ilya (1980). From Being To Becoming. Freeman. ISBN 0716711079.

Schrödinger, Erwin (1997). O que é Vida? O Aspecto Físico da Célula Viva Seguido de Mente. São Paulo: UNESP, ISBN 8571391610.

Crédito das figuras:

SCOTT CAMAZINE / SCIENCE PHOTO LIBRARY
DR. ARTHUR WINFREE / SCIENCE PHOTO LIBRARY.
SCIENCE PHOTO LIBRARY
AMERICAN INSTITUTE OF PHYSICS / SCIENCE PHOTO LIBRARY
SEGRE COLLECTION / AMERICAN INSTITUTE OF PHYSICS / SCIENCE PHOTO LIBRARY
RICHARD BIZLEY / SCIENCE PHOTO LIBRARY
HELENE FOURNIE, ISM / SCIENCE PHOTO LIBRARY
SCOTT SINKLIER / AGSTOCKUSA / SCIENCE PHOTO LIBRARY

A origem de nova informação genética. Parte II

Em post anterior comentei sobre alguns dos mecanismos responsáveis pela introdução de nova “informação genética” nos genomas dos seres vivos, através da criação de novos genes. Na figura abaixo está ilustrado um caminho potencial para o surgimento e diversificação estrutural e funcional de um novo gene, que envolve quatro dos processos discutidos anteriormente: (i) duplicação gênica, (ii) retro-tranposição (através da ação da transcriptase reversa de um retroposon) de um RNA mensageiro codificado por um segundo locus; (iii) embaralhamento exônico (exon shuffling); seguido de (iv) fusão gênica, culminando com a formação de uma novo gene que codifica para uma proteína quimérica.

Chamemos de gene A, o gene duplicado. Após a duplicação, que pode ser provocada por um crossing over desigual, uma das cópias pode sofrer mutações e se transformar em um pseudogene, sendo perdida ao longo do tempo. Pseudogenes, entretanto, podem funcionar como fósseis moleculares e nos ajudar a recriar as etapas de formação de um novo gene. Porém, o ponto importante, é que a função estará protegida, já que existe uma cópia extra. Esta cópia extra pode, por sua vez, pode sofrer uma inserção de um novo segmento de DNA. Neste caso, este segmento é resultado da transcrição reversa (intermediada por um retrotransposon, como o L1, que sintetiza um DNA a partir do transcrito de RNA) de um outro gene, que chamaremos de gene B. Como este transcrito já foi processado e teve seus introns removidos, isto se refletirá no DNA resultante, que possuirá um único grande éxon originado a partir do RNA já processado. Estas “marcas” continuarão no gene novo e, assm, ao compararmos este novo gene com seqüências homólogas, poderemos recriar sua história a partir destes detalhes.

Ao se inserir no genoma, no meio da cópia do gene A, esta sequência de DNA poderá acrescentar um códon de parada precoce, interrompendo parcialmente a cópia do gene A. Assim todo os segmentos posteriores a einserção, no sentido da transcrição pela RNA polimerase, serão perdidos. Assim esta porção se degenerará, em um processo semelhante a “pseugenisação”. Caso este novo gene não tenha se originado há muito tempo, poderemos identificar esta região que seria muito semelhante em seqüência, a região homóloga, do gene A original.

O novo gene produziria uma proteína quimérica, formada a partir da junção de partes dos exons do gene A com o grande éxon resultado do processamento e remoção dos introns do transcrito do gene B. Como cada éxon pode codificar um domínio petídico semi-autônomo, problemas de enovelamento poderiam ser corrigidos posteriormente com mutações compensatórias que estabilizariam termodinamicamente a proteína. Uma função inteiramente nova poderia surgir já que os diferentes domínios combinados poderiam agir sinergisticamente. Como abordado em outro artigo, este processo poderia ser ainda mais facilitado pela redução da população efetiva, o que tornaria a seleção purificadora menos eficaz, aumentando o número de mutações toleráveis. Mesmo problemas de enovelamento que pudessem ter um impacto mais drástico (induzindo doenças degenerativas ligadas a formação de muitas folhas beta, um tipo de estrutura secundária) através da formação de agregados protéicos, como os associados ao mal de Alzheimer, poderiam ser tolerados caso este processo atingisse seu estado crítico apenas após a idade fértil e o auge do período reprodutivo, como ocorre com o próprio mal de Alzheimer e a doença de Parkinson, etc.

Em um primeiro olhar, todo este modelo pode parecer um pouco forçado, mas certamente é um caminho possível, corroborado por estudos comparativos e pela genética evolutiva de populações moderna, que respalda esta possibilidade. Porém, o mais curioso, é que esta especulação, na realidade, não é uma especulação, mas a descrição da origem do gene Jingwei, a partir da duplicação do gene Yellow-empire e da fusão de uma das cópias, o gene Yande (funcional em outras espécies), com um transcrito reverso do gene Adh, em moscas do gênero Drosophila. Uma ótima descrição do processo pode ser encontrado aqui.

Tudo isso foi possível graças a possibilidade de comparação entre genes homólogos, e das regiões a eles adjacentes, que permitiram re-construir, e desvendar, os processos que deram origem a este novo gene.

O acúmulo de dados genômicos, associado a invetividade dos cientistas (amparados por novos algoritmos, aumento da capacidade computacional, além de novos procedimentos experimentais), nos trará ainda mais surpresas e detalhes sobre a evolução de novos genes e genomas.


Referências:

Wang W, Zhang J, Alvarez C, Llopart A, Long M. The origin of the Jingwei gene and the complex modular structure of its parental gene, yellow emperor, in Drosophila melanogaster. Mol Biol Evol. 2000 Sep;17(9):1294-301. PubMed PMID: 10958846.

Chandrasekaran , C. & Betrán , E. (2008) Origins of new genes and pseudogenes . Nature Education 1(1)

Créditos das imagens:
TEK IMAGE / SCIENCE PHOTO LIBRARY
VOLKER STEGER / SCIENCE PHOTO LIBRARY
PHANTATOMIX / SCIENCE PHOTO LIBRARY
SHEILA TERRY / SCIENCE PHOTO LIBRARY

Ambos esquemas, descrevendo a origem dos genes e o alinhamento como os genes “parentais”, foram criados por mim. Usem (modifiquem), mas creditem e não impliquem que concordo com vcs sem me consultar.

Sobre o texto “Evolucionismo” do site Brasil Escola

*** Parabéns ao BrasilEscola.com por ter mudado o texto criticado por mim abaixo.***

Há anos, por algum motivo, o Google tem dado como primeiro resultado para a busca da palavra “evolucionismo” o texto curto abaixo, de autoria de Rainer Sousa e hospedado no sítio Brasil Escola. O título do texto é “Evolucionismo – A Teoria do Evolucionismo” [sic]:
“A teoria evolucionista é fruto de um conjunto de pesquisas, ainda em desenvolvimento, iniciadas pelo legado deixado pelo cientista inglês Charles Robert Darwin. Em suas pesquisas, ocorridas no século XIX, Darwin procurou estabelecer um estudo comparativo entre espécies aparentadas que viviam em diferentes regiões. Além disso, ele percebeu a existência de semelhanças entre os animais vivos e em extinção.

A partir daí ele concluiu que as características biológicas dos seres vivos passam por um processo dinâmico onde fatores de ordem natural seriam responsáveis por modificar os organismos vivos. Ao mesmo tempo, ele levantou a idéia de que os organismos vivos estão em constante concorrência e, a partir dela, somente os seres melhores preparados às condições ambientais impostas poderiam sobreviver.

Contando com tais premissas, ele afirmou que o homem e o macaco teriam uma mesma ascendência a partir da qual as duas espécies se desenvolveram. Contudo, isso não quer dizer, conforme muitos afirmam, que Darwin supôs que o homem é um descendente do macaco. Em sua obra, A Origem das Espécies, ele sugere que o homem e o macaco, devido suas semelhanças biológicas, teriam um mesmo ascendente em comum.

A partir da afirmação de Charles Darwin, vários membros da comunidade científica, ao longo dos anos, se lançaram ao desafio de reconstituir todas as espécies que antecederam o homem contemporâneo. Entre as diferentes espécies catalogadas, a escala evolutiva do homem se inicia nos Hominídeos, com mais de quatro milhões de anos.

O Homo habilis (2,4 – 1,5 milhões de anos) e o Homo erectus (1,8 – 300 mil anos) compõem a fase intermediária da evolução humana. Por fim, o Homo sapiens neanderthalensis, com cerca de 230 a 30 mil anos de existência, antecede ao Homo sapiens, surgido há aproximadamente 120 mil anos, que corresponde ao homem com suas características atuais.

Mesmo cercada por uma larga série de indícios materiais sobre as transformações da espécie humana, a teoria evolucionista não é uma tese comprovada por inteiro. O chamado “Elo Perdido”, capaz de remontar completamente a trajetória do homem e seu primata original, é uma incógnita ainda sem resposta.”

ResearchBlogging.org

A primeira metade do texto está boa, porém do quarto parágrafo adiante o que se vê é confusão. Em primeiro lugar, a biologia evolutiva, como as publicações do Evolucionismo.org divulgam, é uma área muito maior do que simplesmente a busca por espécies que “antecederam o homem contemporâneo”. Os interesses dos biólogos evolutivos vão da história das plantas da família do maracujá a mostrar que eram infundadas as acusações contra cinco enfermeiras búlgaras e um médico palestino, na Líbia, de terem supostamente contaminado as crianças de um hospital com HIV. Foi uma análise evolutiva das linhagens do vírus que inocentou o médico e as enfermeiras. [1] Estudar a origem da espécie e populações humanas é apenas uma das coisas que um biólogo evolutivo pode fazer.

Árvore de Darwin

Em segundo lugar, a ideia de uma “escala evolutiva” foi abandonada pelos biólogos há mais de um século. É a imagem de uma árvore, como a árvore desenhada por Darwin, que se deve ter em mente quando se fala em descendência com modificação de seres vivos, incluindo o ser humano. Não uma imagem de escala, escada, corrente ou aquela famosa fila de hominídeos com o homem na frente. (ESQUEÇA aquela imagem quando pensar em evolução!)
O último parágrafo destrói completamente qualquer tentativa de imparcialidade neste texto.
O autor fala em “tese” e “comprovada” demonstrando ignorância em filosofia da ciência, em que estes termos, principalmente o termo “prova”, caíram em desuso há pelo menos 40 anos.
Prova é um recurso da matemática (teoremas são provados com deduções). Em ciências usa-se o acúmulo de evidências e corroborações experimentais para hipóteses, e aquelas hipóteses que mais se corroboram e resistem a tentativas de refutação geram teorias científicas, que são as melhores explicações que a atividade científica é capaz de gerar [2]. A adequação das teorias científicas à realidade é o que está por trás da eficácia da tecnologia e da medicina, por exemplo. Inclusive, muitas atividades médicas, principalmente as de controle de epidemias, dependem da teoria da evolução.
O autor está mal informado sobre o nível de aceitação da teoria da evolução entre cientistas da área. A teoria da evolução é tão aceita entre biólogos quanto a teoria da relatividade é aceita entre físicos.[3]
Colocar um parágrafo dizendo que a teoria da evolução é uma “tese não comprovada” é desinformar o leitor por duas vias: passar a ideia equivocada de que ciências empíricas trabalham através de provas, e ignorar o consenso da comunidade de cientistas que trabalham com os seres vivos.
___
Sobre a diferença entre teoria da evolução e evolucionismo, ver o manifesto de lançamento do Evolucionismo.org. Sobre o termo obsoleto “darwinismo”, conferir esta resposta no ‘Pergunte ao Evolucionismo’.
___
Eli Vieira
Biólogo e estudante de pós-graduação em genética e biologia molecular pela UFRGS

Referências


1 – de Oliveira T, Pybus OG, Rambaut A, Salemi M, Cassol S, Ciccozzi M, Rezza G, Gattinara GC, D’Arrigo R, Amicosante M, Perrin L, Colizzi V, Perno CF, & Benghazi Study Group (2006). Molecular epidemiology: HIV-1 and HCV sequences from Libyan outbreak. Nature, 444 (7121), 836-7 PMID: 17171825

2 – Gregory, T. (2007). Evolution as Fact, Theory, and Path Evolution: Education and Outreach, 1 (1), 46-52 DOI: 10.1007/s12052-007-0001-z

3 – Confira o “Projeto Steve“, que numa ironia à famosa lista de cientistas criacionistas (nenhum deles biólogo), juntou um número exorbitante de cientistas que se chamam ‘Steve” e aceitam a evolução. O nome é uma homenagem a Stephen Jay Gould.

Conceitos problemáticos e evolução Parte I: Propósito e “Design”

ResearchBlogging.org

Nossa linguagem pode ser traiçoeira, sobretudo no que se refere ao ensino de ciências, especialmente quando lidamos com tópicos, socialmente e ideologicamente, polêmicos como a evolução. Pesquisas, nas últimas décadas, tem indicado que nosso aparato cognitivo evoluiu para um estado no qual a atribuição de “agência”, volição, intenção, etc parece ser bastante generalizada.

Explicações personalistas e teleológicas são muito comuns em nosso meio cultural e, enquanto, absolutamente adequadas quando se tratam de artefatos e criações humanas, são, extremamente enganosas quando extrapoladas para os seres vivos e demais entidades naturais. Esta questão é tremendamente
pertinente quando lidamos com o ensino de ciências biológicas, especialmente ao discutirmos tópicos de biologia evolutiva. Este problema fica muito claro ao analisarmos os usos de certos termos e expressões, que apresentam diversos significados, dependendo dos seus contextos de uso. Alguns, com seu uso nas ciências, em franco contraste com a linguagem leiga. Louise S. Mead e Eugene C. Scott, do National Center for Science Education (NCSE), em um curto e interessante artigo, publicado no Evolutionary Education Outreach, discutem algumas das questões relacionadas com o impacto de determinadas expressões e termos, como empregados na biologia evolutiva, em alunos com formação religiosa mais conservadora, que possuem, pelo menos nos EUA, maior resistência aos tópicos de biologia evolutiva. Esta tendência parece ser reforçada pela naturalidade com que atribuímos intencionalidade ao mundo natural. Algo forte, não só em adultos, mas principalmente em crianças. Portanto, um cuidado com o emprego terminológico e esclarecimento da atitude científica frente a
explicações sobrenaturais, não pode ser evitado. O ponto central do argumento de Mead e Scott, envolve a equiparação de duas formas de naturalismo, o naturalismo metodológico (partilhado pelos cientistas das mais diversas filiações religiosas, ideologias e posturas filosóficas) e o naturalismo filosófico (também chamado de naturalismo metafísico ou ontológico) que envolve uma postura muito mais ampla de rejeição ao teísmo, de forma geral. Apesar da grande (e talvez, melhor dizendo, imensa) maioria dos ateus (e outros naturalistas metafísicos) e agnósticos, subscreverem-se ao naturalismo metodológico; o contrário não é verdadeiro. Muitos cientistas, que seguem o naturalismo metodológico, são teístas ou deístas, portanto, assumindo, portanto, alguma forma de supernaturalismo metafísico.

O primeiro ponto a ser esclarecido é sobre o naturalismo metodológico, tão citado nas discussões entre cientistas e criacionistas. Mead e Scott, exemplificam esta postura ao chamar a atenção para o fato das ciências dependerem da testabilidade de seus construtos teóricos e hipóteses. Além disso, estes testes, dependem da nossa capacidade de controlar várias condições relevantes ao fenômeno a ser investigado. Em experimentos controlados, os cientistas podem tentar controlar o máximo possível variáveis, como luz, calor, pressão, densidade populacional etc. Mesmo em estudos observacionais (como análises epidemiológicas) existe a necessidade da utilização de métodos de controle estatístico de variáveis, onde lança-se mão de suposições plausiíveis sobre a natureza do fenômeno (que podem e devem ser investigadas independentemente, sempre que possível), possibilitando sua investigação. Variáveis que não possuem restrições e não são coagidas, nem empiricamente, nem teoricamente, simplesmente não se prestam a investigação pela comunidade científica, assim defende o naturalismo metodológico. Entidades sobrenaturais e irrestritas em seus poderes, habilidades, capacidades cognitivas (e cujas intenções estão acima de nossas vãs esperanças de compreensão) não são úteis como explicações científicas. Portanto, “Deus” é deixado de fora da investigação científica, uma vez que não existem restrições para sua ações, sendo ele logicamente compatível com qualquer estado de coisas.

É claro que conceitos particulares podem ser discutidos, mas a inabilidade de se concordar e estabelecer metodologias de comparação objetivas e consensuais, nos debates teológicos, tornam esta atitude [meta]metodológica pragmaticamente necessária, ao se conduzir a atividade científica. Resumindo, o naturalismo metodológico é a idéia de que apenas causas, processos, leis, princípios e explicações naturais (ou materiais – baseadas em matéria e energia) devem ser buscados pelos cientistas, em sua práticas profissionais, já que estes tipos de explicações são passíveis de acordo mínimo (além de discussão e validação inter-subjetiva), a partir de testes empíricos e procedimentos metodológicos sistemáticos e rigorosos. Esta postura, pragmática em seu seio, não é uma constação a prori. Ela é resultado de um longo processo histórico em que as ciências se separaram da teologia e da filosofia, ao longo dos séculos, tornando-se independentes, com suas próprias metodologias (de caráter naturalista) e epistemologia (de caráter empirista, como sugere Barbara Forrest; ou talvez, mais adequadamente, “racioempirista” ou pragmatista). O naturalismo metodológico é mantido a posteriori, como resultado do histórico de sucesso da abordagem científica ao lidar com o mundo natural. Esta atitude epistêmica e metodológica, portanto, não exclui logicamente a possibilidade de entidades sobrenaturais, sendo ortogonais a estas possibilidades. As ciências não nos dizem nada sobre a possibilidade da existência do sobrenatural, quando compreendidas desta maneira.

Mead e Scott, enfatizam que estes conceitos devem ser muito bem definidos e separados, pelos professores, ao se ensinar e discutir evolução. Porém, isto não é suficiente, como as autoras mesmo lembram. Termos como “propósito” e “design”, usados tanto por leigos, leigos-religiosos e cientistas, causam enorme confusão. A palavra “propósito” pode ser tanto usada como função, então sendo completamente compatível com a enfase na análise funcional típica da biologia evolutiva, como pode significar objetivo ou meta de um agente cognitivo, inclusive uma divindade; ou pode referir-se ao significado ou “objetivo transcendente” de um individuo ou se sua vida.

A palavra “design” (que parece ser menos problemática em português), com suas alusões ao desenho e projeto consciente, é outro caminho para uma possível armadilha conceitual e confronto ideológico. Este problema parece ser mais relevante em terras anglófonas, mas posso estar errado, já que não tenho uma experiência direta com o ensino de evolução no ensino médio, por exemplo. Porém, em inglês, o termo “design” é usado por cientistas ao descreverem estruturas biológicas, principalmente quando o foco é seu papel adaptativo. Esta tradição se originou, muito provavelmente, a partir da teologia natural, sobretudo na versão William Paley, extremamente influente nos meios de filosofia e história natural anglófonos. Darwin (e Wallace) com a teoria da evolução por seleção natural, explicaram exatamente como a , pelo menos aparente, extrema à adequação funcional, entre as estruturas (morfológicas, fisiológicas e comportamentais) dos seres vivos e o meio-ambiente. Este, até hoje, é um dos principais objetivos da biologia evolutiva, explicar o processo de adaptação através de mecanismos naturais, como a seleção natural.

O problema é que estes termos tem significados muito diferentes, quando usados por não cientistas, especialmente por crianças. Estes usos são facilmente co-optados pelo discurso criacionista, e por sua versão mais moderna, a teoria do Design Inteligente, que capitaliza, exatamente, em cima da idéia de “projeto” (design). Os dois termos são relacionados, “propósito” e “design”, com o “design” sendo um meio de alcançar um “propósito”, esta linguagem tremendamente carregada e teleológica, muitas vezes é propensa a gerar ainda mais confusão sobretudo se ocorre equiparação entre o naturalismo metodológico com o naturalismo metafísico. Criando uma sensação de que os estudantes devessem simplesmente optar. Como Mead e Scott colocam, citando Sinatra, aprender evolução não pode ser simplesmente adicionar um novo conhecimento, mas sim repensar o mundo e desenvolver “uma nova forma de conhecer” . Por isso, este tipo de suposta escolha não parece condutivo as ciências e ao aprendizado desta nova forma de ser pensar e conhecer a origem e modificação das funções e estruturas, que é a biologia evolutiva.

Na verdade, a atitude [meta]metodológica naturalista não é diferente da que adotamos ao ensinar (e investigar) sobre o ciclo celular ou sobre as leis de Mendel. Entretanto, a idéia de que a biologia evolutiva exclui a possibilidade de Deus e do sobrenatural, parece tornar este campo mais propício a estas confusões conceituais e epistêmicas.

As autoras sugerem evitar pronunciamentos que pareçam desabonar a existência de qualquer “propósito ultimo”, como se estes fossem logicamente incompatíveis com prática científica, para isso, enfatizando os compromisso e limitações epistêmicas e metodológicas das ciências e como estas, pragmaticamente, tornam a utilização de explicações sobrenaturais e religiosas inadequadas. Ao mesmo tempo que se diferenciam as duas formas de naturalismo e os compromissos conceituais de ambos. Mead e Scott, propõem explicitar as diferenças entre os usos populares e científicos do termo “propósito”, além de substituir a utilização do termo “design”, por equivalente como “adaptação” e “estrutura”, quando estes forem convenientes. Estas propostas dificilmente vão acabar com todos os problemas relativos ao ensino da evolução, já que termos como “adaptação”, como seus múltiplos significados (como os filósofos da biologia e biólogos teóricos não nos deixam esquecer) não são isentos de problemas. Porém, ao evitar termos como “design”, alguns equívocos conceituais muito sérios podem ser minimizados. Em condições ideais, uma “atmosfera” melhor pode ser alcançada. Uma que não coloque o ensino de evolução em choque direto com as tendências cognitivas, ideologias familiares e familiaridade lingüística (semântica e pragmática), por parte dos alunos, como certos termos e seus usos.

Por não conhecer exatamente o contexto do ensino de evolução no Brasil (nos níveis fundamental e médio) não posso afirmar se estes são os mesmos problemas que acometem nossas escolas. Porém, creio que mesmo assim, este artigo (e o que dará continuidade a ele), valha muito a pena ser lido e digerido, pelos educadores, divulgadores e interessados em evolução e seu ensino. Toda a base teórica por trás destas considerações é também de grande importância. Os estudos de antropologia e psicologia cognitiva que inspiram o artigo de Mead e Scott merecem muita atenção. Assim como, estudos de outros autores sobre a origem da religiosidade humana, como Scott Atran, Pascal Boyer e Ilkka Pyysiäinen.

Referências:

Mead, L., & Scott, E. (2010). Problem Concepts in Evolution Part I: Purpose and Design Evolution: Education and Outreach, 3 (1), 78-81 DOI: 10.1007/s12052-010-0210-8

Leituras sugeridas:

Sinatra GM, Brem SK, Evans EM. Changing minds? Implications of conceptual change for teaching and learning about biological evolution. Evol Edu Outreach. 2008;1:189–95.

Livros recomendados:

Boyer, Pascal. The Naturalness of Religious Ideas: A Cognitive Theory of Religion. Berkeley: University of California Press, 1994.

Atran, Scott. In Gods We Trust: The Evolutionary Landscape of Religion. New York: Oxford University Press, 2002

Pennock RT. Tower of Babel: the evidence against the new creationism. Cambridge: Bradford; MIT; 1999.

Pyysiäinen, Ilkka and Veikko Anttonen, eds. Current approaches in the cognitive science of religion. New York : Continuum, 2002.

Scott EC. Creationism vs evolution: an introduction. 2nd ed. Westport: Greenwood; 2009.

Créditos das imagens:

WILL & DENI MCINTYRE / SCIENCE PHOTO LIBRARY
GARY HINCKS / SCIENCE PHOTO LIBRARY
CECILE DEGREMONT / LOOK AT SCIENCES / SCIENCE PHOTO LIBRARY
JEFF GREENBERG / SCIENCE PHOTO LIBRARY
PASIEKA / SCIENCE PHOTO LIBRARY
MIKE AGLIOLO / SCIENCE PHOTO LIBRARY

Foto de Eugenie C. Scott via Wikimedia Commons

Detetives Darwinianos

Este é um livro que eu gostaria de ver traduzido em português e editado, aqui, no Brasil. Norman A. Johnson é professor do departamento de entomologia da University of Massachusetts, Amherst. Suas áreas de interesse são o oestudo dos aspectos genéticos e evolutivos dos mecanismos de isolamento reprodutivo pós-copulatórios, e como eles afetam a aptidão dos híbridos de espécies nascentes. Porém, o livro “Darwinian Detectives ” (“Detetives Darwinianos”) tem um escopo muito mais amplo, além de ser o primeiro livro de divulgação em biologia evolutiva, pelo menos que eu tenha lido, que se concentra nas metodologias e procedimentos de investigação de evolução molecular, filogenia e genética de populações, adotados pelos cientistas para investigar a evolução. Publicado em 2007, escrito de forma clara e agradável., exige apenas um pouco mais do que os livros tradicionais de divulgação, sendo um complemento poderoso para os livros textos utilizados em cursos introdutórios de genética e evolução. “Darwinian Detectives” é uma ótima, e bem atualizada, introdução às principais questões da genética evolutiva e genômica, além de se concentrar nos aspectos relacionados à evolução humana.

Um livro fantástico para os não iniciados (além de extremamente útil para os já iniciados e professores), interessados não só nos fatos, mas em entender como os biólogos evolutivos investigam e inferem os processos e padrões de transformação da vida na terra.


Johnson, Norman A. ( 2007) Darwinian Detectives: Revealing the Natural History of Genes and Genomes Oxford University Press – OUP