Rodrigo Véras

As cinco regras básicas para a evolução da cooperação

ResearchBlogging.org

Durante muito tempo a cooperação foi um dos grandes mistérios para as abordagens evolutivas. A cooperação é algo tremendamente importante e não diz respeito exclusivamente aos animais com um certo nível de inteligência. De fato, está por trás da emergência de novos níveis de organização biológica que, assim como os casos de cooperação entre indivíduos, envolvem ganhos e perdas para os ‘indivíduos’ que ‘ajudam’ aos outros.

  • Moléculas auto-replicantes
  • Células
  • Células e suas organelas
  • Organismos multi-celulares
  • Eussocialidade em animais
  • Sociedades humanas.

 

O “Dilema do Prisioneiro” capta a essência do problema e é a porta de entrada de muitos dos sistemas de modelagem e investigação da evolução da cooperação e altruísmo. Nele dois jogadores podem cooperar ou desertar e a recompensa para cooperação mútua, R, é maior do que o retorno da deserção mútua, P. Mas um desertor versus um cooperador recebe a maior recompensa, T, enquanto que o cooperador obtém a menor recompensa, S. Desta forma, o Dilema do Prisioneiro é definido pelo seguinte ranking de recompensas T> R> P> S. Para uma população bem misturada, desertores sempre terão um maior retorno esperado do que os cooperadores. Assim, a seleção natural sempre, nestas condições, ‘favorecerá’ os desertores. Isso nos leva à conclusão de que a evolução da cooperação exige mecanismos específicos e condições particulares.
Em qualquer população mista desertores conseguem maiores recompensas do que os cooperadores. Este é um caso em que a seleção natural diminui a aptidão média de uma população, mostrando como este processo não é um ‘agente’ de melhora constante e muito menos tem alvos de longo prazo. Porém, então, como a cooperação pode surgir durante a evolução?

Martin Nowak e seu grupo tem explorado vários cenários e mecanismos em que a cooperação se torna adaptativa, portanto, podendo evoluir por seleção natural. Neste post são discutidos cinco destes mecanismos para a evolução da cooperação: a reciprocidade direta, reciprocidade indireta, seleção de parentesco, seleção de grupo, e reciprocidade de rede (ou a seleção do gráfico) e as regras que emergem da análise destes cenários e que mostram as condições necessárias para que a cooperação evolua. Cada um dos mecanismos transforma a matriz de recompensas do “Dilema do Prisioneiro”. A partir dessas matrizes transformadas, cientistas obtiveram as condições fundamentais para a evolução da cooperação. Estas cinco formas podem ser expressas em cinco regras bem simples que ilustram as condições em que a cooperação emerge da dinâmica evolutiva.

  1. Seleção de Parentesco (Kin selection)
  2. Reciprocidade Direta
  3. Reciprocidade Indireta
  4. Reciprocidade em rede (Seleção de Grafos)
  5. Seleção de Grupo (Seleção Multi-níveis)

Seleção de Parentesco (Kin selection):

A interação se dá entre indivíduos que partilham de certo nível de parentesco, ou seja, alguns dos mesmos alelos. Esse princípio é magnificamente ilustrado pela máxima de J.B.S. Haldane, “Eu pularei no rio para salvar dois irmãos ou oito primos” (“I will jump into the river to save 2 brothers or 8 cousins” como citado por Nowak). Este insight de Haldane foi mais tarde rigorosamente formulado por William Hamilton e é uma das principais explicações para a cooperação em insetos sociais com sistemas haplodiploides, como as abelhas, em que as operárias são ‘superirmãs’, partilhando mais de 50% de seu material genético, além de serem dependentes da rainha para poderem dar uma contribuição genética às próximas gerações.

Hamilton obteve uma regra muito simples que mostra em que situações a seleção de parentesco é eficiente e pode produzir a cooperação: r > c/b

Então, cooperar é evolutivamente vantajoso quando o coeficiente de parentesco (o grau de relação entre o individuo que coopera com o que se beneficia) for maior do que a razão entre o custo para o que coopera e o benefício para que recebe a cooperação. A seleção de parentesco envolve a idéia de aptidão inclusiva, pois a aptidão, o sucesso reprodutivo, é ampliado para englobar também o alcançado através da reprodução dos parentes. Esta idéia levou Richard Dawkins a propor a metáfora de “gene egoísta” e a postular que seriam os genes (compreendidos de uma forma um tanto idiossincrásica e abstrata) como os grandes beneficiários da seleção natural e, portanto, os ‘verdadeiros objetos da evolução’ já que o que realmente importaria seria a passagem de cópias gênicas `diante, seja isso feito através dos descendentes diretos ou dos descendentes de parentes. [Para maiores detalhes sobre o debate envolvendo os níveis e unidades de seleção leia o artigo da filósofa Elisabeth A. Lloyd]

Porém, esta regra, e a modalidade de seleção que ela encabeça, não nos diz muito sobre como a cooperação (e o altruísmo) entre indivíduos não aparentados pôde evoluir. A primeira pista para superar esta dificuldade inicial veio dos trabalhos do pesquisador, na época em Harward, Robert Trivers, na forma do chamado “altruísmo recíproco”, aqui chamado de “reciprocidade direta“, que pode ser ‘traduzido’ pela expressão “uma mão lava a outra”.

Contudo, para entendermos este processo precisamos voltar ao dilema do prisioneiro, mas dessa vez jogá-lo repetidamente, como o teórico Robert Axelrod fez durante os anos 60 e 70, e observar que tipo de estratégia é a mais efetiva quando ocorrem repetidas rodadas deste tipo de interação. Neste caso o jogo torna-se muito mais complicado e fascinante.

Boa parte desta situação pode ser compreendida através de modelos de seleção dependente de freqüência, nos quais as estratégias mais bem sucedidas dependem do que os outros membros da população estão fazendo e qual a proporção de membros que as adotam. Esta virada teve como conseqüência a utilização de modelos baseados na teoria dos jogos ao invés de simples modelos de otimização [para maiores detalhes clique na figura ao lado]. Esta perspectiva teve John Maynard Smith (junto com George R. Price) como uma das figuras principais, especialmente ao propor as chamadas estratégias evolutivamente estáveis (ESS) que surgem da aplicação da teoria dos jogos a evolução. Uma ESS é uma estratégia tal que, se todos os membros da população a adotarem, nenhuma estratégia rival conseguirá instalar-se naquela população, definindo, assim, um estado de equilíbrio a partir do qual a população não se  desviará sob a pressão de seleção [ver Okasha, 2006].

Nos ‘campeonatos mundiais’ do “Dilema do  Prisioneiro repetido” organizados por Axelrod nos anos 80, em que diversos pesquisadores apresentaram programas de computador, o vencedor, para a surpresa de todos, foi a estratégia mais simples de todas que entraram na contenda, TFT (“Tit-for-tat”), apresentada pelo teórico dos jogos Anatol Rapoport. Mesmo no segundo campeonato, em que outros pesquisadores levaram estratégias para tentar vencer especificamente a TFT, o resultado foi o mesmo, a TFT de Rapoport – que seguiu a máxima futebolística (como lembra Nowak), “nunca mexa em um time que está ganhando” – ganhou de novo, de lavada.
Reciprocidade Direta e Indireta:

A chamada “Tit-for-tat” – que poderia ser traduzida como “toma lá da cá” – é uma estratégia verdadeiramente simples. Nesta estratégia começa-se cooperando. Caso o outro jogador cooperar continua-se cooperando, caso contrário, na próxima interação deserta-se, voltando a cooperar na outra. Apesar desta estratégia promover a cooperação e ser imbatível em condições ótimas, caso hajam falhas na comunicação (ou seja, se ocorrerem erros e um dos jogadores pensar que o outro jogador desertou, quando ele de fato cooperou) isso levaria os dois jogadores “Tit-for-tat” a descambarem em espiral de retaliação por deserção. Neste caso, na presença de erros em um jogo evolutivo estocástico, uma estratégia melhor seria a chamada “Tit-for-tat generosa“, o que mostra que o perdão pode surgir a partir da seleção natural. Nesta estratégia, o cooperante frente a deserção, coopera ou não de acordo com uma certa probabilidade (1- c / b) no turno seguinte. Contudo, esta estratégia pode ser vencida por uma estratégia de sempre cooperar (ALLC) que apesar de ser mais vantajosa que a anterior, é facilmente invadida por ‘mutantes’ desertores (ALLD). Contra esta possibilidade outra estratégia se mostra mais adequada, a chamada “Ganho, eu continuo. Perco, eu mudo”. Esta estratégia é capaz de corrigir os erros de comunicação que são fatais na TFT e é resistente a invasões de Desertores (ALLD), mantendo-se estável em situações em que b/c > 2.

A partir dessas informações, Nowak e seu orientador na época, Karl Sigmund, passaram a se  interessar em calcular o vencedor em um torneio mais realistas, que segui-se uma dinâmica evolutiva na presença de erros (ao invés de de um torneio simples mata-mata). Nesta implementação uma população de estratégias evoluiria ao longo de muitas gerações com as estratégias mais bem sucedidas deixando mais descendentes para a próxima geração, seguindo implementações estocásticas (ou seja, como diz Nowak, “elas tinham “mãos trêmulas” na execução das suas regras.”).

 

Destes cenários emergem a reciprocidade direta e a reciprocidade indireta. No primeiro caso, as interações ocorrem entre os mesmos indivíduos e a cooperação pode evoluir seguindo-se outra regra simples: W > c/d, em que b é o benefício, c é o custo e W é a probabilidade de outro encontro ou ‘rodada’. Já a reciprocidade indireta depende de interações entre indivíduos diferentes em ocasiões diferentes, portanto, se baseará na ‘fama’ destes indivíduos, ou seja, do que eles fizeram (cooperaram ou desertaram) com outros indivíduos em outras interações. Se na reciprocidade direta é preciso ter um ‘rosto’, no tipo indireto é o ‘nome’ que conta.
“For direct reciprocity you need a face. For indirect reciprocity you need a name.” (David Haig, como citado por Nowak*)

A partir deste tipo de interação outra regra simples emerge. Para que a reciprocidade indireta possa produzir a cooperação q > c / b, em que q é a probabilidade de conhecer a reputação de alguém, c, custo da cooperação e b, o benefício da cooperação.

Na reciprocidade indireta é a reputação do individuo que é o cerne do processo. Por isso a habilidade não só de reconhecer outros indivíduos, mas de se comunicar, torna-se fundamental. Este processo pode levar a evolução da inteligência social e da linguagem. A reputação passa a ser o ingrediente principal das interações e a habilidade de ‘fofocar’, portanto, de um linguagem complexa acaba por ser essencial neste contexto.

 

Reciprocidade em Rede:

O quarto processo é chamado de “reciprocidade em rede”, baseado no processo de ‘seleção de grafos’. Este mecanismo é um pouco menos intuitivo que os anteriormente mencionados. Para começar um grafo é um conjunto de vértices conectados por uma série de arestas que funcionam como uma representação matemática abstrata, podendo ser usados para modelar uma série de relações e processos entre diversos tipos de entidades. Existe toda uma teoria sobre os garfos [teoria dos grafos] que é extremamente utilizada nas ciências da computação e na matemática computacional.

Voltando ao começo do post, em situações em que as populações são misturadas, ou seja, em que os indivíduos têm basicamente a mesma chance de interagir uns com os outros, os desertores tendem a se proliferar mais do que os cooperadores, por que ganham benefícios sem arcar com os custos, sendo, desta forma, favorecidos pela seleção natural, e acabam por dominar a população, Contudo acabam por reduzir a aptidão média da mesma. Porém, a maioria das populações exibe certa estruturação que limita os tipos de interação e com quem cada um pode interagir. Esta estruturação pode ser espacial, no caso mais simples, mas também assumir a forma de uma rede de interações sociais.

Os indivíduos de uma população ocupam os vértices do grafo e as bordas determinam quem interage com quem. Considerando-se cooperadores simples e desertores, sem qualquer complexidade estratégica, um colaborador paga um custo, c, por cada vizinho que recebe um benefício, b. Desertores não pagam custos, e os seus vizinhos não recebem nenhum benefício. Nesse cenário, os cooperadores podem prevalecer, ao formarem clusters nesta rede, onde se ajudam mutuamente.

 

A “reciprocidade em rede” resultante é uma generalização de “reciprocidade espacial”. A regra que emerge daí é b/c > k mostra as condições para que a cooperação possa evoluir. Onde k é o número médio de vizinhos e, claro, c é o custo da cooperação e b, o benefícios da cooperação. Isto é, a razão entre benefício e o custo (b/c) deve ultrapassar o número médio de vizinhos, k, por pessoa.
Seleção de grupo (ou seleção multi-níveis):

A seleção natural atua não apenas sobre indivíduos, mas também em grupos. Ainda que a seleção de grupo como proposta por V. C. Wynne-Edwards nos anos 60 não tenha resistido aos ataques de teóricos como Maynard Smith, G.C. Williams e do próprio William Hamilton, modelos diferentes sobreviveram e, nas últimas décadas, têm despertado (ainda com certa controvérsia) renovado interesse. Outros cenários e situações têm sido muito exploradas e muitos estudos teóricos e empíricos, sobre a seleção de grupo, tem sido conduzidos, em geral, sobre a alcunha  de “seleção de multi-níveis“. A ideia principal é que um grupo de cooperadores pode ser mais bem sucedido do que um grupo de desertores. Assim, um modelo simples de seleção de grupo funcionaria da seguinte maneira: A população é dividida em grupos e os cooperadores ajudam uns aos outros em seu próprio grupo. Desertores não ajudam. Os indivíduos reproduzem proporcionalmente à sua recompensa. A prole é adicionada a cada grupo. Se um grupo atinge um determinado tamanho, ela pode se dividir em dois. Neste caso, um outro grupo se extingue, a fim de restringir o tamanho total da população.

Perceba, porém, que apesar de só indivíduos se reproduzirem, a seleção acontece em dois níveis. Existe também concorrência entre os grupos, pois alguns grupos crescem mais rápido e dividem-se com maior freqüência do que outros. Em particular, os grupos de cooperadores puros crescem mais rapidamente do que os grupos desertor puros, que, mas em qualquer grupo misto, desertores reproduzem-se mais rápido do que os que colaboraram. Portanto, a seleção no nível mais baixo (dentro dos grupos) favorece desertores, enquanto a seleção no nível mais elevado (entre grupos) favorece cooperadores. Este modelo é baseado na “seleção de grupo por fecundidade”, que significa que os grupos de cooperadores têm uma maior taxa de divisão em dois. No entanto, também é possível imaginar um modelo baseado na “seleção de viabilidade dos grupos”, em que os grupos de colaboradores são menos propensos a se extinguir.

Nowak*, conclui: “no, matematicamente conveniente, limite da seleção fraca e separação rara entre grupos, obtemos um resultado simples: Se n é o tamanho máximo do grupo e m é o número de grupos, em seguida, a seleção de grupo permite a evolução da cooperação, desde que: b/c > 1+ n/m”

Outros modelos mais complexos e menos restritivos de seleção de grupo existem, como o “modelo do palheiro” de Maynard Smith e o de “grupos característicos” (trait-groups) de D.S. Wilson, bem como exemplos de organismos que apresentam as características adequadas para evoluir sobre esta forma.

Essas opções são ainda mais amplas se pensarmos em definições mais modernas de grupo – como as propostas por D. S. Wilson e Elliot Sober – que salientam as semelhanças entre a seleção de parentesco e a seleção de grupo, que, no caso, da abordagem de Wilson e Sober, seria um caso particular da seleção de grupo, no qual o parentesco genético diminuiria a variabilidade intra-grupal, assim como a clonalidade faria com seres multicelulares. Isso fica ainda mais claro com a apreciação da equação de Price (de George R. Price) que permite dividir os componentes da aptidão em (pelo menos) dois termos diferentes, um associado diretamente a características em evolução e outra a fidelidade com que ela é herdada a cada nova geração, o que ajuda a deixar mais claro os diversos níveis envolvidos no processo já que o primeiro termo pode ser encarado como ‘o grupo’ e o segundo como ‘os indivíduos’ [Veja Okasha, 2005 e 2006 para maiores detalhes sobre os debates envolvendo a seleção de grupo].

Sumário:

Cinco mecanismos de cooperação*:

  • Seleção de Parentesco: cooperar com parentes genéticos.
  • Reciprocidade Direta: ‘eu te ajudo, você me ajuda.
  • Reciprocidade Indireta: ‘se eu te ajudar, alguém me ajuda’.
  • Reciprocidade em rede (Seleção de Grafos) : clusters de cooperadores se dão bem.
  • Seleção de grupo: grupos de colaboradores ganham de outros grupos.

Esses mecanismos podem ser subdivididos em duas grandes categorias em função dos limites da cooperação e, portanto, do tipo de cooperação que pode surgir a partir destas estratégias evolutivas.

 

“Vencedores não punem”:

Talvez uma surpresa advinda dos estudos da evolução da cooperação conduzidos pelo grupo de Nowak é que a punição não aparece como uma estratégia por ela mesma, apesar de ser claro que ela pode promover um comportamento cooperativo em algumas situações. A punição pode aumentar o nível de cooperação que é alcançado em tais modelos, mas como Nowak deixa bem claro, todos os modelos evolutivos que envolvem punição, até o momento, são formas de instanciamento particular de mecanismos mais amplos, tais como reciprocidade indireta, seleção de grupo ou reciprocidade em rede. Por exemplo, caso se puna alguém que tenha desertado (não cooperado com você), então, você está usando a reciprocidade direta; e caso você puna alguém que desertou com os outros, então você está usando reciprocidade indireta. Modelos usando punições custosas, em que um individuo paga um custo para que outro (um desertor) tenha que arcar também com um custo, realmente promovem a cooperação, mas comparados com grupos controles, reduzem a recompensa total dos participantes. Os jogadores que ganham o maior retorno total tendem a não usar a punição custosa: “os vencedores não punem”. Por causa disso, Nowak, sugere que o comportamento de punição custosa é mal-adaptativo, pelo menos, nos jogos de cooperação investigados, portanto, devendo ter evoluído por outros processos.

Para Nowak a reciprocidade direta e indireta são os componentes chave para a compreensão da evolução de qualquer comportamento pró-social nos seres humanos. Mas o que realmente “nos fez humanos”, segundo este pesquisador, teria sido a reciprocidade indireta, porque este tipo de mecanismo produz a pressão seletiva apropriada para a evolução da inteligência social e da linguagem humana.

 

O estudo da cooperação e do altruísmo é uma das áreas mais fascinantes da moderna biologia evolutiva, possuindo amplas interfaces que vão desde a origem da multicelularidade até implicações no estudo da economia e da ética. Estudar os processos por trás da evolução de sistemas cooperativos é não só intelectualmente instigante como necessário como parte da aquisição de conhecimento sobre quem somos e como agimos.
_______________________________

Referências:

  • Nowak, M. (2006). Five Rules for the Evolution of Cooperation Science, 314 (5805), 1560-1563 DOI: 10.1126/science.1133755 
  • Taylor C, & Nowak MA (2007). Transforming the dilemma. Evolution; international journal of organic evolution, 61 (10), 2281-92 PMID: 17711471

——————————–

*Nowak, M Evolution of cooperation. – Boa parte das ilustrações e citações vem desta apresentação de Nowak.

 

Referências Adicionais:

  • Okasha, S. Maynard Smith on the Levels of Selection Question, Biology and Philosophy, 20, 5, 989-1010, 2005.
  • Okasha, S. The Levels of Selection Debate, Blackwell’s Philosophy Compass 1/1, 74-85, 2006
    Nowak, M. (2008). Generosity: A winner’s advice Nature, 456 (7222), 579-579 DOI: 10.1038/456579a
  • Nowak MA (2004). Prisoners of the dilemma. Nature, 427 (6974) PMID: 14765175
  • Traulsen A, & Nowak MA (2006). Evolution of cooperation by multilevel selection. Proceedings of the National Academy of Sciences of the United States of America, 103 (29), 10952-5 PMID: 16829575
  • Sigmund K, Nowak MA. Evolutionary game theory. Curr Biol. 1999 Jul 15;9(14):R503-5. PubMed PMID: 10576907.

Crédito das figuras:

JOTI/SCIENCE PHOTO LIBRARY

JAMES KING-HOLMES/SCIENCE PHOTO LIBRARY

CORBIN O’GRADY STUDIO/SCIENCE PHOTO LIBRARY

http://commons.wikimedia.org/wiki/File:J._B._S._Haldane.jpg

Image: © 2007 Erik Jacobs, Jacobs Photographic

Evolução da visão tricromática em primatas

ResearchBlogging.org

Algumas das mais belas histórias tem sido reveladas pela investigação científica. Algumas tão ou mais empolgantes que os maiores mitos, contos e epopéias criadas pelos seres humanos. Nas ultimas 3 décadas, uma dessas histórias vem sendo esmiuçada, através de uma combinação de estratégias analíticas, inferenciais e experimentais que ilustram muito bem como as explicações em biologia evolutiva funcionam e como são testadas as hipóteses desta área.
 
Neste post entramos em contato com uma parte da história da evolução da visão em cores nos primatas do novo e, especialmente, do velho mundo, como os chimpanzé, gorilas, orangotangos e, nós, seres humanos. Essa é, portanto, também parte de nossa história e começa há muitos e muitos anos. Algo em torno de 100 milhões de anos, para ser mais específico, antes da separação do supercontinente de gonduana, na aurora da evolução dos primatas.

 

A idéia deste artigo originou-se de uma das perguntas do formspring evolucionismo que me levou a encontrar uma das mais bem construídas e ilustrativas palestras sobre evolução que já vi, apresentada por Jeremy Nathans, um dos protagonistas do estudo da evolução das cores em primatas. Este mesmo tema foi também assunto de um artigo da revista Scientific American que o próprio Nathans co-escreveu com o neurocientista Gerald H. Jacobs e que é usado como base deste post.
 
Essa aventura biológica serve também como lembrete da importância que o acaso e a contingência histórica tem no processo evolutivo, ao mesmo tempo ressaltando o papel especial da flexibilidade inerente aos sistemas biológicos – cuja plasticidade neural é uma das principais manifestações desta propriedade – no aproveitamento do acaso e da contingência.
 
A visão é uma das modalidades sensoriais mais fascinantes e, provavelmente, com a qual temos mais familiaridade.  Talvez seja mesmo a que defina nossa perspectiva particular como entes conscientes. Somos animais visuais.

A primeira lição é que esse exuberante mundo cromático- que a maioria de nós toma como certo – que nos é possibilitado por nossa capacidade de distinção tricromática, na realidade, depende de três fotopigmentos retinianos [que são expressos em células chamadas ‘cones’ que junto com os bastonetes formam a superfície fotossensível de nossa retina] e dos circuitos neurais a eles associados.

A maioria das pessoas que possuem visão relativamente normal talvez tenham dificuldade em imaginar o que é ver o mundo mais esmaecido – ou mesmo completamente ausente de cor – que uma parte da população humana experiencia, as pessoas que apresentam uma condição chamada de daltonismo. O termo em inglês ‘color-blind‘ (cego à cor) parece capturar melhor o extremo desta condição, mais rara, já que são realmente poucos os indivíduos realmente completamente cegos à cor. A maioria dos indivíduos daltônicos têm problemas em distinguir certas cores de outras, como o vermelho do verde, e vivem em um mundo mais esmaecido.

Existem muitas mutações que podem levar um individuo a ser daltônico e geralmente acometem mais aos homens do que as mulheres, algo que ocorre por um simples motivo: Dois dos genes responsáveis por nossa sensibilidade espectral, exatamente aqueles associados a detecção dos comprimentos de onda visíveis mais longos da luz, localizam-se no cromossomo X e, nós, homens só possuímos um desses cromossomos. A localização contígua desses dois genes também gera toda sorte de problemas de recombinação e boa parte disso pode ser trilhado às origens evolutivas do sistema de visão tricromática dos primatas. Muitos dados clínicos especialmente de pacientes com formas de daltonismo causadas por diferentes mutações e mesmo de pessoas normais com combinações quiméricas de genes dos fotopigmentos acabaram sendo de grande ajuda na elucidação deste complicado quebra-cabeças evolutivo. Evidenciando como a pesquisa clínica (aplicada) e a evolutiva (básica) se entrelaçam na prática e fertilizam-se mutuamente.

Cada um desses três fotopigmentos absorve parte do espectro de luz visível, sendo ativados de forma ótima por um comprimento específico diferente que o caracteriza: Curto (S, Short)  com pico em 430 nm; Médio (M, Medium) com pico em 530 nm e Longo (L, Long), com pico em 560 nm.

Esses pigmentos, conhecidos como rodopsinas, são, de fato, grandes proteínas transmembrana complexadas como uma molécula de retinol, composto derivado da vitamina A, ligada a um resíduo do aminoácido lisina. As rodopsinas fazem parte de uma bem conhecida e muito estudada classe de receptores de membrana, os chamados receptores acoplados a proteína G. Um tipo de receptor metabotrópico com sete domínios transmembrana. A forma de ação convencional desta família de receptores envolve a ativação da proteína por um ligante (em geral uma pequena molécula hidrossolúvel) que ao ligar-se desencadeia alterações na conformação da proteína que, por sua vez, provocam alterações na proteína G acoplada a ela, produzindo assim uma cascata de eventos bioquímicos intracelulares que, por exemplo, podem interferir com a permeabilidade iônica da membrana. Tudo isso pode ser visto na ilustração abaixo. A grande diferença é que, no caso das rodopsinas, o agente modulador é a luz de uma faixa de comprimentos de onda específicos cujo pico de maior estimulação do receptor corresponde aos comprimentos de onda antes descritos (S, M, L). O retinol funciona com o grande coringa do processo de fotorrecepção, agindo como o cromóforo das reações fotoquímicas que desencadeiam as alterações bioquímicas e celulares por trás dessa etapa inicial da visão em cores.         

Muitos mamíferos possuem apenas dois desses fotopigmentos em suas células fotorreceptoras específicas, S e M. Outros animais, como insetos que também possuem visão tricromática, podem incluir fotopigmentos sensíveis ao Ultra Violeta (UV); e alguns vertebrados, como aves e certos peixes, possuem até mais receptores, configurando sistemas de visão tetracromáticos. 

Outro aspecto bastante interessante sobre a visão em cores é que, enquanto os genes para as rodopsinas L e M estão localizados no cromossomo X, como já descrito, o gene do pigmento S fica localizado no cromossomo 7 e tem uma origem filogenética independente ainda mais antiga, estando presente em vários vertebrados.

Do ponto de vista adaptativo, a habilidade de diferenciar uma gama maior de cores pode ter sido de grande valia para os indivíduos no passado, como ainda é hoje em dia. Podemos conjecturar algumas dos contextos ecológicos e comportamentais que ajudaram a definir as pressões seletivas por trás da evolução da tricromia e, até, podemos testar a plausibilidade de algumas desses cenários (veja, por exemplo, Dominy e Lucas, 2001). A habilidade de diferenciar entre frutos maduros e verdes – ou folhas e brotos verdes da(o)s seco(a)s- é, certamente, um dos tipos de vantagens mais prováveis, sendo seguido da capacidade de identificação de animais com ‘displays’ de cor para veneno; e da detecção de sinais de maturidade sexual em primatas.

O trabalho de Nathans se iniciou nos anos 80 com o seqüenciamento das diferentes rodopsinas com sensibilidade ótima a cada um dos três picos de comprimento de onda. O primeiro resultado interessante de seus estudos é a incrível semelhança, em termos de identidade e similaridade dos resíduos de aminoácidos (como pode ser visualizada no alinhamento a seguir), entre as proteínas fotorreceptoras L e M, com cerca de quase 90% de similaridade. [Essa semelhança é corroborada pelas próprias curvas espectrais dos pigmentos L e M que são muito próximas, como mostra a figura acima.]


Em seguida, como fato interessante e já mencionado, temos a própria localização dos dois loci, quase que contíguos, no cromossomo X. Este arranjo sugere que ambos genes são parólogos, ou seja, homólogos originados por duplicação de um gene ancestral. A duplicação gênica é um fenômeno bem conhecido, sendo considerada um dos mecanismos mais importantes para origem de novos genes.

A duplicação pode ocorrer, entre outras causas, por erros de pareamento durante a divisão celular que podem levar ao chamado crossing over desigual [Veja mais informações sobre este e outros processos de origem de novos genes aqui e aqui]. A hipótese mais natural, portanto, é que em algum momento há dezenas de milhões de anos, após a duplicação de um gene ancestral de rodopsina sensível a comprimentos de onda mais longos, um período de divergência se seguiu quando uma ou as duas cópias passaram a acumular mutações e, então, divergiram funcionalmente. Teria sido durante esse processo de divergência que as novas propriedades teriam surgido, através daquilo que se convencionou chamar de neo-funcionalização. No entanto, apesar de muito atrativo, esse modelo, talvez, não seja o mais indicado para explicar o que, de fato, aconteceu, o que faz a história da visão tricromática em primatas ainda mais interessante.

Os detalhes desta história nos são revelados ao analisarmos comparativamente a visão tricromática dos primatas do novo mundo e investigarmos como ela difere da nossa – ou seja, da dos primatas do velho mundo. Antes, contudo, resta outro problema. Ainda não parece claro como mutações, na verdade bem poucas mutações, poderiam reajustar a sensibilidade do novo fotopigmento.

De fato, a resolução deste problema é muito mais simples do que muitos poderiam imaginar a principio, pois o cromóforo (a molécula de retinol) continua sendo o mesmo em todos os casos. O que muda é apenas o ambiente físico-químico a sua volta e que, obviamente, dependente das cadeias laterais dos aminoácidos – e de seu arranjo tridimensional particular – que envolvem o cromóforo quando a cadeia polipeptídica se enovela formando a estrutura tridimensional funcional da proteína [Para maiores detalhes clique na figura ao lado]. Este ambiente eletrônico simplesmente pode fazer com que os diferentes isômeros resultantes da reação de fotoisomerização (a conversão de trans-retinol <-> 11-cis-Retinol) sejam mais ou menos estáveis, deslocando o pico de absorção ótima em que esta reação fotoquímica ocorre. Para tanto foram necessárias apenas três substituições nos 364 aminoácidos que compõem essas rodopsinas, o que permitiu este reajuste e que, por si só, tem importantes implicações filogenéticas. Porém, não se encerra por aí, voltando a se complicar, ficando bem mais emocionante. A questão é que a tricromia em macacos do novo e velho mundo é bastante diferente, ainda que os pigmentos envolvidos sejam muito semelhantes.

A localização cromossômica e o arranjo genômico dos genes desses pigmentos é muito reveladora. Através dela podemos tentar reconstruir o arranjo presente no nosso ancestral comum e inferir o que pode ter acontecido a partir daí.

A visão tricromática está presente em apenas uma fração dos primatas do novo mundo. De fato, esta característica ocorre apenas em uma porção das fêmeas já que os machos são sempre dicromatas. Os dois tipos de receptores L e M  (além do gene para a rodopsina S localizado em outro cromossomo) já estão presentes, mas não como genes parólogos, arranjados próximos um do outro em um mesmo cromossomo, mas sim como alelos diferentes de um mesmo locus. Por exemplo, em macacos-de-cheiro, encontramos três variantes de rodopsinas sensíveis a comprimentos de ondas maiores, um deles muito semelhante ao pigmento M, outra muito semelhante ao pigmento L e uma outra com sensibilidade intermediária entre ambas. Isso quer dizer que apenas as fêmeas, que possuem os dois cromossomos X e que são heterozigotas para esse locus – possuindo pelo menos uma cópia do alelo equivalente ao L e uma do equivalente ao M – é que possuem a visão tricromática.
Esta situação indica um interessante desvio no modelo de duplicação seguido de divergência. Neste caso, a divergência teria ocorrido primeiro com o aparecimento de um alelo (ou dois novos) que só mais tarde, na linhagem dos grandes símios, deve ter sido translocado, através de um erro de recombinação, para um dos cromossomos X transformando-se em um novo locus.

 

O fato que levou os pesquisadores a terem bastante confiança nesse cenário é que as mutações, em macacos do novo mundo, que permitem os diferentes alelos serem sensíveis aos diferentes picos de comprimento de onda são as mesmas – envolvendo as mesmas substituições de aminoácidos – envolvidos na visão tricromática de primatas do velho mundo. Com sabemos pela análise da visão policromática em outros animais e pela análise espectrográfica das diversas rodopsinas, outras mutações poderiam gerar os mesmos desvios espectrais (i.e. A mesma sensibilidade à comprimentos mais longos, M e L), portanto, a hipótese da origem comum é a mais parcimoniosa e, desta forma, preferível. Portanto, como a marca da história está ainda nas seqüencias desses genes, este fato nos permite concluir com muito mais confiança pelo modelo de divergência alélica seguida de translocação de um dos alelos para o cromossomo do outro.

A história, no entanto, também não acaba por aqui, pois ainda precisamos saber como a expressão desses fotopigmentos é controlada na retina e como dois pigmentos não são expressos simultaneamente e daí compreendermos como este processo pode ter evoluído. Isso é muito importante para o funcionamento adequado da visão tricromática por que, para a diferenciação dos estímulos cromáticos, é preciso que se compare a ativação de uma dada célula fotorreceptora com as da vizinhança que expressem pigmentos diferentes, caso contrário o sistema não é capaz de diferenciar a ativação de um mesmo fotopigmento por 100 fótons incidentes, no seu comprimento de onda otimamente absorvível, de 1000 fótons de um comprimento de onda diferente.

Talvez o que haja de mais excitante neste parte da história é que, aqui, a estocasticidade adquire uma importância enorme; e um outro fenômeno que tem sido cada vez mais considerado, a epigenética, passa a ter uma maior relevância, particularmente, o que os cientistas chamam de compensação de dose do cromossomo X.
   
Apesar disso ser, provavelmente, bem conhecido de todos, não é demais lembrar: Os homens são o sexo heterogamético e o cromossomo Y é apenas parcialmente homólogo ao seu par X, o que faz com que as mulheres tenham uma sobra de cópias de certos genes, referentes aqueles genes sem homólogos nos homens. Esses alelos, portanto, precisam ser desligados, em um processo chamado de compensação de dose. Este processo envolve a condensação (heterocromotinização) de um dos cromossomos X, tornando cada mulher um mosaico cromossômico já que porções teciduais diferentes podem ter cromossomos X diferentes (o paterno ou o materno) silenciados. Assim, no caso de loci heterozigotos, é possível que, em alguns trechos, um alelo esteja expresso e em outros o outro. É exatamente isso que parece ocorrer na retina das fêmeas tricromatas do macacos do novo mundo. As retinas dessas espécies parecem ser compostas de patches aleatórios de expressão que alternam o alelo ‘L’ e ‘M’ expressos em células fotorreceptoras individuais. Este padrão estocástico vem a calhar e garante um distribuição dos cones com ambos os fotopigmentos, fornecendo, de graça, uma base primordial para a organização das vias neurais ligadas ao processamento das cores.
   
Porém, esse mecanismo não explica como a regulação da expressão se dá em macacos do velho mundo em que ambos genes estão presentes no mesmo cromossomo, um bem próximo ao outro.

Análises lavadas a cabo pelo grupo de Nathans, das regiões adjacentes aos loci L e M, mostram que ambos genes parecem ser controlados por uma região cis-regulatória à montante (seqüencia acima), região de controle de Locus (LCR, “Locus Control Region”); e que apenas um dos loci é ativado por vez, possivelmente, também de forma aleatória. Talvez isso ocorra por que a região LCR só consiga interagir com o promotor (a seqüencia de controle de expressão imediatamente anterior a região codificadora do gene) de um dos dois genes de cada vez, quem sabe, através da formação de complicados loops da fita de DNA para a formação de complexos de transcrição estáveis que geram padrões de expressão de fotopigmentos mutuamente exclusivos.
 
Mas o acaso e contingência não param por aí. Ainda mais interessante é o fato que – apesar de existirem sistemas neurais bem específicos de comparação de estímulos dos fotorreceptores de comprimento curto (S) com os de comprimento mais longo (L/M) – a comparação entre estímulos de células com fotopigmentos L e M parece ser bem menos restritiva e plástica, envolvendo a reconfiguração das vias neuronais através da aprendizagem. Mais do que isso, existem indícios que mesmo esses circuitos mais plásticos sejam de fato não exclusivos para a comparação dos estímulos dos fotorreceptores L e M, mas sim co-optados de sistemas de visão espacial de alta-resolução, como os associados a comparação de bordas e limites. O mesmo tipo de sistema de comparação de estímulos entre células subjaz ambos os processos e não parece haver uma separação clara entre este tipo de circuito de visão espacial do de comparação entre estímulos entre células estimuladas por comprimentos maiores de onda (L/M):

“John Mollon, da Universidade de Cambridge aponta que, em primatas a visão espacial de alta resolução é mediada pelos cones sensíveis a comprimento de onda maior e envolve o mesmo tipo de processamento neural que a visão de cores comprimento maior faz, isto é, uma comparação entre a excitação de um cone L ou M, com a excitação média de um grande número de seus vizinhos L e M. Nenhum circuito separado ainda foi encontrado para a visão de cor e comprimento de ondas maiores, e talvez nenhum seja necessário. Nessa visão, a visão de cores tricromática pode ser considerado um hobby do sistema de visão espacial preexistente.” [Jacobs GH, Nathans J., 2009]

         Caso isso esteja correto, a simples aquisição de um novo alelo por parte de uma fêmea heterozigota poderia ter sido suficiente para que ela ‘entrasse’ em um mundo cromático novo. Essa audaciosa hipótese pode ser parcialmente testada a partir da manipulação genética de genes de rodopsinas de comprimentos longos em animais com visão dicromática, como o camundongo, criando assim nova variação alélica e testando a capacidade de diferenciação de estímulos cromáticos em fêmeas portadoras dos dois alelos (equivalente aos loci L e M). Esse experimento foi feito e confirmou essa idéia básica.
 
O grupo de Nathans foi capaz de treinar camundongos fêmeas transgênicas portadoras de ambos os pigmentos M e L para discriminar entre painéis verde, amarelo, laranja e vermelho (com controle para a intensidade de luz para forçar) que, para camundongos normais  pareceriam, exatamente a mesma coisa. Junto com o novo pigmento L, estes animais, aparentemente, adquiriram uma nova dimensão de experiência sensorial. Como sugerem Nathans e Jacobs, aparentemente,  o cérebro dos mamíferos possui uma capacidade latente para extrair informações qualitativamente diferentes a partir de tipos novos de estímulos visuais.  Essa idéia é parcialmente apoiada pelo estudo de novos sistemas de interface cérebro-máquina e de próteses biônicas, especialmente neuro-próteses e pelas idéias de substituição sensorial e equivalência sensório-motora (veja por exemplo aqui).

As implicações desta descoberta são enormes, especialmente no que diz respeito a evolução dos sistemas sensoriais mais complexos de forma geral. Como afirmam Nathans e Jacobs, ela sugere que as alterações no “front end” do sistema – em que os genes para os receptores sensoriais – podem conduzir a evolução de todo o sistema, sendo acomodadas pela flexibilidade dos sistema nervoso. Assim, a plasticidade inerente aos sistemas neuronais e sensoriais complexos de animais consegue dar conta de novas dimensões de experiência sensorial.

Os experimentos com camundongos também sugerem que a primeira primata com dois pigmentos diferentes para comprimentos de onda maiores foi capaz de experienciar um mundo de cores que nenhum outro primata já havia visto antes.  Imaginar que um pequeno animal, uma fêmea heterozigota mutante mais especificamente, talvez a mais de 100 milhões de anos, ao se desenvolver tenha começado a entrar em um mundo novo de cores e que nenhum de seus ancestrais ou parentes tinha experienciado, é algo por si só belo. Esta criatura teve que contar com a plasticidade de seu cérebro e com sua capacidade de aprendizado e acomodação de novos estímulos para poder fazer sentido desta nova realidade.

Essa bela história é contada com muito mais propriedade e em maiores detalhes – inclusive muito com várias informações históricas e clínicas sobre daltonismo e as diversas alterações genéticas por trás desta condição – na palestra abaixo, ministrada pelo próprio Jeremy Nathans:

 

______________________________

Referência:

Jacobs, G., & Nathans, J. (2009). The Evolution of Primate Color Vision Scientific American, 300 (4), 56-63 DOI: 10.1038/scientificamerican0409-56

Referências Adicionais:

Auvray, M., & Myin, E. (2009). Perception with compensatory devices. From sensory substitution to sensorimotor extension. Cognitive Science, 33, 1036-1058.

Dominy NJ, & Lucas PW (2001). Ecological importance of trichromatic vision to primates. Nature, 410 (6826), 363-6 PMID: 11268211

Jacobs, G., Williams, G., Cahill, H., & Nathans, J. (2007). Emergence of Novel Color Vision in Mice Engineered to Express a Human Cone Photopigment Science, 315 (5819), 1723-1725 DOI: 10.1126/science.1138838

Jacobs GH, Neitz M, Deegan JF, Neitz J. Trichromatic colour vision in New World monkeys. Nature. 1996 Jul 11;382(6587):156-8. PubMed PMID: 8700203.
Jacobs GH. Evolution of colour vision in mammals. Philos Trans R Soc Lond B Biol Sci. 2009 Oct 12;364(1531):2957-67. Review. PubMed PMID: 19720656; PubMed Central PMCID: PMC2781854.

Lucas PW, Dominy NJ, Riba-Hernandez P, Stoner KE, Yamashita N, Loría-Calderón E, Petersen-Pereira W, Rojas-Durán Y, Salas-Pena R, Solis-Madrigal S, Osorio D, Darvell BW. Evolution and function of routine trichromatic vision in primates.Evolution. 2003 Nov;57(11):2636-43. PubMed PMID: 14686538.
Smallwood PM, Wang Y, Nathans J. Role of a locus control region in the mutually exclusive expression of human red and green cone pigment genes. Proc Natl Acad Sci U S A. 2002 Jan 22;99(2):1008-11. Epub 2002 Jan 2. PubMed PMID: 11773636; PubMed Central PMCID: PMC117421.

Créditos das figuras:

Jacobs GH, Nathans J. Sci Am. 2009 Apr;300(4):56-63.
NUCLEUS MEDICAL ART, VISUALS UNLIMITED /SCIENCE PHOTO LIBRARY
DR. FRED HOSSLER, VISUALS UNLIMITED /SCIENCE PHOTO LIBRARY
PATRICK LANDMANN / SCIENCE PHOTO LIBRARY
COLIN CUTHBERT / SCIENCE PHOTO LIBRARY
P. SOLE, ISM / SCIENCE PHOTO LIBRARY
DR MORLEY READ / SCIENCE PHOTO LIBRARY
BSIP VEM / SCIENCE PHOTO LIBRARY
http://commons.wikimedia.org/wiki/File:Phototransduction.png
http://commons.wikimedia.org/wiki/File:11-cis-Retinol.svg

http://commons.wikimedia.org/wiki/File:Monkeysdistributionmap.gif

Alinhamentos feitos utilizando-se o Clustal W [Thompson, J.D., Higgins, D.G. and Gibson, T.J. (1994) CLUSTAL W: improving the sensitivity of progressive multiple sequence alignment through sequence weighting, position specific gap penalties and weight matrix choice. Nucleic Acids Research, 22 4673-4680] implementado através do Jalview 2.4 [ Clamp, M., Cuff, J., Searle, S. M. and Barton, G. J. (2004), “The Jalview Java Alignment Editor”, Bioinformatics, 20, 426-7.]

Complexidade: Que raios é isso?

Anos atrás, quando eu era um jovem e esperançoso graduando em ciências biológicas, comecei a me interessar pela teoria do caos e por dinâmica não-linear.

 

O chamado caos determinístico, exemplificado pelo efeito borboleta, havia emergido duas ou três décadas antes a partir dos trabalhos de Edward Lorenz (com as simulações sistemas meteorológicos, altamente simplificados) e do estudo de sistemas dinâmicos em física, química e matemática, estimulado pela disponibilização de computadores cada vez mais potentes. Estes sistemas descritos por equações determinísticas possuíam uma diferença muito interessante em relação a outros sistemas descritos por equações integralizáveis, isto é, cujas equações poderiam ser resolvidas de forma analítica. As equações não-lineares típicas que descreviam sistemas caóticos precisavam ser iteradas utilizando-se de métodos numéricos, o que demandava muito processamento computacional. Estes sistemas quando observados de “longe” geravam resultados que pareciam completamente aleatórios mesmo que as equações de base, que os descreviam, fossem completamente determinísticas.

 

Estes sistemas exibiam um fenômeno conhecido como a hipersensibilidade às condições iniciais. Diferentemente dos sistemas deterministas tradicionais, cujas diferenças inicialmente introduzidas nos parâmetros se mantinham pequenas e próximas, ou de fenômenos que se distribuíam de forma aleatória em torno de uma média, os sistemas caóticos tendiam a amplificar diferenças ínfimas de forma exponencial. Portanto, o simples fato de rodar o mesmo programa iterando uma equação não-linear descrevendo um sistema caótico, mesmo de baixa dimensionalidade, com valores que divergiam apenas nas últimas casas decimais seria suficiente para arremessar estes sistemas em trajetórias divergentes. Estas trajetórias, também chamadas de atratores dinâmicos nos espaços de fase – uma espécie de representação multidimensional dos valores assumidos pelo sistema dinâmico – produziam belos gráficos de incrível intrincamento com padrões auto-semelhantes em diversas escalas de aproximação, possuindo uma dimensionalidade fracionária, ou seja fractal.

 

Nos anos setenta este tipo de dinâmica (já intuída há muito tempo nas obras do matemático Henry Poincaré) passou a ser investigada em diversos fenômenos naturais: turbulência, dinâmica de populações (principalmente as equações logísticas de Lotka-Voltera), gotejar de torneiras, batimentos cardíacos, atividade elétrica do cérebro, etc. Muitos fenômenos biológicos foram investigados a fundo e a teoria do caos parecia uma boa fonte de insights de fenômenos biológicos. Porém, ao mesmo tempo, o estudo de sistemas dinâmicos revelou também que estes mesmos sistemas não-lineares poderiam exibir dinâmicas periódicas, como comportamentos oscilatórios, que poderiam, através de processos de bifurcação, passar à regimes caóticos. Atratores menos estranhos, como os de ciclo-limite começaram a interessar muitos pesquisadores não só na biologia, mas também em áreas como a química (como no estudo de reações oscilantes, como as de Belousov–Zhabotinsky) e, principalmente, nas ciências da computação.

 

Os trabalhos do, na época, jovem biofísico e médico, Stewart Kauffman, no final dos anos 60, com as chamadas redes booleanas, ajudaram a dar origem a um campo das ciências da complexidade do qual a teoria do caos seria apenas uma classe de sistemas não lineares que exibiriam a dependência exagerada das condições iniciais e cuja trajetória evoluiria na forma de um atrator estranho, divergindo exponencialmente de sistemas que iniciam-se com valores de parâmetros apenas ligeiramente diferentes.

 

O primeiro livro que li sobre o assunto foi “Complexidade: A vida no limite do Caos”, escrito por Roger Lewin, um excelente jornalista científico e especialista em paleoantropologia. O livro consiste nas suas impressões sobre este novo campo e em entrevistas com alguns dos principais nomes da área que havia emergido a partir dos anos 60. Eu ainda me lembro da empolgação com este tipo de abordagem e como idéias, como emergência e auto-organização, passaram a ser incorporadas no vocabulário não técnico, até hoje sendo muito úteis para descrever algumas das propriedades que sistemas biológicos partilham com outros sistemas físicos e químicos e até com sistemas econômicos e sociais.

 

 

As promessas de revolução, ou uma nova compreensão da biologia, foram bastante exageradas e nenhuma abordagem unificada surgiu para esta questão. Mesmo assim, a incorporação dos vários métodos de análise e investigação de fenômenos não-lineares, principalmente a simulação e o uso intensivo de computadores, é uma realidade inescapável. Além disso, a compreensão de que certas mudanças qualitativas podem surgir de mudanças quantitativas e que regimes estáveis e multi-estáveis podem ser alcançados através dos tipos de interações não-lineares (envolvendo vários mecanismos como retroalimentação positiva ou negativa, limiares de ação, gradientes e outras formas de interação mais complicadas) tornaram-se partes integrantes do arsenal teórico e conceitual das ciências, e a biologia não é diferente do restos das ciências neste sentido.

 

Porém, um problema permanece:

 

O que é complexidade? Ao contrário do caos determinístico, sobre o qual tempos boas definições e métodos eficazes de diagnosticá-lo e defini-lo, a complexidade ainda é um conceito problemático. Um dos problemas é que muitos dos fenômenos, estudados pelas ciências da complexidade, são na realidade bastante simples. Sendo, de fato, seu comportamento (ou, melhor dizendo, o resultado de sua dinâmica) a coisa mais complicada sobre eles.

Muitos fenômenos de auto-organização, como os exemplificados pelas redes booleanas de Kauffman e as simulações de autômatos celulares são compostos de unidades muito simples que interagem através de regras também bastante simples. Então, ainda que este tipo de complexidade tenha uma forte relação com a complexidade, digamos, de uma célula eucarionte ou de um ecossistema, existem diferenças grandes entre estes dois exemplos e, por exemplo, o jogo da vida de Conway.

 

Nosso uso corriqueiro do termo ‘complexidade’ enfatiza a possibilidade de estabelecermos um hierarquia e uma gradação entre os diversos sistemas ou fenômenos que julgamos complexos. conceito de complexidade parece estar intimamente associado ao de emergência, que é o que daria sentido a idéia de “níveis integrados de organização“.

 

 

Pode ser difícil imaginar que o seu corpo é feito de prótons girando, nêutrons e elétrons, mas este é de fato o caso. É um pouco mais fácil, no entanto, imaginar formas de matéria em níveis que aumentam em complexidade. Por exemplo, as partículas subatômicas podem ser organizadas em átomos, que são os componentes das moléculas, e moléculas podem ser organizados em macromoléculas, como DNA e proteínas, que podem ser construídas em células. As células podem ser organizadas em tecidos, que formam órgãos e os órgãos podem ser agrupados em sistemas orgânicos, que são construídos em todo os organismos, incluindo seres humanos como você. Organismos são unidades que podem formar populações e, em seguida biosfera, que passam a fazer-se maiores níveis de complexidade. (Lobo, 2008)

 

 

Podemos encarar este conceito “níveis integrados de organização“, como o fato de a matéria está distribuída em camadas ordenadas de complexidade crescente e em que, a cada nível, existem propriedades emergentes, de forma que o nível superior não pode ser completamente reduzido ao nível
inferior. Assim, como defendia Novikoff (1945, citado por Lobo, 2008) quando as unidades de material biológico são colocadas juntas, aspropriedades do ‘material’ ou sistema biológico nem sempre são aditivas, ou seja, iguais à soma das propriedades dos componentes. Em vez disso, em cada nível, novas propriedades e regras que emergem não podem ser previstas pela mera observação das propriedades das partes nos níveis mais baixos da organização. Essas propriedades são chamadas de propriedades emergentes.

 

Esta concepção dá certo suporte a idéia intuitiva de que haja um certo aumento de complexidade nos diferentes níveis da organização biológica. Por exemplo, muitas pessoas concordariam que uma células eucarionte é mais complexa que uma célula procarionte e esta, por sua vez, é mais complexa que um vírus. De forma muito similar, poderíamos
dizer que um coanoflagelado é menos complexo que uma esponja, que é um
organismo multicelular. No entanto, comparações como estas, mesmo que intuitivamente aceitáveis, não são completamente
capturadas pelo seu conceitos e definições técnicas e rigorosas de complexidade, como as ligadas a dinâmica não-linear e aos chamados sistemas complexos. Servindo de alerta para o fato
do termo complexidade (como usado corriqueiramente na linguagem popular
ou mesmo em comparações dentro da biologia) não possuir uma métrica rigorosa.

 

 

O próprio uso deste termo, ‘complexidade’, quando comparamos animais e bactérias, ou seres humanos com outros animais, parece extremamente suspeito. Quando falamos de ‘complexidade’, podemos adotar muitos critérios de comparação diferentes e muitos deles são contaminados por conceitos tremendamente subjetivos e enganosos, como o de superioridade e de progressão linear em direção a um objetivo pré-determinado. Talvez seja este o ponto mais nevrálgico da questão. Nossa noção intuitiva de complexidade não parece ser suficiente rigorosa (e imune a nossos próprios preconceitos) para ser levada a sério. Ainda assim, é muito forte a sensação de que algumas coisas são mais complexas do que outras e alguns critérios de comparação, mesmo que não absolutamente válidos, podem ser mais apropriados do que outros.

 

Toda esta situação é ainda piorada por que os anti-evolucionistas sentem-se muito à vontade com o termo “complexidade”, fazendo deste um dos seus principais cavalos de batalha, conjuntamente com o abuso do termo ‘informação’ que, quase sempre, vem trazendo à reboque o, irritante e repetido ad nauseum, argumento da segunda lei da termodinâmica.

 

A estratégia anti-evolucionista envolve equiparar estes diversos termos, advogando que processos naturais não podem criar ou aumentar a complexidade ou a informação de um sistema, geralmente associando esta “constatação” como um corolário da segunda lei da termodinâmica. Para eles, apenas uma super-inteligência poderia ter feito tal façanha. Como esperado, as bases para tal julgamento não estão escoradas em definições rigorosas e nem apoiadas na matemática e estatística, ou mesmo nas ciências físicas, apesar de alusões em contrário e tentativas patéticas de estruturar argumentos de improbabilidade e de ignorância, usando pseudo-matemática.

 

A teoria da informação de Shannon, desenvolvida nos anos 40, é frequentemente trazida à tona nestas discussões, mesmo que ela não tenha nenhuma (ou apenas muito pouca) relação com os conceitos intuitivos de informação, que os anti-evolucionistas tem em mente.

Nossos conceitos intuitivos de informação são dependentes de considerações semânticas e pragmáticas, muito distantes da formulação rigorosa e completamente alheia ao conteúdo das mensagens enviadas entre um transmissor e um receptor através de um canal, que estão na base da teoria de Shannon (Veja Teoria da Informação de Shannon e a Biologia).

 

A teoria da informação é um ramo da matemática iniciado nos trabalhos de Claude Shannon na década de 1940. A teoria aborda alguns aspectos muito importantes da comunicação: “Como podemos definir e medir a informação?”, “É possível se comunicar de forma confiável a partir de um ponto a outro, se só temos um canal de comunicação ruidosos?”, “Como pode o conteúdo de informação de uma variável aleatória ser medido?” e “Qual é o máximo de informações que podem ser enviados através de um canal de comunicação?” (Capacidade do canal). (Mackay, 1995 & Schneider, 2010). Nesta teoria a informação é medida como a diminuição da incerteza de um receptor ou uma máquina molecular ao ir do estado “antes” para o estado “depois” (Schneider, 2010).

 

O mesmo acontece com o conceito de complexidade usado pelos criacionistas tradicionais (e adeptos do Design Inteligente) ao tentarem, às vezes, relacioná-lo com o conceito de complexidade algorítmica desenvolvido por Kolmogorov e Chaitin, mas que não tem nenhuma relação, clara, com ele. A complexidade algorítmica, como definida por Kolmogorov e Chaitin, envolve a capacidade de compressão da informação usando-se uma linguagem padronizada e bem definida.

 

Contra-intuitivamente, e certamente na direção contrária das intenções criacionistas, esta medida de complexidade atribui o maior valor à seqüências realmente aleatórias, cuja compressibilidade é mínima, em que, no limite de complexidade, o programa que tem que ser escrito, para codificar esta seqüencia, é tão grande quanto a própria seqüência. Mesmo que este limite teórico só valha para seqüências infinitamente longas (já que em seqüências aleatórias finitas, a posteriori, é muito provável que alguma redundância ou
repetição possa ser explorada na criação de um programa mais curto), ainda assim, as seqüências aleatórias seriam muito mais complexas do que seqüências cheias de padrões e ordenação do mesmo tamanho. É por isso que os poucos criacionistas que entendem um pouco mais de matemática e computação, ao usar este argumento, procuram ser o mais vagos possíveis em relação a sua definição, fazendo apenas alusões tangenciais e indiretas aos conceitos de complexidade realmente desenvolvidos por cientistas, já que estes não dão nenhum respaldo a visão simplista e prosaica dos criacionistas.

 

As tentativas dos criacionistas de usar o conceito de complexidade envolvem apenas criar limites arbitrários para a improbabilidade do surgimento de determinados sistemas. Estas tentativas baseiam-se na pressuposição que a formação destes sistemas tenha se dado a partir da agregação de seus componentes, assumindo-se uma distribuição uniforme, ou seja, equiprobabilidade dos eventos e interações. Esta pressuposição deixa de lado a história e o contexto particular de evolução, como as limitações físicas e químicas, a dinâmica ecológica e populacional específica do sistema e, principalmente, assumem sempre um desfecho único e pré-determinado, atrelado ao sistema uma função específica, desde o começo de sua origem e evolução. Algo impensado, em simulações sérias do processo evolutivo. Portanto, o que os criacionistas fazem é argumentar contra um espantalho pré-Darwiniano e travesti-lo com cálculos probabilísticos sem sentido.

 

Parece existir um certo consenso, entretanto, que nenhuma das medidas de complexidade tradicionais capturam nossas intuições sobre a complexidade. Esta seria a primeira pista de que, talvez, nossas visões sobre complexidade, sobretudo quando atreladas a idéia de progresso, sejam, de fato, apenas preconceitos ou, na melhor das hipóteses, apenas medidas parciais e tremendamente contexto-dependentes, com aplicações científicas em biologia computacional e evolução bem específicas.

 

 

Apesar da importância e ubiqüidade do conceito de complexidade na ciência moderna e na sociedade, nenhum meio geral, e amplamente aceito, de medir a complexidade de um objeto físico, um sistema, ou processo existe atualmente. A falta de qualquer medida de caráter geral pode refletir o estágio inicial de nossa compreensão dos sistemas complexos, que ainda carece de um quadro geral unificado que atravesse todas as ciências naturais e sociais. Enquanto uma medida geral manteve-se elusiva, até agora, há um amplo espectro de medidas de complexidade que se aplicam a tipos específicos de sistemas ou domínios de problemas. A justificativa para cada uma destas medidas, muitas vezes recai sobre sua capacidade de produzir valores intuitivamente corretos nos extremos do espectro de complexidade. Apesar das abordagens heterogêneas tomadas para definir e medir a complexidade, a crença que persiste há propriedades comuns a todos os sistemas complexos e novas propostas estão sendo continuamente produzidas e testadas por uma comunidade interdisciplinar de físicos, biólogos, matemáticos, cientistas da computação, economistas e teóricos sociais.” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )

 

Esta idéia parece ser apoiada em outro consenso entre os teóricos da informação e estudiosos do sistemas complexos. Caso exista um sentido real em que os sistemas biológicos apresentam uma hierarquia de complexidade, qualquer medida desta quantidade deverá seguir um “modelo de uma corcova”. Isto é, a partir de um contínuo de organização, indo da máxima aleatoriedade, em um extremo, até a ordem total em outro, a complexidade máxima de sistemas dinâmicos (inclusive sistemas biológicos) estaria entre os dois extremos. Em artigo da Scholarpedia, Complexidade é definida como:

 

“A complexidade de um sistema físico, ou de um processo dinâmico, expressa o grau em que os componentes estão envolvidos em interações
organizadas estruturadas. Alta complexidade é alcançada em sistemas que apresentam uma mistura de ordem e desordem (aleatoriedade e regularidade) e que tem uma alta capacidade de gerar fenômenos emergentes.”
(Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )

 

Este é outro golpe nos criacionistas que buscam estabelecer limites para evolução da complexidade a partir da mera suposição da improbabilidade de determinados eventos ou configurações.

 

Esta constatação, entretanto, torna a busca por uma métrica para a complexidade, aplicável aos sistemas biológicos (especialmente, à evolução biológica), muito mais complicada e dependente das circunstâncias de cada sistema. Muitos teóricos, como o paleontologista Dan McShea, sugerem que não existe uma única forma de complexidade, mas, sim, várias. Em alguns casos o aumento de uma destas formas de complexidade envolveria a diminuição de outra e estas medidas poderiam se referir a níveis hierárquicos diferentes, indicando um possível papel heurístico para este conceito, de ordem epistemológica, sugerindo que talvez a complexidade não seja uma categoria ontológica intrínseca à natureza.

 

Como tal, fica fácil de perceber por que que existe um contínuo debate sobre, se existe ou não, uma tendência em relação ao aumento de complexidade durante a evolução. Este debate é em parte motivado
pela percepção comum de que, ao comprarmos os estratos fossilíferos mais antigos com os mais novos, encontramos a princípio apenas seres unicelulares e, gradativamente, ao subirmos a coluna geológica, vamos observando a diversificação destes seres e aparecimento de eucariontes unicelulares e procariontes coloniais, passando por ‘esboços’ de pluricelularidade até multicelularidade verdadeira, representada por plantas e metazoários. Porém, por falta de uma definição precisa e independente do contexto, de complexidade biológica que não simplesmente exteriorize nossos preconceitos zoocentristas, torna-se difícil de avaliar. Mesmo por que durante este processo vemos a continuidade dos unicelulares procariontes e eucariontes, bem como nos multicelulares episódios de simplificação morfológica e perda de estruturas associadas a especialização ecológica, especialmente simbiose e parasitismo. O que torna a análise de tendências muito mais complicadas, pois além de uma medida precisa, precisamos saber se este aumento está nas médias, na variância, nos mínimo, ou nos máximos destas medidas.

 

Deixando estas considerações um pouco de lado, uma forma simples de quantificar a complexidade da estrutura de sistemas seria contar o número de componentes e/ou interações dentro deste sistema.

Medidas de complexidade deste tipo são aplicáveis a estruturas biológicas, além seus padrões de diversificação ou redução ao longo da evolução. Neste sentido a complexidade estaria relacionada a uma mereologia, ou seja, ao estudo das relações entre parte e o todo composto por elas. Este tipo de medida é particularmente indicado para características morfológicas. O exame detalhado do número de partes estruturais (McShea, 1996) e os comportamentos funcionais dos organismos durante a evolução mostram que um aumento destas medidas ao longo do tempo. Porém, ainda não está claro quais são os mecanismos estariam por trás deste processo. McShea é um dos que propõe investigar a complexidade relacionando-a ao aumento do número e diferenciação das partes, desacoplando-a da função (o máximo possível) já que a adequação funcional de um sistema biológico ao seu meio e contexto ecológico já é muito bem explicada pela seleção natural.

 

Além de tudo, isso é preciso diferenciarmos dois grandes conjuntos de tendências em relação ao aumento da complexidade, as tendências passivas e as ativas. As primeiras estando associadas a processos análogos ao passeio aleatório restringido por uma limite mínimo, ou uma parede de complexidade mínima, como a unicelularidade, por exemplo. O segundo grupo de tendências pode ser ativamente causado por processos internos e externos, como a seleção natural ou algum processo dinâmico interno. Mcshea, porém, ao analisar certas medidas de complexidade ao longo da escala geológica, comparando os fósseis de descendentes a ascendentes, em determinadas linhagens, em pontos distantes das origens dos grupos em questão, evitando assim a barreira de complexidade mínima, encontra evidências que pressupões outros mecanismos.

 

Outros fatores evolutivos como a seleção natural, em determinados contextos co-evolutivos, como os associados a “corridas armamentistas” (o chamado efeito da rainha vermelha), poderiam ser as “forças” por trás destes processos. Mcshea, então, propõe analisar as supostas tendências em termos de aumento da complexidade estrutural, como medida pela variação estrutural das partes. Seu principal candidato para ser responsável por uma tendência ativa que ele chama princípio de variância interna. Mais recentemente o próprio Dan McShea e o filósofo Robert Brandon propuseram que são os processos estocásticos, como a deriva genética aleatória da genética evolutiva de populações, os principais responsáveis pelo aumento de complexidade, sendo a seleção natural uma força conservadora.

 

Porém:

 

No entanto, a mera “numerosidade” sozinha pode ser um mero indicativo da “complicação” de um sistema, mas não necessariamente de sua “complexidade”.(Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )”

 

Este tipo de medida, apóia-se na visão, já comentada, de que sistemas complexos são mais heterogêneos, portanto, menos regulares, do que os não complexos. Nesta visão, a complexidade seria uma característica estrutural, em princípio dissociada, da organização, está última associada ao arranjo dos componentes em relação a função desempenhada pelo sistema. Esta forma de encarar a complexidade tem como vantagem permitir produzir avaliações e medidas que não levem em conta, necessariamente, as funções de um dado sistema. No caso de sistemas biológicos é possível que a complexidade esteja associada a organização funcional, já que sistemas estruturalmente mais complexos precisariam de maior organização funcional já que seria composto de mais partes diferentes e arranjadas de forma menos regular.

 

Estas hipóteses mostram como as noções de complexidade e as medidas associadas a elas, quando levadas a cabo de forma mais sistemática (com suas conseqüências levadas a suas conclusões mais lógicas), escapam, e muito, de noções como ‘progresso’ e ‘melhoria’. Nossos preconceitos pessoais e sociais turvam nossa visão e dificultam nossas tentativas de investigar a natureza dos sistemas vivos, do processo evolutivo e de seus padrões fixados no tempo geológico.

 

Somos, então, deixados com outra questão: Quais as relações destas medidas (se é que elas estão relacionadas) com outras formas de medição de complexidade mais rigorosas?

 

Nesta altura, não escaparemos de analisar, mesmo que de uma distância segura e pouco técnica, as teorias de complexidade computacional e de transmissão de informação, usadas nas ciências exatas e,cada vez mais, na biologia.

 

O conteúdo algorítmico de informação (AIC, Algorithm Information Content), como definido por Kolmorgorov e Chaitin (referências), é a quantidade de informação contida em um seqüência de símbolos. Esta medida é dada pelo comprimento do menor programa de computador que gera a seqüencia (“string”). Assim, seqüencias muito regulares, periódicas ou monotônicas podem ser geradas por programas curtos e, portanto, contêm poucas informações, enquanto seqüências aleatórias precisam de um programa que seja tão grande como a seqüência em si, o que resulta em conteúdo de informação alto (máxima). Portanto, o conteúdo algorítmico da informação captura a quantidade de aleatoriedade em cadeias de símbolos. Como podemos perceber facilmente esta medida parece pouco adequada para aplicações em sistemas biológicos, além disso, tem a propriedade inconveniente de sere não-computável (Spons, 2007).

 

Entretanto, existem várias medidas derivadas desta noção (nenhuma delas propostas por teóricos do DI) que usam a AIC como base e tentam adequá-la aos propósitos da análise de sistemas biológicos e sua evolução. Uma delas é “complexidade efetiva”, proposta pelo físico Gell-Mann (1995), e mede o comprimento mínimo de uma descrição das regularidades de um sistema, buscando, no entanto, distinguir as características regulares das aleatórias ou acidentais dos sistemas, portanto, aproximam-se das das medidas de complexidade que visam capturar o quanto estruturado é um sistema. Infelizmente, a separação das características regulares das aleatórias pode ser uma tarefa bem difícil sistema real, dependendo de critérios fornecidos por um observador externo.

 

Complexidade Estatística proposta por Jim Crutchfield e Young (1989) faz parte de um quadro mais amplo de uma teoria que os autores chamam de “mecânica computacional”. Esta medida é calculada diretamente a partir de dados empíricos, através do mapeamento de cada ponto da série temporal para um símbolo correspondente de acordo com algum esquema de particionamento, de modo que os dados tornem-se um fluxo de símbolos consecutivos.

“As seqüências de símbolos são então agrupadas em estados causais de acordo com a seguinte regra: duas seqüencias de símbolos (ou seja, histórias da dinâmica) estão contidos no estado mesmo causal se a probabilidade condicional de qualquer símbolo futuro é idêntica para as duas histórias. Em outras palavras, duas seqüências de símbolos são
consideradas como as mesmas se, em média, eles prevêem a mesma distribuição da dinâmica futura. Uma vez que estes estados causais foram
identificados, as probabilidades de transição entre os estados de causalidade pode ser extraído a partir dos dados, e a distribuição de probabilidade a longo prazo de todos os estados causais pode ser calculada. A complexidade estatística é definida como a entropia de Shannon dessa distribuição sobre estados causais. A complexidade estatística pode ser calculada analiticamente para sistemas abstratos, como o mapa logístico, autômatos celulares e muitos processos básicos Markovianos, e métodos computacionais para a construção adequada de estados causais em sistemas reais, enquanto a tributação, existem e têm sido aplicados em uma variedade de contextos. ”
(Olaf Sporns (2007),
Complexity Scholarpedia, 2(10):1623. )

 

A “complexidade física”, proposta pelo também físico Christoph Adami é outra medida relacionada com a complexidade efetiva, destinando-se a estimar a complexidade de qualquer seqüência de símbolos que seja sobre qualquer aspecto particular do mundo físico ou ambiente. Tornando-se, assim, uma medida particularmente útil para ser aplicada a sistemas biológicos.

 

Esta medida é definida como a complexidade de Kolmogorov (AIC) compartilhada entre uma seqüência de símbolos (como um genoma) e uma descrição do ambiente em que essa seqüência tem um significado (como um nicho ecológico). Como a complexidade de Kolmogorov não é computável, também não o é a complexidade física. Contudo, estas estimativas, ao invés de analisarem a probabilidade de um símbolo em uma seqüencia referente ao próximo símbolo na seqüencia, envolve a investigação de relações horizontais entre seqüencias de símbolos equivalentes em uma população, como um mesmo gene ou segmento genômico em diversos indivíduos da mesma população em um dado ambiente. Assim, a complexidade física média de um conjunto de seqüências (por exemplo, o conjunto de genomas de uma população inteira de organismos) pode ser aproximada pela informação mútua entre os conjuntos de seqüências (genomas) e seu meio ambiente (ecologia). Experimentos conduzidos em “ecologia digital” (Adami, 2002) demonstraram que a informação mútua entre os genomas auto-replicantes e seu meio ambiente aumentou ao longo do tempo evolutivo. Complexidade física também tem sido utilizado para estimar a complexidade de biomoléculas. A complexidade estrutural e funcional de um conjunto de moléculas de RNA mostraram positivamente correlacionada com a complexidade física (Carothers et al., 2004), indicando uma possível relação entre a capacidade funcional de estruturas moleculares e evoluiu a quantidade de informação que
eles codificam.

 

 

Sistemas grandes e altamente acoplados e podem não ser mais complexos do que aqueles que são menores e menos acoplado. Por exemplo, um sistema muito grande que está totalmente ligado pode ser descrito de forma compacta e tendem a gerar um comportamento uniforme, enquanto a descrição de um sistema menor, mas mais heterogêneo pode ser menos compressível e seu comportamento pode ser mais diferenciada. ” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )

 

Complexidade física (Adami e Cerf, 2000) está relacionada com a ‘complexidade eficaz’, de Gell-Mann, e destina-se a estimar a complexidade de qualquer seqüência de símbolos que seja sobre um mundo físico ou ambiente. Como tal, a medida é particularmente útil quando aplicada a sistemas biológicos. Esta medida é definida como a complexidade de Kolmogorov (AIC), que é compartilhada entre uma seqüência de símbolos (como um genoma) e uma descrição do ambiente em que essa seqüência tem um significado (como um nicho ecológico). Como a complexidade de Kolmogorov não é computável, não é a complexidade física. Contudo, a complexidade média física de um conjunto de seqüências (por exemplo, o conjunto de genomas de uma população inteira de organismos) podem ser aproximadas pela informação mútua entre os conjuntos de seqüências (genomas) e seu meio ambiente (ecologia). Experimentos conduzidos em uma ecologia digital (Adami, 2002) demonstraram que a informação mútua entre os genomas de auto-replicação e seu meio ambiente aumentou ao longo do tempo evolutivo. Complexidade física também tem sido utilizado para estimar a complexidade de biomoléculas. A complexidade estrutural e funcional de um conjunto de moléculas de RNA mostrou-se positivamente correlacionada com a complexidade física (Carothers et al., 2004), indicando uma possível relação entre a capacidade funcional de estruturas moleculares e evoluiu a quantidade de informação que eles codificam.

 

 

Informação, biologia e evolução

A teoria da informação de Shannon e a Biologia:

Informação, este talvez seja um dos termos mais usados nas últimas décadas e uma constante em nossas vidas agitadas com demandas profissionais e acadêmicas crescentes, quase soterradas pelo mar de conteúdo que é a internet. Informação também é um dos termos mais mal compreendidos e distorcidos apesar de seu apelo intuitivo óbvio. Em artigos anteriores, abordei um dos argumentos mais conhecidos dos criacionistas, o de que não existem evidências para, ou mecanismos naturais que possibilitem, o aumento da “informação genética” (ou biológica) nos seres vivos ao longo da evolução (veja a parte 1 e parte 2). Este é um dos argumentos mais infelizes já propostos, principalmente, por que confunde diversas questões diferentes e usa dois pesos e duas medidas. O primeiro problema é que seus proponentes utilização o termo “informação” de forma metafórica (sem reconhecer este fato), mas tratam-no como se fosse algo definido rigorosamente, às vezes mesmo, invocando sua utilização nas ciências exatas, especialmente no estudo de sistemas de comunicação e de transmissão de dados e na computação.

Aquilo que poderíamos chamar de “informação genética“, em um sentido menos técnico, pode ser facilmente aumentada por uma série de tipos de mutações, baseados em processos e mecanismos mutacionais bem conhecidos, associados a modificação funcional posterior destas seqüencias por mutações adicionais. Dentre os vários mecanismos estudados, a duplicação gênica (através do “deslise da DNA polimerase” e/ou crossing over desigual) se destaca, uma vez que, a partir da duplicação de um gene, uma das cópias estará livre para se modificar, sem prejuízo da função original; ou ambas as cópias podem se modificar de forma compensatória e mutuamente dependente.

A divergência entre as seqüencias duplicadas e a adoção posterior de papéis diferentes ou complementares pelas mesmas são, inegavelmente, fontes de aumento de informação. Mais especificamente, vários modelos para o aumento, complexificação e “embelezamento” genômico (para usar o termo de Michael Lynch) têm sido propostos utilizando-se de modelos matemáticos muito robustos, simulações computacionais extensas, enorme compilação de dados genômicos comparativos. Tudo isso usando a boa e velha genética de populações e informações demográficas das populações de animais modelos e de espécies selvagens. Michael Lynch oferece uma magnífica demonstração de uma destas abordagem que basicamente funciona como um modelo neutro para a evolução genômica (Lynch, 2007). [Veja o post Além da seleção natural … sobre o trabalho de Lynch e assuntos relacionados.] Este modelo foi recentemente comentado e tratado a partir de uma perspectiva um pouco mais ampla por Eugene Koonin (Veja Kooning, 2009 e veja figura ao lado). Processos estocásticos, como a deriva genética, associados a uma menor eficiência da seleção natural, por causa da diminuição dos tamanhos efetivos das populações – durante a evolução de procariontes para eucariontes, mas principalmente de eucariontes unicelulares para eucariontes multicelulares – criam condições apropriadas para o aumento do tamanho genômico, complexificação da estrutura dos genes (aquisição de regiões UTR, promotores e de introns e exons) e dos circuitos genéticos, como um todo. Modelos baseados em seleção natural, portanto, que enfatizam a importância de fatores adaptativos também têm sido propostos e ativamente investigados.

De forma complementar, como abordado em outro conjunto de dois artigos (aqui e aqui), sobre a Evo-Devo, os mecanismos bioquímicos, biofísicos e celulares e teciduais da [auto]construção dos fenótipos têm sido esclarecidos, sendo ligados a organização em rede dos circuitos genético-desenvolvimentais e às forças físicas e processos químicos ‘genéricos’ envolvidos nas interações celulares e teciduais. Por tudo isso, temos uma compreensão cada vez melhor de como a “informação” aumentou nos seres vivos, especialmente em seus genomas, por isso as reclamações dos criacionistas e antievolucionistas de plantão simplesmente não procedem.

Estas considerações, entretanto, lidam apenas com a versão semanticamente orientada (veja mais sobre isso na seção “O que é informação?“) do conceito de informação, aquela mais comumente adotada em biologia e menos rigorosa doponto de vista teórico e matemático. Entretanto, como o antigo deus do panteão Romano, Jano, a “informação” também é uma senhora de duas caras. Sem demerito algum para seus dois significados.

O segundo tipo de utilização do termo “infomação”, porém, também é frequentemente distorcido e alardeado por criacionistas, principalmente os da estirpe do Design Inteligente. Aliás, um dos principais defensores desta abordagem pseudocientífica, o matemático e teólogo William Dembski, do Discovery Institute, foi chamado por seus asseclas alguns de “o Isaac Newton da teoria da informação“, mostrando que é de exageros e hipérboles que vive o movimento criacionista. Porém, mesmo caso nos voltemos para definições um pouco mais técnicas de
informação – por exemplo, ao associarmos esta grandeza a nossa capacidade de representação ou armazenamento em bits (veja mais sobre isso adiante) – as objeções criacionistas não procedem, pelo simples fato de que muitas mutações, como as que envolvem a inserção de nucleotídeos no genoma (e mais ainda as duplicações gênicas e genômicas), aumentariam o número de bits necessários para codificá-los. Assim, a idéia de que mutações apenas poderiam diminuir ou deteriorar a informação genética é tola e sem sentido. Veja por exemplo o verbete da skepticwiki, Mutations_and_Information.

As versões mais formais e técnicas do conceito de informação são também vitimas dos usos e abusos dos criacionistas que até hoje não foram capazes de dar contribuições reais ao campo, muito menos foram capazes de produzir aplicações da teoria da informação relevantes na biologia. Muito pelo contrário, o obscurantismo típico deste movimento desvia a atenção dos trabalhos científicos sérios (teóricos e empíricos) utilizando-se da teoria da informação aplicada à sistemas biológicos e mesmo á evolução destes sistemas. Mesmo aqui, são os biólogos teóricos e computacionais, ao aliarem-se a matemáticos, físicos e cientistas da computação, seguindo uma abordagem evolucionistas, que têm dado grandes contribuições à área.

Neste ponto é fundamental que compreendamos que, mesmo neste sentido mais técnico, o aumento do conteúdo informacional em sistemas biológicos é um fato, embora aqui o contexto e a precisão das definições de “informação” e os limites de aplicabilidade deste conceito precisam ser encarados com cuidado e compreendidos se quisermos utilizá-los na investigação científica.

O que é informação?

A informação é originada de “diferenças” em alguma quantidade física que pode ser analisada em seu nível sintático dos dados físicos. (Fabris, 2009)

De acordo com Fabris (2009), os dados são objetos abstratos representados em um algum tipo de suporte físico, de acordo com alguma convenção que permita de forma inequívoca distinguir os símbolos, uns dos outros, de algum alfabeto em particular. No entanto, podemos analisar a informação também em seu nível semântico de significado. Podemos dizer também que, embora a informação sintática encontre-se no nível físico dos dados brutos, seu corolário semântico refere-se a objetos além da mensagem, como suas relações lógicas, seu contexto, que é, aquilo, que chamamos de “significado” (Fabris, 2009).

Normalmente, quando nos referimos a “informação”, em nosso dia a dia, pensamos, na verdade, naquilo que poderíamos chamar de “informação semântica”, deixando de lado o nível puramente sintático do qual as terias matemáticas e computacionais lidam. Essa dupla face da informação, que parecem habitar dois planos diferentes que simplesmente não se intersectam, talvez seja a principal causa de confusão quando falamos de informação “biológica”. Nesta situação, não é completamente claro se estamos considerando apenas os dados crus (como coloca Fabris, 2009), ou se estamos atribuindo um significado biológico semântico mais específico a esses dados (Fabris, 2009). Esta confusão terminológica cai facilmente nas mãos dos criacionistas tradicionais e, mas recentemente, aos criacionistas do Design Inteligente. Porém frisar as diferenças é essencial para que tenhamos uma compreensão clara do que estamos discutindo:

“Como tal, torna-se óbvio que a informação semântica necessária necessita da aquisição de dados sintáticos e o significado só pode ser compreendido por um sistema que é capaz de acumular informação sintática, juntamente com todas as relações associadas a estas partes da informação, constituindo o que chamamos de conhecimento; a estratificação do conhecimento pode ser chamada experiência, e entender um significado subentende a capacidade de trazer de volta dados de uma experiência anterior vivida no passado. Como conseqüência, podemos dizer que “sintaxe”está “dentro” de dados, enquanto a “semântica” está “dentro” do contexto. Além disso, enquanto a informação sintática é objetiva (depende dos dados brutos), a informação semântica é (inter)subjetiva, pois depende da experiência compartilhada pelos sistemas que geram informações” (Fabris, 2009).

A partir daí, é compreensível como, no início da revolução molecular – logo que o primeiro seqüenciamento de DNA foi realizado – fosse natural indagar qual seria o “conteúdo da informação” do DNA, uma conseqüência natural da estrita analogia entre o fluxo de informação delineado pelo Dogma Central da Biologia Molecular, e o fluxo de informações através de um sistema de comunicação, como modelado por Shannon. Este foi também o ponto de partida para a utilização sistemática de ferramentas orientadas pela Teoria da Informação para descobrir muita coisa interessante do ponto de vista biológico (Segal, 2003; Fabris, 2009). Na realidade, a idéia de um “código genético”, experimentalmente demonstrada deste os anos 60, só reforçava esta visão. A biologia molecular, desde então, foi inundada pelo jargão informacional.

O Dogma Central da Biologia Molecular é o ápice deste linguajar já que se propõe a descrever o fluxo de “informação biológica”, que iria do DNA em direção às proteínas, no sentido de que o DNA, passando pelo RNA, através dos processos de transcrição e tradução, impulsionando a síntese das proteínas, carregaria, assim, a informação hereditária do genótipo para o fenótipo.

Então, ao analisarmos a questão por esta perspectiva, uma analogia óbvia se segue: o fluxo de informação que, começa a partir do DNA e atinge as proteínas, que flui através dos sistemas biológicos de comunicação (descritos pelo Dogma Central), é análogo ao fluxo de informaçãos que tem início a partir da “fonte” e que atinge o “receptor” (no outro lado do canal) como acontece nos sistemas de comunicação descrito por Shannon (Fabris, 2009).

“Nessa metáfora o DNA, que é uma seqüência de nucleotídeos chamados adenina, timina, citosina e guanina (A, T, C, G), é interpretado como uma seqüência baseada em um alfabeto de 4 letras, enquanto que uma proteína, que é um seqüência baseada em 20 aminoácidos (metionina, serina, treonina etc.), é interpretada como uma seqüência do alfabeto de 20 letras.” (Fabris, 2009)

Como sugere Fabris (2009), esta abordagem abre a possibilidade de que a Teoria da Informação (TI) seja usada na construção de um modelo transmissão de informação biológica e de sua correção. Porém, existem certos problemas com esta idéia. O primeiro deles está nos vários sentidos em que a palavra “informação” é usada tanto na nossa linguagem coloquial, quando no jorgão científico. Há diferenças no uso deste termo, em seu sentido técnico-matemático empregado pelos físicos, matemáticos, cientistas da computação e engenheiros, de um lado, e a forma mais heurística empregada por biólogos e outros biocientistas, de outro lado. Neste segundo caso, é o papel analógico do termo “informação” que é mais forte (assim como a referência ao “conteúdo semântico” informacional dos sistemas biológicos, mas próximo a linguagem coloquial).

A figura acima ilustra como a teoria da informação pode ser associada com o “fluxo de informação molecular ” dentro da célula. Como explica o filósofo Paul E. Griffths, a informação flui através de um canal interligando dois sistemas, uma fonte que contém a informação e um receptor, que seria o sistema sobre o qual a informação diz respeito. Existe um canal entre dois sistemas quando o estado de um está causalmente ligado, de forma sistemática, ao estado do outro, de modo que o estado da fonte pode ser descoberto através da observação do estado do receptor. O conteúdo informacional causal de um sinal é simplesmente o estado de coisas correlacionadas de forma confiável com a outra extremidade do canal. Assim, “o fumo traz informações sobre fenótipos de fogo e doenças levar informações sobre os genes da doença.” (Griffiths, 2001)

 

Enquanto esta relação pode ser facilmente aplicada ao DNA codificante e aos biopolímeros, RNAs e proteínas (transcritos e traduzidos durante o processo de leitura destes genes) e, portanto, pode ser defendida como não-problemática (dando, assim, um sentido mais claro a idéia de informação genética, neste contexto limitado), o mesmo não pode ser dito para as relações entre os genes e o desenvolvimento, no qual a própria idéia de um programa ou de uma relação causal direta, torna-se cada vez mais difícil de defender, a não ser como uma metáfora, útil em determinadas situações, mas problemática em outras. Aqui o discurso de informação genética perde o seu rigor potencial e não é mais capaz de resistir àquilo que Griffiths chama de tese de paridade, que basicamente considera que diversos outros “recursos” da matriz desenvolvimental, que incluem o ambiente, padrões de metilação e condensação da cromatina, etc podem também ser fontes de informação tirando qualquer exclusividade dos genes, entendidos como seqüências de DNA codificadoras de biopolímeros. (Griffiths, 2001).

 

Seguindo a análise de Godfrey-Smith (2007), o ponto importante é que quando um biólogo usa o conceito de informação neste sentido mais estrito (causal, correlacional, sintático) como uma descrição da ação de genes ou de outros processos, em um dado contexto, ele ou ela não está introduzindo um novo tipo de relação especial ou propriedade, como tentam fazer crer os criacionistas ao usarem suas versões superficiais e mistificadas de informação. Este tipo de uso, empregado por biocientistas, consiste apenas na adoção de uma abordagem quantitativa particular para descrever as correlações normais ou conexões causais entre certos sistemas biológicos.

 

Tendo isso em mente, torna-se claro que a aplicação do conceito de informação pode ir além da metáfora e da analogia, ao incorporar os métodos, idéias e ferramentas da TI para obter informações sobre as regularidades estatísticas dos dados obtidos a partir de seqüências biológicas de nucleotídeos ou aminoácidos. Estas aplicações existem e têm crescido cada vez mais, assim como tentativas mais ambiciosas de interpretar os sistemas biológicos, e sua “lógica” particular, usando a teoria da informação de Shannon e a teoria da informação algorítmica de Kolmogorv e Chaitin. Porém, as aplicações destes modelos teóricos em outras áreas como na biologia do desenvolvimento por exemplo, ainda são alvo de muitas críticas (veja Sarkar, 1996 e 1999; Griffths, 2001, Godfrey-Smith, 2007), diferentemente das abordagens que se concentram nas seqüencias e em seus produtos imediatos as proteínas, como a biologia e evolução molecular, que são cada vez mais valorizadas.

Esta aproximação entre as ciências exatas é mais notável em áreas híbridas como a biofísica, bioinformática (e biologia computacional) e na biomatemática, todas áreas com interfaces com a biologia molecular e com a biologia evolutiva.

A teoria da informação de Shannon:

Antes de adentrarmos neste ramo da matemática que eu mesmo conheço pouco (mas que serei assistido por ótimos tutoriais e fontes bibliográficas, especialmente as disponibilizadas pelo grupo do biólogo teórico Thomas D. Schneider no site de seu laboratório do NCI (National Cancer Institute), é preciso contextualizar um pouco a história e conhecermos os interesses desta figura lendária nas ciências, chamada de Claude Shannon.

Shannon, na época trabalhando nos laboratórios Bell (na época uma divisão da “Telephone and Telegraph Company”, AT&T), objetivava responder a seguinte questão:

“O que a ATT&T vendia exatamente?”

ou de um jeito mais técnico

“Como a informação pode ser definida com precisão?”

A teoria da Informação e Shannon:

“A informação é medida como a diminuição da incerteza de um receptor (ou uma máquina molecular) ao ir do estado “antes” para o estado “depois”. “ (Schneider, 2010)


A teoria da informação é um ramo da matemática iniciado nos trabalhos de
Claude Shannon na década de 1940. A teoria aborda alguns aspectos muito importantes da comunicação, tais como:

“Como podemos definir e medir a informação?”,

“É possível se comunicar de forma confiável a partir de um ponto a outro, se só temos um canal de comunicação ruidosos?”
(Schneider, 2010),

“Como pode o conteúdo de informação de uma variável aleatória ser medido?”
(Schneider, 2010)

e
“Qual é o máximo de informações que podem ser enviados através de um canal de comunicação?” (Capacidade do canal) (Schneider, 2010).

Shannon fez isso de uma forma muito rigorosa. Primeiro estabeleceu vários critérios uteis para que se pudesse definir “informação” de forma precisa, e, em seguida, mostrou que apenas uma fórmula satisfaria estes critérios. Esta resposta, imediatamente levantou outra questão:

“Quanta informação pode ser enviada como os equipamentos existentes, as nossas linhas de telefone?”

Shannon, então, desenvolveu a teoria da capacidade do canal para responder a esta questão (Schneider, 2006).

A capacidade do canal, C, é dada em bits por segundo e depende de apenas três fatores: a potência, P, do sinal no receptor, o ruído, N, perturbando o sinal do receptor, e a largura de banda, W, que é o intervalo de freqüências utilizadas na comunicação:

C = W log2((P/N) + 1) bits por segundo.

Então, caso se deseje transmitir alguma informação a uma taxa R (também em bits por segundo, b/s), um dos resultados demonstrados por Shannon é que quando a taxa excede a capacidade (R> C), a comunicação falhará e no máximo C b/s serão transmitidos. A analogia usada por Schneider (2006) é a seguinte:

“…colocar água através de um tubo. Existe um limite máximo para o quão rápido a água pode fluir, em algum momento, a resistência no tubo irá evitar novos aumentos ou o tubo irá estourar.”

Mas o resultado mais surpreendente ocorre quando a taxa, R, é menor ou igual à capacidade do canal (R ≤ C). Shannon provou matematicamente, que neste caso, é possível transmitir a informação com tão poucos erros quanto desejado [Schneider, 2006 ].

“O erro é o número de símbolos errados recebidos por segundo. A probabilidade de erros pode ser pequena, mas não pode ser eliminada. Shannon assinalou que a maneira de reduzir os erros é codificar as mensagens no transmissor/fonte para protegê-las contra o ruído e, em seguida, decodificá-las no receptor para remover o ruído. A clareza das telecomunicações modernas, CDs, MP3s, DVDs, sistemas sem fio, telefones celulares, etc, surgiu porque os engenheiros têm aprendido como fazer circuitos elétricos e programas de computador que fazem esta codificação e decodificação. Porque eles se aproximam do limite de Shannon, os códigos desenvolvidos recentemente prometem revolucionar as comunicações novamente fornecendo maior transmissão de dados através dos mesmos canais [10] [11].” [Schneider, 2006 ]

Informação e bits:

Um outro conceito inevitável quando passamos a adotar as definições mais rigorosas de informação é o conceito de “bit“. Suponha que você jogue uma moeda um milhão de vezes e anote a seqüência de resultados. Se você deseja comunicar essa seqüência para outra pessoa, quantos bits você iria precisar? Se for uma moeda justa, isto é não-viciada, os dois resultados possíveis, caras e coroas, ocorrem com igual probabilidade. Por isso, cada jogada requer 1 bit de informação para se transmitida. Para enviar toda a seqüência, é necessário um milhão de bits. Agora, imagine que esta moeda é viciada, assim, cada “cara” ocorre apenas uma em cada quatro vezes, e “coroas” o resto das vezes (3/4). Neste caso, em particular, 811,300 bits seriam suficientes para a mensagem pudesse ser enviada, o que parece implicar que cada face da moeda exige, para que possa ser transmitida, apenas, 0,8113 bits. Óbvio, você não pode transmitir um jogada de moeda com menos de um único bit, em um idioma só de “zeros” e “uns”. Não obstante, se o objetivo é transmitir uma seqüência de jogadas, e a distribuição destas jogadas é enviesada, de alguma forma, então, você pode usar seu conhecimento da distribuição probabilística em questão para selecionar uma forma de codificação mais eficiente (Touretzky,2004).

Em seu tutorial sobre a teoria da informação Touretzky (2004):

“Suponha que a moeda é fortemente tendenciosa, de modo que as probabilidades de conseguir cara é de apenas 1/1000 e coroa é 999/1000. Em um milhão de lançamentos desta moeda seria de se esperar ver apenas cerca de 1.000 caras. Ao invés de transmitir os resultados de cada lance, nós poderíamos apenas transmitir os números de arremessos que resultaram em caras, o resto dos lances poderia ser considerado como coroas. Cada lance tem uma posição na seqüência: um número entre 1 e 1000000. Um número nesse intervalo pode ser codificado usando apenas 20 bits. Então, se nós transmitimos 1.000 números de 20 bits, teremos todo o conteúdo original de informação da seqüência de um milhão de arremessos transmitidas, usando apenas cerca de 20.000 bits. (Algumas seqüências conterão mais de mil caras, e algumas menos, de modo que para ser perfeitamente correto, devemos dizer que esperaríamos necessitar de, em média, 20 mil bits para transmitir uma seqüência dessa maneira.)

Nós podemos fazer ainda melhor. Codificar as posições absolutas das caras na seqüência gasta 20 bits por cara, mas nos permite transmitir as caras em qualquer ordem. Se concordarmos em transmitir as caras de forma sistemática, percorrendo a seqüencia do início ao fim, então ao invés de codificar suas posições absolutas podemos apenas codificar a distância até o próxima “cara”, o que demandaria menos bits. Por exemplo, se os quatro primeiros cabeças ocorreram nas posições 502, 1609, 2454 e 2607, então a sua codificação, como distância para o próximo “cara”, seria 502, 1107, 845, 153. Em média, a distância entre duas “caras” será cerca de 1.000 arremessos, e só raramente a distância será superior a 4.000 jogadas. Números na faixa de 1 a 4000 pode ser codificado em 12 bits. (Nós podemos usar um truque especial para lidar com os casos raros em que as cabeças são mais de 4.000 aletas distante, mas não vamos entrar em detalhes aqui.) Assim, usando essas convenções de codificação mais sofisticadas, a seqüência de um milhão de lançamentos de moeda com cerca de 1.000 “caras” podem ser transmitidas com apenas 12 mil bits, em média. Assim, um único lance de moeda precisa de apenas 0,012 bits para ser transmitido. Mais uma vez, esta alegação só faz sentido porque na verdade estamos transmitindo toda uma seqüencia de jogadas. “ (Touretzky, 2004)


A partir desta explicação
Touretzky ( 2004) lança algumas questões:

“E caso inventássemos uma codificação mais inteligente?

Qual é o limite para eficiência de qualquer codificação?

O limite estaria por volta de 0,0114 bits por lançamento, então já estamos muito perto da codificação ideal.

O ponto central aqui, portanto, é que, o dito, conteúdo informacional de uma seqüência é definido como o número de bits necessários para transmitir essa seqüência usando algum tipo codificação ótima. Claro, sempre, é possível, entretanto, utilizarmos um código menos eficiente, o que exigirá mais bits. Porém isso não aumenta a quantidade de informação transmitida (Touretzky, 2004).

Informação e Incerteza:

Informação e incerteza são ambos termos técnicos que podem descrer qualquer processo que seleciona um ou mais objetos de um conjunto de objetos. Estas medidas não medem nada que lide com o significado ou outras características implicadas, às vezes, pelo termo “informação”, mesmo porque, até hoje, ninguém mostrou como fazê-lo matematicamente de forma efetiva. Seguindo um exemplo dado por Tom Schneider:

“Suponha que tenhamos um dispositivo que possa produzir três símbolos: A, B ou C. Enquanto esperamos o próximo símbolo, não temos certeza de qual o símbolo irá ser produzido. Uma vez que o símbolo aparece e o vemos, a nossa incerteza diminui, e que sinalizamos que recebemos alguma informação. Ou seja, a informação é a diminuição da incerteza. Como deve ser medida a incerteza? A maneira mais simples seria dizer que temos um grau de incerteza “de 3 de símbolos”. Isso funciona bem até que começamos a assistir a um segundo dispositivo, ao mesmo tempo que, imaginemos, produz símbolos 1 e 2. O segundo dispositivo nos dá um grau de incerteza “de dois símbolos”. Se combinarmos os dispositivos em um único dispositivo, existem seis possibilidades, A1, A2, B1, B2, C1, C2. Então, isso quer dizer que este dispositivo tem um grau de incerteza “de 6 de símbolos”. Aí, vemos o primeiro problema. Esta não é a maneira que nós geralmente pensamos sobre informação. Por exemplo, se recebemos dois livros, nós preferíamos dizer que recebemos duas vezes a informação de um único livro. Ou seja, gostaríamos que os nossos medida fosse aditiva. ”

Podemos, entretanto, tornar esta medida aditiva, ao usarmos o logaritmo do número de símbolos possíveis. Ao empregarmos este “truque” poderemos adicionar os logaritmos, ao invés de multiplicar os número de símbolos. Assim, voltando ao exemplo de Schneider, o primeiro dispositivo nos deixaria em um estado de incerteza equivalente ao log (3), o segundo ao log (2) e os dois dispositivo combinados: log (3) + log (2) = log (6). Então, como explica Schneider:

“A base do logaritmo determina as unidades. Quando usamos a base 2 as unidades estão em bits (base 10 nos dá digits, a dos logaritmos naturais, nos dá nats [14] ou nits [15]). Assim, se um dispositivo produz um símbolo, temos a certeza de log 2( 1 )= 0 bits, assim não temos incerteza sobre o que o dispositivo irá fazer em seguida. Se ela produz dois símbolos nossa incerteza seria log2 (2) = 1 bit. Ao ler um mRNA, caso o ribossomo encontre qualquer um das quatro bases igualmente prováveis, então a incerteza é de 2 bits.”

A fórmula para a incerteza, que é log2 (M), com M sendo o número de símbolos, pode ser estendida, de forma que ela possa lidar com casos em que os símbolos não são igualmente prováveis:

“Por exemplo, se existem 3 símbolos possível, mas um deles nunca aparece, então a nossa incerteza é 1 bit. Se o terceiro símbolo aparece raramente, em relação aos outros dois símbolos, a nossa incerteza deve ser um pouco maior do que 1 bit, mas não tão elevada como log2 3 bits.”

Reorganizando a fórmula temos:

de modo que P = 1/M é a probabilidade de que qualquer símbolo apareça.

Generalizamos isso para as várias probabilidades dos símbolos Pi, de modo que as probabilidades somem 1, no total, o que equivale ao 100%, no jargão popular:

[Lembre-se que o símbolo, SOMATÓRIO significa adicionar todos os Pi , para i começando em 1 e terminando em M.] A surpresa que temos quando vemos o iésimo tipo de símbolo foi chamada, “surprisal” por Tribus, e é definida por analogia com – log2 P para ser

Por exemplo, se Pi aproxima-se de 0, ficaríamos muito surpresos ao descobrir qual é o iésimo símbolo (pois este quase nunca deveria aparecer), então, pela fórmula, ui aproxima-se de ∞. Por outro lado, se Pi =1, então, não haveria surpresa alguma ao nos deparamos com o iésimo símbolo (pois este sempre deveria aparecer), ui = 0.

“Incerteza é o surprisal médio para a seqüência infinita de símbolos produzidas pelo nosso aparelho. Por ora, vamos, vamos encontrar a média para uma seqüência de símbolos de comprimento N, que tenha um alfabeto de M símbolos. Suponhamos que o tipo do iésimo símbolo apareça Ni vezes de modo que se somarmos através de toda a cadeia e juntarmos os símbolos, então isso é o mesmo que somarmos através dos símbolos: ”

Existirão Ni casos em que temos surprisal ui . O surprisal médio dos símbolos N é:

Substituindo N pelo denominador e trazendo-o para dentro do somatório de cima, obtemos:

Se fizermos esta medida para uma seqüência infinita de símbolos, então a freqüência Ni/N torna-se Pi, a probabilidade do iésimo símbolo. Fazendo essa substituição, vemos que o nosso surprisal médio (H) seria:

Finalmente, substituindo ui, obtemos a famosa fórmula geral de Shannon para a incerteza:

“Shannon chegou a esta fórmula por um caminho muito mais rigoroso do que nós, a partir da postulação de várias propriedades desejáveis para a incerteza, para, em seguida, derivar a função. Esperemos que o caminho que seguimos apenas lhe de uma sensação de como funciona a fórmula.” (Schneider, 2010)

Para ver como a função H parece, podemos traçá-la para o caso de dois símbolos:

A curva é simétrica, e atinge o máximo quando os dois símbolos são igualmente prováveis (probabilidade = 0.5). Cai a zero sempre que um dos símbolos torna-se dominante em detrimento dos outros símbolos. A entropia de Shannon (incerteza) pode ser interpretada como a medida média da informação (a-posteriori) fornecida pela fonte, ou a incerteza (a priori) média associada à saída da fonte.

Schneider propõe o seguinte exercício:

“Como um exercício instrutivo, suponha que todos os símbolos são igualmente prováveis. Ao que a fórmula para H (equação (8)) se reduz? Você pode querer experimentar por si mesmo antes de a ler. “
Igualmente provável significa que Pi = 1/M, por isso, se substituir isto na equação da incerteza temos:

Uma vez que M não é uma função de i, podemos retirá-lo do somatório:

é a exatamente a equação simples com a qual nós começamos. Pode ser mostrado que para um determinado número de símbolos (ou seja, quando M é fixo), que a incerteza H tem seu maior valor somente quando os símbolos são igualmente prováveis. Por exemplo, uma moeda imparcial é mais difícil de adivinhar os seus resultados do que uma moeda tendenciosa.

Aqui está um exemplo. Suponha que temos M = 4 símbolos:

Com probabilidades (Pi):

Estes possuem surprisals (-Log2Pi):

Então, a incerteza é

O que significa dizer que um sinal tem 1,75 bits por símbolo? Isso significa que podemos converter o sinal original em uma seqüência de 1’s e 0’s (dígitos binários), de modo que, em média, existem 1,75 dígitos binários para cada símbolo no sinal original. Alguns símbolos terão mais dígitos binários (os mais raros) e outros terão menos (os mais comum).

Ao re-codificar para que o número de dígitos binários seja igual ao surprisal:

Desta forma, a cadeia ACATGAAC cujas letras aparecem nas mesmas freqüências que as probabilidades definidas acima, passa ser codificada como 10110010001101 , onde 14 dígitos binários são utilizados para codificar oito símbolos, assim a média é de 14/8 = 1,75 dígitos binários por símbolo (Schneider, 2006 e 2010). Este é o chamado de “código de Fano”. Este tipo de código têm a propriedade que você pode decodificá-los sem a necessidade de que existam espaços entre os símbolos. Normalmente, é preciso saber o quadro de leitura, mas neste exemplo pode-se descobrir. Neste particular codificação (equações (16)), o primeiro dígito binário distingue entre o conjunto que contém A, (simbolizado por {A}) e o conjunto (C, G, T), que são igualmente prováveis já que 1/2 = 1/4 + 1/8 + 1/8. O segundo dígito,usado caso o primeiro dígito seja 0, distingue C de G, T. O dígito final distingue G de T. Como cada escolha é igualmente provável (no nosso definição original das probabilidades dos símbolos), cada dígito binário neste código carrega um bit de informação. Cuidado! Isso nem sempre será verdade. Um dígito binário pode fornecer um bit apenas se os dois conjuntos representados pelos dígito forem igualmente prováveis (como ajustado para este exemplo). Se eles não têm a mesma probabilidade, um dígito binário fornece menos de um bit. (Lembre-se que H é máxima quando as probabilidades são iguais.) (Schneider, 2006 e 2010) Então, caso as probabilidades fossem:

Não há nenhuma maneira de atribuir um código (finito) de modo que cada dígito binário tenha o valor de um bit (usando grandes blocos de símbolos, pode-se aproximar deste ideal). No exemplo ajustado, não há maneira de usar menos de 1,75 dígitos binários por símbolo, mas poderíamos esbanjar e usar dígitos extras para representar o sinal. O código de Fano funciona razoavelmente bem ao dividir os símbolos em grupos sucessivos que têm a mesma probabilidade de ocorrer (Schneider, 2010). A medida da incerteza, portanto, nos diz o que é possível obter em uma situação ideal de codificação, assim, revelando-nos o que é impossível, como, por exemplo, enviar o sinal com 1,75 bits por símbolo codificado utilizando-se apenas um dígito binário por símbolo (Schneider, 2010).

Como assumiu-se que a informação é a diminuição da incerteza, e agora que temos uma fórmula geral para a incerteza, podemos expressar a informação usando-a:

Schneider (2010) adota o termo “flip-flop para evitar o uso da palavra “bit” enquanto discute a codificação de Fano já que há dois significados para essa palavra:

1. Um dígito binário, 0 ou 1. Só podendo ser um inteiro. Estes “bit” são as partes individuais de dados em computadores.

2. Uma medida de incerteza, H ou R. Esta informação pode ser qualquer número real porque é uma média.
É a medida que Shannon utilizado para discutir sistemas de comunicação.

Suponha que um computador contém alguma informação em sua memória. Se estivéssemos a olhando cada flip-flop (os equivalente físicos das possibilidade binárias na memória do computador), teríamos uma incerteza de Hantes bits por flip-flop. Imagine, então, que agora limpamos parte da memória do computador (ao definir os valores como zero), de modo que há uma nova incerteza, menor do que o anterior: Hdepois.

Então, a memória do computador perdeu uma média de R= Hantes – Hdepois bits de informação por flip-flop. Se o computador fosse completamente limpo, então Hdepois= 0 e R = Hantes . Agora considere um teletipo recebendo caracteres de uma linha telefônica. Se não houvesse ruído na linha telefônica e nenhuma outra fonte de erro, o teletipo imprimiria o texto perfeitamente. Com o ruído, entretanto, há alguma incerteza sobre se um caractere impresso é realmente o caractere que foi realmente enviado. Portanto, antes de um caractere ser impresso, o teletipo deve estar preparado para qualquer um dos caracteres possíveis, e este estado preparado tem incerteza Hantes , depois que cada caractere tenha sido recebido, ainda há incerteza, Hdepois. Esta incerteza é baseada na probabilidade de que o símbolo que foi recebido através da linha não seja igual ao símbolo que foi enviado, e mede a quantidade de ruído (Schneider, 2010).

Usando o próprio exemplo de Shannon, como relatado por Schneider (2010):

“Um sistema com dois símbolos igualmente prováveis transmitindo a cada segundo envia a uma taxa de 1 bit por segundo sem erros. Suponha que a probabilidade de que um 0 seja recebido quando um 0 é enviado é de 0,99 e a probabilidade de um 1 é recebido 0,01. “Estes valores são invertidos se 1 é recebido.” Então, a incerteza após recebimento de um símbolo Hdepois = -0,99 log2 0,99 – 0,01log2 0,01 = 0,081, de modo que a taxa real de transmissão é R = 1- 0,081 = 0,919 bits por segundo. A quantidade de informação que recebe através é dada pela diminuição da incerteza, a equação (20). ”

Schneider (2010) prossegue:

“Infelizmente muitas pessoas têm cometido erros porque não compreendem esse ponto claramente. Os erros ocorrem porque as pessoas assumem implicitamente que não há ruído na comunicação. Quando não há ruído, R = Hantes, como com a memória de um computador completamente apagada. Isto é, se não há ruído, a quantidade de informações transmitidas é igual à incerteza antes da comunicação. Quando há ruído, e alguém assume que não há nenhuma, isso leva a todos os tipos de filosofias confusas. Deve-se sempre levar em conta o ruído. ”

Aplicando o conceito de informação de Shannon à biologia molecular:

As idéias e modelos de Schneider e de outros pesquisadores buscam (entre outras coisas) inserem-se na investigação das possibilidades da nanotecnologia, isto é, a construção de máquinas com precisão na escala atômica. A biologia fornece muitos exemplos de que como fazer isso já que sistemas formados por biomacromoléculas (que alguns chamam de “máquinas moleculares”) evoluíram nos seres vivos, servindo de exemplos a serem copiados.

Os trabalhos de Schneider com a teoria da informação molecular e a teoria das máquinas moleculares investigam exatamente quais são as limitações destes sistemas biomoleculares e assim objetivam compreender:

“O que deveríamos tentar e o que seria tolice tentar violar?”


A teoria das máquinas moleculares se divide em três níveis hierárquicos:

Schneider usa medida de informação de Shannon para caracterizar com precisão a conservação da seqüencia de nucleotídeos nos sítios de ligação. Os métodos desenvolvidos por Schneider substituem a utilização de seqüencias de consenso, segundo o próprio Schneider, proporcionando assim melhores modelos para biólogos moleculares.

Em seus estudos foi detectado um excesso de conservação da seqüencia de promotores do bacteriófago T7 e nas repetições InCD do plasmídeo F, o que levou o grupo de Schneider a prever a existência de proteínas que se ligam ao DNA nestes sítios. As previsões provenientes do teorema da capacidade do canal (do qual avanços tecnológicos como a extrema à incrível fidelidade dos CD e DVDs e das comunicações telefônicas, podem ser traçadas diretamente), quando re-derivadas para a biologia molecular, explicam a precisão surpreendente de muitos eventos moleculares. E, através, de conexões com segunda Lei da Termodinâmica e com a idéia do Demônio de Maxwell, essa abordagem também tem implicações diretas sobre o desenvolvimento da nanotecnologia (Scneider, 1995).

Schneider divide a teoria em três níveis, que são caracterizadas pelos seguintes tópicos:

Nível 0. Logos de Seqüência: padrões em seqüências genéticas.
Nível 1. Capacidade de Máquina: Energética de macromoléculas.
Nível 2. A Segunda Lei: Demônio de Maxwell, e os limites dos computadores.

No nível 0 da teoria das máquinas moleculares analisa-se os sistemas de controle da expressão gênica através de elementos Cis- e como pode-se utilizá-los para investigar os processos de informação ao nível molecular.

No nível 1 da teoria [Schneider, 1991] são explicadas a atividade incrivelmente precisa dessas moléculas:

Por exemplo, a enzima de restrição EcoRI ‘varre’ a dupla hélice de DNA (material genético) e corta, quase exclusivamente, ao encontrar o padrão 5 ‘GAATTC 3’, evitando a 46– 1. = 4.095 pares de base de outras seis longas seqüências [Polisky et al, 1975 Woodhead et al. 1981, Pingoud, 1985]. Como EcoRI é capaz de fazer isto era, de certa forma, um mistério porque as explicações químicas convencionais falharam [Rosenberg et al. 1987]. De acordo com o nível 1 da teoria, máquinas moleculares tais como a EcoRI estão limitadas nas suas operações por sua “capacidade da máquina”, que está intimamente relacionada à famosa “capacidade do canal” Claude Shannon [Shannon, 1949]. Assim, desde que não se exceda a capacidade do canal, o teorema de Shannon garante que, os erros na comunicação sejam tão poucos como desejado. É esse teorema que levou às comunicações telefônicas e gravações de som em CD espetacularmente claras. A alegação equivalente para máquinas moleculares é que, enquanto uma máquina molecular não exceda sua “capacidade de máquina”, ela pode agir tão precisamente quanto possa ser necessário para a sobrevivência evolutiva (Schneider, 1994 nano).

O nível 2 da teoria [Schneider, 1991] lida com o antigo problema do demônio de Maxwell [Leff & Rex, 1990] e mostra que existe um custo energético para as operações molecular medido em joules que deve ser dissipado, para o meio, para cada bit de informação adquirida pela máquina, e este custo seria de, pelo menos, joules, onde é a constante de Boltzmann e T é a temperatura em kelvin. Porém, segundo Schneider, na literatura recente, alguns autores afirmam que muitas vezes não é um limite em tudo ou que a perda de informações (ao invés de ganho) é que estaria associada com a dissipação [Landauer, 1991]:

“No entanto, essa relação é apenas (!) uma reafirmação da Segunda Lei da Termodinâmica [Schneider, 1991], então aqueles que a contestam tem poucas chances de estarem corretas.”


Nível 0 E entram os logos de seqüencia:

Para compreendermos a importância do logos de seqüencia primeiro é preciso que compreendamos como se dá o controle da expressão gênica. Normalmente este controle é exercido por proteínas e outras macromoléculas (“identificadores”) que se ligam à seqüências especificas nas moléculas de DNA ou RNA. A forma tradicional de caracterizar estas seqüências envolve a utilização de “seqüência de consenso” em que a base mais freqüente, entre as diversas variantes existentes, é escolhida para cada posição do sítio de ligação. Porém, com esta abordagem a informação sobre as freqüências de cada variante de posição é perdida, assim este método destrói padrões sutis existentes nos dados. Esta perda de dados inviabiliza a tarefa de modelagem de seqüencias/sítios de ligação. A Fig. 1 mostra as seqüências nas quais as proteínas cI e cro ligam-se no DNA do bacteriófago e abaixo destes está um logo de seqüência.

Ao analisarmos a figura B, na posição -7, por exemplo, percebe-se que ali encontramos sempre um A em cada um dos 12 sítios de ligação, que é representado como um A ‘bem alto’ no logo. Já na posição 8 encontramos a maioria de Ts, além de 2 Cs e um A, o que é representada por uma pilha de letras, com a altura de cada letra proporcional à sua freqüência, além de ordenadas de uma maneira que a mais freqüente fique na parte superior. A altura total da pilha é a conservação da seqüencia naquela posição, medida em bits de informação. Lembrando que um “bit” é uma escolha entre duas possibilidades igualmente prováveis. As quatro bases do DNA podem ser dispostas formando um quadrado:

A C
G T

Para escolher um dos 4 nucleotídeos é preciso apenas responder sim e não para duas perguntas: “É em cima?” e “É na esquerda?”. Assim, a escala para o logo de seqüência vai de 0 a 2 bits. Quando as freqüências das bases não são exatamente 0, 50 ou 100 por cento, um cálculo mais sofisticado deve ser feito. A incerteza é uma função da freqüência f (b; l) de cada base b na posição l de cada um na base b

onde (n (l)) é uma correção para o pequeno tamanho da amostra n na posição l. O conteúdo da informação (ou conservação) seqüência é então:

 


O logo de seqüência não mostra apenas as freqüências originais das bases, mas também mostra a conservação em cada posição nos sítios de ligação. A partir do gráfico de logos de seqüencia pode-se ver imediatamente o padrão dos locais de ligação. Porém, ao olhar a seqüencia de consenso, em contraste, de seqüência, é possível ser enganado pelas distorções desta representação em que, por exemplo, não se pode distinguir 100% A de 75% A.

A conservação de seqüencias é medida usando-se bits de informação, especialmente por que eles são aditivos (lembre-se dos logaritmos). Assim, pode-se obter a conservação da seqüencia total do sítio de ligação simplesmente somando as alturas das pilhas dos logos de seqüência:

 

 

 

Porém, o reconhecedor deve selecionar os sítios de ligação de todas as possíveis seqüências do material genético, então para que possamos calcular quantos bits de escolhas que o reconhecedor faz é preciso determinar o tamanho do material genético G e o número de sítios de ligação γ. Antes que o sítio seja localizado, o número inicial de bits de escolha é log2 G, após o conjunto de sítios ter sido encontrado restam log2 γ escolhas que não foram feitas. Diminuindo, então, a incerteza nas medidas do número de escolhas feitas:

 

O nome Rfrequência foi escolhido porque γ/G é a freqüência dos sítios e este número se aproxima do valor da

Rsequência, o que significa que o conteúdo de informação nos padrões dos sítios de ligação é apenas o suficiente para que os sítios sejam encontrado no genoma.

 

Matt Yarus sugeriu uma analogia simples que deixa isso claro. Se temos uma cidade com 1.000 casas, qual o número de dígitos que devemos colocar em cada casa para garantir que a correspondência seja entregue corretamente? A resposta é de 3 dígitos já que as casas podem ser numeradas de 000 a 999. Portanto, há uma relação entre o tamanho da cidade (tamanho do material genético e do número de sítios) e os dígitos na caixa de correio (padrão dos sítios de ligação).” (Schneider, 1994)

 

Uma das aplicações mais interessantes desta abordagem envolveu aquilo que parecia ser uma surpreendente exceção, no caso do promotores do bacteriófago T7, a Rseqüência = 35,4 ±2 bits por sítio, mas Rfreqüência = 16,5 por sítio, o que deixava um Rseqüência/ Rfreqüência = 2,01 ± 01 vezes de excesso de conservação da seqüencia (Schneider, 1989, 1994, 1996). Isso, indicaria ou que a teoria estava errada ou que algo interessantes estava acontecendo ali. Schneider afirma:

 

Na analogia da cidade, há 1.000 casas, mas cada casa tem 6 dígitos. Uma explicação é que existem dois sistemas independentes de entrega de correio que não poderiam concordar com um sistema de endereços comuns. A explicação biológica é que existem duas proteínas de ligação a esses dois padrões de seqüencias. Nós já sabemos sobre um deles, é o da RNA polimerase T7. Para testar essa idéia, um grande número de seqüências de DNA aleatórias foram construídas e, em seguida, foram selecionadas as que ainda funcionavam como promotores T7[8]. Se houvesse uma outra proteína, então ela não se ligaria nesse teste e assim o excesso de informações desapareceria. Isso foi realmente o que aconteceu (Fig.2 abaixo): os sítios de ligação para os promotores T7 sozinhos só tem 18,2 bits de informação, próximo ao valor previsto de Rfreqüência = 16,05 bits por sítio. A hipótese de que existe uma segunda proteína foi confirmada, mas até agora esta não foi identificada experimentalmente. ” (Schneider, 1994)

 

Mais tarde, o grupo de Schneider descobriu outro caso, desta vez no plasmídeo-F InCD na qual a Rseqüência,=
60,2±2,06 bits por sítio e a Rfreqüência = 19,06 bits por sítio, de modo que, havia um excesso de Rseqüência/Rfreqüência = 3,07 ± 0,13 vezes de conservação da seqüencia. Foi descoberto que três proteínas ligam-se a esta região do DNA, e foram provisoriamente capazes de identificá-las (Schneider, 1994, 1996) .

 

Na figura à esquerda, na porção superior A, podemos observar os logos de seqüencia para o sítio de ligação da RNA polimerase do bacteriófago T7 e logo abaixo em B, o logo de seqüencias como os padrões indispensáveis para que a ligação da RNA polimerase ligue-se ao DNA e funcione, mostrando que as seqüencias excedentes realmente são sítios de ligação para uma proteína desconhecida,explicando o excesso de informação revelado pela (Rseqüência/Rfreqüência = 2,01 ±01) de mais de 2 vezes em relação ao esperado caso os padrões de revelado em A fossem de um único sítio para aRNA polimerase (Schneider, 1994, 1996).

 

Nível 1. Capacidade de Máquina: Energética de macromoléculas:

 

Esses resultados mostram que é possível aplicar, com sucesso, as idéias da teoria da informação nas interações moleculares, o que sugere que outros conceitos da teoria da informação podem também serem aplicados. Um desses outros conceitos, aliás muito importante, é o de ‘capacidade do canal’. Um dado canal de comunicação, como um sinal de rádio, vai operar durante um certo intervalo de freqüências W e o sinal irá dissipar alguma potência P no receptor. O receptor deve distinguir o sinal do ruído térmico N que também está recebendo. Shannon considerou que esses fatores sozinhos define a maior taxa de informações que pode passar através do canal:

 

 

 

Shannon também provou um teorema notável sobre a capacidade do canal, que demonstra que caso a taxa R de comunicação seja maior do que a capacidade, no máximo C bits por segundo irão passar. Por outro lado, se , a taxa de erro pode tornada tão pequena quanto desejado, mas nunca zero. A maneira de fazer isso é codificar o sinal para protegê-lo do ruído de modo que quando o sinal é decodificado, erros possam ser corrigidos.

 

A codificação é usada em discos compactos para corrigir erros de até 4000 bits simultâneos [11], razão pela qual música do CD é tão clara. As idéias correspondentes podem ser usadas para interações moleculares em que uma molécula (“máquina molecular”) faz ‘escolhas’ entre diversas possibilidades [12, 4]. A formulação correspondente do teorema é que, enquanto a máquina molecular não exceda a capacidade da máquina, as interações moleculares podem ser tão pequenas quanto o mínimo necessário para garantir a sobrevivência do organismo. Claro ‘formulações’ não pode ser sobre os “desejos” na biologia molecular, o teorema é relacionado à evolução do sistema. Este resultado matemático explica a precisão observada dos sistemas controle genético.”(Schneider, 1994)

 

 

A capacidade da máquina é o conceito análogo ao de capacidade do canal e a transposição do teorema homônimo de Shannon para as máquinas moleculares Assim, configurando o máximo de informação, em bits por operação molecular que uma máquina molecular pode manipular. Como Schneider afirma ao traduzir o teorema de Shannon da canal capacidade para a biologia molecular:

 

Ao aumentar o número de peças móveis, independentemente que podem interagir de forma cooperativa para tomar decisões, uma máquina molecular pode reduzir a freqüência de erros (taxa de escolhas incorretas) para qualquer arbitrariamente baixo nível é necessário para a sobrevivência do organismo, mesmo quando a máquina opera perto de sua capacidade e dissipa pequenas quantidades de energia.”(Schneider, 1991)

 

Nível 2. A Segunda Lei: Demônio de Maxwell, e os limites dos computadores:

 

A Segunda Lei da Termodinâmica pode ser expressa pela equação:

 

 

 

 

Seguindo Schneider, a equação afirma que, para uma dada quantidade de calor dQ entrando em um volume em alguma temperatura T, a entropia aumentará dS pelo menos por um fator dQ/T. A partir daí é possível relacionar a entropia à incerteza de Shannon caso as probabilidades que descrevem os estados do sistema sejam as mesmas para ambas as funções, como é o caso das máquinas moleculares. Schneider a partir desta conexão, e também por causa da temperatura constante em que as máquinas moleculares operam, reescreve a Segunda Lei da seguinte forma:

 

 

 

 

onde kB é a constante de Boltzmann. Isso indica que existe uma relação entre a informação R e o calor q. Notavelmente, esse mesmo limite pode ser determinado a partir da capacidade do canal (equação (5)) e a capacidade da máquina. A interpretação desta equação é simples: Existe uma quantidade mínima de energia térmica que deve ser dissipada (q negativo) por uma máquina molecular para que ela ganhe R = 1 bit de informação.

 

O Demônio de Maxwell é uma criatura mítica, originalmente criado como um experimento mental. Este ser supostamente seria capaz de abrir e fechar uma porta minúscula entre dois recipientes de gás. Então, ao observar as moléculas que se aproximam da porta e controlando a abertura de forma adequada, o demônio poderia permitir que as moléculas rápidas passem para um lado e as mais lentas para o outro. Schneider lembra que qualquer biólogo molecular esperaria que os músculos e os olhos do demônio usassem energia, o que é negligenciado pelos físicos. Outro fator digno de nota é que eles, os físicos, presumem que a energia utilizada para abrir a porta pode ser recuperada quando esta é fechada, se ela estiver ligada a uma mola.

 

A conclusão padrão é que um demônio, como este, poderia presumivelmente criar uma diferença temperatura macroscópica entre os dois recipientes, o que poderia ser usado para fazer funcionar um motor térmico. Aparentemente, o demônio poderia fornecer energia simplesmente através da escolha entre duas alternativas, o que violaria a Segunda Lei da Termodinâmica. Schneider, então, conclui:

 

A equação (7) se aplica a este problema. O demônio sempre seleciona as moléculas em cada cenário em que ele aparece. Somos enganados pela história, entretanto, porque o processo seletivo não é explicitamente declarado como invocando a segunda lei. Mas a Segunda Lei exige sempre a dissipação de energia térmica para compensar as seleções feitas. Assim, o demônio não é mais um enigma. A equação (7), aplica-se tanto às máquinas moleculares quanto aos computadores, por isso estabelece um limite para a computação. É impossível chegar a temperatura de zero absoluto porque isso implicaria em energia infinita para remover toda a energia térmica. Em qualquer temperatura acima do zero absoluto, um computador deve dissipar a energia para fazer escolhas. Como essa energia tem que vir de algum lugar, devemos alimentar o computador com energia para que o computador pode dissipá-la, enquanto o calcula nossas respostas. (Schneider, 1994)


Estes e outros insights têm sido possíveis ao encarar-se de forma sincera e direta as implicações da teoria da informação em sistemas biológicos, utilizando-se de conhecimentos apropriados da teoria de Shannon em si e dos próprios sistemas biológicos em questão, não através de caricaturas superficiais, como insistem os criacionistas das mais diversas estirpes.

Por causa deste tipo de atitude pretensiosa, entranhadas nos argumentos criacionistas, alguns cientistas propõe desafios de compreensão mínima dos conceitos relevantes (veja o teste proposto pelo matemático Jeffrey Shallit) aos criacionistas que não conseguem deixar de usar o linguajar da teoria da informação, tanto na sua variante computacional (a teoria algorítmica da informação de Kolmogorov e Chaintin) como na sua versão estatística, a de Shannon. Também recomendada é a análise de Shallit dos absurdos escritos por Stephen C. Meyers sobre a teoria da informação e evolução biológica em seu último livro (Veja aqui)

Os trabalhos de Schneider são um dos exemplos mais interessantes de como a aplicação do formalismo de Shannon por cientistas, que conheçam realmente os sistemas biológicos, pode trazer resultados elegantes e úteis e contribuir para o conhecimento científico básico e aplicado.

Os modelos de Schneider, entretanto, vão ainda mais além, pois mostram também como a seleção natural pode aumentar o conteúdo informacional de sistemas biomoleculares particulares (no caso as seqüencias de ligação no DNA para fatores de transcrição, por exemplo) quando quantificada por um métrica teoricamente sólida e não uma caricatura pseudo-matemática como as dos defensores do DI. Veja Schneider (2000) e os materiais sobre o programa Ev, disponíveis em seu site aqui e aqui, mas principalmente nesta Faq.

Em um próximo post, pretendo entrar mais nestas questões e apresentar outras propostas teóricas para a análise e quantificação da informação em sistemas biológicos, inclusive na evolução dos mesmos. Aí, nos depararemos com outro termo muito falado mas pouco compreendido, a “complexidade”.

__________________________________________________________________________
Referências:

Fabris F. “Shannon Information Theory and Molecular Biology”, Journal of Interdisciplinary Mathematics, vol.12, n.1, february 2009, pp. 41-87

Godfrey-Smith, P Information in Biology,” in D. Hull and M. Ruse (eds.), The Cambridge Companion to the Philosophy of Biology. Cambridge University Press, 2007, pp. 103-119.

Griffiths, P.E (2001) Genetic Information: A metaphor in search of a theory. Philosophy of Science68(3): 394-412

Koonin EV. A non-adaptationist perspective on evolution of genomic complexity or the continued dethroning of man. Cell Cycle. 2004 Mar;3(3):280-5. Epub 2004 Mar 1. PubMed PMID: 14726650.

Lynch, Michael “The Origins of Genome Architecture”, 2007, Sinauer Associates, ISBN 9780878934843

Schneider TD. Claude Shannon: biologist. The founder of information theory used biology to formulate the channel capacity. IEEE Eng Med Biol Mag. 2006 Jan-Feb;25(1):30-3. PubMed PMID: 16485389; PubMed Central PMCID: PMC1538977.

Schneider TD, Stormo GD. Excess information at bacteriophage T7 genomic promoters detected by a random cloning technique. Nucleic Acids Res. 1989 Jan 25;17(2):659-74. PubMed PMID: 2915926; PubMed Central PMCID: PMC331610.

 

Schneider TD. Theory of molecular machines. I. Channel capacity of molecular machines. J Theor Biol. 1991 Jan 7;148(1):83-123. PubMed PMID: 2016886.

 

Schneider TD, Stephens RM. Sequence logos: a new way to display consensus sequences. Nucleic Acids Res. 1990 Oct 25;18(20):6097-100. PubMed PMID: 2172928; PubMed Central PMCID: PMC332411.

 

Schneider TD. Theory of molecular machines. II. Energy dissipation from molecular machines. J Theor Biol. 1991 Jan 7;148(1):125-37. PubMed PMID: 2016881.

 

Schneider, T. D. Sequence logos, machine/channel capacity, Maxwell’s demon, and molecular computers: a review of the theory of molecular machines. Nanotechnology, 5:1{18, 1994. http://www-lmmb.ncifcrf.gov/ toms/paper/nano2/.

 

Schneider, T.D. Shannon’s Channel Capacity Theorem: is it about Biology? Apresentação [disponívle na URL: http://netresearch.ics.uci.edu/mc/nsfws08/slides/S3_schneider.pdf]

 

Schneider, T. D. New approaches in mathematical biology: Information theory and molecular machines. In Julian Chela-Flores and Francois Raulin, editors, Chemical Evolution: Physics of the Origin and Evolution of
Life, pages 313{321, Dordrecht,The Netherlands, 1996. Kluwer Academic Publishers.

 

Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. PubMed PMID: 10908337; PubMed Central PMCID: PMC102656.

Schneider, Thomas D. Information Theory Primer With an Appendix on Logarithms (version = 2.64 of primer.tex 2010 Jan 08) [disponível URL: http://alum.mit.edu/www/toms/papers/primer/primer.pdf]

Shallit, Jeffrey (2010) Stephen Meyer’s Bogus Information Theory Talkreason [disponível na URL: http://www.talkreason.org/articles/stephen-meyers.cfm] acessado em 20 de outubro de 2010.

Segal J. The use of information theory in biology: a historical perspective. Hist Philos Life Sci. 2003;25(2):275-81. PubMed PMID: 15295870.

Touretzky, David S. Basics of Information Theory (Tutorial Version of 24 November 2004), [disponível na URL:http://www.cs.cmu.edu/~dst/Tutorials/Info-Theory/]

http://commons.wikimedia.org/wiki/File:Janus-Vatican.JPG (autor: Fubar Obfusco)
PASIEKA / SCIENCE PHOTO LIBRARY
PHOTO (c) ESTATE OF FRANCIS BELLO / SCIENCE PHOTO LIBRARY
VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY
SCIENCE PHOTO LIBRARY

Arsênico e Bactérias

Imagine um planeta com uma atmosfera de oxigênio em falta, a sua paisagem salpicada de crateras vulcânicas, oceanos cáustica, e bacias de água salgada. No entanto, surpreendentemente, os oceanos e salmouras fervilham com a vida, embora muito diferente de nossos próprios microrganismos que respiram arsênio. Essa descrição pode descrever a Terra durante o começo do éon Arqueano”

 

 

 

Microorganismos diversos metabolizam ambas as formas orgânicas e inorgânicas de arsênio, e suas atividades são parte de um ciclo biogeoquímico bastante robusto. As pesquisas sobre a metabolização de arsênio, principalmente, como as bactérias usam arsenato como aceptor final de elétrons, acabaram por revelar todo uma nova ecologia bioquímica nas quais forma descobertas novas vias respiratórias e fotossintéticas.

 

 

O arsênio é um composto metalóides dos mais conhecidos, principalmente, como um veneno tanto na vida como na ficção. Entretanto, apesar de bastante venenoso para a maioria dos seres vivos – especialmente as formas trivalentes [As(III)] – faz parte do metabolismo de muitos organismos. Sua toxicidade depende tanto da sua forma química, quer seja ela orgânica ou inorgânica, quanto de seu estado de oxidação. O arsênio ocorre em quatro estados de oxidação, arsenato [As (V)], arsenito [As (III)], elementar [As(0)], e arsenieto [As (-III)], sendo que o As(V) e As(III) são as mais formas abundantes na natureza, exibindo alta solubilidade em água, com H2AsO4 e HAsO4,tipicamente encontradas em ambientes oxidados, enquanto H3AsO3 e H2AsO3são mais típicas de ambientes anóxicos.


 

Informação, biologia e evolução parte II: Informação nunca é demais.

Em post anterior comentei sobre às aplicações da teoria da informação de Shannon na biologia molecular e aludi algumas de suas implicações na biologia evolutiva. Thomas D. Schneider um biólogo teórico especializado na teoria de Shannon e na sua extensão para a biologia desenvolveu uma plataforma capaz de simular os processos de replicação, mutação e seleção, às bases da evolução adaptativa, e quantificar como a informação, rigorosamente definida e quantificada por uma métrica teoricamente sólida e adequada aos sistemas biomoleculares, varia durante o processo de evolução, mostrando, de forma simples e elegante, como esta quantidade cresce através da seleção natural de mutações aleatórias.

O programa Ev e sua versão em java Evj é a plataforma desenvolvida e utilizada por Schneider e seu grupo no NCI. No abstract do artigo sobre o Ev, Schneider resume a situação:

Como os sistemas genéticos adquirem informação por processos evolutivos? Responder a esta pergunta exige precisamente uma medida quantitativa robusta da informação. Felizmente, há 50 anos, Claude Shannon definiu a informação como uma diminuição na incerteza de um receptor. Para sistemas moleculares, a incerteza está intimamente relacionada à entropia e, portanto, tem ligações claras com a Segunda Lei da Termodinâmica. Estes aspectos da teoria da informação têm permitido o desenvolvimento de um método simples e prático de medir a informação em sistemas de controle genético. Aqui, este método é usado para observar o ganho de informação nos sítios de ligação para “proteína” artificial em uma simulação de computador da evolução. A simulação começa com zero de informação e, como nos sistemas genético naturais, a informação medida nos sítios de ligação totalmente evoluído é próxima ao necessário para localizar os locais no genoma. A transição é rápida, demonstrando que o ganho de informações pode ocorrer por equilíbrio pontuado.(Schneider, 2000)

 

 

A captura acima ilustra o applet em Java escrito por Paul C. Anagnostopoulos do programa Ev.

 

Neste artigo, Schneider utiliza a abordagem matemática já bem estabelecida da teoria da informação para medir o conteúdo de informação de sítios de ligação de nucleotídeos e para rastrear as mudanças nesta quantidade como forma de avaliar o grau de evolução destes sítios de ligação.

 

Como já explicado em post anterior, as medidas de Schneider envolvem a comparação entre duas quantidades a Rsequência e Rfrequência que mostram que existe uma conexão sutil entre o padrão dos sítios de ligação, o tamanho do genoma e o número de sítios. Em relação ao potencial de mudanças nos locais de ligação, o tamanho do genoma completo é aproximadamente fixo durante longos períodos de tempo, já que mesmo que dobre de tamanho (mantendo o número de sítios constantes), a Rfrequência só iria mudar um pouco, por isso a medida é completamente insensível. Da mesma forma, o número de sítios é aproximadamente fixo por causa das funções fisiológicas que precisam ser controlados pelo reconhecedor. Então a Rfrequência é essencialmente fixa durante longos períodos de evolução. Por outro lado, Rseqüencia pode mudar rapidamente e poderá ter qualquer valor, uma vez que depende dos detalhes de como o reconhecedor interage com os sítios de ligação nas cadeias de ácidos nucleicos e, estes contatos pequenos numerosos, podem sofrer rapidamente mutações. Então a pergunta passa a ser como é que Rseqüencia vem a ser igual a Rfrequência? É preciso que Rsequência possa começar do zero e evoluir até Rfreqüência, ou seja, a informação necessária para o reconhecimento dos sítios deve ser, portanto, capaz de evoluir a partir do zero.

Genes que fazem amizade fácil!

ResearchBlogging.org

                Certas pessoas parecem ser o centro em que orbitam muitos outros indivíduos, funcionando como hubs de uma vasta rede de conexões e contatos sociais (Não! Decidamente, não sou uma delas). Quem sabe, por sua abertura ao diálogo, gostos variados e uma incrível paciência como os outros, estas pessoas conseguem interagir com uma gama muito variada de personalidades. Alguns desses indivíduos talvez mesmo nem freqüentassem os mesmos locais, mas graças aos “hubs sociais” acabam por estarem indiretamente conectados. Um indivíduo assim, certamente, tem uma relevância grande para a compreensão das redes sociais e da própria dinâmica colaborativa humana. Nos ajudando mesmo a compreendermos a evolução cultural de nossa própria espécie.

                Porém, não é sobre isso o assunto deste post. Aqui o interesse são os bons e velhos genes e seus produtos primários principais,  as proteínas. A semelhança de pessoas, genes e proteínas também formam complicadas redes de interação que têm sido alvo de  cada vez maior atenção dos cientistas.

               Na cola dos projetos genoma, genoma funcional e transcriptoma (que buscavam já entender as funções do amplo repertório de genes ao estudar sua expressão diferencial em várias situações e a companhia em que seus produtos, como mRNAs, se encontravam) surgiram vários projetos que procuram elucidar a dinâmica de interação direta ou indireta dos produtos gênicos. Essas redes podem ter propriedades muito semelhantes as de redes sociais e é aí que está a analogia. Entender como estes complexos sistemas e subsistemas imbricados de organização modular funcionam, inclusive ao analisar as similaridades e diferenças que aproximam e diferenciam os vários tipos de redes, são muito importantes para o entendimento da evolução biológica em seu nível intra-celular*.

             Por um lado complicando, mas por outro ajudando a elucidar a questão, além da origem in locu dos genes que compõem as redes e módulos de interação (por exemplo surgindo de duplicação gênica e por mutações em regiões cis-regulatórias), novos genes podem ser adquiridos completos através de um processo chamado de transferência lateral de genes (TLG), fenômeno particularmente importante em microorganismos unicelulares, principalmente, bactérias.

           A aquisição lateral de genes é um fator importante na evolução dos genomas microbianos. Questões de amplo interesse escondem-se por trás deste processo, como a aquisição e transferência de resistência à antimicrobianos, o que serve como um lembrete sobre a importância da biologia evolutiva que nos força a reconhecer que a evolução biológica é algo que nos impacta diretamente e, portanto, deve ser sempre levada a sério. A evolução, portanto, não é apenas algo de (remoto) interesse acadêmico ou uma constatação da miríade de mecanismos e processos naturais que nos fascinam, mas é a base de toda a biologia moderna e precisa ser reconhecida como tal.

          Porém como em qualquer campo científico saudável e em pleno desenvolvimento, existem muitas questões que ainda não compreendemos e até algumas que podemos ter compreendido da forma errada. Por exemplo, no caso de genes adquiridos por transferência lateral, para que possam ser fixados (e co-evoluir com resto do genes e do organismo como um todo), estes genes exógenos precisam ser integrados aos genomas dos organismos receptores. Os fragmentos de DNA que correspondem a estes genes e seus produtos precisam funcionar em concordância com os diferentes componentes que formam os módulos genéticos do organismo que passou a hospedá-los. Isso, a principio, representa um grande desafio evolutivo, principalmente, por que estes genes novos evoluíram sob restrições funcionais típicas de outras espécies, às vezes muito diferentes da atual espécie, ou seja, é como se eles tivessem caído de paraquedas neles. 

           Voltando à analogia com os indivíduos que funcionam como hubs sociais e comparando-os com pessoas mais “comuns”, o que poderíamos esperar de cada tipo de indivíduo caso este tivesse que se mudar para um ambiente completamente diferente sem aviso prévio. Claro, por causa das faculdades intelectuais humanas a analogia aqui parece um tanto forçada, já que esperaríamos tipos de obstáculos (e possibilidades de soluções) bem diferentes em cada caso.   Porém, em um nível mais abstrato, podemos imaginar que essas mais pessoas populares teriam certas características e habilidade que as tornassem (em média) mais propensas a formar contatos e estabelecer relações. É aqui que a analogia parece se quebrar. O consenso em relação a situação análoga em evolução de redes genéticas e protéicas parece levar à conclusões diferentes. Genes que na espécie pré-transferência faziam parte de módulos complexos não deveriam ser capazes de manter a sua funcionalidade quando transferidos isoladamente para novas espécies. Desta maneira, é amplamente aceito que a transferência lateral de genes deve favorecer proteínas com apenas algumas interações proteína-proteína, o que parece (pelo menos na minha opinião) destoar da situação envolvendo seres humanos. Porém, talvez a analogia não seja tão inapropriada assim, ainda que deva sempre inspirar certos cuidados.

          A propensão de proteínas para participar de interações protéicas pode ser avaliada através de métodos computacionais que identificam sítios de interação da proteína putativa. Os chamados interatomas são as grandes redes através das quais os produtos protéicos dos genes, as proteínas, se co-modulam ao interagir de forma direta através de seus domínios de contato. Interações fracas, como as forças de van der Waals, interações eletrostáticas, ligações de hidrogênio, interações hidrofóbicas e a complementaridade geométrica permitem que proteínas formem complexos temporários essenciais na sinalização e comunicação intra-celular e célula-célula.

           Além do interatoma, o metaboloma – a rede de interação em que estão envolvidas pequenas moléculas (como metabólitos e segundos mensageiros, portanto que intermedeiam a interação indireta entre os produtos gênicos) –  é a outra parte da rede de conexões responsável da miríade de processos biológicos por trás do funcionamento de uma célula.
 
           Gophna  e Ofran (2011) relatam que as proteínas adquiridas putativamente (i.e. consideradas como) por transferência lateral contém muito mais sítios de interação do que as proteínas nativas, o que indicaria que genes que codificam proteínas com múltiplas interações proteína-proteína poderiam, de fato, ser mais propensos a serem bem sucedidamente transferidos do que genes com poucas interações:

            A sugestão por parte dos autores do artigo, portanto é que “… essas proteínas [as que interagiam com múltiplas proteínas na espécie nas quais se originou e que possuem muitos domínios de interação] têm uma maior chance de formar novas interações em novas espécies, assim, integrando-se aos módulos existentes”. Como os próprios autores afirma em seu resumo, “Estes resultados revelam princípios básicos para a incorporação de novos genes em sistemas existentes.

          “Lateral acquisition of genes is affected by the friendliness of their products” foi publicado no final de 2010 na conhecida e respeitada PNAS e, como o título deixa claro, reúne argumentos e apresenta resultados que sugerem que um excesso de conectividade, ao contrário do que se costuma imaginar, parece favorecer os genes lateralmente transferidos em seus novos lares aumentando a chance que se integrem em alguma das diversas redes de interação ali existentes, tornando-os mais bem sucedidos em integrar-se ao novo genoma.

           Como vimos,  a transferência de um único gene apresenta um enigma evolutivo. Desta forma, imagina-se que os genes com menos interações são mais susceptíveis de serem transferidos para (e mantidos) em uma espécie nova. Esse postulado é conhecido como a hipótese de complexidade. O que ocorre é que genes que pertencem a um módulo complexo podem não ser funcionais quando transferidos isoladamente para uma nova espécie. 

           Estudos sobre a importância da interação proteína-proteína (PPIprotein-protein interaction) oferecem realmente algum apoio para o racional usado como base da hipótese de complexidade . Os autores do artigo ressaltam que tem sido demonstrado que as proteínas codificadas por genes que têm sido mais freqüentemente transferidas durante a evolução tendem a fazer menos interações do que outras proteínas (5).

            Contudo, como chamam a atenção Gophna e Ofran, as evidências utilizadas em suporte a hipótese da complexidade baseia-se na análise das PPIs dos genes transferidos dentro de suas espécies atuais, ou seja, pós-transferência, mas não a partir do número de PPI no organismo doador, pré-transferência. Poucas PPIs atualmente pode implicar, realmente, um número pequeno de PPI no hospedeiro original (o que corroboraria a hipótese de que proteínas com muitas interações são menos propensos a ser transferidos e acumuladas), mas, alternativamente, este mesmo resultado pode apenas sugerir que genes adquiridos por TLG tiveram menos tempo para desenvolver as interações com as proteínas em seu novo hospedeiro em comparação com aqueles verticalmente adquiridos, via descendência direta. Assim, essa análise pós-transferência não fornecem evidências conclusivas quanto à relação entre o PPI e TLG.

            Avaliar sistematicamente as rede PPI pré-transferência não parece ser uma possibilidade factível, pelo menos, na imensa maioria dos casos, já que, em geral, não há registros claros de que espécie seria a hospedeira original, e muito menos dados realmente abrangentes para as redes PPI.

             Porém é possível driblar esta situação, através do número de supostos sítios de ligação protéicos existentes na superfície de uma proteína. Proteínas com mais sítios de ligação tendem a interagir com mais proteínas (ou seja, têm um grau maior de nós nas redes PPI). Esta idéia baseia-se no fato que tem sido evidenciado de que os resíduos que fazem parte de supostas regiões de ligação às proteínas podem ser identificados a priori através da estrutura e até mesmo da seqüência. [Aqui a bioinformática, através da análise e alinhamento múltiplo e comparação de seqüencias e a bioinformática estrutural ocupam um  papel central.]  Desta forma, é possível avaliar o potencial de interação de uma proteína, ou melhor dizendo de “grudabilidade”, diretamente, através de sua seqüência de aminoácidos.

            É exatamente isso que os autores deste trabalho fazem ao se utilizarem dos “potenciais de interação”, na tentativa de descobrir a capacidade de interação real, ou “amistosidade” ou “carisma”, de genes lateralmente adquiridos:

Estes resultados indicam que o ISIS-RIP previsto de uma proteína pode ser visto como uma medida de rigidez da proteína, ou simpatia. Esta medida é mais elevado para proteínas com um número maior de parceiros de interação.

A relação entre as previsões para o potencial de interação relativa (RIP) de uma proteína e do número de proteínas com o qual a proteína que interage podem ser vistos na figura acima e a direita. O RIP de uma proteína  representa a porcentagem de seus resíduos que são previstas para ser sítios de interação, e é definida pela equação:onde NPP é o número de resíduos previstos para ser parte de um sítio PPI e L é o comprimento da proteína.

 

            O estudo das superfícies de interação das proteínas e de suas seqüencias através de uma série de ferramentas que analisam as propriedades comuns de complexos protéicos conhecidos e disponibilizados em grandes bancos de dados tem permitido prever generalizar os principais resíduos envolvidos nas PPIs. Muitos programas utilizando-se de redes neurais e sistemas de aprendizado de máquina, como o ISIS usado neste artigo permitem este tipo de estudo.
   
   O ISIS é uma ferramenta que anota os resíduos que supostamente ligam outras proteínas para cada seqüência da proteína. O método foi desenvolvido usando-se interfaces de complexos temporários proteína-proteína conhecidas experimentalmente cujas estruturas 3D já haviam sido resolvidas pro métodos como difração de raio-X e NMR, mas, apesar disso, as informações 3D não são explicitamente utilizadas. As características estruturais previstas são combinadas com informações evolutivas. 

            Este programa compara para cada resíduo de aminoácido as características físico-químicas em seu ambiente, suas características estruturais preditas (acessibilidade ao solvente, estrutura secundária da proteína etc) e seu perfil evolutivo, com os de resíduos localizados em sítios PPI já bem conhecidos. Assim, o ISIS determina se um determinado resíduo é um sítio PPI em potencial. As melhores previsões utilizando-se deste método atingiu mais 90% de precisão em um experimento de validação cruzada. A partir desses resultados, os autores da suíte computacional concluem que apesar da grande diversidade na natureza das interações proteína-proteína, todos eles compartilham princípios básicos comuns e que esses princípios são identificáveis a partir da seqüência sozinho.
   
            Em artigos publicados nos periódicos Bioinfomatics e Plos Computational biology o  sistema foi testado e validado. A robustez estatística e a falta de viés (em relação as proteínas de uma determinada espécie, reino ou localização subcelular) do ISIS foi validada através de análise em grande escala. As figuras ao lado a direita e acima esquerda retiradas ilustram as superfícies de interação putativas  e o funcionamento e eficácia do ISIS em resgatar os resíduos que são parte delas.

 

           Após estabelecer que os RPIs são bons indicadores para os PPIs, Gophna e Ofran, passaram a investigar a correlação entre o genes mais comumente lateralmente transferidos e a RPI. Para tanto, os autores utilizaram-se do chamado PDS (philogenetic discordance sequence) um índice que a grosso modo mede o quão discordante é a proteína em relação ao resto das proteínas presentes no genoma. Esta métrica parte do princípio que quanto menor o número de proteínas homólogas, em uma dada proteína em um dado genoma, maior a chance dela ter se originado por transferência lateral de um outro genoma de um outro organismo.  Os resultados são dispostos na figura logo abaixo.

 

           A interpretação mais direta dos resultado parece, contudo, corroborar a hipótese da complexidade pois os genes que alcança m escores PDS mais altos parecem ser aqueles menos frequentemente transferidos. Isto é, proteínas que são menos afetadas por TLG possuem seqüencias com RPIs maiores, portanto, tem maior “amistosidade” ou “adesividade”. Maior do que as das seqüencias mais afetadas pela transferência lateral.

           Contudo, devemos lembrar que estes resultados ainda dizem respeito às proteínas que possivelmente sofreram TLG e já estão em seus novos hospedeiros (pós-transferência). Ainda é preciso acessar este “potencial de amistosidade”  em seqüencias antes delas serem transferidas. É importante termos este tipo de cuidado por que uma das possibilidades é que após a transferência, como nem todas as superfícies putativas de interação se ajustam ao novo interatoma, muitas delas acabam sucumbindo a “erosão mutacional”. Sem as restrições evolutivas associadas  Porém, como avaliar o RPI em proteínas antes que elas tenham sido transferidas?

            Aqui entra a inventividade dos autores. Em ciência é importante saber o que comparar e quando essa comparação não for possível, descobrir algo que possa servir de substituto e possa ser alvo de contraste.

               Duas foram as estratégias que os autores lançaram mão para resolver esse problema. A primeira envolveu organizar os dados e efetuar as comparações levando-se em conta o tempo que os eventos de transferência deveriam ter ocorrido. Ao dividir as seqüencias em adquiridas  recentemente, mais antigamente e não adquiridas via TLG foi possível verificar que as seqüencias recentemente transferidas -àquelas que não teriam tido tempo de acumular mutações que erodiriam as superfícies putativas de interação proteína-proteína – apresentavam maiores valores de RPI.

               As comparações obviamente tiveram que ser controladas para o tamanho das seqüencias já que, de um lado, a maioria dos genes que acreditamos terem sofrido TLG têm tamanho menor e, por outro lado,  seqüencias muito curtas sucumbiriam rapidamente a erosão mutacional.

              A outra estratégia foi procurar genes homólogos aos transferidos em outras bactérias distantemente aparentadas  a Escherichia coli, a espécie utilizada no estudo, e comparar os RPIs destes outros microorganismos (do grupo de ortólogos) com os das proteínas equivalentes em E. coli.

               O resultado mais interessante é que 9 entre 10 das proteínas testadas possuem superfícies PPIs significativamente menores em E. coli do que o esperado para aquela família de genes, como fica claro pela comparação com outras bactérias (veja a figura abaixo). Além disso, ao se alinharem as seqüencias, as regiões e o número de resíduos potencialmente associados as PPIs, ou seja que participam em interações entre proteínas, são menores (e contam com menos resíduos) em E. coli, o que fica evidente quando as mesmas porções em outras bactérias (veja a figura abaixo e a direita com as seqüencias de E. coli grafadas em vermelho).

              Este tipo de análise nos permite, através de um substituto muito plausível, avaliar o estado dos genes que sofreram a TGL em sua condição pré-transferência.

 

            As evidências apresentadas no estudo, portanto, sugerem que – quando controlamos para o tamanho das seqüencias, a idade dos supostos eventos de TGL e seu estado putativo pré-transferência- genes com RPIs altos são os mais propensos a integrarem-se em outros genomas por TGL, mesmo que ao longo do tempo percam muito de seu potencial de conectividade. Embora, genes possam ser transferidos em clusters (o que levaria vários dos parceiros de interação para o próximo genoma junto com eles, e que também existam genes que funcionam de forma autônoma, sem a necessidade de PPIs) uma grande parte deve ter que passar mesmo pelo “gargalo” da evolução da interação com outros parceiros protéicos, o que evindecia a grande importância de um parâmetro como a “amistosidade” de uma gene como fator de sucesso para sua transferência para outros microorganismos.

 

             Análises revelaram, no entanto, que apesar de interações entre proteínas codificadas por genes distanciados entre 1 e 5 genes no genoma que ocorrerem cerca de 6 x  com maior freqüência do que o esperado, apenas 2% das interações foram entre as proteínas codificadas por genes que exibem tal proximidade. A maioria das  interações (96,9% ) ocorreram entre as proteínas separadas por mais de 21 genes, o que torna a co-transferência altamente improvável, exceto através de plasmídeos muito grandes.  A alternativa seria que o sucesso da transferência lateral de uma proteína em um novo hospedeiro seja devida não a sua conectividade, mas a receptividade do novo genoma que ao abrigar uma maior nível de proteínas homólogas, constituiria-se em uma ambiente mais “familiar”. Porém, estudos mostram que apenas 10% de divergência nas seqüências já pode modificar bastante as redes PPI, tornando esta hipóteses menor plausível.

Estes resultados acentuam a relevância dos potenciais de interação e da “amistosidade” dos genes em seu ambiente pré-transferência.

 

              Estudos futuros deverão se seguir, inclusive, efetuados por outros grupos de pesquisadores que apontarão as deficiências, erros e  os pontos positivos dessa abordagem e colaborarão com o esclarecimento de como ocorre aquisição de genes por transferência lateral e quais os tipos de genes e proteínas mais propensas a sofrerem este tipo de processo.

 

Bem, pelo jeito, não são só certas pessoas que fazem amizade fácil, mas também os produtos de certos genes parecem ter as mesmas características, o que permitem a eles servirem-se dos benefícios de grandes “redes sociais” e dos “contatos” que permitem arranjar sempre uma boquinha em algum lugar e trazer novas vantagens as redes que passam a criar ou a integrar, e se essas pessoas ou genes são competentes então, aí, temos um combo invencível.

 

               Aos poucos, conciliando o rigor e sistematicidade característicos do processo de indagação científica e a criatividade e inventividade humanas (que também são parte  inseparável daquilo que chamamos “ciência”), vamos compreendendo melhor nossa própria história e a evolução da vida na terra, aprendendo a sondar os processos e mecanismos responsáveis por tais dinâmicas e a testar as diversas explicações para elas.

_____________________________________

Referrências:

Gophna, U., & Ofran, Y. (2010). Lateral acquisition of genes is affected by the friendliness of their products Proceedings of the National Academy of Sciences, 108 (1), 343-348 DOI: 10.1073/pnas.1009775108

Ofran, Y., & Rost, B. (2007). ISIS: interaction sites identified from sequence Bioinformatics, 23 (2) DOI: 10.1093/bioinformatics/btl303

Ofran Y, & Rost B (2007). Protein-protein interaction hotspots carved into sequences. PLoS computational biology, 3 (7) PMID: 17630824

Créditos das figuras:

http://commons.wikimedia.org/wiki/File:Human_interactome.jpg (autor: Keiono)
http://commons.wikimedia.org/wiki/File:Friendly_stickman.svg (autor:  Lilyu)
http://commons.wikimedia.org/wiki/File:Horizontal_and_vertical_gene_transfer.png (autor: Gregorius Pilosus)

http://commons.wikimedia.org/wiki/File:Rede_hub.png (autor:Rodrigozanatta)

* Aqui desconsidero propositalmente outras redes moleculares que devem ter papéis muito importantes, como aquelas formadas por microRNAs e as interações entre elas, o DNA genômico e as redes protéicas e metabólicas que são mais discutidas na literatura científica.

     <span style=”float: left; padding: 5px;”><a href=”http://www.researchblogging.org”><img alt=”ResearchBlogging.org”
src=”http://www.researchblogging.org/public/citation_icons/rb2_large_gray.png”
style=”border:0;”/></a></span>

Filosofia da biologia: Leitura obrigatória

Duas semanas atrás, passeando por uma livraria em um shopping de Florianópolis, notei em uma das estantes uma nova obra de filosofia (creio que era sobre filósofos modernos) publicada pela Artmed, o selo de livros técnicos e acadêmicos do Rio Grande do Sul. Entreguei o volume para o meu irmão (professor de direito e como eu muito interessado em filosofia) que me acompanhava que, prontamente, o abriu e procurou por mais informações em sua orelha (a do livro, claro). Ao invés de um resumo, típico das orelhas de outros livros, havia a lista de livros publicados e a publicar, estes últimos marcados com um asterisco. Entre estes vi de relance um título que me chamou a atenção, “Filosofia da Biologia”, organizado pelo professor da UnB, Paulo César Abrantes.  Como o livro estava marcado com um asterisco, apesar de bastante empolgado, deixei de lado o acontecido, esperando encontrá-lo nas livrarias nos meses seguintes. Saímos da livraria e fomos para a casa de nossos pais.

    No dia seguinte, desta vez perambulando pelo centro de Floripa, folheando os livros da estante de uma outra livraria (De um jeito ou de outro, acabo voltando a elas, principalmente àquelas que têm um bom expresso), para minha grande surpresa, encontro o livro anunciado na orelha do livro examinado no dia anterior. Estava lá ele, esperando que eu o examinasse. Apenas o plástico impedindo-me de folheá-lo e lê-lo.

    Passei o livro pelo leitor de código de barras e vi que o preço era compatível com o meu apertado orçamento, o abri, li alguns trechos e verifiquei a lista de autores que contribuíram para o volume, muitos já bem conhecidos de leituras anteriores e que já vêm fazendo um grande trabalho ao discutir diversos aspectos da filosofia da biologia e biologia teórica em língua portuguesa, produzindo artigos e livros muito interessantes.

    Nomes como o de Gustavo Caponi (UFSC), Diogo Meyer (USP), Karla Chediak (UERJ) e Ricardo Waizbort (Fiocruz) e Charbel El-Hani (UFBA/UEFS) – além do próprio organizador, P.C. Abrantes – já me indicaram que ali encontraria o trabalho de diversos intelectuais (biólogos e filósofos) de primeira linha. Além desses autores mais conhecidos, os demais pesquisadores, a maioria de universidades e institutos de pesquisa de países vizinhos da América do Sul (Sergio F. Martinez, Pablo Lorenzano, Favio Gonzáles, Natalia Pabón-Mora, Maximiliano Martinez Bohórquez, Eugenio Andrade, Estela Santili, Jorge Martínez-Contreras, Alejandro Rosas, juntamente com os brasileiros Cláudia Sepúlveda, Filipe Cavalcanti e Fábio Portela) tornam este volume ainda mais interessante e, portanto,uma leitura imperdível e que revela o panorama da filosofia da biologia na América Latina. O grupo Bogotá de Pensamento Evolucionista  formado em um colóquio na Colômbia realizado em 2006 é o germe inciador deste projeto que acabou por agregar outros pesquisadores (Veja também o volume editado em 2007 Filosofía, darwinismo y evolución).

     Este lançamento nos faz parabenizar a Artmed e o grupo A pela iniciativa e esperar por mais publicações desse gênero.

 

      Paulo C. Abrantes é professor da UnB ligado ao depto. de filosofia e instituto de ciências biológicas e ex-professor e um dos mentores intelectuais do Eli (que inclusive está nos agradecimentos). Não podia deixar de mencionar.
    Ao começar a ler o livro chamou-me a atenção a muito bem escrita, acessível e densa introdução do professor Abrantes que resume as contribuições do volume ao mesmo tempo que faz um apanhado, indispensável aos novatos, das principais questões da filosofia da biologia. Dado o amplo escopo e apresentação sucinta e elegante dos tópicos e das principais discussões sobre os temas filosoficamente e conceitualmente mais discutidos em ciências biológicas, a introdução do professor Abrantes é uma excelente iniciação ao tema, inclusive contextualizando a filosofia da biologia em relação a filosofia geral da ciência e do desenvolvimento histórico de sua problemática nas últimas décadas.

    Em “Filosofia da biologia” fica clara a importância da evolução para as ciências biológicas  e como esta funciona como elemento norteador de muitas das discussões metodológicas, epistemológicas, conceituais e metafísicas que permeiam as ciências da vida.

    Este volume denota a maturidade das ciências biológicas, especialmente da biologia evolutiva como disciplina científica. Mais do que isso, demonstra que os brasileiros e sul-americanos, de modo mais geral, também têm contribuições importantes à área, algo imprescindível, já que as ciências necessitam, ao se desenvolverem, de cada vez mais reflexão conceitual e aprofundamento teórico. As reflexões sobre suas pressuposições, comprometimentos e implicações axiológicas, metodológicas, epistemológicas, éticas e metafísicas acabam se tornando inevitáveis. Esse olhar crítico é o que oferece de mais importante, a filosofia da Biologia.

    Os temas tratados no livro são bastante variados, indo desde a existência (ou não) de leis em ciências biológicas, passando por discussões sobre a adequação dos modelos filosóficos de explicação em biologia evolutiva (nomológico-dedutivo, causal-funcional centrado em narrativas históricas etc), as diferenças entre causas próximas e últimas, os debates sobre o conceito de espécie, as mudanças entre o pensamento tipológico/essencialista e o populacional, as relações entre funcionalismo e estruturalismo em biologia e como encaixar a nova evo-devo nesta discussão, chegando até os modelos em etologia e evolução cultural humana. Portanto, os tópicos discutidos têm relevância à áreas como a antropologia e psicologia. 

    Um tema que parece permear todo o livro é a questão do pluralismo epistemológico e metodológico nas ciências biológicas. O tema do reducionismo vs pluralismo  (e dos diversos tipos de redução e sua apropriação ou não) aparece em vários dos capítulos. Na introdução, o professor Abrantes, aponta para fato do reducionismo hoje ser visto mais como uma estratégia investigativa do que como um fim em si mesmo, uma obrigação de todo esquema teórico e campo científico que deveria ser invariavelmente buscado. Contudo, apesar do poder do reducionismo, concebido como uma estratégia heurística, não poder ser subestimado, visões mais sistêmicas e pluralistas, sobretudo em temas como os níveis e os alvos da seleção natural e nas discussões sobre adaptacionismo, acabam por exigir que avancemos, pelo menos em certas situações, para além dele. Um exemplo é o próprio conceito de função biológica empregado em estudos evolutivos, como abordado no artigo de Chediak que já aparece em seu livro homônimo da coleção “Filosofia Passo-a-passo”(CHEDIAK, K. Filosofia da biologia. Rio de Janeiro: Zahar, 2008.).

     O livro toca em diversas outras questões bastante atuais, como a importância da idéia de dupla herança (genes e cultura) na investigação da evolução da mente humana, a existência de sistemas multiplos de herança e o confronto entre as visões centradas nos genes (“genistas”) e a teoria dos sistemas em desenvolvimento (TSD, voltando ao tópico do reducionismo vs pluralismo).

    A gama de questões tratadas nesta obra pode ser melhor apreciada simplesmente lendo os 14 capítulos que o constituem:

  •     Capítulo 1. Introdução: o que é filosofia da biologia? (P.C. Abrantes)
  •     Capítulo 2. Reducionismo em biologia: uma tomografia da relação biologia sociedade (Sergio F. Martinez)
  •     Capítulo 3. Leis e teorias em biologia (Pablo Lorenzano)
  •     Capítulo 4. Função e explicações funcionais em biologia (Karla Chediak)
  •     Capítulo 5. O problema da espécie 150 anos depois de A origem (Favio Gonzáles)
  •     Capítulo 6. A classificação biológica: de espécies a genes (Natalia Pabón-Mora e Favio Gonzáles)
  •     Capítulo 7. A contingência dos padrões de organização biológica: superando a dicotomia entre  pensamento tipológico e populacional (Maximiliano Martinez Bohórquez e Eugenio Andrade)
  •     Capítulo 8. Adaptacionismo (Cláudia Sepúlveda, Diogo Meyer e Charbel Ninõ El-Hani)
  •     Capítulo 9. Níveis e unidades de seleção: o pluralismo e seus desafios filosóficos (Estela Santili)
  •     Capítulo 10. Aproximação epistemológica à biologia evolutiva do desenvolvimento (Gustavo Caponi)
  •     Capítulo 11. O modelo primatológico de cultura (Jorge Martínez-Contreras)
  •     Capítulo 12.Genes, seleção natural e comportamento humano:a mente adaptada da psicologia evolucionista (Ricardo Waizbort e Filipe C. da Silva Porto)
  •    Capítulo 13. Evolução humana: a teoria da dupla herança (P.C. Abrantes e Fábio Portela L. Almeida)
  •    Capítulo 14. Ética evolucionista: o enfoque adaptacionista da cooperação humana (Alejandro Rosas)

 

    O tempo ainda não me permitiu ler os demais capítulos e apreciá-los da forma que merecem, mas não posso deixar de recomendar enfaticamente este livro a todos aqueles realmente interessados em ciências biológicas, especialmente, em suas bases e implicações filosóficas. Biólogos, estudantes de biologia, deveriam ser obrigados a ler este livro em seus cursos de filosofia da ciência, assim como os filósofos e estudantes de filosofia que se interessam pelo tema.

    Em posts futuros, pretendo continuar a discutir os tópicos expostos neste volume (e a visão de cada autor) que tenham relevância direta ou indireta ao estudo da biologia evolutiva, usando seus capítulos como guias, tentando, desta forma, fazer jus a essa iniciativa e ao importante trabalho de seus autores.

    Por enquanto fica a recomendação desta mais do que necessária obra e a certeza que ela deverá estimular mais pessoas a interessar-se por esta área tão importante da fronteira entre as ciências biológicas e a investigação filosófica.

_____________________________

Referências:

Abrantes, Paulo C. & Cols. Filosofia da Biologia (2011) Porto Alegre Editora Artmed  1º Edição ISBN : 8536324511 ISBN13 :9788536324517

Chediak, K. (2008) Filosofia da biologia. Rio de Janeiro: Zahar, EAN:9788537800546 ISBN: 978-85-378-0054-6

Rosas, Alejandro (ed.). Filosofía, Darwinismo y Evolución. Bogotá: Unibiblos, Universidad Nacional de Colombia, 2007. 346 p. Ideas y Valores, Sep./Dec. 2007, vol.56, no.135, p.115-119. ISSN 0120-0062.

Incoerência irredutível

Em 1996, um professor de bioquímica de uma universidade dos EUA (veja o “aviso legal“, em sua página pessoal, na Universidade de Lehigh que, aliás, não endossa suas ideias), chamado Michael Behe, publicou um livro em que desenvolvia uma crítica à biologia evolutiva, especialmente à visão Darwiniana da evolução, a partir de uma perspectiva supostamente nova. Essa crítica, segundo Behe, só era possível graças aos conhecimentos da impressionante compResearchBlogging.orglexidade e intrincamento dos sistemas biomoleculares revelados pelas modernas bioquímica e biologia molecular. Essa complexidade, entretanto, por não ser conhecida por Darwin, e seus contemporâneos, teria impedido o grande naturalista de perceber as limitações de sua teoria. O livro chamava-se (oportunamente), “A Caixa preta de Darwin”, publicado em 1996 e, no Brasil, em 1997 pela editora Jorge Zahar. Behe intencionava, com esta obra, oferecer um novo argumento que tomaria a forma de um desafio à moderna biologia evolutiva, o que ele chamou de “complexidade irredutível”.


O livro de Behe recebeu grande atenção, não só dos tradicionais bajuladores criacionistas e dos defensores do então jovem Criacionismo do Design Inteligente (CDI), mas também de acadêmicos sérios das áreas de biologia evolutiva e filosofia que levantaram várias objeções. O geneticista evolutivo H. Allen Orr em sua resenha do livro para o Boston Review escreveu:

< align=”justify”p class=”western” style=”margin-bottom: 0cm;” xml:lang=”pt-BR” lang=”pt-BR”>

O último ataque à evolução é inteligentemente argumentado, biologicamente informado e errado”(Allen Orr, 1997)

O conceito de Complexidade Irredutível (CI), desde então, tem desempenhado um papel fundamental no ressurgimento do movimento criacionista nas últimas duas décadas e Behe teve participações importantes (ainda que vexatórias) em muitos episódios importantes destes embates, como no julgamento Kitzmiller vs. Dover , em 2005 ( Boudry, Blancke, Braeckman, 2010).

O argumento de Behe se propunha, ao revelar irredutibilidade de certos sistemas bioquímicos, a demostrar que estes não poderiam ter evoluído de forma natural, a menos que eventos muito improváveis acontecessem como mutações simultâneas em diversos dos componentes destes sistemas biomoleculares, o que segundo Behe apontaria para a necessidade de um Designer. Obviamente, a suposta demonstração do “design inteligente” por Behe foi amplamente rejeitada por biólogos evolutivos e filósofos da natureza. Porém, as diversas linhas de crítica pareciam em muitos casos contraditórias. No entanto, estas supostas contradições seriam fruto da própria incoerência presentes nas definições de Behe de CI. É exatamente isso que três filósofos defendem em um artigo publicado no The Quarterly Review of Biologydeste mês.

Neste trabalho é apresentada uma análise de vários equívocos inerentes ao conceito de CI, além de discutir a maneira pela qual os defensores do Criacionismo do Design Inteligente (CDI) têm convenientemente transformado a CI em um alvo em constante movimento. Como os próprios autores deixam bem claro em seu abstract:

Uma análise dessas estratégias retóricas nos ajuda a entender por que a CI tem ganho destaque em movimentos como o CDI, e por que, apesar da sua completa falta de méritos científicos, chegou mesmo a convencer algumas pessoas cultas da morte iminente da teoria evolutiva (Boudry, Blancke, Braeckman, 2010).

Os críticos de Behe de forma unânime concordaram que ele não havia conseguido demonstrar a evidência de “design inteligente” na natureza. Porém, as críticas são bastante diversas, com alguns biólogos afirmando que os sistemas biológicos, por vezes, realmente apresentam a CI, como Behe a define, mas negando que isso representasse um problema para a teoria da evolução (por exemplo, Orr, 1997; Shanks e Joplin 1999, Miller 2000 apud Boudry, Blancke, Braeckman, 2010). Por outro lado, outros afirmam que Behe nunca demonstrou a existência de casos que realmente pudessem ser considerados exemplos genuínos de CI na natureza (veja por exemplo, Pigliucci 2002; Forrest e Gross, 2007 apud Boudry, Blancke, Braeckman, 2010); outros, como Robert Pennock (1999, p. 64-272), concordam que Behe não demonstrou a existência de sistemas com CI, mas, ao mesmo tempo, concede a possível existência deste tipo de sistemas biológicos com CI, argumentando que, de qualquer maneira, a existência destes não ameaçaria a teoria evolutiva.

Esta aparente contradição, como bem explicam Boudry, Blancke e Braeckman (2010), é originária da esquiva definição de Behe que permite a ele pular de uma proposição coerente , porém trivial, para uma bem mais audaciosa, mas que ele (nem ninguém) não foi capaz de demonstrar e que se limita a um argumento de ignorância e, após inúmera críticas, acaba por se tornar um mero argumento de incredulidade pessoal.




Boudry, Blancke e Braeckman (2010) argumentam que são, na realidade, estes tipos de equívocos, em sua definição, que permitem a Behe e seus companheiros do CDI, transformar a CI em um alvo móvel, protegendo-a contra críticas, mas, ao mesmo tempo, os impossibilitando de transformarem-na em uma teoria ou programa de pesquisa coerente devido às suas próprias inconsistências, tão úteis do ponto de vista retórico.

Um dos pontos mais interessantes apontados no artigo de Boudry, Blancke e Braeckman (2010), mas já denunciado por outros antes deles (veja Forrest e Gross, 2007, p. 302), é que o conceito de CI tem um longo pedigree que pode ser traçado até outra geração de criacionistas. Nas décadas de 1970 e 1980, os criacionistas da Terra jovem usaram termos semelhantes para descrever sistemas biológicos, que eram alegadamente obstáculos à teoria da evolução. Em 1974, Henry Morris, fundador do Institute for Creation Research e pai do movimento da “ciência” da criação, argumentou em seu influente livro Criacionismo Científico que:

 

“O problema é simplesmente que em um sistema complexo, em que muitos componentes funcionam conjuntamente, e em que cada componente é exclusivamente necessário para o bom funcionamento do todo, este jamais poderia surgir por processos aleatórios “ (Morris, 1974, p. 59 apud Boudry, Blancke, Braeckman, 2010).


Ariel Roth, outro criacionista, afirmou em 1980 que:


“Criação e vários outros pontos de vista podem ser apoiados por dados científicos que revelam que a origem espontânea dos complexos sistemas bioquímicos integrados, mesmo dos organismos mais simples são, na melhor das hipóteses, um evento dos mais improváveis “(Roth 1980, p. 83 apud Boudry, Blancke, Braeckman, 2010).

Fica claro, ao ler estas citações, que Behe, simplesmente, adaptou essas noções, já bem disseminadas entre os criacionistas, para seus próprios fins e as transformou em um “novo” cavalo de batalha para o então emergente criacionismo do Design Inteligente. A definição de CI presente no livro “a Caixa Preta de Darwin” é a seguinte:


“Por irredutivelmente complexo, quero dizer um sistema único composto de várias peças bem-ajustadas interagentes que contribuem para a função básica, onde a remoção de qualquer uma das partes faz com que o sistema deixe de funcionar efetivamente. Um sistema irredutivelmente complexo não pode ser produzido diretamente (isto é, melhorar continuamente a função inicial, continuando a funcionar pelo mesmo mecanismo) por modificações suaves e sucessivas de um sistema precursor, porque qualquer precursor de um sistema irredutivelmente complexo, no qual está faltando uma parte, é, por definição, não funcional. Um sistema biológico irredutivelmente complexo, se há uma coisa dessas, seria um poderoso desafio à evolução darwiniana” (Behe, 2006, p. 39 apud Boudry, Blancke, Braeckman, 2010).


Boudry, Blancke e Braeckman (2010) mostram que neste trecho escondem-se, na realidade, duas definições que podem ser disjuntas. A primeira delas envolve sistemas que presentemente estão estruturados de uma tal forma que a perda de alguma de suas “bem-ajustadas peças” provoca a desintegração funcional do sistema. Muitos críticos lembraram que este tipo de sistema, de fato, é uma clara mostra de péssimo design, pelo menos para os padrões humanos, já que não deixam espaço para sistemas back-up e outras salva-guardas, algo que poderia depor contra a competência ou mesmo as habilidades do suposto designer; ou, pelo menos, implicaria em um bizarro senso de humor por parte do mesmo. No entanto, esta organização contingente de muitos sistemas biomoleculares parece perfeitamente plausível em um sistema que evoluiu de uma forma muito mais semelhante ao um processo de bricolagem (veja, por exemplo, Jacob, 1977).

Contudo, a questão chave aqui é que esta primeira parte da definição não é entrave algum para os mecanismos conhecidos da biologia evolutiva. A função atual do sistema, bem como a atual interdependência entre as partes, não reflete necessariamente seu processo de origem evolutiva. O estudo comparativo e a análise de vários cenários teóricos é que podem nos ajudar a compreender como isso é possível. Aliás, o já citado biólogo Allen Orr lembra – no mesmo artigo no Boston Review, ao comentar o livro de Behe – que H.J. Muller, em 1918, já havia reconhecido a questão e proposto uma solução:

 

“Gostaria de poder reivindicar o crédito para este modelo darwiniano de complexidade irredutível, mas eu estou receoso que eu tenha perdido a primazia por pelos oitenta anos. Este cenário foi sugerido pelo geneticista H.J. Muller em 1918 e apresentado em maiores detalhes em 1939. De fato, Muller dá razões para pensar que os genes que primeiramente melhoram a função, rotineiramente, tornam-se partes essenciais de uma via. Assim, a evolução gradual dos sistemas irredutivelmente complexos não é só possível, como é esperada. Para aqueles que não são biólogos, deixe-me garantir a vocês que eu não ter desenterrei as elocubrações meia-boca de algum amador obscuro. Muller, Prêmio Nobel em 1946, foi um gigante na evolução e na genética” (Allen Orr, 1997).

Mais recentemente Douglas Theobald (2007) ofereceu um modelo, baseado na idéia de Müller, que mostra em grande detalhe como isso pode se dar. Em resumo:

“Com o erro de Behe agora em mãos, temos imediatamente a seguinte solução embaraçosamente fácil para o enigma “irredutível” de Behe. Apenas dois passos básicos são necessários para evoluir gradualmente um sistema irredutivelmente complexo a partir de um precursor em funcionamento:

1. Adicione uma parte.

2. Torne-a necessária.

É muito simples. Após estas duas etapas, a remoção da parte vai destruir a função, mas o sistema foi produzido diretamente e, gradualmente, a partir de um simples precursor funcional. E isso é exatamente o que Behe alega ser impossível. “[Theobald, 2007]

Outra possibilidade havia sido discutida por Cains-Smith e envolvia a evolução de sistemas CI (sentido fraco) a partir de sistemas com um arcabouço prévio, subsequentemente removido/perdido ao longo da evolução do sistema biológico em questão. Como explicam os autores do artigo:


“Assim, a complexidade redundante pode, eventualmente, gerar CI (sob a interpretação fraca). Mais recentemente, o bioquímico e biólogo molecular AG Cairns-Smith propôs a analogia do “andaime” na construção de um arco para explicar a evolução dos sistemas de CI que estão de acordo com Behe (Cairns-Smith, 1986; ver também Orr, 1997; Pennock 2000) . Um arco de pedra clássico tem CI no sentido fraco, porque a estrutura entrará em colapso assim que se remova a pedra fundamental ou uma das outras pedras. O apoio do andaime é necessário na construção de um arco de pedra, mas uma vez que o arco é concluído, o andaime pode ser removido com segurança. Em uma sentido similar, uma estrutura bioquímica pode ter funcionado como um andaime na evolução de um sistema com CI antes de se tornar dispensável e desaparecer. Isto é, “antes da multitude de componentes da bioquímica atual pudessem apoiar-se, uns nos outros, tiveram que se apoiar em algo mais” (Cairns-Smith 1986, p. 61 apud Boudry, Blancke, Braeckman, 2010).


Thomas D. Schneider, em uma simulação do processo de evolução de seqüencias de ligação ao DNA, utilizando a plataforma Ev e uma métrica de aquisição de informação baseada na teoria de Shannon, conseguiu mostrar que este processo é completamente factível ao se utilizar mutações e seleção natural (Schneider, 2000).

 

Na realidade, no ano de 2000, dois cientistas publicaram no Journal of Theoretical Biology um artigo em que analisavam caminhos diretos e indiretos para evolução Darwiniana de sistemas com CI, “interpretação fraca”, e apresentaram quatro vias principais (Thornhill and Ussery, 2000):

  1. Evolução direta serial Darwiniana.

  2. Evolução direta paralela Darwiniana.

  3. Eliminação da redundância funcional.

  4. Adoção de uma função diferente.

Portanto, a alegação de que estruturas biológicas possuam CI, em seu sentido fraco, é algo absolutamente trivial e que não oferece desafio algum à biologia evolutiva moderna (nem à antiga, diga-se de passagem), refletindo apenas uma brutal falta de imaginação de Behe e companhia.


Porém, a segunda parte da definição oferece uma possibilidade que, se demostrada como verdadeira, seria bastante mais complicada para a evolução biológica:


“Um sistema irredutivelmente complexo não pode ser produzido diretamente (isto é, melhorar continuamente a função inicial, continuando a funcionar pelo mesmo mecanismo) por modificações suaves e sucessivas de um sistema precursor, porque qualquer precursor de um sistema irredutivelmente complexo no qual está faltando uma parte é, por definição, não funcional. Um sistema biológico irredutivelmente complexo, se há uma coisa dessas, seria um poderoso desafio à evolução darwiniana” (Behe, 2006, p. 39 apud Boudry, Blancke, Braeckman, 2010).

Um sistema como este seria, por princípio, “não-evoluível”. Desta forma, caso algo assim se confirmasse, sua existência constituiria, de fato, um desafio e tanto à biologia evolutiva. Claro, isso aconteceria apenas caso todas as alternativas e possibilidades naturalistas pudessem ser descartadas. Neste caso, estabelecer a quem caberia este ônus de investigação é crucial , mas isso é algo que os adeptos do CDI sempre procuram se evadir, agindo como se fossem os biólogos evolutivos que devessem provar a não-existência desses sistemas com CI, senso forte.

Contudo, sistemas que possuem a CI, em seu sentido fraco, são completamente ‘evoluíveis‘ – se não mantendo exatamente a mesma função, podem sê-lo através de mudanças e co-optações de estruturas para outras funções. Segundo Boudry, Blancke e Braeckman (2010) é esta ambiguidade que permite a Behe rejeitar as refutações e críticas dos cientistas e filósofos e fingir que seu argumento tem algum fundamento, além do trivialmente verdadeiro e desinteressante:

” Behe tem dado um golpe conceitual semelhante ao lidar com as objeções do biólogo molecular Kenneth Miller (2000). Miller admite que alguns sistemas biológicos são CI como Behe os define (versão fraca), mas objeta às conclusões anti-evolucionistas que Behe deriva da CI. Como contra-exemplo da afirmação de Behe, Miller oferece uma reconstrução plausível da história evolutiva do aparelho auditivo, em cinco partes, em mamíferos, que ele alega preencher a definição de CI. Miller demonstra que as partes individuais do aparelho auditivo- martelo, bigorna e estribo, evoluíram a partir da porção posterior da mandíbula dos répteis. É importante notar que, antes de migrarem para o ouvido médio e serem adaptadas para as suas novas finalidades, essas estruturas eram de fato perfeitamente funcionais. Portanto, Miller conclui que a afirmação de Behe (2006, p. 39) de que “qualquer precursor de um sistema irredutivelmente complexo em que está faltando alguma parte é, por definição, não-funcional” é completamente errada. Miller desafia a CI forte e demonstra o ponto crucial de que a “necessidade interconectada [da parte final do sistema funcional] não significa que o sistema não poderia ter evoluído a partir de uma versão mais simples” (2000, p. 139) [Boudry, Blancke, Braeckman, 2010].

Behe quando confrontado com estas críticas, volta para a definição trivial (fraca) e acusa Miller de criar suas próprias definições e, portanto, argumentar contra um espantalho. Porém, a menos que Behe demonstre uma ligação obrigatória entre CI fraca e a CI forte, ou seja, de que a CI implica em não existirem intermediários evolutivos funcionais, os argumentos de Behe são apenas demonstrações de sua incredulidade pessoal, tornando a CI conceitualmente muda.


“Aqui, novamente, o equívoco está na definição de Behe e não na crítica de [Kenneth] Miller. Tendo em conta que Behe trata a CI como se fosse um obstáculo intransponível para a evolução, o que já fica claro a partir do próprio palavreado esclhido para o termo “irredutível”, o crítico naturalmente confronta afirmação de Behe de “não-funcionalidade”, apontando para as diferentes funções executadas pelos precursores evolutivos dos sistemas com CI, que podem ou não ter contido certas partes presentes no sistema atual (Boudry, Blancke, Braeckman, 2010).

Afinal, se levarmos em conta que os sistemas biológicos podem adaptar-se, ao longo do curso da evolução, para outra função que não aquela para a qual foram inicialmente selecionados – por exemplo, ao serem integrados como parte de um novo sistema na execução de uma função diferente [processo conhecido como exaptação] – então a alegação de Behe de não-funcionalidade torna-se ou trivial (versão fraca) ou claramente errada (versão forte)” (Boudry, Blancke, Braeckman, 2010).

As ambiguidades presentes na proposta inicial de Behe levaram outra figura do movimento dos CDI, William Dembski, a propor uma “correção” para a definição de CI. Em seu livro “No Free Lunch (de 2002), Dembski afirma acreditar que o conceito de CI é “recuperável” (2002:280 apud Boudry, Blancke, Braeckman, 2010) e propõe a seguinte definição:


“Definição CIfinal– Um sistema executando uma determinada função básica é irredutivelmente complexo se inclui um conjunto bem-ajustado de peças, mutuamente interagindo, de tal forma que cada parte do conjunto é indispensável para a manutenção básica do sistema e, portanto, da função original. O conjunto dessas peças indispensáveis é conhecido como o núcleo irredutível do sistema (Dembski 2002, p. 285, grifo no original apudBoudry, Blancke, Braeckman, 2010).

Assim, Dembski argumenta, a CI de um sistema é uma simples questão empírica:

Individualmente, nocauteando cada proteína que constitui um sistema bioquímico, determinar-se-á se a função é perdida. Se for, estamos lidando com um sistema irredutivelmente complexo” (Dembski 1999, p. 148 apudBoudry, Blancke, Braeckman, 2010).


O “ajuste” do conceito de CI, oferecido por Dembski, não é mais do que uma reiteração da interpretação fraca, restringindo a definição para a função básica do sistema original. Porém, ao reparar a ambigüidade conceitual presente na versão de Behe, Dembski acaba por tirar toda a possível força do argumento. A CI, concebida desta maneira, é “perfeitamente coerente com vias indiretas e tortuosas, andaimes, e exaptações típicas das explicações biológicas tradicionais” (Boudry, Blancke, Braeckman, 2010). Boudry, Blancke e Braeckman (2010) sabiamente comentam:

“Assim por que todo o barulho? O colapso da CI nas mãos de Dembski demonstra que a ambiguidade conceitual que ele estava tentando salvar realmente foi muito conveniente para Behe” (Boudry, Blancke, Braeckman , 2010).

As respostas dos defensores do CDI às criticas e demonstrações conceituais de que a CI pode ser alcançada por processos evolutivos (veja Dunkelberg, 2003; Pallen & Matzke, 2006), envolvem simplesmente “reinterpretar” a CI e descartar os exemplos oferecidos.


“A primeira estratégia para este fim consiste em inverter o ônus da prova, da plausibilidade evolutiva para a verdadeira história evolutiva e, assim, protestar que as linhas gerais de uma explicação evolutiva plausível não são nada mais do que um wishful thinking Darwiniano e especulações” (Boudry, Blancke, Braeckman, 2010).

A questão, entretanto, é que a CI é constantemente alardeada como um argumento de princípio que excluiria a possibilidade de explicações evolutivas para a origem de um dado sistema, mas tão logo ela é desafiada e um cenário é oferecido, absolutamente consistente com a boa e velha biologia evolutiva, o CDI passa a exigir não só um cenário plausível e evidências mais gerais, mas detalhes cada vez mais extremos, às vezes, afirmando que estava falando de caminhos evolutivos reais desde o tempo todo.

O pior é que quando os teóricos do CDI são confrontados com uma evidência tangível da história evolutiva real (Schneider, 2000, Lenski, Ofria et al., 2003, Adami, 2006, Bridgham, Carroll, Thornton, 2006) estes recorrem a uma segunda estratégia, mudando as alegações de design para as peças restantes do quebra-cabeça evolutivo, como se o problema “real” sempre estivesse por lá.

Por exemplo, Kenneth Miller (2004 apud Boudry, Blancke, Braeckman, 2010) demonstrou muito bem a semelhança estrutural entre um dos componentes do flagelo e um sistema-secretor tipo III de toxinas bacterianas:


” Ele foi convincente ao argumentar que o primeiro é um precursor evolutivo muito plausível deste último, que foi cooptado pela evolução para realizar uma nova função (ver também Pallen e Matzke 2006). Em resposta a esta demonstração embaraçosa, Behe (2001, pp 689-690) simplesmente voltou sua atenção para a complexidade do sistema recém-descoberto, enquanto ao mesmo tempo, insistindo teimosamente que o conjunto destes precursores no sistema flagelo ainda é impossível sem a ajuda de um Designer” (Behe, 2004, p. 359 apud Boudry, Blancke, Braeckman, 2010).

“À luz destes subterfúgios, pode-se perguntar se há alguma quantidade de evidências genéticas comparativas, ou de qualquer nível da reconstrução evolutiva, que faria Behe e seus aliados abandonar suas reivindicações de design. Por causa do desleixo do crédito da CI probabilística, o que não é baseado em uma quantificação séria de probabilidades, os teóricos do CDI podem continuar a elevar o nível de prova, até um ponto onde o conceito de CI é levantado fora do domínio empírico completamente (Boudry, Blancke, Braeckman, 2010)”.


Quando pressionado é, exatamente, esta a estratégia de Behe, pois para ele apenas uma descrição completa, quantitativa e totalmente detalhada do que realmente aconteceu, ao longo das eras , seria capaz de convencê-lo de que os sistemas com CI teriam sua origem através da evolução biológica por mecanismos naturais (veja Behe, 2007 apud Boudry, Blancke, Braeckman, 2010). Em seu depoimento no julgamento de Dover, Behe admitiu:

“Não só eu precisaria de uma análise mutação por mutação, passo-a-passo, como eu também gostaria de ver as informações pertinentes, tais como qual é o tamanho da população do organismo, em quem estas mutações estão ocorrendo, qual é o valor seletivo para a mutação , se existem efeitos deletérios da mutação, e muitas outras questões desse tipo.” (2005, p. 19 apud Boudry, Blancke, Braeckman, 2010)

Todo o ônus é atirado nos biólogos evolutivos e nada precisa ser oferecido como contrapartida para evidenciar o suposto Designer por parte dos defensores do CDI. Como deixam bem claro Boudry, Blancke & Braeckman (2010), tal exigência é simplesmente absurda, e nunca poderia ser cumprida em qualquer outro domínio científico.


John Calano (2004) faz o seguinte comentário em relação a esta atitude de Behe:

“Para ser honesto, eu suspeito que o grau de pormenor que Behe demanda exigiria uma combinação de laboratório de bioquímica de ponta e uma máquina do tempo. De que outra maneira a ciência poderia recuperar totalmente, por exemplo, cada passo na evolução do flagelo bacteriano, que teve lugar bilhões de anos atrás?”

A despeito das incríveis demandas de Behe – que exigem um nível tão elevado de evidências para a evolução biológica de sistemas, que ele afirma serem possuidores de CI – o próprio Behe parece completamente indisposto a trazer para o concreto sua hipótese sobre o Designer, em qualquer nível que seja. De fato, Behe insiste que os motivos e caráter do designer são, simplesmente, inescrutáveis, portanto, não nos dando nenhuma pista quanto ao seu modus operandi e nem nos oferecendo pistas de como detectá-lo de forma independente (Boudry, Blancke, Braeckman, 2010):

“Quanto ao pedido de Behe para o conhecimento completo e detalhado sobre a história evolutiva, Pigliucci (2002, p. 240) alertou os biólogos para não serem superconfiantes ao aceitar os desafios criacionistas, e não confundir reconstruções parciais e cenários plausíveis com uma compreensão completa do desenvolvimento evolutivo. De fato, os teóricos evolucionistas são aconselhados a explicar por que o ônus da prova no qual insistem os criacionistas é um absurdo, e apontar que o conhecimento científico nunca será completo a este respeito” (Boudry, Blancke, Braeckman, 2010).


Em franco contraste com a atitude de Behe, os cientistas podem citar, como exemplos de linhas investigativas, experimentos como os conduzidos pelo o grupo de Joseph W. Thornton – com a reconstrução filogenética e expressão in vitro, através da tecnologia do DNA recombinante, de estados ancestrais de receptores de glicocórticoides – que mostram um nível de detalhamento que Behe e os defensores do CDI jamais conseguiriam alcançar (Bridgham, Carroll, Thornton, 2006; Adami, 2006). Na falta de uma máquina do tempo, esta combinação de estratégias experimentais e de métodos de análise filogenética cumpre muitíssimo bem seu papel. Esta é a chamada “síntese funcional“, como é bem explicado no resumo de um artigo de Thornton (Dean and Thornton, 2007):

Uma síntese emergente da biologia evolutiva com a biologia molecular experimental está fornecendo inferências muito mais forte e profundas, sobre a dinâmica e os mecanismos da evolução do que era possível no passado. A nova abordagem combina análise estatística das sequências de genes com experimentos de manipulação molecular para revelar como as mutações antigas alteraram os processos bioquímicos e produziram novos fenótipos. Esta síntese funcional montou o palco para grandes avanços em nossa compreensão de questões fundamentais da biologia evolutiva. Aqui nós descrevemos esta abordagem emergente, evidenciando importantes novos insights tornados possíveis e sugerindo caminhos futuros para o campo.

Para Boudry, Blancke e Braeckman (2010), contudo, o que é realmente desonesto na postura de Behe é que este desafio absurdo, em que o ônus é desviado para os cientistas e não aceito pela teoria alternativa rival, é que a demanda de um relato evolutivo completo e passo-a-passo dos sistemas de CI não está escrita desde o início, mas é uma revisão tardia de sua pretensão inicial, com base em ambiguidades na sua definição de CI.

“Em A Caixa Preta de Darwin, Behe nos deixa com a impressão de que o alegação da não-evolutividade da CI é, em princípio, fácil de contestar, mas quando seus críticos assumem o desafio, como vimos na discussão com Pennock e Miller, Behe simplesmente desvia e foge como um coelho acuado. Assim, o que resta do argumento de Behe resume-se ao mesmo velho “argumento da incredulidade pessoal” (Dawkins 1991, p. 38), que está muito longe do “critério objetivo” para o Design que os teóricos do CDI haviam prometido” (Boudry, Blancke, Braeckman, 2010).

 

 

A análise proposta por Boudry, Blancke e Braeckman (2010) é bastante rica e de fácil assimilação. Este artigo fornece uma perspectiva muito valiosa que nos permite lidar melhor com os ataques criacionistas e sua caixa de ferramentas retóricas. Os tópicos levantados evidenciam alguns exemplos de como o discurso anticientífico se utiliza das equivocações e ambuiguidades e desvia o foco das questões pertinentes sempre que necesssário, invertendo o ônus e se mantendo constantemente em movimento. Além disso, complementam outro trabalho de dois destes mesmos autores sobre estratégias de impermeabilização epistêmica utilizadas por movimentos pseudocientíficos (Boudry and Braeckman, 2010). Portanto, leiam e aproveitem o artigo.

_____________________________________________________________________

Referências:


  • Boudry, M., Blancke, S., & Braeckman, J. (2010). Irreducible Incoherence and Intelligent Design: A Look into the Conceptual Toolbox of a Pseudoscience The Quarterly Review of Biology, 85 (4), 473-482 DOI: 10.1086/656904; que pode ser encontrado em http://sites.google.com/site/maartenboudry/irreducible-incoherence
  • Referências adicionais:
  • Adami C. Evolution. Reducible complexity. Science. 2006 Apr 7;312( 5770):61-3. PubMed PMID: 16601180.
  • Behe, Michael (1997) A caixa preta de Darwin: O desafio da bioquímica à teoria da evolução Rio de Janeiro, Jorge Zahar Editor ISBN: 978-85-7110-412-9.
  • Bridgham JT, Carroll SM, Thornton JW. Evolution of hormone-receptor complexity by molecular exploitation. Science. 2006 Apr 7;312(5770):97-101. PubMed PMID: 16601189.
  • Boudry, M, and Braeckman, J. (2010). Immunizing strategies & epistemic defense mechanisms. Philosophia, 10.1007/s11406-010-9254-9.
  • Catalano, John [editado] [Text updated: October 16, 2001; Links updated: January 25, 2004] Publish or Perish: Some Published works on Biochemical Evolution The talkorigin Archives.
  • Dean AM, Thornton JW. Mechanistic approaches to the study of evolution: the functional synthesis. Nature Reviews Genetics 8:675-688, 2007.
  • Dunkelberg P (2003). Irreducible complexity demystified. Talk Reason
  • Forrest BC and Gross PR (2007) Creationism’s Trojan horse : the wedge of intelligent design (Updated). Oxford, Oxford university press
  • Jacob F. Evolution and tinkering. Science. 1977 Jun 10;196(4295):1161-6. PubMed PMID: 860134.
  • Lenski RE, Ofria C, et al. (2003) The evolutionary origin of complex features. [Article]. Nature 423(6936):139-144
  • Miller KR (2000) Finding Darwin’s God : a scientist’s search for common ground between God and evolution. New York (N.Y.), HarperCollins
  • Miller KR (2004) The flagellum unspun. The Collapse of “Irreducible Complexity”. In W. Dembski and M. Ruse (Eds.), Debating design: from Darwin to DNA (pp 81-98)
  • Orr AH (1997) Darwin vs. Intelligent Design (again): The latest attack on evolution Is cleverly argued, biologically informed—and wrong. BRev 22(6)
  • Pallen MJ and Matzke NJ (2006) From The Origin of Species to the origin of bacterial flagella. Nature Reviews Microbiology 4(10):784-790
  • Pennock RT (1999) Tower of Babel : the evidence against the new creationism. Cambridge (Mass.), MIT press
  • Pennock RT (2000) Lions, Tigers and APES, Oh My! Creationism vs. Evolution in Kansas. Paper presented at the AAAS Dialogue on Science, Ethics and Religio
  • Perakh M (2002). A free lunch in a mousetrap Retrieved January 7, 2010
  • Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. PubMed PMID: 10908337; PubMed Central PMCID: PMC102656.
  • Theobald, Douglas (Last Update: July 18, 2007) The Mullerian Two-Step: Add a part, make it necessary or, Why Behe’s “Irreducible Complexity” is silly Version 1.1
  • Thornhill RH, Ussery DW. A classification of possible routes of Darwinian evolution. J Theor Biol. 2000 Mar 21;203(2):111-6. PubMed PMID: 10704296.
  • Young M and Edis T (2006) Why intelligent design fails : a scientific critique of the new creationism. New Brunswick, N.J., Rutgers University Press

Veja também os links disponibilizados em:

Irreducible Complexity and Michael Behe Do Biochemical Machines Show Intelligent Design? Talkorigin Archives

Créditos das figuras:

SCIENCE PHOTO LIBRARY:

STEVE GSCHMEISSNER / SCIENCE PHOTO LIBRARY
EYE OF SCIENCE / SCIENCE PHOTO LIBRARY

BSIP, GILLES / SCIENCE PHOTO LIBRARY

RAMON ANDRADE 3DCIENCIA / SCIENCE PHOTO LIBRARY

DAVID PARKER / SCIENCE PHOTO LIBRARY

Wikicommons:

http://commons.wikimedia.org/wiki/File:Lapki.jpg(Autor:Jerry mouse)

 

É a evolução genética previsível? Parte II ou Além da genética parte I

A mudança de perspectiva (em que a atenção vai dos genes isolados, e da ação de seus produtos imediatos, para os circuitos genéticos modulares e as suas redes de interações) é uma das marcas da atual biologia evolutiva e caracterizam a emergente biologia evolutiva do desenvolvimento, a popular Evo-Devo. Esta perspectiva, entretanto, não é exatamente nova e também não é completamente destituída de problemas, além daqueles que Stern e Orgogozo (veja ‘É a evolução genética previsível? Parte I‘) mesmos ressaltaram em seu interessante artigo (Stern e Orgogozo, 2009).

A onda de interesse nas seqüencias cis-regulatórias tem ganhado muita divulgação, não só pelo trabalho do grupo de Stern, mas principalmente pelos trabalhos (inclusive de divulgação) de Sean B. Carroll, autor do ótimo livro “Infinitas formas de grande beleza”, e de Neil Shubin que, além de um paleontólogo membro da expedição que achou o fóssil do peixe-tetrápode Tiktaalik, mantém um laboratório de biologia do desenvolvimento e lançou, a pouco tempo, o também excelente livro “A história de quando éramos peixes:“. Esta perspectiva tem sido também alvo de críticas por parte de alguns biólogos evolutivos, como Jerry Coyne (um especialistas em genética evolutiva da especiação) e Hoekstra (especialista em adaptação por melanismo) que tem defendido que ainda é prematuro concluir que a evolução morfológica ocorreria, principalmente, por mutações em seqüencias cis-regulatórias, em detrimento de mutações em regiões codificadores dos genes, que para eles ainda deveriam ser o principal foco de atenção. Porém, mesmo discordando de pesquisadores como Carroll e Wray, Coyne e Hoekstra concentram-se em exemplos de mutações em regiões codificantes de elementos Trans-ativos, principalmente fatores de transcrição, os ‘parceiros’ inseparáveis das seqüencias cis-regulatórias. O que mostra que a evolução regulatória é realmente a principal aposta dos biólogos evolucionistas, especialmente os adeptos da Evo-Devo, para explicar os processos de especiação, mas especialmente para compreendermos como ocorrem as grandes alterações morfológicas ao longo da evolução. Então, mesmo a divergência entre pesquisadores como Carroll e Stern, de um lado, e Coyne e Hoekstra, de outro, apontam para uma consenso inegável do reconhecimento da evolução de sistemas de regulação gênica e desenvolvimental.

Talvez ainda mais interessante, seja a discussão que se encontra por trás destas novas abordagens e da grande miríade de dados que começam a se acumular, suportando-as. O fato de sistemas regulatórios estarem organizados de acordo com um padrão distribuído modular, mas ainda assim hierárquico, o que é denotado pelo tipo de topologia particular destas redes bioquímicas, aponta para a importâncias das restrições e de coerções associadas com a evolução das formas.

Um trabalho recente, de 2008, publicado no Plos Computational Biology (Borenstein & Krakauer, 2008), “An End to Endless Forms: Epistasis, Phenotype Distribution Bias, and Nonuniform Evolution“, ajuda a ilustrar esta perspectiva.
A teoria das redes é uma abordagem relativamente nova que tem sido amplamente aplicada a toda uma gama de fenômenos naturais e sociais que parecem exibir certos padrões semelhantes que dependem menos da composição particular de cada sistemas, modelados por esta abordagem, e mais dos padrões de interação e conectividade das unidades que forma estes sistemas, possibilitando um nível de abstração e generalidade que permite toda sorte de comparações de diferentes sistemas.

A vantagem de utilizar representações em rede, baseadas nos insights
de Watts e Strogatz (1998), é que elas tornam possíveis comparações quantitativas em grandes escalas espaciais e de um grande número de sistemas diferentes. Muitos sistemas, como o cérebro e a internet, exibem, por exemplo, propriedades livres de escala. Além disso, o padrão de conectividade dessas redes assemelham-se às das
chamadas redes de ‘mundo pequeno’, como a representada pela idéia de 6 graus de separação. Estas redes apresentam comprimentos de caminho médios, entre quaisquer dois nós arbitrários (L no diagrama), baixos; ao mesmo tempo que contém elevados coeficientes de agrupamento (C no diagrama). Este tipo de propriedade parece ser típica de sistemas auto-organizados. Abaixo representações esquemáticas de redes encontram-se 3 exemplos de redes (regulares, ‘mundo pequeno’ e aleatórias) em que existe um aumento da conectividade ao caminharmos da esquerda para direita.

As exuberantes formas observadas na natureza são ainda mais impressionantes por que parecem representar apenas uma pequena fração do ‘espaço’ de possibilidades morfológicas, aglutinando-se próximas a algumas formas mais básicas. Esta fato pode ser um mero artefato de uma amostragem incompleta, ao longo da história da vida em nosso planeta, do ‘espaço’ de possíveis genótipos (Borenstein & Krakauer, 2008).

“Se considerarmos o volume astronômico do ‘espaço genotípico’, então o conjunto de todas as cadeias de DNA que foram produzidas durante a história da terra constituem apenas uma pequena fração do espaço total de seqüências possíveis. Além disso, os genótipos que têm existido são o resultado de um processo evolutivo – de descendência com modificação a partir de um ancestral comum – que é um processo gerativo localmente delimitado. A diversidade fenotípica é ainda mais limitada por outros processos, intrínsecos à produção de variedades adaptáveis, os mecanismos de desenvolvimento que determinam o mapeamento entre os genótipos e os fenótipos.” (Borenstein & Krakauer, 2008)

Há muito se sabe que o mapeamento entre genótipo e fenótipo (em praticamente todos os seus níveis) está muito longe de ser linear, não apresentando uma relação de ‘um para um’, como às vezes algumas metáforas usadas na divulgação científica deixam transparecer. Entretanto, este emaranhado de sistemas interativos também não é caracterizado por uma topologia onde a conectividade é máxima. Na verdade, a organização modular, como revelada pelo estudo de sistemas de integração de ‘entrada-saída‘, como shavenbaby, nos oferecem uma lógica subjacente pela qual a evolução morfológica dos animais (e possivelmente plantas), possivelmente tem se dado nos últimos 500.000000 de anos.

Segundo Borenstein & Krakauer (2008) desenvolvimento ontogenético induz um mapeamento não-linear e altamente degenerado entre o ‘espaço dos genes’ e o ‘espaço dos fenótipos’, pelo qual muitos genótipos produzem (ou estão intimamente associados a) fenótipos semelhantes (ou idênticos) e, concomitantemente, garantindo que existam muitos fenótipos que não podem ser gerados por qualquer genótipo.

Tais propriedades podem ser explicadas pela dinâmica genética neutra associada as vias de desenvolvimento e pela evolução de mecanismos específicos que garantam a robustez e estabilidade de fenótipos funcionais frente a variação ambiental e genética. Os chamados mecanismos de ‘canalização‘ podem incluir a redundância funcional, associada a múltiplos sistemas equivalentes, e a divisão destes sistemas em módulos semi-autônomos fortemente conectados internamente mas frouxamente conectados a outros módulos.

A degenerescência, outra propriedade exibida pelos sistemas desenvolvimentais, tem como efeito isolar, pelo menos parcialmente, os genótipos do processo seletivo, restringindo as possibilidades desenvolvimentais, o que talvez possa tornar uma grande parte dos fenótipos potenciais na realidade inacessíveis (Borenstein e Krakauer, 2008).

Para Borenstein e Krakauer (2008) estas restrições na variação ‘arquitetônica’ implicam em limitações ao processo evolutivo e até mesmo à capacidade de adaptação. Porém, estas implicações não são imediatamente óbvias já que boa parte da evolução ocorre através da ‘busca’ entre fenótipos semelhantes que estariam aglutinados em determinadas regiões super-populadas do morfo-espaço, o espaço dos fenótipos, o que está em estrita conformidade com a genética evolutiva de populações.

A distribuição esparsa das formas acessíveis em aglomerados no espaço fenotípico, entretanto, tem implicações diretas nos padrões em larga escala da evolução, o que, segundo estes e outros autores, só pode ser devidamente apreciado através da introdução, na análise da dinâmica evolutiva, de modelos adequados de desenvolvimento que façam a ponte entre a genética de populações (e a evolução molecular) e evolução fenotípica. Toda esta complexidade emerge da combinação de sistemas de regulação hierarquizados, do controle multigênico, da epistasia e da pleiotropia.

Nas últimas décadas um grande volume de dados e trabalhos teóricos têm apontado para certas características associadas a origem e diversificação morfológica ao longo da evolução: (i) a variação morfológica dos planos corporais era extensa no início da história da vida multicelular; (ii) fenótipos são esparsamente distribuídos no “espaço de fenótipos potenciais”; (iii) a diversidade é melhor predita pela variação na estrutura das redes de regulação do que através da presença ou ausência de genes estruturais (Borenstein e Krakauer, 2008). Porém, boa parte destes trabalhos vem de duas áreas de pesquisa mais gerais:

  1. A análise das propriedades estatísticas e dinâmicas de desenvolvimento a partir de mapas, entre genótipos e fenótipos, em sistemas simples, sobretudo as chamadas redes neutras de RNAs;
  2. A investigação de propriedades das redes regulatórias dos genes durante o desenvolvimento em animais através do estudo de sistemas modelo;

A bioinformática e a biologia computacional vêm ampliando estas perspectivas, oferecendo novas ferramentas e formas de investigação in silico. Borenstein & Krakauer (2008), por exemplo, propuseram um modelo que, utilizando-se de uma representação genérica, procura captar a forma em que múltiplas entradas (‘imputs’) genéticas interagem de forma combinatória para influenciar várias características fenotípicas, sem assumir a seleção, constituindo-se, portanto, em um modelo neutro, isto é, de nulidade das relações entre genética, desenvolvimento e fenótipos. Veja figura ao lado.

O mais interessante, entretanto, é que esta abordagem nos remete, de novo, aos estudos de Stern e Orgogozo (2009), já que tal modelo pode ser interpretado de sem comprometimento como produto da interação gênica através de elementos cis-regulatórios. Com este modelo, Borenstein & Krakauer (2008), tem por objetivo mostrar que uma propriedade geométrica básica das rede que controlam o desenvolvimento ontogenético provê um modelo nulo capaz de explicar o enviesamento e a falta de uniformidade na distribuição dos fenótipos dos animais.

O modelo foi usado para analisar uma série de regularidades estatísticas do mapeamento do desenvolvimento induzido durante o estudo. Foi obtida a fração dos fenótipos visíveis gerados durante o desenvolvimento e a dependência desta fração do nível de interação entre os elementos genéticos. Também foram caracterizadas as distâncias entre os fenótipos visíveis, e que ocorriam frequentemente, e influência do desenvolvimento sobre as relações filogenéticas. Os resultados mostram-se compatíveis com muitas das regularidades empíricas, desenvolvimentais e paleontológicas mencionadas anteriormente, já que estas puderam ser recuperadas ao usar este modelo nulo (Borenstein e Krakauer, 2008). Veja figura abaixo.

Esta constatação nos leva a outra interessante possibilidade, a de que a evolução seja ela mesmo passível de evoluir, a ‘evolutibilidade’ (evolvability). Quando nos deparamos com estas estimulantes possibilidades, passamos a olhar para os padrões evolutivos dispostos na coluna estratigráfica de forma diferente, o que, talvez, nos deva levar a examinar com mais carinho a possibilidade da evolução operar em múltiplos níveis ao mesmo tempo.

Assim, processos como ‘sorting’ e a seleção de espécies (e de clados) fazem muito mais sentido, principalmente se pensarmos que estas propriedades desenvolvimentais, como robustez e canalização, poderiam ser vistas como propriedades emergentes de espécies e clados e sua variabilidade inter-taxonômica, parcialmente, responsáveis pelas diferenças de probabilidade de especiação e extinção relativas (veja Jablosnky, 2008). Claro, que precisamos reconhecer que mecanismos mais prosaicos atuando nos nível individual podem ser perfeitamente capazes de explicar estes processos (veja para discussão Leroi, 2000 e Erwin, 2000). Como dizem os anglófonos, sobre esta questão ‘o juri ainda não se decidiu’.

Ainda assim, quando mudamos o foco para as redes de sinalização e para os controle genético, parece restar algo não explicado. Isto é, parece haver um certo distanciamento entre os sistemas de sinalização intra-celular e inter-celular, mediados por módulos bioquímicos e genéticos particulares – mas que são apenas arbitrariamente ligados aos fenótipos que geram ao interagir com o ambiente – os fenótipos, e sua realização concreta, em si.

Felizmente, mesmo esta constatação é remediável, e vem sendo remediada há décadas através de uma tradição de pesquisa que remonta a morfologia racional de Étienne Geoffroy St. Hilaire, a Naturephilosophen de Goethe e a tradição matemático-teórica em biologia, de D’Arcy Wentworth Thompson, hoje, às vezes, chamada de ‘estruturalismo de processo’. Esta abordagem deixa um pouco de lado as redes e os sistemas de regulação, e concentra-se em aspectos mais abstratos do processo de geração, desenvolvimento e mudança dos seres vivos, como nos processos de [auto]construção dos fenótipos propriamente ditos, ou seja, na dinâmica física e química das interações célula-célula, célula-matriz e entre os tecidos organizados.

Obras como “On Growth and form” de Thompson (veja Arthur, 2006) influenciaram muitos biólogos e ajudaram a criar um campo multidisciplinar conhecido como biologia matemática (ou biomatemática) que produziu interessantes e elegantes modelos, infelizmente, muitas vezes estragados por ‘horrendos fatos‘. Uma das idéias mais interessantes de Thompson é exemplificada pelos seus diagramas que ilustravam como, a partir de deformações geométricas específicas, que mudavam as proporções das estruturas anatômicas dos seres vivos, poderíamos gerar as formas de outros seres aparentados com os primeiros. Os trabalhos de Thompson mostram sua aguda compreensão de que apenas através de alterações nos padrões espaciais e nas taxas de crescimento e proliferação celular, durante do desenvolvimento, é a evolução animal poderia ter se dado.

A utilização, por Thompson, de gradeados com coordenadas cartesianas bidimensionais, ilustra esta idéia. Através de deformação diferencial de certos setores dos planos é possível gerar formas corporais típicas de outras espécies relacionadas (Arthur, 2006). Esta idéia tem semelhanças com outra idéia que ganhou alguma importância no final do século XIX e começo do século XX, a heterocronia, explorada em outra obra de S.J. Gould (esta infelizmente nunca traduzida para o português), Ontogeny and Phylogeny.

Sean Rice (2010) define Heterocronia (do grego, “tempo diferente”) como a variação na taxa ou no tempo de desenvolvimento de alguma característica. Uma mudança heterocrônica, portanto, envolve alterações nas taxas ou tempos de desenvolvimento de algumas linhas de células no organismo em relação as outras. Uma mutação que altere a taxa na qual uma linhagem celular se desenvolve em relação a outras linhagens é uma mutação heterocrônica (Ridley, 2003). Atualmente, se fala mesmo em heterocronia molecular e genética, focando nas alterações bioquímicas e genéticas responsáveis por este processo, mas o conceito original é morfológico-desenvolvimental.

No entanto, esta definição é um pouco vaga e alterações nas taxas de desenvolvimento podem englobar quase todo tipo de mudança morfológica. Uma definição mais restrita exigiria, para que uma esta se qualifique de forma não-ambígua, como heterocronia com aquelas a mudança nas taxas e no ‘timing‘ de algum processo de desenvolvimento sejam uniformes (Rice, 2010).

O termo foi cunhado pelo biólogo alemão Ernst Haeckel (1834-1919) para descrever uma exceção à sua lei biogenética (“a ontogenia é uma recapitulação sucinta e rápida da filogenia”). Haeckel acreditava que a morfologia adulta dos ancestrais de um organismo era repetida nas fases pelas quais um organismo passa ao se desenvolver do ovo a adulto. Isso significa que o tempo e a posição em que uma característica aparece pela primeira vez, em um embrião em desenvolvimento, deve corresponder ao tempo histórico em que esta característica apareceu na evolução e na sua posição morfológica inicial. Haeckel identificou dois processos que poderiam confundir o padrão esperado: heterotopia, uma mudança no local em que surge uma características, e heterocronia, uma mudança no ponto no tempo do surgimento da característica. Embora a lei biogênica tenha sido rejeitada, o termo heterocronia tem persistido, embora o seu significado tenha mudado (Rice, 2010).

Foi o grande embriologista sir Gavin de Beer, que nos anos 30, ajudou a elevar a heterocronia como uma classe de mecanismos evolutivos, ao descrever oito tipos diferentes de heterocronia. Estes correspondiam a diferentes formas pelas quais a presença ou ausência de uma característica, em juvenis e adultos, poderiam mudar. Por exemplo, a neotenia é definida como um caso em que uma estrutura morfológica vista nas formas juvenis de uma forma ancestral vem a ser encontrada na forma adulta de um grupo descendente (Rice, 2010).

“Esta abordagem de distinguir diferentes tipos de heterocronia foi continuada por S.J. Gould (1977), que modificou um pouco a classificação de Beer e reformulou o conceito em termos de tamanho e forma, ao invés de presença ou ausência. O “modelo de relógio”Gould define diferentes tipos de heterocronia considerando uma fase de crescimento específico (como a maturidade sexual) e observando o quanto o tamanho e forma evoluíram de um descendente em relação ao seu antecessor na mesma fase. Nesta perspectiva, a neotenia é um caso em que o descendente adulto é do mesmo tamanho como seu antepassado, mas é a forma do ancestral numa idade mais jovem.” (Rice, 2010)

O modelo de relógio de Gould, que considera apenas o tamanho e a forma em um determinado momento, não inclui representações diretas das alterações do desenvolvimento per se. Abordagens como a de ‘trajetórias ontogenéticas’, desenvolvida por Pere Alberch e colegas (1979), resolve este problema plotando curvas que representam o valor de alguma característica em função do tempo (idade) para os ancestrais e descendentes. Desta forma os diferentes tipos de heterocronia correspondem a diferentes formas em que a trajetória ancestral teria que ser transformada para produzir a trajetória descendente.

Seguindo Rice (1997, 2010), hoje identificamos seis tipos de heterocronia:

  1. Hipermorfóse- O desenvolvimento da característica descendente continua além do ponto em que parou no ancestral.
  2. Progênese- O desenvolvimento da característica descendente para mais cedo do que ocorre na ontogenia do antepassado.
  3. Aceleração- O caráter se desenvolve a uma taxa mais elevada na descendente do que no antecessor.
  4. Neotenia- A característica se desenvolve a uma taxa inferior no descendente do que no antecessor.
  5. Pós-deslocamento- A característica começa a desenvolver mais tarde na vida do descendente do que ocorre com ela no antepassado.
  6. Pré-deslocamento- A característica começa a desenvolver precocemente no descendente em relação ao que ocorria no antepassado.

Além de outros dois termos habitualmente usados:

  • Paramorfose- A forma adulta ancestral parece a forma juvenil do descendente.
  • Pedomorfose- O descendente adulto se assemelha a forma juvenil do ancestral.

Esta tradição, mesmo que tenha sido sempre, em um certo sentido, periférica, conseguiu influenciar muitos cientistas e ajudou a criar algumas abordagens mais formais para problemas biológicos fundamentais, como o da origem da ‘forma biológica’. Esta tradição de pesquisa e modelagem é uma parte integrante daquilo que é conhecido também como biologia teórica, disciplina que possui interfaces diretas com a biomatemática, biologia computacional e como a filosofia da biologia.

Uma das queixas habituais de muitos biólogos teóricos é que a ‘síntese moderna da biologia evolutiva‘ haveria deixado de lado a embriologia, assumindo uma visão mais simplistas que desconsiderava todo o contexto de interações epigenéticas (clique na figura ao lado para saber mais sobre epigenética) que ligavam as variações dos genes (originalmente identificados com segmentos cromossômicos e mais tarde com seqüencias de DNA envolvidas na síntese de biopolímeros) diretamente aos fenótipos morfofisiológicos adultos, trabalhando basicamente com as correlações, entre estes dois níveis, em contextos idealizados nos quais os detalhes não importavam.

Entre os que se opunham a este viés, que caracterizava a, então emergente, biologia evolutiva moderna, encontravam-se muitos embriologistas que vinham desta tradição mais formalistas e menos preocupados com questões adaptativas e funcionais. Estes cientistas longe de negar a evolução, apenas achavam que o arcabouço teórico da síntese evolutiva moderna era insuficiente para explicar a evolução, já que simplesmente ignorava os aspectos biológicos que eles julgavam mais importantes para a compreensão da origem e mudança dos seres multicelulares, principalmente dos animais. Neste período, que se seguiu imediatamente à “nova síntese”, talvez ninguém mais do que o embriologista, geneticista e biólogo teórico Conrad Hal Waddington tenha personificado esta escola de pensamento que buscava integrar estes outros aspectos à biologia evolutiva. Waddington enfatizava a importância daquilo que ele chamava de ‘paisagem epigenética’, um modelo esquemático que buscava contextualizar a ação dos genes e de seus produtos durante o desenvolvimento.

Em tempos mais recentes, talvez a pessoa que mais tenha colaborado para divulgar esta perspectiva foi o biólogo teórico canadense, Brian C. Goodwin (orientado de Wadington), falecido no ano passado. Goodwin, “o poeta da biologia teórica”, segundo Stuart Kauffman (Lewin, 1994), estudou biologia na universidade McGill e matemática em Oxford e era interessado em aspectos matemáticos da formação de padrões biológicos, particularmente durante o desenvolvimento embriológico seguindo a tradição estruturalista. Seu livro “How The Leopard Changed Its Spots: The Evolution of Complexity”. Seu principal interesse científico era, portanto, compreender a “origem das formas biológicas”. Goodwin, em um artigo chamado “The life of form. Emergent patterns of morphological transformation“, publicado em 2000 faz a seguinte colocação:

“É necessário começar com as razões pelas quais a forma não pode ser entendida em termos de composição molecular e história, embora esses dois aspectos contribuam para a forma. Estes aspectos são os particulares da forma, os atributos idiossincráticos que fazem uma instância de um forma individualmente distinta de outra. Qualquer sistema complexo, constituído de várias partes vai, de fato, possuir uma composição individualmente distinta e uma história particular, onde a história aqui significa a influência de circunstâncias particulares que o sistema experienciou. Na física isso geralmente significa as condições iniciais de um sistema, incluindo o arranjo do dispositivo de medição. Podemos nos referir a elas como o “ambiente” do sistema em observação. Em biologia, os organismos têm, pelo menos, duas dimensões históricas, desenvolvimental (ontogenética) e evolutiva (filogenética). Estes incluem influências ambientais e jeito como eles afetam a composição genética e atividade. (Goodwin, 2000)

A partir de uma visão organicista e sistêmica, Goodwin afirmava que existem fenômenos biológicos que ainda resistem, de forma recalcitrante, a redução, seja ela molecular, genética ou histórica:

“O primeiro deles é o próprio desenvolvimento, o surgimento de organismos complexos partir de ovos ou brotos. Isso não pode ser explicado em termos de um programa genético, pela simples razão de que a geração de formas macroscópicas tridimensionais (morfogênese) não pode ser explicado em termos de variações na composição molecular dos organismos em desenvolvimento, para a qual um programa genético, provê, em princípio, uma descrição completa. A dificuldade aqui é geral, não particular à biologia: a composição não determina a forma. Além disso, adicionar restrições (constraints) históricas (sob a forma de condições iniciais, por exemplo) e as influências ambientais não altera esta conclusão geral. Para explicar como forma macroscópica é gerada, é necessário incluir uma descrição do padrão espacial das forças, ou da ordem relacional, que caracteriza o regime particular do sistema em estudo, que é chamado de ‘campo’. Sólidos, gases, líquidos e cristais líquidos são descritos pelas teorias que combinam as propriedades de composição com descrições de como o estado de qualquer região é influenciado por (e influenciam) regiões vizinhas dentro do sistema, definindo sua ordem relacional como um campo. Organismos em desenvolvimento são descritos por ‘campos morfogenéticos’, que são o contexto espaço-temporal organizado em que mudança na composição molecular (controlado por um programa genético) exerce sua influência. Diferentes tipos de campos morfogenéticos foram descritos matematicamente para diferentes tipos de sistema em desenvolvimento (os exemplos incluem [11, 12, 13, 14, 15, 16 e 17]. Todos eles partilham certas propriedades que revelam semelhanças gerais da forma gerada, mas não há ainda nenhuma teoria satisfatória geral da morfogênese. No entanto, isso não altera a lógica da argumentação [18]. Para compreender os organismos em desenvolvimento, é necessário ter uma teoria adequada dos campos morfogenéticos. Isso foi claramente demonstrado por estudos clássicos de desenvolvimento, e a situação mantém-se inalterada hoje.(Goodwin, 2000)

Aqui cabe uma explicação e um alerta importante. A expressão ‘campos morfogenéticos‘ é adequada e científica da forma que Goodwin a usa neste texto. Esta expressão descreve o contexto espaço-temporal em que as forças físicas e processos morfogenéticos, em sua ordem relacional, ocorrem durante o desenvolvimento. O uso desta expressão tem um longa tradição histórica dentro da embriologia e da biologia do desenvolvimento, inicialmente, derivada de uma analogia aos campos da física. Esta expressão, e os processos por ela descritos, não é sinônima dos famigerados ‘campos mórficos’ advogados pelo bioquímico/parapsicólogo Rupert Sheldrake. Sheldarke apenas se inspirou na idéia de campos morfogenéticos, da embriologia clássica do começo dos anos 20, e lhe deu uma roupagem do tipo ‘nova era’ e, até o momento, completamente pseudocientífica, sobretudo ao propor a chamada ‘ressonância mórfica‘ como um suposto mecanismo para toda a sorte de fenômenos bizarros sejam eles corroborados ou não pelas ciências modernas. Não é de ‘campos mórficos’, portanto, que estamos falando neste texto, mas sim de um construto teórico científico que pode ser evidenciado empiricamente e nos ajuda a compreender o contexto espaço-temporal do desenvolvimento biológico.

Scott Gilbert (Gilbert, 1996) um dos mais respeitados biólogos de desenvolvimento coloca a questão da seguinte maneira:

“Além de descobrir as notáveis homologias entre os genes homeobox e seus domínios de expressão, a genética do desenvolvimento propôs recentemente homologias entre processos que complementam as antigas homologias de estrutura. Vias homólogas de desenvolvimento, tais como as que envolvem os genes wnt, são vistos em numerosos processos embrionários, e são vistos ocorrendo em regiões discretas, os campos morfogenéticos. Estes campos (que exemplificam a natureza modular do desenvolvimento embrionário) são propostos como intermediando entre o genótipo e o fenótipo. Assim como a célula (e não o seu genoma) funciona como a unidade de estrutura orgânica e função, do mesmo modo, os campos morfogenéticos (e não os genes ou as células) são vistos como a grande unidade da ontogenia cujas mudanças provocam alterações na evolução.

Gilbert identifica as próprias redes genéticas e bioquímicas modulares, usadas reiteradamente no desenvolvimento de diversos tecidos em diversos animais, como os ‘campos morfogenéticos’. Portanto, para Gilbert os campos são instanciados de uma forma um pouco diferente da proposta por Goodwin que considera em sua definição todo o contexto geométrico e físico no qual (e sobre o qual) estes módulos estão inseridos.

Os aspectos salientados pelo biólogo H.F. Nijhout (que prefere o termo mais
geral “campos de desenvolvimento” ao invés de “campos morfogenéticos”, apesar de fazer referência ao artigo de Gilbert, 1996) são as fronteiras de comunicabilidade celular, portanto, mais uma vez, é o contexto espaço-temporal dos campos morfogenéticos o centro da questão. Nijhout faz também uma distinção entre desenvolvimento embrionário e pós-embrionário que para os fins deste artigo não importam muito:

Não há nenhum mecanismo de controle centralizado que coordene o desenvolvimento embrionário. Até onde sabemos, cada célula do embrião em desenvolvimento simplesmente responde aos sinais que recebe das células que o rodeiam. Tais sinais entre as células regulam a expressão dos genes nas células recipientes, e a expressão gênica alterada, por sua vez, define as condições que causam a próxima rodada de eventos de desenvolvimento. A observação da homeostase desenvolvimental, juntamente com o reconhecimento de que não há controle centralizado durante o desenvolvimento embrionário, sugere que o desenvolvimento embrionário é quase totalmente auto-organizado. A situação é completamente diferente durante o desenvolvimento pós-embrionário. Como um animal cresce durante o desenvolvimento, a comunicação de longo alcance através de sinais de célula a célula torna-se cada vez mais ineficiente. Na medida que os sinais regulatórios e indutivo podem estender-se apenas por pequenas porções do animal em desenvolvimento, a regulação do desenvolvimento torna-se em grande medida uma questão local. As regiões nas quais as células são capazes de se comunicar, umas com as outras, são chamadas de ‘campos de desenvolvimento’, e campos do desenvolvimento distantes podem interagir apenas caso movimentos morfogenéticos (como a gastrulação ou involução) tragam-nos fisicamente próximos (Nijhout, 1999).

Estas considerações nos levam a pensar em como estes processos e esta dinâmica agiram durante a evolução biológica. Um dos representantes mais modernos desta forma de pensar é o físico-químico e biólogo do desenvolvimento Stewart Newman, do New York Medical College, que em sua página afirma:

“O mapeamento estreito entre genótipo e o fenótipo morfológico, em muitos metazoários modernos levou à noção geral de que a evolução da forma organísmicas é uma conseqüência direta da evolução de programas genéticos. Este ponto de vista padrão entrou em conflito com a evidência de discordâncias entre alterações genotípicas e fenotípicas no desenvolvimento e evolução. Como alternativa a essa visão, temos explorado a idéia de que a atual relação entre genes e forma é uma condição altamente derivada, um produto da evolução, em vez de sua condição. Antes de seleção para a canalização das vias bioquímicas de desenvolvimento e de estabilização dos fenótipos, a interação dos organismos multicelulares com seus ambientes físico-químicos ditou um mapeamento ‘um-para-muitos’ entre genomas e formas. Estas formas teriam sido geradas por mecanismos epigenéticos: inicialmente, os processos físicos característicos da materiais quimicamente ativos, condensados; e mais tarde [mecanismos] condicionais, interações indutivas entre os tecidos constituintes do organismo. O conceito de que os mecanismos epigenéticos são os agentes geradores dos planos corporais e da originação de caracteres morfológicos ajuda a explicar os resultados que são difíceis de conciliar com o modelo neo-darwinista, por exemplo, a explosão de planos corporais no começo do Cambriano, as origens das inovações morfológicas, a homologia, a mudança rápida e de forma.”http://www.nymc.edu/sanewman/evodevo.htm

Moléculas, células, tecidos e o embrião: Considerando aquilo que realmente importa

Salazar-Ciudad, Jernvall, Newman (2003) fornecem alguns exemplos esquemáticos dos mecanismos básicos de desenvolvimento sobre os quais os processos evolutivos atuam e que precisam ser bem compreendidos para que possamos ter uma teoria integral da evolução biológica que não seja exclusivamente centrada na genética evolutiva de populações, mas também na biologia do desenvolvimento e em considerações teóricas mais amplas.

Três tipos de mecanismos gerais estão envolvidos na [auto]construção dos fenótipos, são eles:

  1. Mecanismos celulares autônomos;
  2. Mecanismos indutivos;
  3. Mecanismos morfogenéticos.

Mecanismos celulares autônomos:
O primeiro tipo de mecanismos envolve propriedades internas às células, dependendo, desta forma, dos seus sistemas metabólicos e de sinalização intra-celular. Aqui a organização citoplasmática e nuclear é fundamental. Pequenas alterações ou assimetrias nas distribuições de certas moléculas podem ter um papel chave e ajudar a estabelecer (pré)padrões no embrião em formação. Implícitos nestes mecanismos estão as propriedades físico-químicas e mecânicas das células individuais especialmente a capacidade destas propriedades de influenciarem e ser influenciadas pelo micro-ambiente extracelular e pelo próprio genoma celular.

Mecanismos indutivos:
Mecanismos indutivos estão entre os mais estudados por embriologistas e biólogos do desenvolvimento. Estes envolvem processos de sinalização célula à célula, tanto através de secreções exócrinas como autócrinas, isto é, envolvendo a liberação de pequenas moléculas difusíveis que interagem com receptores nas membranas celulares de células vizinhas, ou no caso de moléculas lipossolúveis (como ácido retinóico) diretamente com proteínas receptoras citoplasmáticas ou mesmo nucleares. Além disso, estes mecanismos podem ocorrer pela ligação direta das porções extra-celulares de proteínas transmembrana à proteínas receptoras na superfície de células adjacentes.

Mecanismos morfogenéticos:
Aqui princípios mais sutis entram em ação, princípios estes associados às propriedades mecânicas e viscoelásticas dos tecidos e como estas influenciam sua dinâmica ao serem comprimidas, esticadas, torcidas etc.

Apesar deste aspecto ficar mais óbvio na última classe de mecanismos, aqui também a física e a química são essenciais para compreendermos estes processos e apreciarmos como, durante a evolução biológica, estas propriedades podem ter sido ‘exploradas’ através de mutações e mudanças epigenéticas transgeracionais. Neste contexto, as propriedades das células individuais também são importantes, sobretudo aquelas relacionadas a suas capacidades de resposta a deformação mecânica, especialmente em relação a forças como tensão e compressão. Nas últimas décadas Douglas Ingber, do Children’s Hospital de Boston ligado a escola de medicina de Harward, e outros pesquisadores, tem estudado a forma com que células respondem a compressão e a tensão, gerada por células vizinhas ou por alterações na matriz celular sobre a qual estão assentadas.

O ponto crucial aqui é que as reações bioquímica intracelulares não ocorrem em uma solução livre, mas através de arcabouços e estruturas citoplasmáticas, mesmo dentro do núcleo das células vivas. Este sistema organizado e estruturado não pode ser deixado de lado, especialmente a interface entre as mudanças na forma celular e as alterações em sua função e estado de ativação genética.

Ingber aborda o tema a partir da ‘tensegridade‘, um princípio de construção, descrito pela primeira vez pelo arquiteto R. Buckminster Fuller. Sistemas que se organizam através da tensigridade são estabilizados pela tensão contínua ou “integridade tensional” e não por compressão contínua (por exemplo, como em um arco de pedra). Existem duas classes de estruturas que se comportam de acordo com o princípio de tensigridade, as protendidas (pré-tensionadas) e as geodésicas, cuja integridade depende da contínua transmissão de forças de tensão quando estas se encontram sob estresse mecânico. O modelo de tensigridade celular trata as células como estrutura protendidas, isto é, previamente tensionadas, embora estruturas geodésicas também sejam encontradas em célula em escalas menores, como nas vesículas revestidas por clatrina e em capsídeos virais. No modelo, as forças tensionais são suportadas por microfilamentos e filamentos intermediários do citoesqueleto, e essas forças são equilibradas por elementos estruturais interconectados que resistem à compressão, principalmente por ‘vigas internas’ formadas por microtúbulos e pela adesão à matriz extracelular (Ingber, 1998, 2006 veja também o site do laboratório de Ingber).

Alguns dos modelos de Ingber ilustram como o tecido epitelial pode sofrer alterações locais e dar origem a novos pontos de ramificação e de crescimento mesmo em ambientes quimicamente homogêneos, isto é, em que as concentrações de fatores de crescimento e outros morfógenos não variam especialmente (Ingber, 2006). Clique nas figuras abaixo e acima à direita para ver os modelos em questão.

Os processos físicos atuantes durante o desenvolvimento ontogenético, de sistemas biológico modernos, embora estejam sujeitos à restrições específicas (além de raramente agirem de forma “pura”) são basicamente os mesmos processos comuns à todos os meios viscoelásticos e quimicamente excitáveis, sendo eles vivos ou não:

  1. Difusão livre;
  2. Imiscibilidade de líquidos (adesividade diferencial celular);
  3. Comportamento químicos oscilatórios (oscilações bioquímicas);
  4. Estados químicos multi-estáveis;
  5. Acoplamento entre reação-difusão
  6. Responsividade/excitabilidade mecanoquímica.
A ‘matéria mole‘ e os ‘meios excitáveis‘:

Dois conceitos podem nos ajudar a compreender melhor esta questão, muito bem explicados nas palavras de Newman e colaboradores (2006):

“Materiais viscoelásticos não-vivos, tais como a argila, borracha, lava e geléia, por exemplo, estão sujeitos a serem moldados, formados e deformados pelo ambiente físico externo. Tais materiais têm sido chamados de “matéria mole” (soft matter), pelo físico Pierre-Gilles de Gennes (de Gennes, 1992). A maioria dos tecidos vivos são ‘matéria mole’ e todos eles são também o que os físicos termo “meios excitáveis” (Mikhailov, 1990); (Winfree, 1994, Winfree, 2002), materiais que respondem de maneira ativa e previsível ao os seus ambientes físicos. É claro que alguns, se não muito dos resultados da plasticidade organismal das propriedades desses materiais.” (Newman, Forgacs & Müller, 2006)

Webster (2007) descreve um padrão interessante em relação a diversidade fenotípica intra-específica de trilobitas no começo do cambriano em relação as espécies do final do cambriano e mais derivadas. Esta era muito maior no começo deste período e em espécies mais basais, sugerindo uma maior plasticidade fenotípica inicial, talvez, associada a um menor controle e canalização genético-desenvolvimental destes fenótipos e maior dependência deles de mecanismos genéricos e das condições ambientais.

Esta constatação, seguindo algumas das observações e conclusões de Borenstein & Krakauer (2008) sobre a flexibilidade dos sistemas desenvolvimentais dos seres multicelulares do período pré-cambriano, levam a propostas interessantes como a de Newman, Forgacs & Müller (2006):

“Sugerimos que esses processos tiveram livre reinado em estágios iniciais da história da vida multicelular, quando pouca evolução tinha ocorrido dos mecanismos genéticos para a estabilização e fortalecimento de morfologias funcionais de sucesso.” (Newman, Forgacs & Müller, 2006)

O que os levou a sugerir um cenário também bem interessante:

“A partir disso, elaboramos um cenário hipotético para a formação de padrões e morfogênese nos primeiros metazoários. Nós mostramos que as morfologias esperadas que sugeriam durante este relativamente irrestrito estágio “físico” da evolução corresponde à morfotipos oco, multicamada e segmentado, vistos nos embriões na fase de gastrulação dos metazoários modernos, bem como [ao que aparece] em depósitos de fósseis do Ediacariano [cerca de] 600 000000 anos atrás. Nós sugerimos várias maneiras em que os organismos, que eram originalmente formados por mecanismos predominantemente físicos, poderiam ter evoluído mecanismos genéticos para perpetuar suas morfologias.” (Newman, Forgacs & Müller, 2006)


Durante o desenvolvimento ontogenético são ‘empregados‘ uma série de mecanismos físicos básicos que são comuns aos materiais reunidos sobre a alcunha de ‘matéria mole’ ‘meios excitáveis’ que tanto constituem sistemas vivos como não-vivos. Mecanismo estes que Newman tem chamado de “genéricos” (Newman e Comper, 1990 apud Newman, Forgacs & Müller, 2006). Enquanto existe, de fato, debate em torno de cada um destes mecanismos em relação à sua eficácia relativa na determinação dos padrões e transições desenvolvimentais, todos eles são confirmados experimentalmente.

Difusão:

O “amontoamento molecular” no interior de cada célula individual limita em muito o papel da difusão livre neste contexto. Entretanto, existem boas evidências quantitativas para o envolvimento deste processo no estabelecimento de gradientes na escala de embriões multicelulares e de primórdios (brotos) de órgãos.
A difusão do morfógeno Decapentaplegic (DPP) parece ser importante na formação dos discos imaginais em moscas do gênero Drosophila, já que as taxas de difusão extracelulares, a cinética de ligação à proteína receptora para o DPP e sua taxa de ocupação foram mais consistentes com as medidas das taxas de transporte dos modelos envolvendo difusão do que com as dos modelos alternativos sem difusão. Mas, mecanismos ativos, além da difusão, também parecem estar envolvidos no transporte DPP (Newman,
Forgacs & Müller, 2006).
Gradientes da proteína Bicoid materna (BCD) são outro exemplo de processo em que a difusão desempenha um papel, neste caso em um sincício (também não uma célula única). Aqui, mais uma vez, outros processos se somam a difusão, já que o sinal da BCD parece ser “corrigido” por outros fatores, provavelmente incluindo o produto de outro gene maternal, Staufen (Newman, Forgacs & Müller, 2006
).


Adesão diferencial:


Agregados celulares, especialmente quando oriundos de tecidos embrionários, ‘enrolam-se’ como gotas de líquido. Algo análogo ocorre quando pares de tecidos, que diferem em termos de coesividade – baseado no comportamento de espraiamento em um substrato comum e em resposta a forças compressivas – que acabam por se comportar como líquidos imiscíveis, formando interfaces através nas quais as células não se misturam, ou, no caso de misturas heterotípicas de células, estas se separam em fases. Assim, cada tecido, em um dado par, vai engolfar o outro ou ser engolfado, de acordo com a relação coesividade previsível a partir de medições físicas.
Estes comportamentos, segundo Newman e colaboradores (2006), podem ser considerados ‘genéricos’, já que podem ser atribuídos inteiramente às diferenças quantitativas na adesividade celular. Entretanto, ainda existe certa controvérsia sobre se a adesividade diferencial desempenha um papel determinante no desenvolvimento embrionário, mas em muitos dos sistemas investigados a adesão diferencial parece ser bastante importante, embora nem sempre aja de forma exclusiva, na determinação da formação de fronteiras entre territórios celulares.

A adesão diferencial através da expressão de moléculas adesivas homogêneas em toda superfície de células individuais desempenha um papel durante o desenvolvimento, como nos tecidos epitelióides que são formados por células com moléculas adesivas uniformemente distribuídas. Assim, essas massas de tecido epitelial tornam-se epiteliais pela expressão de proteínas que medeiam ou regulam a adesão de uma forma polarizada. Então, como resultado do movimentos aleatórios das células ou de morte de células, que se destacam de seus vizinhos, as regiões de celulares com baixa afinidade aderem-se automaticamente formando em seu interior cavidades ocas ou lúmens. Nos mamíferos, por exemplo, a formação do blastocisto é impulsionada pela expressão de conjuntos específicos de produtos de genes (por exemplo, caderina-E e catenina) que direcionam a aquisição de polaridade celular dentro do trofoectoderma, que é o primeiro epitélio a se formar, durante o desenvolvimento, e a camada celular circundando a blastocele e a massa celular interna (Newman, Forgacs & Müller, 2006).

Oscilações bioquímicas:
A geração ‘temporalmente-periódica de complexos de proteínas funcionalmente ativas, ou expressão de genes, desempenha um papel importante no desenvolvimento. Na fase de clivagem dos embriões da rã Xenopus as 14 divisões celulares que produzem a blástula são acionadas por atores promotores da fase-M (MPF), uma proteína quinase, que consiste em duas subunidades:cdc2 (a subunidade catalítica) e ciclina B (subunidade reguladora). MPF fosforila uma série de proteínas envolvidas na quebra do envoltório nuclear, condensação cromossômica, formação do fuso e outros eventos da meiose e mitose. Considerando que cdc2 está presente em um nível constante durante todo o ciclo celular, a concentração da ciclina B e, portanto, MPF, variam de forma contínua, aumentando para um valor de pico pouco antes do fase M e caindo para um valor basal nas células na saída da fase M . Porém, o mais interessante é que nenhuma transcrição é necessária para produzir esta oscilação. Em extratos citoplasmáticos, livres de núcleos, de óvulos imaturos do anfíbio, ocorrem, mesmo assim, oscilações espontâneas da
proteína MPF, com um período de cerca de 60 min. Isso ocorre por que a ciclina é periodicamente degradada nestes extratos e ressintetizada de uma forma que depende exclusivamente da presença de seus RNAms no citosol (Newman, Forgacs & Müller, 2006).
Oscilações na expressão dos componentes da via de sinalização célula-célula justácrinas, como Notch-Delta e respectivas entidades reguladoras da transcrição (c-hairy em galinhas; HER1 e Her7 no peixe zebra, Danio rerio) são responsáveis pela formação progressiva dos
somitos da placa segmentar em vertebrados. Isto parece envolver também um gradiente espacial de FGF8 cujo ponto alto está na ponta da cauda do embrião e seu ponto mais baixo final fornecem uma “portão”ou “limite”, para além da qual, as células são re-especificadas pelo determinantes oscilantes. Essas oscilações, controlando tanto fase de clivagem do ciclo celular e a somitogênese, são propriedades “genéricas” da rede bioquímica e de seu timing. Os mecanismos dinâmicos propostos para explicar esses relógios bioquímicos dependem menos da identidade molecular única dos produtos gênicos envolvidos, do que das relações formais entre eles: retroalimentação positiva e negativo, atrasos temporais na reposta, limiares de excitação etc (Newman, Forgacs & Müller, 2006). São a partir deste tipo de interações não-lineares que estas propriedades emergem.

Estados bioquímicos multi-estáveis:
Os comportamentos oscilatórios são apenas um dos tipos de dinâmica que as redes bioquímicas intra-celulares, em certas condições específicas, são potencialmente capazes de exibir. A alternação entre estados composicionais estáveis distintos é outro exemplo. Em contraste com sistemas químicos fechados (que sempre evoluem em direção a um estado único macroscópico de equilíbrio químico, veja o artigo “Termodinâmica e evolução:O velho argumento da segunda lei”), as células vivas sendo sistemas abertos, caso possuam um certo nível de complexidade dinâmica, podem exibir vários “atratores dinâmicos” (veja
Lewin, 1994 e Milnor, 2006), para os quais o sistema irá evoluir, terminando em um ou outro estado diferente (Newman, Forgacs & Müller, 2006).
As oscilações bioquímicas do ciclo celular e os ‘relógios somíticos’ são atratores desse tipo: pequenas alterações nos parâmetros do sistema (constantes de velocidade, lapsos de tempo) podem suprimir a oscilação. Para sistemas multi-estáveis, estados alternativos, oscilatórios ou não oscilatórios, podem potencialmente ser atingidos por diferenças nas condições iniciais dos sistema, mas, quando sistemas multi-estabilidade dinâmica é empregada em organismos modernos, como no ciclo celular eucariótico ou na estabilização de estados diferentes de células (ou seja, a robustez, veja abaixo) está se dá através de complexidade bioquímica adicional (Newman, Forgacs & Müller, 2006).
Experimentos com a bactéria Escherichia coli, envolvendo redes de utilização de lactose, demonstraram multi-estabilidade dinâmica que tem sido também proposta como base da diferenciação de células eucarióticas:

“O fenômeno dinâmico da “diversificação isóloga” (Kaneko, 2003, Furusawa e Kaneko, 2006), em que sistemas (células modelo) apresentam estados alternativos de composição somente quando em comunicação com outras cópias do mesmo sistema, proporciona um modelo para a ‘efeito de comunidade’ visto durante o desenvolvimento muscular em Xenopus (Buckingham, 2003, Standley et al., 2002).”


Acoplamento reação-difusão:

Em sistemas dinâmicos complexos, do tipo que apresentam oscilações bioquímicas e multi-estabilidade e permitem a difusão de fatores liberados (por exemplo, os tecidos embrionários descrito acima), há uma tendência genérica para formação padrões espaciais complexos (“Complexo” aqui significa mais elaborado do que os gradientes que pode emergir da simples difusão) de um ou mais dos fatores difusíveis ou morfógenos. A base para a formação de tal padrão – acoplamento de reação-difusão foi proposto pelo matemático Alan Turing, ainda na década de 50 (Newman, Forgacs & Müller, 2006):

“Mecanismos de reação-difusão foi uma curiosidade teórica durante várias décadas após o artigo de Turing, até que o mecanismo foi demonstrado de forma inequívoca, em vários sistemas físico-químicos não vivos (Castets et al. 1990, Ouyang e Swinney, 1991).”

Clique na figura ao lado que ilustra um processo de reação-difusão, gerado pelo software Cardiff de Warren Weckesser (A Reaction-Diffusion Cellular Automaton Program by Warren Weckesser).


Estritamente falando sistemas de reação-difusão, de acordo com Nicolis e Wit (2007), podem ser caracterizados como:

“No sentido estrito do termo, os sistemas de reação-difusão são sistemas envolvendo componentes localmente transformados em outros através de reações químicas e transportados no espaço por difusão. Eles surgem, naturalmente, em química e engenharia química, mas também servem de referência para o estudo de uma ampla gama de fenômenos encontrados para além da esfera estrita da ciência química, tais como meio ambiente e ciências da vida.” (Nicolis and De Wit,2007)


Newman, Forgacs & Müller (2006) definem este tipo de acoplamento da seguinte maneira:

“A idéia básica é que um ‘ativador’ difusível, positivamente autoregulado (por exemplo, o mesmo fator de Even-skipped no sincicial embrionário de Drosophila (Harding et al., 1989), ou TGF-β no broto mesênquimal do membro, Miura e Shiota, 2000b ) tenderá, se não coagido em sua ação, a criar uma frente explosiva que se espalha de sua própria produção e de qualquer efeito, subordinado, a sua atividade. Se, no entanto, o ativador também induz, na mesma população de células, um inibidor de sua ação que se difunde ou se espalha mais rápido que o próprio ativador, haverá uma zona em torno de qualquer pico de ativação na qual não poderá ocorrer a ativação. Novos picos de ativação se formarão apenas a uma distância suficiente, de outros picos, nas quais o efeito do inibidor já tenha desaparecido. Esses sistemas, portanto, tem um comprimento de onda química intrínseca “.

Porém, desde então, evidências acumularam para um papel para este tipo de mecanismo em diversos sistemas biológicos em desenvolvimento:


Newman, Forgacs e Muller (2006) alertam, entretanto, que alguns candidatos supostamente óbvios como o do genes Even-skipped não dependem da mecanismos de reação-difusão, assim, exigindo-nos adotar um certo cuidado:

“As sete faixas de Even-skipped no embrião de Drosophila têm a aparência de um padrão de reação-difusão, mas na verdade é gerado de uma forma mais complexa (AKAM, 1989, Clyde et al. 2003, Small et al., 1991), o que pode ser o resultado da evolução para a estabilidade do desenvolvimento (Newman, 1993, Salazar-Ciudad et al. 2001b), como discutiremos a seguir.”

Excitabilidade mecanoquímica:
Os sistemas teciduais citados anteriormente descritos são todos exemplos de ‘meios excitáveis’. Estes armazenam ou geram energia em várias formas e podem reagir a estímulos através da produção contínua de uma atividade característica. A auto-regulação positiva associada aos processos de reação-difusão é um exemplo disso e geração de oscilações químicas também dependem da excitabilidade. E, adição a excitabilidade bioquímica estes materiais podem exibir excitabilidade mecânica, quando um estímulo evoca uma resposta mecânica ativa. Este tipo de resposta, no entanto, não é muito relevante em tecidos mais fluidos como os descritos em relação a adesão diferencial, já que a mobilidade destas células dentro desses agregados, dissipa as perturbações a maioria desta pertubações mecânicas. Membranas basais complexas como as do epitélio, entretanto, conferem rigidez a estes tecidos, facilitando o armazenamento de energia mecânica, o que, em combinação com um componente celular bioquímico excitável e a continuidade mecânica promovida pela ligação celular superfície-citoplasmática, torna, então, o epitélio embrionário capaz de exibir movimento coletivo de células dependente de tensão, levando à dobramentos complexos e ramificação.
Fica mais fácil de perceber os vínculos
modernos entre a evolução ‘genética’ e os mecanismos físicos e químicos ‘genéricos’ ao analisarmos o papel funcional de algumas moléculas associadas a formação de padrões desenvolvimentais, ao considerarmos as propriedades ‘genéricas’ a que elas estão associadas.
Newman e Bhat (2009) propõe
que a origem, desenvolvimento e evolução morfológica de organismos complexos depende do uso reiterado destas moléculas, que eles chamam de “módulos dinâmicos de padronização” (DPMs, “Dinamics Patterning Modules“.

Os DPMs, segundo Newman e Bhat (2009), constituiriam-se em um subconjunto dos produtos gênicos daquilo que muitos geneticistas, embriologistas e biólogos do desenvolvimento (que trabalham com Evo-Devo) batizaram de “kit de ferramentas” (veja Carroll, 2008) genético-desenvolvimental.

Este “kit” seria formado pelos genes, e seus produtos associados, à formação de padrões durante o desenvolvimento, isto é, principalmente, na determinação do eixos anterior-posterior e dorso-ventral, formação de brotos de apêndices/membros/nadadeiras distais e segmentação corporal e formação de sistemas visual. Estas moléculas incluiriam moléculas adesivas, que seriam expressas na superfícies das células, proteínas ligadas a sinalização intracelular (como as proteínas quinases e fosfatases), além dos nossos já bem conhecidos fatores de transcrição (elementos Trans-ativos) juntamente com seus elementos Cis-regulatórios proximais e distais (Newman e Bhat, 2009).


Estas moléculas não representam os processos e forças físicas per se, mas é através delas que a dinâmica desenvolvimental é instanciada. Mudanças nestas e em outras moléculas, mas, sobretudo, em seu padrão de atividade e conectividade na rede de interações nas quais elas estão envolvidas, é que irão influenciar a geometria, biofísica e bioquímica do desenvolvimento, fazendo, assim, a ponte entre a evolução molecular e as forças físicas e mecanismos químicos a partir dos quais as formas emergem durante o desenvolvimento e se modificam através da evolução.

Os DPMs funcionariam em associação com os processos físicos ‘genéricos’ que seriam por eles mobilizados. Os produtos gênicos controlariam parte dos parâmetros destes processos físicos e químicos, “tais como as característica químicas e de excitabilidade mecânica típicas de certos sistemas mesoscópicos de agregados celulares como: coesão, viscoelasticidade, difusão, heterogeneidade espaço-temporal com base na interação do inibidor do ativador, e multi-estáveis e dinâmica oscilatória” (Newman e Bhat, 2009).

Muitos dos genes (e seus produtos) que compõe este ‘kit de ferramentas’ dos metazoários já existiam antes do aparecimentos deste grupo de organismos, portanto, adquirindo “novas funções morfogenéticas simplesmente em virtude da mudança de escala e de contexto inerente à multicelularidade“.

A ação destas moléculas (DPMs), agindo isoladamente e em combinação com outras, formariam um espécie de linguagem, uma “linguagem de padrões” ou uma “linguagem de padronização” capaz de gerar todos os planos, além das formas de estruturas e órgãos, dos corpos dos metazoários (Newman e Bhat, 2009).

As trajetórias relativamente estáveis de desenvolvimento morfológico, e dos fenótipos de maneira geral, que encontramos atualmente nos organismos multicelulares modernos, então, seriam, em certo sentido, novidades. Consideradas produtos ou refinamentos secundários alcançados a partir de seleção natural que privilegiou as mudanças genéticas dos sistemas (e de subsistemas extras de controle) que tornassem os fenótipos mais estáveis e mais fielmente replicáveis geração após geração, assim menos dependentes do ambiente. Assim, sistemas de canalização que mantém a robustez dos fenótipos frente a perturbações genéticas (mutações) e ambientais, talvez tenham sido uma aquisição tardia da evolução animal. A modularização das redes de controle genético-desenvolvimental que possibilita a evolução semi-autônoma de características fenotípicas, pode também ter se seguido a este período mais flexível da evolução da multicelularidade (Newman e Bhat, 2009):

Esta perspectiva resolve o aparente “paradoxo analogia-homologia molecular”, onde muito tipos divergentes de animais modernos utilizam o mesmo conjunto de ferramentas moleculares durante o desenvolvimento, mas fazem-no, invertendo o princípio neo-darwinista que a disparidade fenotípica foi gerada durante longos períodos de tempo em concerto com, e em proporção à mudança genotípica (Newman e Bhat, 2009).


Assim, um ‘cerne’ genético-desenvolvimental comum permanece até hoje, ainda muito coeso (pense no genes Hox e Pax-6, ambos fatores de transcrição, respectivamente ligados a
formação do eixo antero-posterior em vertebrados e invertebrados e do sistema visual), enquanto variações sobre estes temas – típicos de um processo de ‘bricolagem‘ (Jacob, 1977), em que novos ‘incrementos’ e ‘refinamentos’ (ou a simples readequação às mudanças no contexto ecológico, no qual vivem os animai) se dá através do uso reiterado de elementos contingentemente disponíveis – foram obtidos pela simples modificação de sistemas anteriores (veja a importância dos processos de formação de novos genes aqui e aqui), utilizando-se basicamente das mesmas ‘peças’ e das ‘mesmas ferramentas‘, apenas combinadas de forma diferente, em contextos diversos e de forma mais controlada e restringida.

Newman e
Bhat (2009) sugerem um modelo hipotético de como a ação combinatória das diversas moléculas DPM, ao modular as diversas forças e propriedades físicas e químicas, poderiam dar origem a diversas características dos sistemas em desenvolvimento. Características estas fundamentais para a construção dos planos corporais típicos de animais.

O uso reiterado destes módulos de padronização, e dos processos que eles ajudam a modular (como difusão, adesão diferencial, acoplamento de reação-difusão, oscilações bioquímicas e manutenção de regimes multi-estáveis etc), podem gerar muitas das características típicas dos planos corporais e estruturas do metazoários; e, mais tarde, através da adição de circuitos genéticos extras e vias de sinalização redundantes (e semi-autônomas que se sobrepõem parcialmente) estabilizar a morfogênese aumentando sua fidedignidade (veja a figura acima e a direita para maiores detalhes).

Os módulos DPM podem se originar a partir de processos típicos associados à origem de novos genes e circuitos regulatórios que vem sendo estudados nas ultimas três décadas, especialmente a partir da duplicação gênica.

Este processo pode ser visualizado através da figura abaixo, na qual a duplicação gênica é seguida de mutações que levam aquisição de novas funcionalidades. Estas figuras são inspiradas em alguns dos exemplos exibidos nos trabalhos de Sean B. Carroll (como Carroll, 2005; Prud’homme, Gompel & Carroll, 2007 e Carroll, Prud’homme & Gompel, 2008) que sugerem como modificações em circuitos regulatórios Cis– e em proteínas Trans– através a partir da duplicação de genes seguidas de neofuncionalização ou subfuncionalização, o que pode não só criar novas proteínas, mas criar novos sistemas e módulos regulatórios.

Aos poucos o quadro teórico torna-se mais claro e podemos entender os fenômenos evolutivos de forma bem mais ampla, ao mesmo tempo que certos detalhes ficam cada vez mais compreensíveis.

Começamos a compreender em um nível cada vez mais refinado os processos de origem das mutações (veja Mutações: A aleatoriedade em sua essência), através de processos fundamentalmente quânticos (e imprevisíveis ao nível individual), e destino destas mutações. Temos condições de apreciar, em um nível excepcional de resolução, como processos estocásticos (como a deriva aleatória e o arrasto genético. particularmente via efeito carona) podem agir em combinação com a estrutura genética e demográfica das populações e com a seleção natural. Ao mesmo tempo, acompanhamos como alguns tipos de mutações tem conseqüências potenciais diferentes de outras que podem ir das mais simples (mutações pontuais, inserções e deleções) até grandes alterações cromossômicas e genômicas, passando por processos intermediários como a duplicação gênica, conversão gênica enviesada, fissão e fusão gênica, além de efeitos de transposição, todos essenciais na produção de novo material genético.

Avançando ainda mais, percebemos que certos processos são gerativamente enviesados – em função do complexo mapeamento entre genes e fenótipos e por causa dos próprios mecanismos de duplicação e reparo genômico – e outros são funcionalmente enviesados, isto é, seus resultados prestam-se mais a evolução pois envolvem alterações em circuitos gênicos em um nível hierárquico, e de uma forma, que minimizam potenciais efeitos deletérios pleiotrópicos e epistáticos. A organização em rede dos genomas parece ser tanto um processo adaptativo como espontâneo fruto da dinâmica auto-organizada de redes emergentes como os resultados de sugerem Borenstein & Krakauer (2008). Além disso, muitos dos elementos e ‘embelezamentos’ genômicos, como a aquisição de introns, modularização de circuitos gênicos (por duplicação e subfuncionalização) e origem de elementos Cis- e regiões UTR (regiões não traduzidas do RNA mensageiro) são em parte explicadas pela maior tolerância a mutações ligeiramente deletérias associadas a diminuição no número efetivo das populações de animais, sobretudo vertebrados e a menor eficiência da seleção purificadora, como os trabalhos de grupos como o de Michael Lynch tem indicado (veja para maiores detalhes Além da seleção natural ou a importância da evolução neutra), além dos efeitos da deriva genômica e evolução de famílias gênicas por eventos de “nascimento e morte” refletidos nos resultados do time de Masatoshi Nei e os trabalhos de pesquisadores como Arlin Stoltzfus, Austin L. Hughes, Lev Y. Yampolsky sobre viés mutacional.

Desta forma, mesmo os tópicos mais complicados e difíceis de investigar vão tornando-se mais coerentes e compreensíveis, na medida que os novos métodos e dados empíricos se acumulam, permitindo que uma visão mais abrangente da evolução biológica se desenvolva, formando-se da união de novas e antigas perspectivas teóricas potencializadas por novos métodos experimentais e de prospecção e análise de grandes quantidades de dados biológicos.
___________________
Referências:

Alberch, P., S. J. Gould, G. F. Oster, and D. B. Wake. Size and Shape in Ontogeny and Phylogeny.” Paleobiology 5 (1979): 296–317.
Arthur W. D’Arcy Thompson and the theory of transformations. Nat Rev Genet. 2006 May;7(5):401-6. Erratum in: Nat Rev Genet. 2006 Jun;7(6):473. PubMed PMID:16607399.
Borenstein E, Krakauer DC. An end to endless forms: epistasis, phenotype distribution bias, and nonuniform evolution. PLoS Comput Biol. 2008 Oct;4(10):e1000202. Epub 2008 Oct 24. PubMed PMID: 18949026; PubMed Central PMCID: PMC2562988.
Carroll SB. Evolution at two levels: on genes and form. PLoS Biol. 2005 Jul;3(7):e245. Epub 2005 Jul 12. Review. PubMed PMID: 16000021; PubMed Central PMCID: PMC1174822. – http://www.plosbiology.org/article/info%3Adoi%2F10.1371%2Fjournal.pbio.0030245.
Carroll SB. Evo-devo and an expanding evolutionary
synthesis: a genetic theory of morphological evolution. Cell. 2008 Jul
11;134(1):25-36. PubMed PMID:18614008.

Carroll SB, Prud’homme B, Gompel N. Regulating evolution. Sci Am. 2008 May;298(5):60-7. PubMed PMID: 18444326. – http://www.ibdml.univ-mrs.fr/equipes/BP_NG/publications-files/Carroll2008.pdf
Davidson EH, Erwin DH. Gene regulatory networks and the evolution of animal body plans. Science. 2006 Feb 10;311(5762):796-800. Review. PubMed PMID:16469913.
Erwin DH. Macroevolution is more than repeated rounds of microevolution. Evol Dev. 2000 Mar-Apr;2(2):78-84. PubMed PMID: 11258393.
Gilbert SF, Opitz JM, Raff RA. Resynthesizing evolutionary and developmental biology. Dev Biol. 1996 Feb 1;173(2):357-72. Review. PubMed PMID: 8605997.
Goodwin BC. The life of form. Emergent patterns of morphological transformation. C R Acad Sci III. 2000 Jan;323(1):15-21. Review. PubMed PMID:10742907.
Gould, S.J. (1977). Ontogeny and Phylogeny. Cambridge,
Massachusetts: The Belknap Press of Harvard University Press. pp. vii-viii. ISBN 0-674-63940-5. Also ISBN 0-674-63941-3

Ingber DE. The architecture of life. Sci Am. 1998 Jan;278(1):48-57. PubMed PMID: 11536845.
Ingber DE. Mechanical control of tissue morphogenesis during embryological development. Int J Dev Biol. 2006;50(2-3):255-66. Review. PubMed PMID: 16479493.
Jacob F. Evolution and tinkering. Science. 1977 Jun 10;196(4295):1161-6. PubMed PMID: 860134.
Leroi A.M. The scale independence of evolution. Evol Dev. 2000 Mar-Apr;2(2):67-77. Review. PubMed PMID: 11258392.
Lewin, Roger. Complexidade: a vida no limite do caos. Rio de Janeiro: Rocco, 1994.
Milnor, John W. (2006), Attractor Scholarpedia, 1(11):1815.
Newman, S. A. (1994). Generic physical mechanisms of tissue morphogenesis: A common basis for development and evolution. J. Evolutionary Biology 7, 467-488.
Newman, S. A., Forgacs, G., and Müller, G. B. (2006). Before programs: The physical origination of multicellular forms. Int. J. Dev. Biol. 50, 289-99.
Newman, S. A., and Bhat, R. (2008). Dynamical patterning modules: physico-genetic determinants of morphological development and evolution. Phys. Biol. 5, 15008.

Newman, S. A., and Bhat, R. (2009). Dynamical patterning modules: a “pattern language” for
development and evolution of multicellular form. Int. J. Dev.
Biol.
53, 693-705

Nicolis, Gregoire and De Wit, Anne (2007 Reaction-diffusion systems Scholarpedia, 2(9):1475.
Nijhout HF. When developmental pathways diverge. Proc Natl Acad Sci U S A. 1999 May 11;96(10):5348-50. PubMed PMID: 10318884; PubMed Central PMCID: PMC33575.
Prud’homme B, Gompel N, Carroll SB. Emerging principles of regulatory evolution. Proc Natl Acad Sci U S A. 2007 May 15;104 Suppl 1:8605-12. Epub 2007 May 9. PubMed PMID: 17494759; PubMed Central PMCID: PMC1876436.
Rice, S. H. 1997. The analysis of ontogenetic trajectories: when a change in size or shape is not heterochrony. PNAS 94:907- 912.
Rice, S. H. (2010) Heterochrony – Types of Heterochrony, Factor in Morphological and Human Evolution, heterochrony, Figure 1., sequential hypermorphosis, sequential progenesis Science Encyclopedia.
Ridley, M (2003) http://www.blackwellpublishing.com/ridley/a-z/Heterochrony.asp Evolution 3rd edition web site companion disponível na url: http://www.blackwellpublishing.com/ridley.
Salazar-Ciudad I, Jernvall J, Newman SA. Mechanisms of pattern formation in development and evolution. Development. 2003 May;130(10):2027-37. Review. PubMed PMID: 12668618.
Stern DL, Orgogozo V. Is genetic evolution predictable? Science. 2009 Feb 6;323(5915):746-51. Review. PubMed PMID: 19197055.
Stern DL, Orgogozo V. The loci of evolution: how predictable is genetic evolution? Evolution. 2008 Sep;62(9):2155-77. Epub 2008 Jul 4. Review. PubMed PMID: 18616572; PubMed Central PMCID: PMC2613234.
Webster, M. 2007. A Cambrian peak in morphological variation within trilobite species. Science 317: 499-502.
Wray GA. The evolutionary significance of cis-regulatory mutations. Nat Rev Genet. 2007 Mar;8(3):206-16. Review. PubMed PMID: 17304246.

Referências Adicionais:

Carroll, Sean B. (2006) Infinitas Formas de Grande Beleza: Como a evolução forjou a grande quantidade de criaturas que habitam o nosso planeta (Tradução:Diego Alfaro) Jorge Zahar editora ISBN: 85-7110-935-4.

de Gennes, Pierre-Gilles (December 9, 1991) SOFT MATTER Nobel Lecture – disponível em http://nobelprize.org/nobel_prizes/physics/laureates/1991/illpres/index.html


Gould, S.J. (1977). Ontogeny and Phylogeny. Cambridge, Massachusetts: The Belknap Press of Harvard University Press. pp. vii-viii. ISBN 0-674-63940-5. . Also ISBN 0-674-63941-3.


Jablonski, D. 2008. Species selection: Theory and data. Annu. Rev. Ecol. Evol. Syst. 39: 501-524.


Jacob, François (1998) O rato, a mosca e o homem editora Companhia das Letras ISBN 9788571647947.


Shubin, Neil (2008)A história de quando éramos peixes: uma revolucionária teoria sobre a origem do corpo humano editora Campus-Elsevier ISBN 978-85-352-2079-7.

Créditos das figuras:

RICHARD BIZLEY / SCIENCE PHOTO LIBRARY
RICHARD BIZLEY / SCIENCE PHOTO LIBRARY
CHRISTIAN JEGOU PUBLIPHOTO DIFFUSION/ SCIENCE PHOTO LIBRARY
ALAN SIRULNIKOFF / SCIENCE PHOTO LIBRARY
LIBRARY OF CONGRESS / SCIENCE PHOTO LIBRARY
LAWRENCE BERKELEY NATIONAL LABORATORY/ SCIENCE PHOTO LIBRARY
EYE OF SCIENCE / SCIENCE PHOTO LIBRARY
DR JEREMY BURGESS / SCIENCE PHOTO LIBRARY

Structure of evolutionary biology http://commons.wikimedia.org/wiki/File:Structure_of_Evolutionary_Biology.png (autor: Azcolvin429).

CAM juxtacrine http://commons.wikimedia.org/wiki/File:We_can_change_this.jpg (Teamsuperawesome)
Epidermal growth factor receptor (EGFR) signaling pathway. http://commons.wikimedia.org/wiki/File:EGFR_signaling_pathway.png (author Eikuch)

MARK SMITH / SCIENCE PHOTO LIBRARY