Sem categoria

Genes adormecidos: da história da genética ao Jurassic Park


Site da matéria original

 

A genética é a base do entendimento da produção de um ser vivo; é a ciência que estuda a hereditariedade. Ela sempre fez parte da vida das pessoas, mesmo das que jamais ouviram falar dela. Quem nunca ouviu: “_Fulano puxou o nariz do pai.”, “_Beltrano tem os olhos do avô.”. Isso é genética em sua definição mais pura, a herança de características.

 

 

A genética produz você, o ambiente complementa.

 

    Os povos antigos usavam-na em seu “melhoramento genético”, que pode também ser definido como seleção artificial. Imagine como deve ter sido difícil para esses povos ter a ideia de que, ao produzir sementes boas, o ideal não seria comê-las, mas sim plantá-las para produzir mais delas. É contra-intuitivo. O cérebro funciona de maneira óbvia: Comida boa? Coma! Comida ruim? Jogue fora!

    Mesmo contra a intuição, os antigos perceberam que se comessem as sementes ruins e plantassem as boas, no futuro teriam maior número de plantas que produziriam sementes boas. Os dados estavam lançados. Era só uma questão de tempo para que modificássemos a paisagem natural ao criar espécies novas. Um exemplo incrível é o da criação do milho a partir da domesticação do teosinte, feita pelos índios americanos nos últimos 10 mil anos.

 

 

1- Teosinte, 2- híbrido entre os dois e 3 – milho; a espiga aumentou de tamanho por melhoramento genético (seleção artificial).

 

    Apesar de fazer parte da história da humanidade, os primeiros passos da genética como ciência demoraram a ocorrer, e foram dados pelo monge austríaco Gregor Mendel (1822-1884), e um caminho muito longo foi percorrido desde então; passando pela descoberta da estrutura do DNA (Watson & Crick) em 1953, a clonagem, os transgênicos, e culminando na conclusão do projeto genoma humano.

 

 

Gregor Mendel; a molécula de DNA; Crick e Watson.

 

    Conforme o conhecimento humano aprofundava-se nos campos da genética e biologia molecular, a estranheza aumentava. Os cientistas tiveram que rever seus conceitos várias vezes.

    O primeiro engano foi imaginar que, por sermos, em uma visão quase religiosa “o ápice da evolução”, deveríamos ter um genoma mais complexo que os outros seres vivos, com maior número de genes ativos. O mapeamento do genoma de outros seres mostrou que não existe essa relação. E pior. Nos “envergonhamos” ao saber que até alguns seres unicelulares apresentam genoma maior que o nosso.

 

 

Polychaus dubium, protozoário com genoma aproximadamente 200 vezes maior que o nosso.

 

    Outra surpresa foi encontrar um número muito menor de genes do que o esperado (25.000 aproximadamente), indicando que 98% do genoma não produzia proteínas. Inicialmente esse DNA foi considerado “lixo”, mas atualmente sabemos que ele pode ter papel na regulação de síntese protéica nas regiões codificantes (que produzem proteínas). Agora as coisas começam a ficar interessantes, mas não menos estranhas. Parte desse DNA é formado por sequências repetitivas, mas partes são muito semelhantes a genes encontrados ativos em outras espécies. Seriam esses genes pedaços adormecidos de DNA comuns a nós e os outros animais, mostrando a nossa ancestralidade comum? Esses genes poderiam ser religados? Os outros animais também possuiriam sequências de genes inativos?

    A resposta é sim para as três perguntas. Existe uma teoria fortemente embasada que afirma que as aves atuais originaram-se dos dinossauros do grupo dos terópodes. Uma das principais evidências é o fóssil do Archaeopteryx lithographica, descoberto em 1861. Trata-se de um animal com características de dinossauros (dentes afiados, garras nos membros anteriores, cauda longa e ausência do osso esterno) e aves (penas).

 

 

Archaeopteryx litographica.

 

    A possibilidade da ancestralidade entre aves e dinossauros criou uma pergunta visionária. Estariam os genes de dinossauros inativos nas aves? E se estiverem, poderão ser religados? Poderíamos ver um dia animais muito semelhantes a dinossauros produzidos a partir de galinhas? É uma possibilidade fascinante. Ao invés de usar o martelo, o cinzel e o pincel, os paleontólogos do futuro usarão placas de petri e microscópios. O rugido dos dinossauros seria ouvido novamente após 65 milhões de anos.

 

 

“Galinhassauro”

 

    Alguns pesquisadores, como Jack Horner, autor do livro How to build a dinosaur (Como construir um dinossauro, em português), apostam nessa possibilidade. “Os genes envolvidos na formação de dentes, na construção dos dedos e em outros detalhes da anatomia dos dinossauros ainda existem no genoma das aves, mas foram silenciados”, explica a paleontóloga Mary Higby Schweitzer, colaboradora de Horner na universidade da Carolina do Norte. O grupo trabalha na tentativa de produzir cauda reptiliana e membros anteriores com dedos em aves.

    Seguindo a mesma linha, o pesquisador Matthew Harris, da universidade de Winsconsin, nos Estados Unidos, deparou-se com um achado fantástico. Identificou um embrião de galinha com dentes. Por algum motivo o gene para produção de dentes estava ativo nesse embrião. Agora é um fato: Os genes adormecidos às vezes acordam, espontaneamente!

 

 

Embrião de galinha normal e embrião com dentes.

 

    Os dinossauros do grupo dos terópodes apresentavam uma semelhança morfológica gritante com as aves, como podemos ver na comparação entre a reconstituição do galimimo e uma avestruz moderna. A ancestralidade reptiliana das aves está lá. Lutando para vir à tona. Quem sabe não possamos dar uma mãozinha? O Jurassic Park insinua-se à nossa porta. 

 

 

Avestruz e Galimimo, cujo nome significa “imitação de ave” devido ao formato de seu corpo.

 

    Os meios não são os mesmos imaginados por Steven Spielberg. Em sua ficção, o diretor imaginou a clonagem a partir de DNA retirado de pernilongos que se alimentaram de sangue dos dinossauros, e acabaram ficando preservados em âmbar (resina vegetal fossilizada). Esse método mostrou-se muito improvável, pois as moléculas de DNA não resistem aos milhões de anos passados desde a fossilização. A ciência atual, por outro lado, está partindo para algo que podemos definir como “engenharia reversa”.

 

 

Inseto preso no âmbar e o Parque Jurássico da ficção.

 

    Vivemos um período excitante de descobertas na ciência. O futuro abre-se paradoxalmente como uma janela para o passado. O DNA faz parte do nosso cotidiano, e as maravilhas da genética estão ai para deslumbrar aqueles que sabem observar.


Evolução da visão tricromática em primatas

ResearchBlogging.org

Algumas das mais belas histórias tem sido reveladas pela investigação científica. Algumas tão ou mais empolgantes que os maiores mitos, contos e epopéias criadas pelos seres humanos. Nas ultimas 3 décadas, uma dessas histórias vem sendo esmiuçada, através de uma combinação de estratégias analíticas, inferenciais e experimentais que ilustram muito bem como as explicações em biologia evolutiva funcionam e como são testadas as hipóteses desta área.
 
Neste post entramos em contato com uma parte da história da evolução da visão em cores nos primatas do novo e, especialmente, do velho mundo, como os chimpanzé, gorilas, orangotangos e, nós, seres humanos. Essa é, portanto, também parte de nossa história e começa há muitos e muitos anos. Algo em torno de 100 milhões de anos, para ser mais específico, antes da separação do supercontinente de gonduana, na aurora da evolução dos primatas.

 

A idéia deste artigo originou-se de uma das perguntas do formspring evolucionismo que me levou a encontrar uma das mais bem construídas e ilustrativas palestras sobre evolução que já vi, apresentada por Jeremy Nathans, um dos protagonistas do estudo da evolução das cores em primatas. Este mesmo tema foi também assunto de um artigo da revista Scientific American que o próprio Nathans co-escreveu com o neurocientista Gerald H. Jacobs e que é usado como base deste post.
 
Essa aventura biológica serve também como lembrete da importância que o acaso e a contingência histórica tem no processo evolutivo, ao mesmo tempo ressaltando o papel especial da flexibilidade inerente aos sistemas biológicos – cuja plasticidade neural é uma das principais manifestações desta propriedade – no aproveitamento do acaso e da contingência.
 
A visão é uma das modalidades sensoriais mais fascinantes e, provavelmente, com a qual temos mais familiaridade.  Talvez seja mesmo a que defina nossa perspectiva particular como entes conscientes. Somos animais visuais.

A primeira lição é que esse exuberante mundo cromático- que a maioria de nós toma como certo – que nos é possibilitado por nossa capacidade de distinção tricromática, na realidade, depende de três fotopigmentos retinianos [que são expressos em células chamadas ‘cones’ que junto com os bastonetes formam a superfície fotossensível de nossa retina] e dos circuitos neurais a eles associados.

A maioria das pessoas que possuem visão relativamente normal talvez tenham dificuldade em imaginar o que é ver o mundo mais esmaecido – ou mesmo completamente ausente de cor – que uma parte da população humana experiencia, as pessoas que apresentam uma condição chamada de daltonismo. O termo em inglês ‘color-blind‘ (cego à cor) parece capturar melhor o extremo desta condição, mais rara, já que são realmente poucos os indivíduos realmente completamente cegos à cor. A maioria dos indivíduos daltônicos têm problemas em distinguir certas cores de outras, como o vermelho do verde, e vivem em um mundo mais esmaecido.

Existem muitas mutações que podem levar um individuo a ser daltônico e geralmente acometem mais aos homens do que as mulheres, algo que ocorre por um simples motivo: Dois dos genes responsáveis por nossa sensibilidade espectral, exatamente aqueles associados a detecção dos comprimentos de onda visíveis mais longos da luz, localizam-se no cromossomo X e, nós, homens só possuímos um desses cromossomos. A localização contígua desses dois genes também gera toda sorte de problemas de recombinação e boa parte disso pode ser trilhado às origens evolutivas do sistema de visão tricromática dos primatas. Muitos dados clínicos especialmente de pacientes com formas de daltonismo causadas por diferentes mutações e mesmo de pessoas normais com combinações quiméricas de genes dos fotopigmentos acabaram sendo de grande ajuda na elucidação deste complicado quebra-cabeças evolutivo. Evidenciando como a pesquisa clínica (aplicada) e a evolutiva (básica) se entrelaçam na prática e fertilizam-se mutuamente.

Cada um desses três fotopigmentos absorve parte do espectro de luz visível, sendo ativados de forma ótima por um comprimento específico diferente que o caracteriza: Curto (S, Short)  com pico em 430 nm; Médio (M, Medium) com pico em 530 nm e Longo (L, Long), com pico em 560 nm.

Esses pigmentos, conhecidos como rodopsinas, são, de fato, grandes proteínas transmembrana complexadas como uma molécula de retinol, composto derivado da vitamina A, ligada a um resíduo do aminoácido lisina. As rodopsinas fazem parte de uma bem conhecida e muito estudada classe de receptores de membrana, os chamados receptores acoplados a proteína G. Um tipo de receptor metabotrópico com sete domínios transmembrana. A forma de ação convencional desta família de receptores envolve a ativação da proteína por um ligante (em geral uma pequena molécula hidrossolúvel) que ao ligar-se desencadeia alterações na conformação da proteína que, por sua vez, provocam alterações na proteína G acoplada a ela, produzindo assim uma cascata de eventos bioquímicos intracelulares que, por exemplo, podem interferir com a permeabilidade iônica da membrana. Tudo isso pode ser visto na ilustração abaixo. A grande diferença é que, no caso das rodopsinas, o agente modulador é a luz de uma faixa de comprimentos de onda específicos cujo pico de maior estimulação do receptor corresponde aos comprimentos de onda antes descritos (S, M, L). O retinol funciona com o grande coringa do processo de fotorrecepção, agindo como o cromóforo das reações fotoquímicas que desencadeiam as alterações bioquímicas e celulares por trás dessa etapa inicial da visão em cores.         

Muitos mamíferos possuem apenas dois desses fotopigmentos em suas células fotorreceptoras específicas, S e M. Outros animais, como insetos que também possuem visão tricromática, podem incluir fotopigmentos sensíveis ao Ultra Violeta (UV); e alguns vertebrados, como aves e certos peixes, possuem até mais receptores, configurando sistemas de visão tetracromáticos. 

Outro aspecto bastante interessante sobre a visão em cores é que, enquanto os genes para as rodopsinas L e M estão localizados no cromossomo X, como já descrito, o gene do pigmento S fica localizado no cromossomo 7 e tem uma origem filogenética independente ainda mais antiga, estando presente em vários vertebrados.

Do ponto de vista adaptativo, a habilidade de diferenciar uma gama maior de cores pode ter sido de grande valia para os indivíduos no passado, como ainda é hoje em dia. Podemos conjecturar algumas dos contextos ecológicos e comportamentais que ajudaram a definir as pressões seletivas por trás da evolução da tricromia e, até, podemos testar a plausibilidade de algumas desses cenários (veja, por exemplo, Dominy e Lucas, 2001). A habilidade de diferenciar entre frutos maduros e verdes – ou folhas e brotos verdes da(o)s seco(a)s- é, certamente, um dos tipos de vantagens mais prováveis, sendo seguido da capacidade de identificação de animais com ‘displays’ de cor para veneno; e da detecção de sinais de maturidade sexual em primatas.

O trabalho de Nathans se iniciou nos anos 80 com o seqüenciamento das diferentes rodopsinas com sensibilidade ótima a cada um dos três picos de comprimento de onda. O primeiro resultado interessante de seus estudos é a incrível semelhança, em termos de identidade e similaridade dos resíduos de aminoácidos (como pode ser visualizada no alinhamento a seguir), entre as proteínas fotorreceptoras L e M, com cerca de quase 90% de similaridade. [Essa semelhança é corroborada pelas próprias curvas espectrais dos pigmentos L e M que são muito próximas, como mostra a figura acima.]


Em seguida, como fato interessante e já mencionado, temos a própria localização dos dois loci, quase que contíguos, no cromossomo X. Este arranjo sugere que ambos genes são parólogos, ou seja, homólogos originados por duplicação de um gene ancestral. A duplicação gênica é um fenômeno bem conhecido, sendo considerada um dos mecanismos mais importantes para origem de novos genes.

A duplicação pode ocorrer, entre outras causas, por erros de pareamento durante a divisão celular que podem levar ao chamado crossing over desigual [Veja mais informações sobre este e outros processos de origem de novos genes aqui e aqui]. A hipótese mais natural, portanto, é que em algum momento há dezenas de milhões de anos, após a duplicação de um gene ancestral de rodopsina sensível a comprimentos de onda mais longos, um período de divergência se seguiu quando uma ou as duas cópias passaram a acumular mutações e, então, divergiram funcionalmente. Teria sido durante esse processo de divergência que as novas propriedades teriam surgido, através daquilo que se convencionou chamar de neo-funcionalização. No entanto, apesar de muito atrativo, esse modelo, talvez, não seja o mais indicado para explicar o que, de fato, aconteceu, o que faz a história da visão tricromática em primatas ainda mais interessante.

Os detalhes desta história nos são revelados ao analisarmos comparativamente a visão tricromática dos primatas do novo mundo e investigarmos como ela difere da nossa – ou seja, da dos primatas do velho mundo. Antes, contudo, resta outro problema. Ainda não parece claro como mutações, na verdade bem poucas mutações, poderiam reajustar a sensibilidade do novo fotopigmento.

De fato, a resolução deste problema é muito mais simples do que muitos poderiam imaginar a principio, pois o cromóforo (a molécula de retinol) continua sendo o mesmo em todos os casos. O que muda é apenas o ambiente físico-químico a sua volta e que, obviamente, dependente das cadeias laterais dos aminoácidos – e de seu arranjo tridimensional particular – que envolvem o cromóforo quando a cadeia polipeptídica se enovela formando a estrutura tridimensional funcional da proteína [Para maiores detalhes clique na figura ao lado]. Este ambiente eletrônico simplesmente pode fazer com que os diferentes isômeros resultantes da reação de fotoisomerização (a conversão de trans-retinol <-> 11-cis-Retinol) sejam mais ou menos estáveis, deslocando o pico de absorção ótima em que esta reação fotoquímica ocorre. Para tanto foram necessárias apenas três substituições nos 364 aminoácidos que compõem essas rodopsinas, o que permitiu este reajuste e que, por si só, tem importantes implicações filogenéticas. Porém, não se encerra por aí, voltando a se complicar, ficando bem mais emocionante. A questão é que a tricromia em macacos do novo e velho mundo é bastante diferente, ainda que os pigmentos envolvidos sejam muito semelhantes.

A localização cromossômica e o arranjo genômico dos genes desses pigmentos é muito reveladora. Através dela podemos tentar reconstruir o arranjo presente no nosso ancestral comum e inferir o que pode ter acontecido a partir daí.

A visão tricromática está presente em apenas uma fração dos primatas do novo mundo. De fato, esta característica ocorre apenas em uma porção das fêmeas já que os machos são sempre dicromatas. Os dois tipos de receptores L e M  (além do gene para a rodopsina S localizado em outro cromossomo) já estão presentes, mas não como genes parólogos, arranjados próximos um do outro em um mesmo cromossomo, mas sim como alelos diferentes de um mesmo locus. Por exemplo, em macacos-de-cheiro, encontramos três variantes de rodopsinas sensíveis a comprimentos de ondas maiores, um deles muito semelhante ao pigmento M, outra muito semelhante ao pigmento L e uma outra com sensibilidade intermediária entre ambas. Isso quer dizer que apenas as fêmeas, que possuem os dois cromossomos X e que são heterozigotas para esse locus – possuindo pelo menos uma cópia do alelo equivalente ao L e uma do equivalente ao M – é que possuem a visão tricromática.
Esta situação indica um interessante desvio no modelo de duplicação seguido de divergência. Neste caso, a divergência teria ocorrido primeiro com o aparecimento de um alelo (ou dois novos) que só mais tarde, na linhagem dos grandes símios, deve ter sido translocado, através de um erro de recombinação, para um dos cromossomos X transformando-se em um novo locus.

 

O fato que levou os pesquisadores a terem bastante confiança nesse cenário é que as mutações, em macacos do novo mundo, que permitem os diferentes alelos serem sensíveis aos diferentes picos de comprimento de onda são as mesmas – envolvendo as mesmas substituições de aminoácidos – envolvidos na visão tricromática de primatas do velho mundo. Com sabemos pela análise da visão policromática em outros animais e pela análise espectrográfica das diversas rodopsinas, outras mutações poderiam gerar os mesmos desvios espectrais (i.e. A mesma sensibilidade à comprimentos mais longos, M e L), portanto, a hipótese da origem comum é a mais parcimoniosa e, desta forma, preferível. Portanto, como a marca da história está ainda nas seqüencias desses genes, este fato nos permite concluir com muito mais confiança pelo modelo de divergência alélica seguida de translocação de um dos alelos para o cromossomo do outro.

A história, no entanto, também não acaba por aqui, pois ainda precisamos saber como a expressão desses fotopigmentos é controlada na retina e como dois pigmentos não são expressos simultaneamente e daí compreendermos como este processo pode ter evoluído. Isso é muito importante para o funcionamento adequado da visão tricromática por que, para a diferenciação dos estímulos cromáticos, é preciso que se compare a ativação de uma dada célula fotorreceptora com as da vizinhança que expressem pigmentos diferentes, caso contrário o sistema não é capaz de diferenciar a ativação de um mesmo fotopigmento por 100 fótons incidentes, no seu comprimento de onda otimamente absorvível, de 1000 fótons de um comprimento de onda diferente.

Talvez o que haja de mais excitante neste parte da história é que, aqui, a estocasticidade adquire uma importância enorme; e um outro fenômeno que tem sido cada vez mais considerado, a epigenética, passa a ter uma maior relevância, particularmente, o que os cientistas chamam de compensação de dose do cromossomo X.
   
Apesar disso ser, provavelmente, bem conhecido de todos, não é demais lembrar: Os homens são o sexo heterogamético e o cromossomo Y é apenas parcialmente homólogo ao seu par X, o que faz com que as mulheres tenham uma sobra de cópias de certos genes, referentes aqueles genes sem homólogos nos homens. Esses alelos, portanto, precisam ser desligados, em um processo chamado de compensação de dose. Este processo envolve a condensação (heterocromotinização) de um dos cromossomos X, tornando cada mulher um mosaico cromossômico já que porções teciduais diferentes podem ter cromossomos X diferentes (o paterno ou o materno) silenciados. Assim, no caso de loci heterozigotos, é possível que, em alguns trechos, um alelo esteja expresso e em outros o outro. É exatamente isso que parece ocorrer na retina das fêmeas tricromatas do macacos do novo mundo. As retinas dessas espécies parecem ser compostas de patches aleatórios de expressão que alternam o alelo ‘L’ e ‘M’ expressos em células fotorreceptoras individuais. Este padrão estocástico vem a calhar e garante um distribuição dos cones com ambos os fotopigmentos, fornecendo, de graça, uma base primordial para a organização das vias neurais ligadas ao processamento das cores.
   
Porém, esse mecanismo não explica como a regulação da expressão se dá em macacos do velho mundo em que ambos genes estão presentes no mesmo cromossomo, um bem próximo ao outro.

Análises lavadas a cabo pelo grupo de Nathans, das regiões adjacentes aos loci L e M, mostram que ambos genes parecem ser controlados por uma região cis-regulatória à montante (seqüencia acima), região de controle de Locus (LCR, “Locus Control Region”); e que apenas um dos loci é ativado por vez, possivelmente, também de forma aleatória. Talvez isso ocorra por que a região LCR só consiga interagir com o promotor (a seqüencia de controle de expressão imediatamente anterior a região codificadora do gene) de um dos dois genes de cada vez, quem sabe, através da formação de complicados loops da fita de DNA para a formação de complexos de transcrição estáveis que geram padrões de expressão de fotopigmentos mutuamente exclusivos.
 
Mas o acaso e contingência não param por aí. Ainda mais interessante é o fato que – apesar de existirem sistemas neurais bem específicos de comparação de estímulos dos fotorreceptores de comprimento curto (S) com os de comprimento mais longo (L/M) – a comparação entre estímulos de células com fotopigmentos L e M parece ser bem menos restritiva e plástica, envolvendo a reconfiguração das vias neuronais através da aprendizagem. Mais do que isso, existem indícios que mesmo esses circuitos mais plásticos sejam de fato não exclusivos para a comparação dos estímulos dos fotorreceptores L e M, mas sim co-optados de sistemas de visão espacial de alta-resolução, como os associados a comparação de bordas e limites. O mesmo tipo de sistema de comparação de estímulos entre células subjaz ambos os processos e não parece haver uma separação clara entre este tipo de circuito de visão espacial do de comparação entre estímulos entre células estimuladas por comprimentos maiores de onda (L/M):

“John Mollon, da Universidade de Cambridge aponta que, em primatas a visão espacial de alta resolução é mediada pelos cones sensíveis a comprimento de onda maior e envolve o mesmo tipo de processamento neural que a visão de cores comprimento maior faz, isto é, uma comparação entre a excitação de um cone L ou M, com a excitação média de um grande número de seus vizinhos L e M. Nenhum circuito separado ainda foi encontrado para a visão de cor e comprimento de ondas maiores, e talvez nenhum seja necessário. Nessa visão, a visão de cores tricromática pode ser considerado um hobby do sistema de visão espacial preexistente.” [Jacobs GH, Nathans J., 2009]

         Caso isso esteja correto, a simples aquisição de um novo alelo por parte de uma fêmea heterozigota poderia ter sido suficiente para que ela ‘entrasse’ em um mundo cromático novo. Essa audaciosa hipótese pode ser parcialmente testada a partir da manipulação genética de genes de rodopsinas de comprimentos longos em animais com visão dicromática, como o camundongo, criando assim nova variação alélica e testando a capacidade de diferenciação de estímulos cromáticos em fêmeas portadoras dos dois alelos (equivalente aos loci L e M). Esse experimento foi feito e confirmou essa idéia básica.
 
O grupo de Nathans foi capaz de treinar camundongos fêmeas transgênicas portadoras de ambos os pigmentos M e L para discriminar entre painéis verde, amarelo, laranja e vermelho (com controle para a intensidade de luz para forçar) que, para camundongos normais  pareceriam, exatamente a mesma coisa. Junto com o novo pigmento L, estes animais, aparentemente, adquiriram uma nova dimensão de experiência sensorial. Como sugerem Nathans e Jacobs, aparentemente,  o cérebro dos mamíferos possui uma capacidade latente para extrair informações qualitativamente diferentes a partir de tipos novos de estímulos visuais.  Essa idéia é parcialmente apoiada pelo estudo de novos sistemas de interface cérebro-máquina e de próteses biônicas, especialmente neuro-próteses e pelas idéias de substituição sensorial e equivalência sensório-motora (veja por exemplo aqui).

As implicações desta descoberta são enormes, especialmente no que diz respeito a evolução dos sistemas sensoriais mais complexos de forma geral. Como afirmam Nathans e Jacobs, ela sugere que as alterações no “front end” do sistema – em que os genes para os receptores sensoriais – podem conduzir a evolução de todo o sistema, sendo acomodadas pela flexibilidade dos sistema nervoso. Assim, a plasticidade inerente aos sistemas neuronais e sensoriais complexos de animais consegue dar conta de novas dimensões de experiência sensorial.

Os experimentos com camundongos também sugerem que a primeira primata com dois pigmentos diferentes para comprimentos de onda maiores foi capaz de experienciar um mundo de cores que nenhum outro primata já havia visto antes.  Imaginar que um pequeno animal, uma fêmea heterozigota mutante mais especificamente, talvez a mais de 100 milhões de anos, ao se desenvolver tenha começado a entrar em um mundo novo de cores e que nenhum de seus ancestrais ou parentes tinha experienciado, é algo por si só belo. Esta criatura teve que contar com a plasticidade de seu cérebro e com sua capacidade de aprendizado e acomodação de novos estímulos para poder fazer sentido desta nova realidade.

Essa bela história é contada com muito mais propriedade e em maiores detalhes – inclusive muito com várias informações históricas e clínicas sobre daltonismo e as diversas alterações genéticas por trás desta condição – na palestra abaixo, ministrada pelo próprio Jeremy Nathans:

 

______________________________

Referência:

Jacobs, G., & Nathans, J. (2009). The Evolution of Primate Color Vision Scientific American, 300 (4), 56-63 DOI: 10.1038/scientificamerican0409-56

Referências Adicionais:

Auvray, M., & Myin, E. (2009). Perception with compensatory devices. From sensory substitution to sensorimotor extension. Cognitive Science, 33, 1036-1058.

Dominy NJ, & Lucas PW (2001). Ecological importance of trichromatic vision to primates. Nature, 410 (6826), 363-6 PMID: 11268211

Jacobs, G., Williams, G., Cahill, H., & Nathans, J. (2007). Emergence of Novel Color Vision in Mice Engineered to Express a Human Cone Photopigment Science, 315 (5819), 1723-1725 DOI: 10.1126/science.1138838

Jacobs GH, Neitz M, Deegan JF, Neitz J. Trichromatic colour vision in New World monkeys. Nature. 1996 Jul 11;382(6587):156-8. PubMed PMID: 8700203.
Jacobs GH. Evolution of colour vision in mammals. Philos Trans R Soc Lond B Biol Sci. 2009 Oct 12;364(1531):2957-67. Review. PubMed PMID: 19720656; PubMed Central PMCID: PMC2781854.

Lucas PW, Dominy NJ, Riba-Hernandez P, Stoner KE, Yamashita N, Loría-Calderón E, Petersen-Pereira W, Rojas-Durán Y, Salas-Pena R, Solis-Madrigal S, Osorio D, Darvell BW. Evolution and function of routine trichromatic vision in primates.Evolution. 2003 Nov;57(11):2636-43. PubMed PMID: 14686538.
Smallwood PM, Wang Y, Nathans J. Role of a locus control region in the mutually exclusive expression of human red and green cone pigment genes. Proc Natl Acad Sci U S A. 2002 Jan 22;99(2):1008-11. Epub 2002 Jan 2. PubMed PMID: 11773636; PubMed Central PMCID: PMC117421.

Créditos das figuras:

Jacobs GH, Nathans J. Sci Am. 2009 Apr;300(4):56-63.
NUCLEUS MEDICAL ART, VISUALS UNLIMITED /SCIENCE PHOTO LIBRARY
DR. FRED HOSSLER, VISUALS UNLIMITED /SCIENCE PHOTO LIBRARY
PATRICK LANDMANN / SCIENCE PHOTO LIBRARY
COLIN CUTHBERT / SCIENCE PHOTO LIBRARY
P. SOLE, ISM / SCIENCE PHOTO LIBRARY
DR MORLEY READ / SCIENCE PHOTO LIBRARY
BSIP VEM / SCIENCE PHOTO LIBRARY
http://commons.wikimedia.org/wiki/File:Phototransduction.png
http://commons.wikimedia.org/wiki/File:11-cis-Retinol.svg

http://commons.wikimedia.org/wiki/File:Monkeysdistributionmap.gif

Alinhamentos feitos utilizando-se o Clustal W [Thompson, J.D., Higgins, D.G. and Gibson, T.J. (1994) CLUSTAL W: improving the sensitivity of progressive multiple sequence alignment through sequence weighting, position specific gap penalties and weight matrix choice. Nucleic Acids Research, 22 4673-4680] implementado através do Jalview 2.4 [ Clamp, M., Cuff, J., Searle, S. M. and Barton, G. J. (2004), “The Jalview Java Alignment Editor”, Bioinformatics, 20, 426-7.]

Mecanismo de Anticítera: o triunfo da ciência através dos milênios

Tudo começa cerca de 100 anos antes da Era Comum, quando é construído, pela civilização antiga grega, o primeiro computador científico. Nos séculos seguintes é esquecido, até ser encontrado em 1901 por mergulhadores perto da ilha grega de Anticítera. Só no século XXI seria desvendado o propósito desta máquina misteriosa. Veja no vídeo.

 


Mais detalhes sobre o mecanismo aqui.

Complexidade: Que raios é isso?

Anos atrás, quando eu era um jovem e esperançoso graduando em ciências biológicas, comecei a me interessar pela teoria do caos e por dinâmica não-linear.

 

O chamado caos determinístico, exemplificado pelo efeito borboleta, havia emergido duas ou três décadas antes a partir dos trabalhos de Edward Lorenz (com as simulações sistemas meteorológicos, altamente simplificados) e do estudo de sistemas dinâmicos em física, química e matemática, estimulado pela disponibilização de computadores cada vez mais potentes. Estes sistemas descritos por equações determinísticas possuíam uma diferença muito interessante em relação a outros sistemas descritos por equações integralizáveis, isto é, cujas equações poderiam ser resolvidas de forma analítica. As equações não-lineares típicas que descreviam sistemas caóticos precisavam ser iteradas utilizando-se de métodos numéricos, o que demandava muito processamento computacional. Estes sistemas quando observados de “longe” geravam resultados que pareciam completamente aleatórios mesmo que as equações de base, que os descreviam, fossem completamente determinísticas.

 

Estes sistemas exibiam um fenômeno conhecido como a hipersensibilidade às condições iniciais. Diferentemente dos sistemas deterministas tradicionais, cujas diferenças inicialmente introduzidas nos parâmetros se mantinham pequenas e próximas, ou de fenômenos que se distribuíam de forma aleatória em torno de uma média, os sistemas caóticos tendiam a amplificar diferenças ínfimas de forma exponencial. Portanto, o simples fato de rodar o mesmo programa iterando uma equação não-linear descrevendo um sistema caótico, mesmo de baixa dimensionalidade, com valores que divergiam apenas nas últimas casas decimais seria suficiente para arremessar estes sistemas em trajetórias divergentes. Estas trajetórias, também chamadas de atratores dinâmicos nos espaços de fase – uma espécie de representação multidimensional dos valores assumidos pelo sistema dinâmico – produziam belos gráficos de incrível intrincamento com padrões auto-semelhantes em diversas escalas de aproximação, possuindo uma dimensionalidade fracionária, ou seja fractal.

 

Nos anos setenta este tipo de dinâmica (já intuída há muito tempo nas obras do matemático Henry Poincaré) passou a ser investigada em diversos fenômenos naturais: turbulência, dinâmica de populações (principalmente as equações logísticas de Lotka-Voltera), gotejar de torneiras, batimentos cardíacos, atividade elétrica do cérebro, etc. Muitos fenômenos biológicos foram investigados a fundo e a teoria do caos parecia uma boa fonte de insights de fenômenos biológicos. Porém, ao mesmo tempo, o estudo de sistemas dinâmicos revelou também que estes mesmos sistemas não-lineares poderiam exibir dinâmicas periódicas, como comportamentos oscilatórios, que poderiam, através de processos de bifurcação, passar à regimes caóticos. Atratores menos estranhos, como os de ciclo-limite começaram a interessar muitos pesquisadores não só na biologia, mas também em áreas como a química (como no estudo de reações oscilantes, como as de Belousov–Zhabotinsky) e, principalmente, nas ciências da computação.

 

Os trabalhos do, na época, jovem biofísico e médico, Stewart Kauffman, no final dos anos 60, com as chamadas redes booleanas, ajudaram a dar origem a um campo das ciências da complexidade do qual a teoria do caos seria apenas uma classe de sistemas não lineares que exibiriam a dependência exagerada das condições iniciais e cuja trajetória evoluiria na forma de um atrator estranho, divergindo exponencialmente de sistemas que iniciam-se com valores de parâmetros apenas ligeiramente diferentes.

 

O primeiro livro que li sobre o assunto foi “Complexidade: A vida no limite do Caos”, escrito por Roger Lewin, um excelente jornalista científico e especialista em paleoantropologia. O livro consiste nas suas impressões sobre este novo campo e em entrevistas com alguns dos principais nomes da área que havia emergido a partir dos anos 60. Eu ainda me lembro da empolgação com este tipo de abordagem e como idéias, como emergência e auto-organização, passaram a ser incorporadas no vocabulário não técnico, até hoje sendo muito úteis para descrever algumas das propriedades que sistemas biológicos partilham com outros sistemas físicos e químicos e até com sistemas econômicos e sociais.

 

 

As promessas de revolução, ou uma nova compreensão da biologia, foram bastante exageradas e nenhuma abordagem unificada surgiu para esta questão. Mesmo assim, a incorporação dos vários métodos de análise e investigação de fenômenos não-lineares, principalmente a simulação e o uso intensivo de computadores, é uma realidade inescapável. Além disso, a compreensão de que certas mudanças qualitativas podem surgir de mudanças quantitativas e que regimes estáveis e multi-estáveis podem ser alcançados através dos tipos de interações não-lineares (envolvendo vários mecanismos como retroalimentação positiva ou negativa, limiares de ação, gradientes e outras formas de interação mais complicadas) tornaram-se partes integrantes do arsenal teórico e conceitual das ciências, e a biologia não é diferente do restos das ciências neste sentido.

 

Porém, um problema permanece:

 

O que é complexidade? Ao contrário do caos determinístico, sobre o qual tempos boas definições e métodos eficazes de diagnosticá-lo e defini-lo, a complexidade ainda é um conceito problemático. Um dos problemas é que muitos dos fenômenos, estudados pelas ciências da complexidade, são na realidade bastante simples. Sendo, de fato, seu comportamento (ou, melhor dizendo, o resultado de sua dinâmica) a coisa mais complicada sobre eles.

Muitos fenômenos de auto-organização, como os exemplificados pelas redes booleanas de Kauffman e as simulações de autômatos celulares são compostos de unidades muito simples que interagem através de regras também bastante simples. Então, ainda que este tipo de complexidade tenha uma forte relação com a complexidade, digamos, de uma célula eucarionte ou de um ecossistema, existem diferenças grandes entre estes dois exemplos e, por exemplo, o jogo da vida de Conway.

 

Nosso uso corriqueiro do termo ‘complexidade’ enfatiza a possibilidade de estabelecermos um hierarquia e uma gradação entre os diversos sistemas ou fenômenos que julgamos complexos. conceito de complexidade parece estar intimamente associado ao de emergência, que é o que daria sentido a idéia de “níveis integrados de organização“.

 

 

Pode ser difícil imaginar que o seu corpo é feito de prótons girando, nêutrons e elétrons, mas este é de fato o caso. É um pouco mais fácil, no entanto, imaginar formas de matéria em níveis que aumentam em complexidade. Por exemplo, as partículas subatômicas podem ser organizadas em átomos, que são os componentes das moléculas, e moléculas podem ser organizados em macromoléculas, como DNA e proteínas, que podem ser construídas em células. As células podem ser organizadas em tecidos, que formam órgãos e os órgãos podem ser agrupados em sistemas orgânicos, que são construídos em todo os organismos, incluindo seres humanos como você. Organismos são unidades que podem formar populações e, em seguida biosfera, que passam a fazer-se maiores níveis de complexidade. (Lobo, 2008)

 

 

Podemos encarar este conceito “níveis integrados de organização“, como o fato de a matéria está distribuída em camadas ordenadas de complexidade crescente e em que, a cada nível, existem propriedades emergentes, de forma que o nível superior não pode ser completamente reduzido ao nível
inferior. Assim, como defendia Novikoff (1945, citado por Lobo, 2008) quando as unidades de material biológico são colocadas juntas, aspropriedades do ‘material’ ou sistema biológico nem sempre são aditivas, ou seja, iguais à soma das propriedades dos componentes. Em vez disso, em cada nível, novas propriedades e regras que emergem não podem ser previstas pela mera observação das propriedades das partes nos níveis mais baixos da organização. Essas propriedades são chamadas de propriedades emergentes.

 

Esta concepção dá certo suporte a idéia intuitiva de que haja um certo aumento de complexidade nos diferentes níveis da organização biológica. Por exemplo, muitas pessoas concordariam que uma células eucarionte é mais complexa que uma célula procarionte e esta, por sua vez, é mais complexa que um vírus. De forma muito similar, poderíamos
dizer que um coanoflagelado é menos complexo que uma esponja, que é um
organismo multicelular. No entanto, comparações como estas, mesmo que intuitivamente aceitáveis, não são completamente
capturadas pelo seu conceitos e definições técnicas e rigorosas de complexidade, como as ligadas a dinâmica não-linear e aos chamados sistemas complexos. Servindo de alerta para o fato
do termo complexidade (como usado corriqueiramente na linguagem popular
ou mesmo em comparações dentro da biologia) não possuir uma métrica rigorosa.

 

 

O próprio uso deste termo, ‘complexidade’, quando comparamos animais e bactérias, ou seres humanos com outros animais, parece extremamente suspeito. Quando falamos de ‘complexidade’, podemos adotar muitos critérios de comparação diferentes e muitos deles são contaminados por conceitos tremendamente subjetivos e enganosos, como o de superioridade e de progressão linear em direção a um objetivo pré-determinado. Talvez seja este o ponto mais nevrálgico da questão. Nossa noção intuitiva de complexidade não parece ser suficiente rigorosa (e imune a nossos próprios preconceitos) para ser levada a sério. Ainda assim, é muito forte a sensação de que algumas coisas são mais complexas do que outras e alguns critérios de comparação, mesmo que não absolutamente válidos, podem ser mais apropriados do que outros.

 

Toda esta situação é ainda piorada por que os anti-evolucionistas sentem-se muito à vontade com o termo “complexidade”, fazendo deste um dos seus principais cavalos de batalha, conjuntamente com o abuso do termo ‘informação’ que, quase sempre, vem trazendo à reboque o, irritante e repetido ad nauseum, argumento da segunda lei da termodinâmica.

 

A estratégia anti-evolucionista envolve equiparar estes diversos termos, advogando que processos naturais não podem criar ou aumentar a complexidade ou a informação de um sistema, geralmente associando esta “constatação” como um corolário da segunda lei da termodinâmica. Para eles, apenas uma super-inteligência poderia ter feito tal façanha. Como esperado, as bases para tal julgamento não estão escoradas em definições rigorosas e nem apoiadas na matemática e estatística, ou mesmo nas ciências físicas, apesar de alusões em contrário e tentativas patéticas de estruturar argumentos de improbabilidade e de ignorância, usando pseudo-matemática.

 

A teoria da informação de Shannon, desenvolvida nos anos 40, é frequentemente trazida à tona nestas discussões, mesmo que ela não tenha nenhuma (ou apenas muito pouca) relação com os conceitos intuitivos de informação, que os anti-evolucionistas tem em mente.

Nossos conceitos intuitivos de informação são dependentes de considerações semânticas e pragmáticas, muito distantes da formulação rigorosa e completamente alheia ao conteúdo das mensagens enviadas entre um transmissor e um receptor através de um canal, que estão na base da teoria de Shannon (Veja Teoria da Informação de Shannon e a Biologia).

 

A teoria da informação é um ramo da matemática iniciado nos trabalhos de Claude Shannon na década de 1940. A teoria aborda alguns aspectos muito importantes da comunicação: “Como podemos definir e medir a informação?”, “É possível se comunicar de forma confiável a partir de um ponto a outro, se só temos um canal de comunicação ruidosos?”, “Como pode o conteúdo de informação de uma variável aleatória ser medido?” e “Qual é o máximo de informações que podem ser enviados através de um canal de comunicação?” (Capacidade do canal). (Mackay, 1995 & Schneider, 2010). Nesta teoria a informação é medida como a diminuição da incerteza de um receptor ou uma máquina molecular ao ir do estado “antes” para o estado “depois” (Schneider, 2010).

 

O mesmo acontece com o conceito de complexidade usado pelos criacionistas tradicionais (e adeptos do Design Inteligente) ao tentarem, às vezes, relacioná-lo com o conceito de complexidade algorítmica desenvolvido por Kolmogorov e Chaitin, mas que não tem nenhuma relação, clara, com ele. A complexidade algorítmica, como definida por Kolmogorov e Chaitin, envolve a capacidade de compressão da informação usando-se uma linguagem padronizada e bem definida.

 

Contra-intuitivamente, e certamente na direção contrária das intenções criacionistas, esta medida de complexidade atribui o maior valor à seqüências realmente aleatórias, cuja compressibilidade é mínima, em que, no limite de complexidade, o programa que tem que ser escrito, para codificar esta seqüencia, é tão grande quanto a própria seqüência. Mesmo que este limite teórico só valha para seqüências infinitamente longas (já que em seqüências aleatórias finitas, a posteriori, é muito provável que alguma redundância ou
repetição possa ser explorada na criação de um programa mais curto), ainda assim, as seqüências aleatórias seriam muito mais complexas do que seqüências cheias de padrões e ordenação do mesmo tamanho. É por isso que os poucos criacionistas que entendem um pouco mais de matemática e computação, ao usar este argumento, procuram ser o mais vagos possíveis em relação a sua definição, fazendo apenas alusões tangenciais e indiretas aos conceitos de complexidade realmente desenvolvidos por cientistas, já que estes não dão nenhum respaldo a visão simplista e prosaica dos criacionistas.

 

As tentativas dos criacionistas de usar o conceito de complexidade envolvem apenas criar limites arbitrários para a improbabilidade do surgimento de determinados sistemas. Estas tentativas baseiam-se na pressuposição que a formação destes sistemas tenha se dado a partir da agregação de seus componentes, assumindo-se uma distribuição uniforme, ou seja, equiprobabilidade dos eventos e interações. Esta pressuposição deixa de lado a história e o contexto particular de evolução, como as limitações físicas e químicas, a dinâmica ecológica e populacional específica do sistema e, principalmente, assumem sempre um desfecho único e pré-determinado, atrelado ao sistema uma função específica, desde o começo de sua origem e evolução. Algo impensado, em simulações sérias do processo evolutivo. Portanto, o que os criacionistas fazem é argumentar contra um espantalho pré-Darwiniano e travesti-lo com cálculos probabilísticos sem sentido.

 

Parece existir um certo consenso, entretanto, que nenhuma das medidas de complexidade tradicionais capturam nossas intuições sobre a complexidade. Esta seria a primeira pista de que, talvez, nossas visões sobre complexidade, sobretudo quando atreladas a idéia de progresso, sejam, de fato, apenas preconceitos ou, na melhor das hipóteses, apenas medidas parciais e tremendamente contexto-dependentes, com aplicações científicas em biologia computacional e evolução bem específicas.

 

 

Apesar da importância e ubiqüidade do conceito de complexidade na ciência moderna e na sociedade, nenhum meio geral, e amplamente aceito, de medir a complexidade de um objeto físico, um sistema, ou processo existe atualmente. A falta de qualquer medida de caráter geral pode refletir o estágio inicial de nossa compreensão dos sistemas complexos, que ainda carece de um quadro geral unificado que atravesse todas as ciências naturais e sociais. Enquanto uma medida geral manteve-se elusiva, até agora, há um amplo espectro de medidas de complexidade que se aplicam a tipos específicos de sistemas ou domínios de problemas. A justificativa para cada uma destas medidas, muitas vezes recai sobre sua capacidade de produzir valores intuitivamente corretos nos extremos do espectro de complexidade. Apesar das abordagens heterogêneas tomadas para definir e medir a complexidade, a crença que persiste há propriedades comuns a todos os sistemas complexos e novas propostas estão sendo continuamente produzidas e testadas por uma comunidade interdisciplinar de físicos, biólogos, matemáticos, cientistas da computação, economistas e teóricos sociais.” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )

 

Esta idéia parece ser apoiada em outro consenso entre os teóricos da informação e estudiosos do sistemas complexos. Caso exista um sentido real em que os sistemas biológicos apresentam uma hierarquia de complexidade, qualquer medida desta quantidade deverá seguir um “modelo de uma corcova”. Isto é, a partir de um contínuo de organização, indo da máxima aleatoriedade, em um extremo, até a ordem total em outro, a complexidade máxima de sistemas dinâmicos (inclusive sistemas biológicos) estaria entre os dois extremos. Em artigo da Scholarpedia, Complexidade é definida como:

 

“A complexidade de um sistema físico, ou de um processo dinâmico, expressa o grau em que os componentes estão envolvidos em interações
organizadas estruturadas. Alta complexidade é alcançada em sistemas que apresentam uma mistura de ordem e desordem (aleatoriedade e regularidade) e que tem uma alta capacidade de gerar fenômenos emergentes.”
(Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )

 

Este é outro golpe nos criacionistas que buscam estabelecer limites para evolução da complexidade a partir da mera suposição da improbabilidade de determinados eventos ou configurações.

 

Esta constatação, entretanto, torna a busca por uma métrica para a complexidade, aplicável aos sistemas biológicos (especialmente, à evolução biológica), muito mais complicada e dependente das circunstâncias de cada sistema. Muitos teóricos, como o paleontologista Dan McShea, sugerem que não existe uma única forma de complexidade, mas, sim, várias. Em alguns casos o aumento de uma destas formas de complexidade envolveria a diminuição de outra e estas medidas poderiam se referir a níveis hierárquicos diferentes, indicando um possível papel heurístico para este conceito, de ordem epistemológica, sugerindo que talvez a complexidade não seja uma categoria ontológica intrínseca à natureza.

 

Como tal, fica fácil de perceber por que que existe um contínuo debate sobre, se existe ou não, uma tendência em relação ao aumento de complexidade durante a evolução. Este debate é em parte motivado
pela percepção comum de que, ao comprarmos os estratos fossilíferos mais antigos com os mais novos, encontramos a princípio apenas seres unicelulares e, gradativamente, ao subirmos a coluna geológica, vamos observando a diversificação destes seres e aparecimento de eucariontes unicelulares e procariontes coloniais, passando por ‘esboços’ de pluricelularidade até multicelularidade verdadeira, representada por plantas e metazoários. Porém, por falta de uma definição precisa e independente do contexto, de complexidade biológica que não simplesmente exteriorize nossos preconceitos zoocentristas, torna-se difícil de avaliar. Mesmo por que durante este processo vemos a continuidade dos unicelulares procariontes e eucariontes, bem como nos multicelulares episódios de simplificação morfológica e perda de estruturas associadas a especialização ecológica, especialmente simbiose e parasitismo. O que torna a análise de tendências muito mais complicadas, pois além de uma medida precisa, precisamos saber se este aumento está nas médias, na variância, nos mínimo, ou nos máximos destas medidas.

 

Deixando estas considerações um pouco de lado, uma forma simples de quantificar a complexidade da estrutura de sistemas seria contar o número de componentes e/ou interações dentro deste sistema.

Medidas de complexidade deste tipo são aplicáveis a estruturas biológicas, além seus padrões de diversificação ou redução ao longo da evolução. Neste sentido a complexidade estaria relacionada a uma mereologia, ou seja, ao estudo das relações entre parte e o todo composto por elas. Este tipo de medida é particularmente indicado para características morfológicas. O exame detalhado do número de partes estruturais (McShea, 1996) e os comportamentos funcionais dos organismos durante a evolução mostram que um aumento destas medidas ao longo do tempo. Porém, ainda não está claro quais são os mecanismos estariam por trás deste processo. McShea é um dos que propõe investigar a complexidade relacionando-a ao aumento do número e diferenciação das partes, desacoplando-a da função (o máximo possível) já que a adequação funcional de um sistema biológico ao seu meio e contexto ecológico já é muito bem explicada pela seleção natural.

 

Além de tudo, isso é preciso diferenciarmos dois grandes conjuntos de tendências em relação ao aumento da complexidade, as tendências passivas e as ativas. As primeiras estando associadas a processos análogos ao passeio aleatório restringido por uma limite mínimo, ou uma parede de complexidade mínima, como a unicelularidade, por exemplo. O segundo grupo de tendências pode ser ativamente causado por processos internos e externos, como a seleção natural ou algum processo dinâmico interno. Mcshea, porém, ao analisar certas medidas de complexidade ao longo da escala geológica, comparando os fósseis de descendentes a ascendentes, em determinadas linhagens, em pontos distantes das origens dos grupos em questão, evitando assim a barreira de complexidade mínima, encontra evidências que pressupões outros mecanismos.

 

Outros fatores evolutivos como a seleção natural, em determinados contextos co-evolutivos, como os associados a “corridas armamentistas” (o chamado efeito da rainha vermelha), poderiam ser as “forças” por trás destes processos. Mcshea, então, propõe analisar as supostas tendências em termos de aumento da complexidade estrutural, como medida pela variação estrutural das partes. Seu principal candidato para ser responsável por uma tendência ativa que ele chama princípio de variância interna. Mais recentemente o próprio Dan McShea e o filósofo Robert Brandon propuseram que são os processos estocásticos, como a deriva genética aleatória da genética evolutiva de populações, os principais responsáveis pelo aumento de complexidade, sendo a seleção natural uma força conservadora.

 

Porém:

 

No entanto, a mera “numerosidade” sozinha pode ser um mero indicativo da “complicação” de um sistema, mas não necessariamente de sua “complexidade”.(Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )”

 

Este tipo de medida, apóia-se na visão, já comentada, de que sistemas complexos são mais heterogêneos, portanto, menos regulares, do que os não complexos. Nesta visão, a complexidade seria uma característica estrutural, em princípio dissociada, da organização, está última associada ao arranjo dos componentes em relação a função desempenhada pelo sistema. Esta forma de encarar a complexidade tem como vantagem permitir produzir avaliações e medidas que não levem em conta, necessariamente, as funções de um dado sistema. No caso de sistemas biológicos é possível que a complexidade esteja associada a organização funcional, já que sistemas estruturalmente mais complexos precisariam de maior organização funcional já que seria composto de mais partes diferentes e arranjadas de forma menos regular.

 

Estas hipóteses mostram como as noções de complexidade e as medidas associadas a elas, quando levadas a cabo de forma mais sistemática (com suas conseqüências levadas a suas conclusões mais lógicas), escapam, e muito, de noções como ‘progresso’ e ‘melhoria’. Nossos preconceitos pessoais e sociais turvam nossa visão e dificultam nossas tentativas de investigar a natureza dos sistemas vivos, do processo evolutivo e de seus padrões fixados no tempo geológico.

 

Somos, então, deixados com outra questão: Quais as relações destas medidas (se é que elas estão relacionadas) com outras formas de medição de complexidade mais rigorosas?

 

Nesta altura, não escaparemos de analisar, mesmo que de uma distância segura e pouco técnica, as teorias de complexidade computacional e de transmissão de informação, usadas nas ciências exatas e,cada vez mais, na biologia.

 

O conteúdo algorítmico de informação (AIC, Algorithm Information Content), como definido por Kolmorgorov e Chaitin (referências), é a quantidade de informação contida em um seqüência de símbolos. Esta medida é dada pelo comprimento do menor programa de computador que gera a seqüencia (“string”). Assim, seqüencias muito regulares, periódicas ou monotônicas podem ser geradas por programas curtos e, portanto, contêm poucas informações, enquanto seqüências aleatórias precisam de um programa que seja tão grande como a seqüência em si, o que resulta em conteúdo de informação alto (máxima). Portanto, o conteúdo algorítmico da informação captura a quantidade de aleatoriedade em cadeias de símbolos. Como podemos perceber facilmente esta medida parece pouco adequada para aplicações em sistemas biológicos, além disso, tem a propriedade inconveniente de sere não-computável (Spons, 2007).

 

Entretanto, existem várias medidas derivadas desta noção (nenhuma delas propostas por teóricos do DI) que usam a AIC como base e tentam adequá-la aos propósitos da análise de sistemas biológicos e sua evolução. Uma delas é “complexidade efetiva”, proposta pelo físico Gell-Mann (1995), e mede o comprimento mínimo de uma descrição das regularidades de um sistema, buscando, no entanto, distinguir as características regulares das aleatórias ou acidentais dos sistemas, portanto, aproximam-se das das medidas de complexidade que visam capturar o quanto estruturado é um sistema. Infelizmente, a separação das características regulares das aleatórias pode ser uma tarefa bem difícil sistema real, dependendo de critérios fornecidos por um observador externo.

 

Complexidade Estatística proposta por Jim Crutchfield e Young (1989) faz parte de um quadro mais amplo de uma teoria que os autores chamam de “mecânica computacional”. Esta medida é calculada diretamente a partir de dados empíricos, através do mapeamento de cada ponto da série temporal para um símbolo correspondente de acordo com algum esquema de particionamento, de modo que os dados tornem-se um fluxo de símbolos consecutivos.

“As seqüências de símbolos são então agrupadas em estados causais de acordo com a seguinte regra: duas seqüencias de símbolos (ou seja, histórias da dinâmica) estão contidos no estado mesmo causal se a probabilidade condicional de qualquer símbolo futuro é idêntica para as duas histórias. Em outras palavras, duas seqüências de símbolos são
consideradas como as mesmas se, em média, eles prevêem a mesma distribuição da dinâmica futura. Uma vez que estes estados causais foram
identificados, as probabilidades de transição entre os estados de causalidade pode ser extraído a partir dos dados, e a distribuição de probabilidade a longo prazo de todos os estados causais pode ser calculada. A complexidade estatística é definida como a entropia de Shannon dessa distribuição sobre estados causais. A complexidade estatística pode ser calculada analiticamente para sistemas abstratos, como o mapa logístico, autômatos celulares e muitos processos básicos Markovianos, e métodos computacionais para a construção adequada de estados causais em sistemas reais, enquanto a tributação, existem e têm sido aplicados em uma variedade de contextos. ”
(Olaf Sporns (2007),
Complexity Scholarpedia, 2(10):1623. )

 

A “complexidade física”, proposta pelo também físico Christoph Adami é outra medida relacionada com a complexidade efetiva, destinando-se a estimar a complexidade de qualquer seqüência de símbolos que seja sobre qualquer aspecto particular do mundo físico ou ambiente. Tornando-se, assim, uma medida particularmente útil para ser aplicada a sistemas biológicos.

 

Esta medida é definida como a complexidade de Kolmogorov (AIC) compartilhada entre uma seqüência de símbolos (como um genoma) e uma descrição do ambiente em que essa seqüência tem um significado (como um nicho ecológico). Como a complexidade de Kolmogorov não é computável, também não o é a complexidade física. Contudo, estas estimativas, ao invés de analisarem a probabilidade de um símbolo em uma seqüencia referente ao próximo símbolo na seqüencia, envolve a investigação de relações horizontais entre seqüencias de símbolos equivalentes em uma população, como um mesmo gene ou segmento genômico em diversos indivíduos da mesma população em um dado ambiente. Assim, a complexidade física média de um conjunto de seqüências (por exemplo, o conjunto de genomas de uma população inteira de organismos) pode ser aproximada pela informação mútua entre os conjuntos de seqüências (genomas) e seu meio ambiente (ecologia). Experimentos conduzidos em “ecologia digital” (Adami, 2002) demonstraram que a informação mútua entre os genomas auto-replicantes e seu meio ambiente aumentou ao longo do tempo evolutivo. Complexidade física também tem sido utilizado para estimar a complexidade de biomoléculas. A complexidade estrutural e funcional de um conjunto de moléculas de RNA mostraram positivamente correlacionada com a complexidade física (Carothers et al., 2004), indicando uma possível relação entre a capacidade funcional de estruturas moleculares e evoluiu a quantidade de informação que
eles codificam.

 

 

Sistemas grandes e altamente acoplados e podem não ser mais complexos do que aqueles que são menores e menos acoplado. Por exemplo, um sistema muito grande que está totalmente ligado pode ser descrito de forma compacta e tendem a gerar um comportamento uniforme, enquanto a descrição de um sistema menor, mas mais heterogêneo pode ser menos compressível e seu comportamento pode ser mais diferenciada. ” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )

 

Complexidade física (Adami e Cerf, 2000) está relacionada com a ‘complexidade eficaz’, de Gell-Mann, e destina-se a estimar a complexidade de qualquer seqüência de símbolos que seja sobre um mundo físico ou ambiente. Como tal, a medida é particularmente útil quando aplicada a sistemas biológicos. Esta medida é definida como a complexidade de Kolmogorov (AIC), que é compartilhada entre uma seqüência de símbolos (como um genoma) e uma descrição do ambiente em que essa seqüência tem um significado (como um nicho ecológico). Como a complexidade de Kolmogorov não é computável, não é a complexidade física. Contudo, a complexidade média física de um conjunto de seqüências (por exemplo, o conjunto de genomas de uma população inteira de organismos) podem ser aproximadas pela informação mútua entre os conjuntos de seqüências (genomas) e seu meio ambiente (ecologia). Experimentos conduzidos em uma ecologia digital (Adami, 2002) demonstraram que a informação mútua entre os genomas de auto-replicação e seu meio ambiente aumentou ao longo do tempo evolutivo. Complexidade física também tem sido utilizado para estimar a complexidade de biomoléculas. A complexidade estrutural e funcional de um conjunto de moléculas de RNA mostrou-se positivamente correlacionada com a complexidade física (Carothers et al., 2004), indicando uma possível relação entre a capacidade funcional de estruturas moleculares e evoluiu a quantidade de informação que eles codificam.

 

 

Informação, biologia e evolução

A teoria da informação de Shannon e a Biologia:

Informação, este talvez seja um dos termos mais usados nas últimas décadas e uma constante em nossas vidas agitadas com demandas profissionais e acadêmicas crescentes, quase soterradas pelo mar de conteúdo que é a internet. Informação também é um dos termos mais mal compreendidos e distorcidos apesar de seu apelo intuitivo óbvio. Em artigos anteriores, abordei um dos argumentos mais conhecidos dos criacionistas, o de que não existem evidências para, ou mecanismos naturais que possibilitem, o aumento da “informação genética” (ou biológica) nos seres vivos ao longo da evolução (veja a parte 1 e parte 2). Este é um dos argumentos mais infelizes já propostos, principalmente, por que confunde diversas questões diferentes e usa dois pesos e duas medidas. O primeiro problema é que seus proponentes utilização o termo “informação” de forma metafórica (sem reconhecer este fato), mas tratam-no como se fosse algo definido rigorosamente, às vezes mesmo, invocando sua utilização nas ciências exatas, especialmente no estudo de sistemas de comunicação e de transmissão de dados e na computação.

Aquilo que poderíamos chamar de “informação genética“, em um sentido menos técnico, pode ser facilmente aumentada por uma série de tipos de mutações, baseados em processos e mecanismos mutacionais bem conhecidos, associados a modificação funcional posterior destas seqüencias por mutações adicionais. Dentre os vários mecanismos estudados, a duplicação gênica (através do “deslise da DNA polimerase” e/ou crossing over desigual) se destaca, uma vez que, a partir da duplicação de um gene, uma das cópias estará livre para se modificar, sem prejuízo da função original; ou ambas as cópias podem se modificar de forma compensatória e mutuamente dependente.

A divergência entre as seqüencias duplicadas e a adoção posterior de papéis diferentes ou complementares pelas mesmas são, inegavelmente, fontes de aumento de informação. Mais especificamente, vários modelos para o aumento, complexificação e “embelezamento” genômico (para usar o termo de Michael Lynch) têm sido propostos utilizando-se de modelos matemáticos muito robustos, simulações computacionais extensas, enorme compilação de dados genômicos comparativos. Tudo isso usando a boa e velha genética de populações e informações demográficas das populações de animais modelos e de espécies selvagens. Michael Lynch oferece uma magnífica demonstração de uma destas abordagem que basicamente funciona como um modelo neutro para a evolução genômica (Lynch, 2007). [Veja o post Além da seleção natural … sobre o trabalho de Lynch e assuntos relacionados.] Este modelo foi recentemente comentado e tratado a partir de uma perspectiva um pouco mais ampla por Eugene Koonin (Veja Kooning, 2009 e veja figura ao lado). Processos estocásticos, como a deriva genética, associados a uma menor eficiência da seleção natural, por causa da diminuição dos tamanhos efetivos das populações – durante a evolução de procariontes para eucariontes, mas principalmente de eucariontes unicelulares para eucariontes multicelulares – criam condições apropriadas para o aumento do tamanho genômico, complexificação da estrutura dos genes (aquisição de regiões UTR, promotores e de introns e exons) e dos circuitos genéticos, como um todo. Modelos baseados em seleção natural, portanto, que enfatizam a importância de fatores adaptativos também têm sido propostos e ativamente investigados.

De forma complementar, como abordado em outro conjunto de dois artigos (aqui e aqui), sobre a Evo-Devo, os mecanismos bioquímicos, biofísicos e celulares e teciduais da [auto]construção dos fenótipos têm sido esclarecidos, sendo ligados a organização em rede dos circuitos genético-desenvolvimentais e às forças físicas e processos químicos ‘genéricos’ envolvidos nas interações celulares e teciduais. Por tudo isso, temos uma compreensão cada vez melhor de como a “informação” aumentou nos seres vivos, especialmente em seus genomas, por isso as reclamações dos criacionistas e antievolucionistas de plantão simplesmente não procedem.

Estas considerações, entretanto, lidam apenas com a versão semanticamente orientada (veja mais sobre isso na seção “O que é informação?“) do conceito de informação, aquela mais comumente adotada em biologia e menos rigorosa doponto de vista teórico e matemático. Entretanto, como o antigo deus do panteão Romano, Jano, a “informação” também é uma senhora de duas caras. Sem demerito algum para seus dois significados.

O segundo tipo de utilização do termo “infomação”, porém, também é frequentemente distorcido e alardeado por criacionistas, principalmente os da estirpe do Design Inteligente. Aliás, um dos principais defensores desta abordagem pseudocientífica, o matemático e teólogo William Dembski, do Discovery Institute, foi chamado por seus asseclas alguns de “o Isaac Newton da teoria da informação“, mostrando que é de exageros e hipérboles que vive o movimento criacionista. Porém, mesmo caso nos voltemos para definições um pouco mais técnicas de
informação – por exemplo, ao associarmos esta grandeza a nossa capacidade de representação ou armazenamento em bits (veja mais sobre isso adiante) – as objeções criacionistas não procedem, pelo simples fato de que muitas mutações, como as que envolvem a inserção de nucleotídeos no genoma (e mais ainda as duplicações gênicas e genômicas), aumentariam o número de bits necessários para codificá-los. Assim, a idéia de que mutações apenas poderiam diminuir ou deteriorar a informação genética é tola e sem sentido. Veja por exemplo o verbete da skepticwiki, Mutations_and_Information.

As versões mais formais e técnicas do conceito de informação são também vitimas dos usos e abusos dos criacionistas que até hoje não foram capazes de dar contribuições reais ao campo, muito menos foram capazes de produzir aplicações da teoria da informação relevantes na biologia. Muito pelo contrário, o obscurantismo típico deste movimento desvia a atenção dos trabalhos científicos sérios (teóricos e empíricos) utilizando-se da teoria da informação aplicada à sistemas biológicos e mesmo á evolução destes sistemas. Mesmo aqui, são os biólogos teóricos e computacionais, ao aliarem-se a matemáticos, físicos e cientistas da computação, seguindo uma abordagem evolucionistas, que têm dado grandes contribuições à área.

Neste ponto é fundamental que compreendamos que, mesmo neste sentido mais técnico, o aumento do conteúdo informacional em sistemas biológicos é um fato, embora aqui o contexto e a precisão das definições de “informação” e os limites de aplicabilidade deste conceito precisam ser encarados com cuidado e compreendidos se quisermos utilizá-los na investigação científica.

O que é informação?

A informação é originada de “diferenças” em alguma quantidade física que pode ser analisada em seu nível sintático dos dados físicos. (Fabris, 2009)

De acordo com Fabris (2009), os dados são objetos abstratos representados em um algum tipo de suporte físico, de acordo com alguma convenção que permita de forma inequívoca distinguir os símbolos, uns dos outros, de algum alfabeto em particular. No entanto, podemos analisar a informação também em seu nível semântico de significado. Podemos dizer também que, embora a informação sintática encontre-se no nível físico dos dados brutos, seu corolário semântico refere-se a objetos além da mensagem, como suas relações lógicas, seu contexto, que é, aquilo, que chamamos de “significado” (Fabris, 2009).

Normalmente, quando nos referimos a “informação”, em nosso dia a dia, pensamos, na verdade, naquilo que poderíamos chamar de “informação semântica”, deixando de lado o nível puramente sintático do qual as terias matemáticas e computacionais lidam. Essa dupla face da informação, que parecem habitar dois planos diferentes que simplesmente não se intersectam, talvez seja a principal causa de confusão quando falamos de informação “biológica”. Nesta situação, não é completamente claro se estamos considerando apenas os dados crus (como coloca Fabris, 2009), ou se estamos atribuindo um significado biológico semântico mais específico a esses dados (Fabris, 2009). Esta confusão terminológica cai facilmente nas mãos dos criacionistas tradicionais e, mas recentemente, aos criacionistas do Design Inteligente. Porém frisar as diferenças é essencial para que tenhamos uma compreensão clara do que estamos discutindo:

“Como tal, torna-se óbvio que a informação semântica necessária necessita da aquisição de dados sintáticos e o significado só pode ser compreendido por um sistema que é capaz de acumular informação sintática, juntamente com todas as relações associadas a estas partes da informação, constituindo o que chamamos de conhecimento; a estratificação do conhecimento pode ser chamada experiência, e entender um significado subentende a capacidade de trazer de volta dados de uma experiência anterior vivida no passado. Como conseqüência, podemos dizer que “sintaxe”está “dentro” de dados, enquanto a “semântica” está “dentro” do contexto. Além disso, enquanto a informação sintática é objetiva (depende dos dados brutos), a informação semântica é (inter)subjetiva, pois depende da experiência compartilhada pelos sistemas que geram informações” (Fabris, 2009).

A partir daí, é compreensível como, no início da revolução molecular – logo que o primeiro seqüenciamento de DNA foi realizado – fosse natural indagar qual seria o “conteúdo da informação” do DNA, uma conseqüência natural da estrita analogia entre o fluxo de informação delineado pelo Dogma Central da Biologia Molecular, e o fluxo de informações através de um sistema de comunicação, como modelado por Shannon. Este foi também o ponto de partida para a utilização sistemática de ferramentas orientadas pela Teoria da Informação para descobrir muita coisa interessante do ponto de vista biológico (Segal, 2003; Fabris, 2009). Na realidade, a idéia de um “código genético”, experimentalmente demonstrada deste os anos 60, só reforçava esta visão. A biologia molecular, desde então, foi inundada pelo jargão informacional.

O Dogma Central da Biologia Molecular é o ápice deste linguajar já que se propõe a descrever o fluxo de “informação biológica”, que iria do DNA em direção às proteínas, no sentido de que o DNA, passando pelo RNA, através dos processos de transcrição e tradução, impulsionando a síntese das proteínas, carregaria, assim, a informação hereditária do genótipo para o fenótipo.

Então, ao analisarmos a questão por esta perspectiva, uma analogia óbvia se segue: o fluxo de informação que, começa a partir do DNA e atinge as proteínas, que flui através dos sistemas biológicos de comunicação (descritos pelo Dogma Central), é análogo ao fluxo de informaçãos que tem início a partir da “fonte” e que atinge o “receptor” (no outro lado do canal) como acontece nos sistemas de comunicação descrito por Shannon (Fabris, 2009).

“Nessa metáfora o DNA, que é uma seqüência de nucleotídeos chamados adenina, timina, citosina e guanina (A, T, C, G), é interpretado como uma seqüência baseada em um alfabeto de 4 letras, enquanto que uma proteína, que é um seqüência baseada em 20 aminoácidos (metionina, serina, treonina etc.), é interpretada como uma seqüência do alfabeto de 20 letras.” (Fabris, 2009)

Como sugere Fabris (2009), esta abordagem abre a possibilidade de que a Teoria da Informação (TI) seja usada na construção de um modelo transmissão de informação biológica e de sua correção. Porém, existem certos problemas com esta idéia. O primeiro deles está nos vários sentidos em que a palavra “informação” é usada tanto na nossa linguagem coloquial, quando no jorgão científico. Há diferenças no uso deste termo, em seu sentido técnico-matemático empregado pelos físicos, matemáticos, cientistas da computação e engenheiros, de um lado, e a forma mais heurística empregada por biólogos e outros biocientistas, de outro lado. Neste segundo caso, é o papel analógico do termo “informação” que é mais forte (assim como a referência ao “conteúdo semântico” informacional dos sistemas biológicos, mas próximo a linguagem coloquial).

A figura acima ilustra como a teoria da informação pode ser associada com o “fluxo de informação molecular ” dentro da célula. Como explica o filósofo Paul E. Griffths, a informação flui através de um canal interligando dois sistemas, uma fonte que contém a informação e um receptor, que seria o sistema sobre o qual a informação diz respeito. Existe um canal entre dois sistemas quando o estado de um está causalmente ligado, de forma sistemática, ao estado do outro, de modo que o estado da fonte pode ser descoberto através da observação do estado do receptor. O conteúdo informacional causal de um sinal é simplesmente o estado de coisas correlacionadas de forma confiável com a outra extremidade do canal. Assim, “o fumo traz informações sobre fenótipos de fogo e doenças levar informações sobre os genes da doença.” (Griffiths, 2001)

 

Enquanto esta relação pode ser facilmente aplicada ao DNA codificante e aos biopolímeros, RNAs e proteínas (transcritos e traduzidos durante o processo de leitura destes genes) e, portanto, pode ser defendida como não-problemática (dando, assim, um sentido mais claro a idéia de informação genética, neste contexto limitado), o mesmo não pode ser dito para as relações entre os genes e o desenvolvimento, no qual a própria idéia de um programa ou de uma relação causal direta, torna-se cada vez mais difícil de defender, a não ser como uma metáfora, útil em determinadas situações, mas problemática em outras. Aqui o discurso de informação genética perde o seu rigor potencial e não é mais capaz de resistir àquilo que Griffiths chama de tese de paridade, que basicamente considera que diversos outros “recursos” da matriz desenvolvimental, que incluem o ambiente, padrões de metilação e condensação da cromatina, etc podem também ser fontes de informação tirando qualquer exclusividade dos genes, entendidos como seqüências de DNA codificadoras de biopolímeros. (Griffiths, 2001).

 

Seguindo a análise de Godfrey-Smith (2007), o ponto importante é que quando um biólogo usa o conceito de informação neste sentido mais estrito (causal, correlacional, sintático) como uma descrição da ação de genes ou de outros processos, em um dado contexto, ele ou ela não está introduzindo um novo tipo de relação especial ou propriedade, como tentam fazer crer os criacionistas ao usarem suas versões superficiais e mistificadas de informação. Este tipo de uso, empregado por biocientistas, consiste apenas na adoção de uma abordagem quantitativa particular para descrever as correlações normais ou conexões causais entre certos sistemas biológicos.

 

Tendo isso em mente, torna-se claro que a aplicação do conceito de informação pode ir além da metáfora e da analogia, ao incorporar os métodos, idéias e ferramentas da TI para obter informações sobre as regularidades estatísticas dos dados obtidos a partir de seqüências biológicas de nucleotídeos ou aminoácidos. Estas aplicações existem e têm crescido cada vez mais, assim como tentativas mais ambiciosas de interpretar os sistemas biológicos, e sua “lógica” particular, usando a teoria da informação de Shannon e a teoria da informação algorítmica de Kolmogorv e Chaitin. Porém, as aplicações destes modelos teóricos em outras áreas como na biologia do desenvolvimento por exemplo, ainda são alvo de muitas críticas (veja Sarkar, 1996 e 1999; Griffths, 2001, Godfrey-Smith, 2007), diferentemente das abordagens que se concentram nas seqüencias e em seus produtos imediatos as proteínas, como a biologia e evolução molecular, que são cada vez mais valorizadas.

Esta aproximação entre as ciências exatas é mais notável em áreas híbridas como a biofísica, bioinformática (e biologia computacional) e na biomatemática, todas áreas com interfaces com a biologia molecular e com a biologia evolutiva.

A teoria da informação de Shannon:

Antes de adentrarmos neste ramo da matemática que eu mesmo conheço pouco (mas que serei assistido por ótimos tutoriais e fontes bibliográficas, especialmente as disponibilizadas pelo grupo do biólogo teórico Thomas D. Schneider no site de seu laboratório do NCI (National Cancer Institute), é preciso contextualizar um pouco a história e conhecermos os interesses desta figura lendária nas ciências, chamada de Claude Shannon.

Shannon, na época trabalhando nos laboratórios Bell (na época uma divisão da “Telephone and Telegraph Company”, AT&T), objetivava responder a seguinte questão:

“O que a ATT&T vendia exatamente?”

ou de um jeito mais técnico

“Como a informação pode ser definida com precisão?”

A teoria da Informação e Shannon:

“A informação é medida como a diminuição da incerteza de um receptor (ou uma máquina molecular) ao ir do estado “antes” para o estado “depois”. “ (Schneider, 2010)


A teoria da informação é um ramo da matemática iniciado nos trabalhos de
Claude Shannon na década de 1940. A teoria aborda alguns aspectos muito importantes da comunicação, tais como:

“Como podemos definir e medir a informação?”,

“É possível se comunicar de forma confiável a partir de um ponto a outro, se só temos um canal de comunicação ruidosos?”
(Schneider, 2010),

“Como pode o conteúdo de informação de uma variável aleatória ser medido?”
(Schneider, 2010)

e
“Qual é o máximo de informações que podem ser enviados através de um canal de comunicação?” (Capacidade do canal) (Schneider, 2010).

Shannon fez isso de uma forma muito rigorosa. Primeiro estabeleceu vários critérios uteis para que se pudesse definir “informação” de forma precisa, e, em seguida, mostrou que apenas uma fórmula satisfaria estes critérios. Esta resposta, imediatamente levantou outra questão:

“Quanta informação pode ser enviada como os equipamentos existentes, as nossas linhas de telefone?”

Shannon, então, desenvolveu a teoria da capacidade do canal para responder a esta questão (Schneider, 2006).

A capacidade do canal, C, é dada em bits por segundo e depende de apenas três fatores: a potência, P, do sinal no receptor, o ruído, N, perturbando o sinal do receptor, e a largura de banda, W, que é o intervalo de freqüências utilizadas na comunicação:

C = W log2((P/N) + 1) bits por segundo.

Então, caso se deseje transmitir alguma informação a uma taxa R (também em bits por segundo, b/s), um dos resultados demonstrados por Shannon é que quando a taxa excede a capacidade (R> C), a comunicação falhará e no máximo C b/s serão transmitidos. A analogia usada por Schneider (2006) é a seguinte:

“…colocar água através de um tubo. Existe um limite máximo para o quão rápido a água pode fluir, em algum momento, a resistência no tubo irá evitar novos aumentos ou o tubo irá estourar.”

Mas o resultado mais surpreendente ocorre quando a taxa, R, é menor ou igual à capacidade do canal (R ≤ C). Shannon provou matematicamente, que neste caso, é possível transmitir a informação com tão poucos erros quanto desejado [Schneider, 2006 ].

“O erro é o número de símbolos errados recebidos por segundo. A probabilidade de erros pode ser pequena, mas não pode ser eliminada. Shannon assinalou que a maneira de reduzir os erros é codificar as mensagens no transmissor/fonte para protegê-las contra o ruído e, em seguida, decodificá-las no receptor para remover o ruído. A clareza das telecomunicações modernas, CDs, MP3s, DVDs, sistemas sem fio, telefones celulares, etc, surgiu porque os engenheiros têm aprendido como fazer circuitos elétricos e programas de computador que fazem esta codificação e decodificação. Porque eles se aproximam do limite de Shannon, os códigos desenvolvidos recentemente prometem revolucionar as comunicações novamente fornecendo maior transmissão de dados através dos mesmos canais [10] [11].” [Schneider, 2006 ]

Informação e bits:

Um outro conceito inevitável quando passamos a adotar as definições mais rigorosas de informação é o conceito de “bit“. Suponha que você jogue uma moeda um milhão de vezes e anote a seqüência de resultados. Se você deseja comunicar essa seqüência para outra pessoa, quantos bits você iria precisar? Se for uma moeda justa, isto é não-viciada, os dois resultados possíveis, caras e coroas, ocorrem com igual probabilidade. Por isso, cada jogada requer 1 bit de informação para se transmitida. Para enviar toda a seqüência, é necessário um milhão de bits. Agora, imagine que esta moeda é viciada, assim, cada “cara” ocorre apenas uma em cada quatro vezes, e “coroas” o resto das vezes (3/4). Neste caso, em particular, 811,300 bits seriam suficientes para a mensagem pudesse ser enviada, o que parece implicar que cada face da moeda exige, para que possa ser transmitida, apenas, 0,8113 bits. Óbvio, você não pode transmitir um jogada de moeda com menos de um único bit, em um idioma só de “zeros” e “uns”. Não obstante, se o objetivo é transmitir uma seqüência de jogadas, e a distribuição destas jogadas é enviesada, de alguma forma, então, você pode usar seu conhecimento da distribuição probabilística em questão para selecionar uma forma de codificação mais eficiente (Touretzky,2004).

Em seu tutorial sobre a teoria da informação Touretzky (2004):

“Suponha que a moeda é fortemente tendenciosa, de modo que as probabilidades de conseguir cara é de apenas 1/1000 e coroa é 999/1000. Em um milhão de lançamentos desta moeda seria de se esperar ver apenas cerca de 1.000 caras. Ao invés de transmitir os resultados de cada lance, nós poderíamos apenas transmitir os números de arremessos que resultaram em caras, o resto dos lances poderia ser considerado como coroas. Cada lance tem uma posição na seqüência: um número entre 1 e 1000000. Um número nesse intervalo pode ser codificado usando apenas 20 bits. Então, se nós transmitimos 1.000 números de 20 bits, teremos todo o conteúdo original de informação da seqüência de um milhão de arremessos transmitidas, usando apenas cerca de 20.000 bits. (Algumas seqüências conterão mais de mil caras, e algumas menos, de modo que para ser perfeitamente correto, devemos dizer que esperaríamos necessitar de, em média, 20 mil bits para transmitir uma seqüência dessa maneira.)

Nós podemos fazer ainda melhor. Codificar as posições absolutas das caras na seqüência gasta 20 bits por cara, mas nos permite transmitir as caras em qualquer ordem. Se concordarmos em transmitir as caras de forma sistemática, percorrendo a seqüencia do início ao fim, então ao invés de codificar suas posições absolutas podemos apenas codificar a distância até o próxima “cara”, o que demandaria menos bits. Por exemplo, se os quatro primeiros cabeças ocorreram nas posições 502, 1609, 2454 e 2607, então a sua codificação, como distância para o próximo “cara”, seria 502, 1107, 845, 153. Em média, a distância entre duas “caras” será cerca de 1.000 arremessos, e só raramente a distância será superior a 4.000 jogadas. Números na faixa de 1 a 4000 pode ser codificado em 12 bits. (Nós podemos usar um truque especial para lidar com os casos raros em que as cabeças são mais de 4.000 aletas distante, mas não vamos entrar em detalhes aqui.) Assim, usando essas convenções de codificação mais sofisticadas, a seqüência de um milhão de lançamentos de moeda com cerca de 1.000 “caras” podem ser transmitidas com apenas 12 mil bits, em média. Assim, um único lance de moeda precisa de apenas 0,012 bits para ser transmitido. Mais uma vez, esta alegação só faz sentido porque na verdade estamos transmitindo toda uma seqüencia de jogadas. “ (Touretzky, 2004)


A partir desta explicação
Touretzky ( 2004) lança algumas questões:

“E caso inventássemos uma codificação mais inteligente?

Qual é o limite para eficiência de qualquer codificação?

O limite estaria por volta de 0,0114 bits por lançamento, então já estamos muito perto da codificação ideal.

O ponto central aqui, portanto, é que, o dito, conteúdo informacional de uma seqüência é definido como o número de bits necessários para transmitir essa seqüência usando algum tipo codificação ótima. Claro, sempre, é possível, entretanto, utilizarmos um código menos eficiente, o que exigirá mais bits. Porém isso não aumenta a quantidade de informação transmitida (Touretzky, 2004).

Informação e Incerteza:

Informação e incerteza são ambos termos técnicos que podem descrer qualquer processo que seleciona um ou mais objetos de um conjunto de objetos. Estas medidas não medem nada que lide com o significado ou outras características implicadas, às vezes, pelo termo “informação”, mesmo porque, até hoje, ninguém mostrou como fazê-lo matematicamente de forma efetiva. Seguindo um exemplo dado por Tom Schneider:

“Suponha que tenhamos um dispositivo que possa produzir três símbolos: A, B ou C. Enquanto esperamos o próximo símbolo, não temos certeza de qual o símbolo irá ser produzido. Uma vez que o símbolo aparece e o vemos, a nossa incerteza diminui, e que sinalizamos que recebemos alguma informação. Ou seja, a informação é a diminuição da incerteza. Como deve ser medida a incerteza? A maneira mais simples seria dizer que temos um grau de incerteza “de 3 de símbolos”. Isso funciona bem até que começamos a assistir a um segundo dispositivo, ao mesmo tempo que, imaginemos, produz símbolos 1 e 2. O segundo dispositivo nos dá um grau de incerteza “de dois símbolos”. Se combinarmos os dispositivos em um único dispositivo, existem seis possibilidades, A1, A2, B1, B2, C1, C2. Então, isso quer dizer que este dispositivo tem um grau de incerteza “de 6 de símbolos”. Aí, vemos o primeiro problema. Esta não é a maneira que nós geralmente pensamos sobre informação. Por exemplo, se recebemos dois livros, nós preferíamos dizer que recebemos duas vezes a informação de um único livro. Ou seja, gostaríamos que os nossos medida fosse aditiva. ”

Podemos, entretanto, tornar esta medida aditiva, ao usarmos o logaritmo do número de símbolos possíveis. Ao empregarmos este “truque” poderemos adicionar os logaritmos, ao invés de multiplicar os número de símbolos. Assim, voltando ao exemplo de Schneider, o primeiro dispositivo nos deixaria em um estado de incerteza equivalente ao log (3), o segundo ao log (2) e os dois dispositivo combinados: log (3) + log (2) = log (6). Então, como explica Schneider:

“A base do logaritmo determina as unidades. Quando usamos a base 2 as unidades estão em bits (base 10 nos dá digits, a dos logaritmos naturais, nos dá nats [14] ou nits [15]). Assim, se um dispositivo produz um símbolo, temos a certeza de log 2( 1 )= 0 bits, assim não temos incerteza sobre o que o dispositivo irá fazer em seguida. Se ela produz dois símbolos nossa incerteza seria log2 (2) = 1 bit. Ao ler um mRNA, caso o ribossomo encontre qualquer um das quatro bases igualmente prováveis, então a incerteza é de 2 bits.”

A fórmula para a incerteza, que é log2 (M), com M sendo o número de símbolos, pode ser estendida, de forma que ela possa lidar com casos em que os símbolos não são igualmente prováveis:

“Por exemplo, se existem 3 símbolos possível, mas um deles nunca aparece, então a nossa incerteza é 1 bit. Se o terceiro símbolo aparece raramente, em relação aos outros dois símbolos, a nossa incerteza deve ser um pouco maior do que 1 bit, mas não tão elevada como log2 3 bits.”

Reorganizando a fórmula temos:

de modo que P = 1/M é a probabilidade de que qualquer símbolo apareça.

Generalizamos isso para as várias probabilidades dos símbolos Pi, de modo que as probabilidades somem 1, no total, o que equivale ao 100%, no jargão popular:

[Lembre-se que o símbolo, SOMATÓRIO significa adicionar todos os Pi , para i começando em 1 e terminando em M.] A surpresa que temos quando vemos o iésimo tipo de símbolo foi chamada, “surprisal” por Tribus, e é definida por analogia com – log2 P para ser

Por exemplo, se Pi aproxima-se de 0, ficaríamos muito surpresos ao descobrir qual é o iésimo símbolo (pois este quase nunca deveria aparecer), então, pela fórmula, ui aproxima-se de ∞. Por outro lado, se Pi =1, então, não haveria surpresa alguma ao nos deparamos com o iésimo símbolo (pois este sempre deveria aparecer), ui = 0.

“Incerteza é o surprisal médio para a seqüência infinita de símbolos produzidas pelo nosso aparelho. Por ora, vamos, vamos encontrar a média para uma seqüência de símbolos de comprimento N, que tenha um alfabeto de M símbolos. Suponhamos que o tipo do iésimo símbolo apareça Ni vezes de modo que se somarmos através de toda a cadeia e juntarmos os símbolos, então isso é o mesmo que somarmos através dos símbolos: ”

Existirão Ni casos em que temos surprisal ui . O surprisal médio dos símbolos N é:

Substituindo N pelo denominador e trazendo-o para dentro do somatório de cima, obtemos:

Se fizermos esta medida para uma seqüência infinita de símbolos, então a freqüência Ni/N torna-se Pi, a probabilidade do iésimo símbolo. Fazendo essa substituição, vemos que o nosso surprisal médio (H) seria:

Finalmente, substituindo ui, obtemos a famosa fórmula geral de Shannon para a incerteza:

“Shannon chegou a esta fórmula por um caminho muito mais rigoroso do que nós, a partir da postulação de várias propriedades desejáveis para a incerteza, para, em seguida, derivar a função. Esperemos que o caminho que seguimos apenas lhe de uma sensação de como funciona a fórmula.” (Schneider, 2010)

Para ver como a função H parece, podemos traçá-la para o caso de dois símbolos:

A curva é simétrica, e atinge o máximo quando os dois símbolos são igualmente prováveis (probabilidade = 0.5). Cai a zero sempre que um dos símbolos torna-se dominante em detrimento dos outros símbolos. A entropia de Shannon (incerteza) pode ser interpretada como a medida média da informação (a-posteriori) fornecida pela fonte, ou a incerteza (a priori) média associada à saída da fonte.

Schneider propõe o seguinte exercício:

“Como um exercício instrutivo, suponha que todos os símbolos são igualmente prováveis. Ao que a fórmula para H (equação (8)) se reduz? Você pode querer experimentar por si mesmo antes de a ler. “
Igualmente provável significa que Pi = 1/M, por isso, se substituir isto na equação da incerteza temos:

Uma vez que M não é uma função de i, podemos retirá-lo do somatório:

é a exatamente a equação simples com a qual nós começamos. Pode ser mostrado que para um determinado número de símbolos (ou seja, quando M é fixo), que a incerteza H tem seu maior valor somente quando os símbolos são igualmente prováveis. Por exemplo, uma moeda imparcial é mais difícil de adivinhar os seus resultados do que uma moeda tendenciosa.

Aqui está um exemplo. Suponha que temos M = 4 símbolos:

Com probabilidades (Pi):

Estes possuem surprisals (-Log2Pi):

Então, a incerteza é

O que significa dizer que um sinal tem 1,75 bits por símbolo? Isso significa que podemos converter o sinal original em uma seqüência de 1’s e 0’s (dígitos binários), de modo que, em média, existem 1,75 dígitos binários para cada símbolo no sinal original. Alguns símbolos terão mais dígitos binários (os mais raros) e outros terão menos (os mais comum).

Ao re-codificar para que o número de dígitos binários seja igual ao surprisal:

Desta forma, a cadeia ACATGAAC cujas letras aparecem nas mesmas freqüências que as probabilidades definidas acima, passa ser codificada como 10110010001101 , onde 14 dígitos binários são utilizados para codificar oito símbolos, assim a média é de 14/8 = 1,75 dígitos binários por símbolo (Schneider, 2006 e 2010). Este é o chamado de “código de Fano”. Este tipo de código têm a propriedade que você pode decodificá-los sem a necessidade de que existam espaços entre os símbolos. Normalmente, é preciso saber o quadro de leitura, mas neste exemplo pode-se descobrir. Neste particular codificação (equações (16)), o primeiro dígito binário distingue entre o conjunto que contém A, (simbolizado por {A}) e o conjunto (C, G, T), que são igualmente prováveis já que 1/2 = 1/4 + 1/8 + 1/8. O segundo dígito,usado caso o primeiro dígito seja 0, distingue C de G, T. O dígito final distingue G de T. Como cada escolha é igualmente provável (no nosso definição original das probabilidades dos símbolos), cada dígito binário neste código carrega um bit de informação. Cuidado! Isso nem sempre será verdade. Um dígito binário pode fornecer um bit apenas se os dois conjuntos representados pelos dígito forem igualmente prováveis (como ajustado para este exemplo). Se eles não têm a mesma probabilidade, um dígito binário fornece menos de um bit. (Lembre-se que H é máxima quando as probabilidades são iguais.) (Schneider, 2006 e 2010) Então, caso as probabilidades fossem:

Não há nenhuma maneira de atribuir um código (finito) de modo que cada dígito binário tenha o valor de um bit (usando grandes blocos de símbolos, pode-se aproximar deste ideal). No exemplo ajustado, não há maneira de usar menos de 1,75 dígitos binários por símbolo, mas poderíamos esbanjar e usar dígitos extras para representar o sinal. O código de Fano funciona razoavelmente bem ao dividir os símbolos em grupos sucessivos que têm a mesma probabilidade de ocorrer (Schneider, 2010). A medida da incerteza, portanto, nos diz o que é possível obter em uma situação ideal de codificação, assim, revelando-nos o que é impossível, como, por exemplo, enviar o sinal com 1,75 bits por símbolo codificado utilizando-se apenas um dígito binário por símbolo (Schneider, 2010).

Como assumiu-se que a informação é a diminuição da incerteza, e agora que temos uma fórmula geral para a incerteza, podemos expressar a informação usando-a:

Schneider (2010) adota o termo “flip-flop para evitar o uso da palavra “bit” enquanto discute a codificação de Fano já que há dois significados para essa palavra:

1. Um dígito binário, 0 ou 1. Só podendo ser um inteiro. Estes “bit” são as partes individuais de dados em computadores.

2. Uma medida de incerteza, H ou R. Esta informação pode ser qualquer número real porque é uma média.
É a medida que Shannon utilizado para discutir sistemas de comunicação.

Suponha que um computador contém alguma informação em sua memória. Se estivéssemos a olhando cada flip-flop (os equivalente físicos das possibilidade binárias na memória do computador), teríamos uma incerteza de Hantes bits por flip-flop. Imagine, então, que agora limpamos parte da memória do computador (ao definir os valores como zero), de modo que há uma nova incerteza, menor do que o anterior: Hdepois.

Então, a memória do computador perdeu uma média de R= Hantes – Hdepois bits de informação por flip-flop. Se o computador fosse completamente limpo, então Hdepois= 0 e R = Hantes . Agora considere um teletipo recebendo caracteres de uma linha telefônica. Se não houvesse ruído na linha telefônica e nenhuma outra fonte de erro, o teletipo imprimiria o texto perfeitamente. Com o ruído, entretanto, há alguma incerteza sobre se um caractere impresso é realmente o caractere que foi realmente enviado. Portanto, antes de um caractere ser impresso, o teletipo deve estar preparado para qualquer um dos caracteres possíveis, e este estado preparado tem incerteza Hantes , depois que cada caractere tenha sido recebido, ainda há incerteza, Hdepois. Esta incerteza é baseada na probabilidade de que o símbolo que foi recebido através da linha não seja igual ao símbolo que foi enviado, e mede a quantidade de ruído (Schneider, 2010).

Usando o próprio exemplo de Shannon, como relatado por Schneider (2010):

“Um sistema com dois símbolos igualmente prováveis transmitindo a cada segundo envia a uma taxa de 1 bit por segundo sem erros. Suponha que a probabilidade de que um 0 seja recebido quando um 0 é enviado é de 0,99 e a probabilidade de um 1 é recebido 0,01. “Estes valores são invertidos se 1 é recebido.” Então, a incerteza após recebimento de um símbolo Hdepois = -0,99 log2 0,99 – 0,01log2 0,01 = 0,081, de modo que a taxa real de transmissão é R = 1- 0,081 = 0,919 bits por segundo. A quantidade de informação que recebe através é dada pela diminuição da incerteza, a equação (20). ”

Schneider (2010) prossegue:

“Infelizmente muitas pessoas têm cometido erros porque não compreendem esse ponto claramente. Os erros ocorrem porque as pessoas assumem implicitamente que não há ruído na comunicação. Quando não há ruído, R = Hantes, como com a memória de um computador completamente apagada. Isto é, se não há ruído, a quantidade de informações transmitidas é igual à incerteza antes da comunicação. Quando há ruído, e alguém assume que não há nenhuma, isso leva a todos os tipos de filosofias confusas. Deve-se sempre levar em conta o ruído. ”

Aplicando o conceito de informação de Shannon à biologia molecular:

As idéias e modelos de Schneider e de outros pesquisadores buscam (entre outras coisas) inserem-se na investigação das possibilidades da nanotecnologia, isto é, a construção de máquinas com precisão na escala atômica. A biologia fornece muitos exemplos de que como fazer isso já que sistemas formados por biomacromoléculas (que alguns chamam de “máquinas moleculares”) evoluíram nos seres vivos, servindo de exemplos a serem copiados.

Os trabalhos de Schneider com a teoria da informação molecular e a teoria das máquinas moleculares investigam exatamente quais são as limitações destes sistemas biomoleculares e assim objetivam compreender:

“O que deveríamos tentar e o que seria tolice tentar violar?”


A teoria das máquinas moleculares se divide em três níveis hierárquicos:

Schneider usa medida de informação de Shannon para caracterizar com precisão a conservação da seqüencia de nucleotídeos nos sítios de ligação. Os métodos desenvolvidos por Schneider substituem a utilização de seqüencias de consenso, segundo o próprio Schneider, proporcionando assim melhores modelos para biólogos moleculares.

Em seus estudos foi detectado um excesso de conservação da seqüencia de promotores do bacteriófago T7 e nas repetições InCD do plasmídeo F, o que levou o grupo de Schneider a prever a existência de proteínas que se ligam ao DNA nestes sítios. As previsões provenientes do teorema da capacidade do canal (do qual avanços tecnológicos como a extrema à incrível fidelidade dos CD e DVDs e das comunicações telefônicas, podem ser traçadas diretamente), quando re-derivadas para a biologia molecular, explicam a precisão surpreendente de muitos eventos moleculares. E, através, de conexões com segunda Lei da Termodinâmica e com a idéia do Demônio de Maxwell, essa abordagem também tem implicações diretas sobre o desenvolvimento da nanotecnologia (Scneider, 1995).

Schneider divide a teoria em três níveis, que são caracterizadas pelos seguintes tópicos:

Nível 0. Logos de Seqüência: padrões em seqüências genéticas.
Nível 1. Capacidade de Máquina: Energética de macromoléculas.
Nível 2. A Segunda Lei: Demônio de Maxwell, e os limites dos computadores.

No nível 0 da teoria das máquinas moleculares analisa-se os sistemas de controle da expressão gênica através de elementos Cis- e como pode-se utilizá-los para investigar os processos de informação ao nível molecular.

No nível 1 da teoria [Schneider, 1991] são explicadas a atividade incrivelmente precisa dessas moléculas:

Por exemplo, a enzima de restrição EcoRI ‘varre’ a dupla hélice de DNA (material genético) e corta, quase exclusivamente, ao encontrar o padrão 5 ‘GAATTC 3’, evitando a 46– 1. = 4.095 pares de base de outras seis longas seqüências [Polisky et al, 1975 Woodhead et al. 1981, Pingoud, 1985]. Como EcoRI é capaz de fazer isto era, de certa forma, um mistério porque as explicações químicas convencionais falharam [Rosenberg et al. 1987]. De acordo com o nível 1 da teoria, máquinas moleculares tais como a EcoRI estão limitadas nas suas operações por sua “capacidade da máquina”, que está intimamente relacionada à famosa “capacidade do canal” Claude Shannon [Shannon, 1949]. Assim, desde que não se exceda a capacidade do canal, o teorema de Shannon garante que, os erros na comunicação sejam tão poucos como desejado. É esse teorema que levou às comunicações telefônicas e gravações de som em CD espetacularmente claras. A alegação equivalente para máquinas moleculares é que, enquanto uma máquina molecular não exceda sua “capacidade de máquina”, ela pode agir tão precisamente quanto possa ser necessário para a sobrevivência evolutiva (Schneider, 1994 nano).

O nível 2 da teoria [Schneider, 1991] lida com o antigo problema do demônio de Maxwell [Leff & Rex, 1990] e mostra que existe um custo energético para as operações molecular medido em joules que deve ser dissipado, para o meio, para cada bit de informação adquirida pela máquina, e este custo seria de, pelo menos, joules, onde é a constante de Boltzmann e T é a temperatura em kelvin. Porém, segundo Schneider, na literatura recente, alguns autores afirmam que muitas vezes não é um limite em tudo ou que a perda de informações (ao invés de ganho) é que estaria associada com a dissipação [Landauer, 1991]:

“No entanto, essa relação é apenas (!) uma reafirmação da Segunda Lei da Termodinâmica [Schneider, 1991], então aqueles que a contestam tem poucas chances de estarem corretas.”


Nível 0 E entram os logos de seqüencia:

Para compreendermos a importância do logos de seqüencia primeiro é preciso que compreendamos como se dá o controle da expressão gênica. Normalmente este controle é exercido por proteínas e outras macromoléculas (“identificadores”) que se ligam à seqüências especificas nas moléculas de DNA ou RNA. A forma tradicional de caracterizar estas seqüências envolve a utilização de “seqüência de consenso” em que a base mais freqüente, entre as diversas variantes existentes, é escolhida para cada posição do sítio de ligação. Porém, com esta abordagem a informação sobre as freqüências de cada variante de posição é perdida, assim este método destrói padrões sutis existentes nos dados. Esta perda de dados inviabiliza a tarefa de modelagem de seqüencias/sítios de ligação. A Fig. 1 mostra as seqüências nas quais as proteínas cI e cro ligam-se no DNA do bacteriófago e abaixo destes está um logo de seqüência.

Ao analisarmos a figura B, na posição -7, por exemplo, percebe-se que ali encontramos sempre um A em cada um dos 12 sítios de ligação, que é representado como um A ‘bem alto’ no logo. Já na posição 8 encontramos a maioria de Ts, além de 2 Cs e um A, o que é representada por uma pilha de letras, com a altura de cada letra proporcional à sua freqüência, além de ordenadas de uma maneira que a mais freqüente fique na parte superior. A altura total da pilha é a conservação da seqüencia naquela posição, medida em bits de informação. Lembrando que um “bit” é uma escolha entre duas possibilidades igualmente prováveis. As quatro bases do DNA podem ser dispostas formando um quadrado:

A C
G T

Para escolher um dos 4 nucleotídeos é preciso apenas responder sim e não para duas perguntas: “É em cima?” e “É na esquerda?”. Assim, a escala para o logo de seqüência vai de 0 a 2 bits. Quando as freqüências das bases não são exatamente 0, 50 ou 100 por cento, um cálculo mais sofisticado deve ser feito. A incerteza é uma função da freqüência f (b; l) de cada base b na posição l de cada um na base b

onde (n (l)) é uma correção para o pequeno tamanho da amostra n na posição l. O conteúdo da informação (ou conservação) seqüência é então:

 


O logo de seqüência não mostra apenas as freqüências originais das bases, mas também mostra a conservação em cada posição nos sítios de ligação. A partir do gráfico de logos de seqüencia pode-se ver imediatamente o padrão dos locais de ligação. Porém, ao olhar a seqüencia de consenso, em contraste, de seqüência, é possível ser enganado pelas distorções desta representação em que, por exemplo, não se pode distinguir 100% A de 75% A.

A conservação de seqüencias é medida usando-se bits de informação, especialmente por que eles são aditivos (lembre-se dos logaritmos). Assim, pode-se obter a conservação da seqüencia total do sítio de ligação simplesmente somando as alturas das pilhas dos logos de seqüência:

 

 

 

Porém, o reconhecedor deve selecionar os sítios de ligação de todas as possíveis seqüências do material genético, então para que possamos calcular quantos bits de escolhas que o reconhecedor faz é preciso determinar o tamanho do material genético G e o número de sítios de ligação γ. Antes que o sítio seja localizado, o número inicial de bits de escolha é log2 G, após o conjunto de sítios ter sido encontrado restam log2 γ escolhas que não foram feitas. Diminuindo, então, a incerteza nas medidas do número de escolhas feitas:

 

O nome Rfrequência foi escolhido porque γ/G é a freqüência dos sítios e este número se aproxima do valor da

Rsequência, o que significa que o conteúdo de informação nos padrões dos sítios de ligação é apenas o suficiente para que os sítios sejam encontrado no genoma.

 

Matt Yarus sugeriu uma analogia simples que deixa isso claro. Se temos uma cidade com 1.000 casas, qual o número de dígitos que devemos colocar em cada casa para garantir que a correspondência seja entregue corretamente? A resposta é de 3 dígitos já que as casas podem ser numeradas de 000 a 999. Portanto, há uma relação entre o tamanho da cidade (tamanho do material genético e do número de sítios) e os dígitos na caixa de correio (padrão dos sítios de ligação).” (Schneider, 1994)

 

Uma das aplicações mais interessantes desta abordagem envolveu aquilo que parecia ser uma surpreendente exceção, no caso do promotores do bacteriófago T7, a Rseqüência = 35,4 ±2 bits por sítio, mas Rfreqüência = 16,5 por sítio, o que deixava um Rseqüência/ Rfreqüência = 2,01 ± 01 vezes de excesso de conservação da seqüencia (Schneider, 1989, 1994, 1996). Isso, indicaria ou que a teoria estava errada ou que algo interessantes estava acontecendo ali. Schneider afirma:

 

Na analogia da cidade, há 1.000 casas, mas cada casa tem 6 dígitos. Uma explicação é que existem dois sistemas independentes de entrega de correio que não poderiam concordar com um sistema de endereços comuns. A explicação biológica é que existem duas proteínas de ligação a esses dois padrões de seqüencias. Nós já sabemos sobre um deles, é o da RNA polimerase T7. Para testar essa idéia, um grande número de seqüências de DNA aleatórias foram construídas e, em seguida, foram selecionadas as que ainda funcionavam como promotores T7[8]. Se houvesse uma outra proteína, então ela não se ligaria nesse teste e assim o excesso de informações desapareceria. Isso foi realmente o que aconteceu (Fig.2 abaixo): os sítios de ligação para os promotores T7 sozinhos só tem 18,2 bits de informação, próximo ao valor previsto de Rfreqüência = 16,05 bits por sítio. A hipótese de que existe uma segunda proteína foi confirmada, mas até agora esta não foi identificada experimentalmente. ” (Schneider, 1994)

 

Mais tarde, o grupo de Schneider descobriu outro caso, desta vez no plasmídeo-F InCD na qual a Rseqüência,=
60,2±2,06 bits por sítio e a Rfreqüência = 19,06 bits por sítio, de modo que, havia um excesso de Rseqüência/Rfreqüência = 3,07 ± 0,13 vezes de conservação da seqüencia. Foi descoberto que três proteínas ligam-se a esta região do DNA, e foram provisoriamente capazes de identificá-las (Schneider, 1994, 1996) .

 

Na figura à esquerda, na porção superior A, podemos observar os logos de seqüencia para o sítio de ligação da RNA polimerase do bacteriófago T7 e logo abaixo em B, o logo de seqüencias como os padrões indispensáveis para que a ligação da RNA polimerase ligue-se ao DNA e funcione, mostrando que as seqüencias excedentes realmente são sítios de ligação para uma proteína desconhecida,explicando o excesso de informação revelado pela (Rseqüência/Rfreqüência = 2,01 ±01) de mais de 2 vezes em relação ao esperado caso os padrões de revelado em A fossem de um único sítio para aRNA polimerase (Schneider, 1994, 1996).

 

Nível 1. Capacidade de Máquina: Energética de macromoléculas:

 

Esses resultados mostram que é possível aplicar, com sucesso, as idéias da teoria da informação nas interações moleculares, o que sugere que outros conceitos da teoria da informação podem também serem aplicados. Um desses outros conceitos, aliás muito importante, é o de ‘capacidade do canal’. Um dado canal de comunicação, como um sinal de rádio, vai operar durante um certo intervalo de freqüências W e o sinal irá dissipar alguma potência P no receptor. O receptor deve distinguir o sinal do ruído térmico N que também está recebendo. Shannon considerou que esses fatores sozinhos define a maior taxa de informações que pode passar através do canal:

 

 

 

Shannon também provou um teorema notável sobre a capacidade do canal, que demonstra que caso a taxa R de comunicação seja maior do que a capacidade, no máximo C bits por segundo irão passar. Por outro lado, se , a taxa de erro pode tornada tão pequena quanto desejado, mas nunca zero. A maneira de fazer isso é codificar o sinal para protegê-lo do ruído de modo que quando o sinal é decodificado, erros possam ser corrigidos.

 

A codificação é usada em discos compactos para corrigir erros de até 4000 bits simultâneos [11], razão pela qual música do CD é tão clara. As idéias correspondentes podem ser usadas para interações moleculares em que uma molécula (“máquina molecular”) faz ‘escolhas’ entre diversas possibilidades [12, 4]. A formulação correspondente do teorema é que, enquanto a máquina molecular não exceda a capacidade da máquina, as interações moleculares podem ser tão pequenas quanto o mínimo necessário para garantir a sobrevivência do organismo. Claro ‘formulações’ não pode ser sobre os “desejos” na biologia molecular, o teorema é relacionado à evolução do sistema. Este resultado matemático explica a precisão observada dos sistemas controle genético.”(Schneider, 1994)

 

 

A capacidade da máquina é o conceito análogo ao de capacidade do canal e a transposição do teorema homônimo de Shannon para as máquinas moleculares Assim, configurando o máximo de informação, em bits por operação molecular que uma máquina molecular pode manipular. Como Schneider afirma ao traduzir o teorema de Shannon da canal capacidade para a biologia molecular:

 

Ao aumentar o número de peças móveis, independentemente que podem interagir de forma cooperativa para tomar decisões, uma máquina molecular pode reduzir a freqüência de erros (taxa de escolhas incorretas) para qualquer arbitrariamente baixo nível é necessário para a sobrevivência do organismo, mesmo quando a máquina opera perto de sua capacidade e dissipa pequenas quantidades de energia.”(Schneider, 1991)

 

Nível 2. A Segunda Lei: Demônio de Maxwell, e os limites dos computadores:

 

A Segunda Lei da Termodinâmica pode ser expressa pela equação:

 

 

 

 

Seguindo Schneider, a equação afirma que, para uma dada quantidade de calor dQ entrando em um volume em alguma temperatura T, a entropia aumentará dS pelo menos por um fator dQ/T. A partir daí é possível relacionar a entropia à incerteza de Shannon caso as probabilidades que descrevem os estados do sistema sejam as mesmas para ambas as funções, como é o caso das máquinas moleculares. Schneider a partir desta conexão, e também por causa da temperatura constante em que as máquinas moleculares operam, reescreve a Segunda Lei da seguinte forma:

 

 

 

 

onde kB é a constante de Boltzmann. Isso indica que existe uma relação entre a informação R e o calor q. Notavelmente, esse mesmo limite pode ser determinado a partir da capacidade do canal (equação (5)) e a capacidade da máquina. A interpretação desta equação é simples: Existe uma quantidade mínima de energia térmica que deve ser dissipada (q negativo) por uma máquina molecular para que ela ganhe R = 1 bit de informação.

 

O Demônio de Maxwell é uma criatura mítica, originalmente criado como um experimento mental. Este ser supostamente seria capaz de abrir e fechar uma porta minúscula entre dois recipientes de gás. Então, ao observar as moléculas que se aproximam da porta e controlando a abertura de forma adequada, o demônio poderia permitir que as moléculas rápidas passem para um lado e as mais lentas para o outro. Schneider lembra que qualquer biólogo molecular esperaria que os músculos e os olhos do demônio usassem energia, o que é negligenciado pelos físicos. Outro fator digno de nota é que eles, os físicos, presumem que a energia utilizada para abrir a porta pode ser recuperada quando esta é fechada, se ela estiver ligada a uma mola.

 

A conclusão padrão é que um demônio, como este, poderia presumivelmente criar uma diferença temperatura macroscópica entre os dois recipientes, o que poderia ser usado para fazer funcionar um motor térmico. Aparentemente, o demônio poderia fornecer energia simplesmente através da escolha entre duas alternativas, o que violaria a Segunda Lei da Termodinâmica. Schneider, então, conclui:

 

A equação (7) se aplica a este problema. O demônio sempre seleciona as moléculas em cada cenário em que ele aparece. Somos enganados pela história, entretanto, porque o processo seletivo não é explicitamente declarado como invocando a segunda lei. Mas a Segunda Lei exige sempre a dissipação de energia térmica para compensar as seleções feitas. Assim, o demônio não é mais um enigma. A equação (7), aplica-se tanto às máquinas moleculares quanto aos computadores, por isso estabelece um limite para a computação. É impossível chegar a temperatura de zero absoluto porque isso implicaria em energia infinita para remover toda a energia térmica. Em qualquer temperatura acima do zero absoluto, um computador deve dissipar a energia para fazer escolhas. Como essa energia tem que vir de algum lugar, devemos alimentar o computador com energia para que o computador pode dissipá-la, enquanto o calcula nossas respostas. (Schneider, 1994)


Estes e outros insights têm sido possíveis ao encarar-se de forma sincera e direta as implicações da teoria da informação em sistemas biológicos, utilizando-se de conhecimentos apropriados da teoria de Shannon em si e dos próprios sistemas biológicos em questão, não através de caricaturas superficiais, como insistem os criacionistas das mais diversas estirpes.

Por causa deste tipo de atitude pretensiosa, entranhadas nos argumentos criacionistas, alguns cientistas propõe desafios de compreensão mínima dos conceitos relevantes (veja o teste proposto pelo matemático Jeffrey Shallit) aos criacionistas que não conseguem deixar de usar o linguajar da teoria da informação, tanto na sua variante computacional (a teoria algorítmica da informação de Kolmogorov e Chaintin) como na sua versão estatística, a de Shannon. Também recomendada é a análise de Shallit dos absurdos escritos por Stephen C. Meyers sobre a teoria da informação e evolução biológica em seu último livro (Veja aqui)

Os trabalhos de Schneider são um dos exemplos mais interessantes de como a aplicação do formalismo de Shannon por cientistas, que conheçam realmente os sistemas biológicos, pode trazer resultados elegantes e úteis e contribuir para o conhecimento científico básico e aplicado.

Os modelos de Schneider, entretanto, vão ainda mais além, pois mostram também como a seleção natural pode aumentar o conteúdo informacional de sistemas biomoleculares particulares (no caso as seqüencias de ligação no DNA para fatores de transcrição, por exemplo) quando quantificada por um métrica teoricamente sólida e não uma caricatura pseudo-matemática como as dos defensores do DI. Veja Schneider (2000) e os materiais sobre o programa Ev, disponíveis em seu site aqui e aqui, mas principalmente nesta Faq.

Em um próximo post, pretendo entrar mais nestas questões e apresentar outras propostas teóricas para a análise e quantificação da informação em sistemas biológicos, inclusive na evolução dos mesmos. Aí, nos depararemos com outro termo muito falado mas pouco compreendido, a “complexidade”.

__________________________________________________________________________
Referências:

Fabris F. “Shannon Information Theory and Molecular Biology”, Journal of Interdisciplinary Mathematics, vol.12, n.1, february 2009, pp. 41-87

Godfrey-Smith, P Information in Biology,” in D. Hull and M. Ruse (eds.), The Cambridge Companion to the Philosophy of Biology. Cambridge University Press, 2007, pp. 103-119.

Griffiths, P.E (2001) Genetic Information: A metaphor in search of a theory. Philosophy of Science68(3): 394-412

Koonin EV. A non-adaptationist perspective on evolution of genomic complexity or the continued dethroning of man. Cell Cycle. 2004 Mar;3(3):280-5. Epub 2004 Mar 1. PubMed PMID: 14726650.

Lynch, Michael “The Origins of Genome Architecture”, 2007, Sinauer Associates, ISBN 9780878934843

Schneider TD. Claude Shannon: biologist. The founder of information theory used biology to formulate the channel capacity. IEEE Eng Med Biol Mag. 2006 Jan-Feb;25(1):30-3. PubMed PMID: 16485389; PubMed Central PMCID: PMC1538977.

Schneider TD, Stormo GD. Excess information at bacteriophage T7 genomic promoters detected by a random cloning technique. Nucleic Acids Res. 1989 Jan 25;17(2):659-74. PubMed PMID: 2915926; PubMed Central PMCID: PMC331610.

 

Schneider TD. Theory of molecular machines. I. Channel capacity of molecular machines. J Theor Biol. 1991 Jan 7;148(1):83-123. PubMed PMID: 2016886.

 

Schneider TD, Stephens RM. Sequence logos: a new way to display consensus sequences. Nucleic Acids Res. 1990 Oct 25;18(20):6097-100. PubMed PMID: 2172928; PubMed Central PMCID: PMC332411.

 

Schneider TD. Theory of molecular machines. II. Energy dissipation from molecular machines. J Theor Biol. 1991 Jan 7;148(1):125-37. PubMed PMID: 2016881.

 

Schneider, T. D. Sequence logos, machine/channel capacity, Maxwell’s demon, and molecular computers: a review of the theory of molecular machines. Nanotechnology, 5:1{18, 1994. http://www-lmmb.ncifcrf.gov/ toms/paper/nano2/.

 

Schneider, T.D. Shannon’s Channel Capacity Theorem: is it about Biology? Apresentação [disponívle na URL: http://netresearch.ics.uci.edu/mc/nsfws08/slides/S3_schneider.pdf]

 

Schneider, T. D. New approaches in mathematical biology: Information theory and molecular machines. In Julian Chela-Flores and Francois Raulin, editors, Chemical Evolution: Physics of the Origin and Evolution of
Life, pages 313{321, Dordrecht,The Netherlands, 1996. Kluwer Academic Publishers.

 

Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. PubMed PMID: 10908337; PubMed Central PMCID: PMC102656.

Schneider, Thomas D. Information Theory Primer With an Appendix on Logarithms (version = 2.64 of primer.tex 2010 Jan 08) [disponível URL: http://alum.mit.edu/www/toms/papers/primer/primer.pdf]

Shallit, Jeffrey (2010) Stephen Meyer’s Bogus Information Theory Talkreason [disponível na URL: http://www.talkreason.org/articles/stephen-meyers.cfm] acessado em 20 de outubro de 2010.

Segal J. The use of information theory in biology: a historical perspective. Hist Philos Life Sci. 2003;25(2):275-81. PubMed PMID: 15295870.

Touretzky, David S. Basics of Information Theory (Tutorial Version of 24 November 2004), [disponível na URL:http://www.cs.cmu.edu/~dst/Tutorials/Info-Theory/]

http://commons.wikimedia.org/wiki/File:Janus-Vatican.JPG (autor: Fubar Obfusco)
PASIEKA / SCIENCE PHOTO LIBRARY
PHOTO (c) ESTATE OF FRANCIS BELLO / SCIENCE PHOTO LIBRARY
VICTOR DE SCHWANBERG / SCIENCE PHOTO LIBRARY
SCIENCE PHOTO LIBRARY

O Mundo é dos Insetos

 

Com este título, postei em 14 de julho de 2010 uma matéria adaptada do livro “Diversidade da Vida” de Edward O. Wilson no meu blog chamado “Biorritmo” e, curiosamente, esta postagem veio a se tornar uma das mais populares do blog. O motivo? Não sei. Mas tudo me leva a crer que a supremacia numérica e a diversidade de formas dos insetos despertam um certo fascínio nas pessoas. Vejamos a postagem na íntegra:

“Entre os animais  conhecidos da ciência, os insetos são a maioria esmagadora. Os insetos, com 750 mil espécies conhecidas, constituem  a dinastia inconteste dos animais pequenos  e médio pequenos da Terra, e ocupam essa posição desde o final do Período Carbonífero, há mais de 300 milhões de anos. Seus co-regentes do reino vegetal têm sido há 150 milhões de anos as angiospermas , as plantas floríferas, que abrangem cerca de 250 mil espécies, 18% do total de todos os organismos conhecidos.
A imensa diversidade conjunta de insetos e plantas floríferas não é acidental. Os dois impérios são unidos por intricadas simbioses. Os insetos consomem todas as partes anatômicas das plantas e habitam cada um de seus cantos e recantos. Uma grande parcela das espécies de plantas depende dos insetos para polinização e reprodução. Derradeiramente, devem a eles a sua vida, pois os insetos revolvem o solo em torno de suas raízes e decompõem tecidos mortos transformando-os nos nutrientes necessários para que possam continuar crescendo.
Tão importantes são os insetos e outros artrópodes que se todos desaparecessem a humanidade provavelmente não sobreviveria mais do que alguns meses. A maioria dos anfíbios, répteis, aves e mamíferos seriam extintos mais ou menos ao mesmo tempo. Em seguida sucumbiria a quase totalidade das plantas floríferas e com elas , a estrutura física da maioria das florestas e outros habitats terrestres do mundo. A superfície da Terra literalmente apodreceria. À medida que a vegetação morta  fosse se acumulando e secando, fechando os canais dos ciclos de nutrientes, outras formas complexas de vegetação morreriam, e com elas, todos  exceto alguns resíduos esparsos de vertebrados terrestres.
Os artrópodes, portanto, estão em toda parte à nossa volta, dando-nos vida, e nós jamais  medimos seu número. Há muito mais espécies do que as 875 mil que receberam um nome científico até o momento. Estima-se que existem 30 milhões de espécies de artrópodes nas florestas pluviais, das quais a maioria são insetos. A maior parte  da variedade está concentrada nas copas das árvores das  florestas tropicais, locais que tem se mantido inacessível por causa da altura das árvores (30 a 40 metros), da superfície escorregadia dos troncos e dos enxames de formigas e abelhas que lá habitam. E por falar em formigas, elas constituem  quase metade da biomassa total dos insetos e 70% da biomassa dos insetos encontrados nas copas das árvores. Somente na floresta pluvial amazônica, as formigas constituem  mais de 10% da biomassa animal. Isso significa  que  se fôssemos coletar e secar todos os animais de uma área da floresta, de macacos e aves até ácaros e nematóides, pelo menos 10% do peso seria de formigas.”

De onde vêm a gula e a obesidade na evolução?

Quem não conhece nossa página de perguntas e respostas (formspring) pode até pensar que o Evolucionismo não se atualiza com frequência. Mas basta fazer uma visitinha por lá para ver que perguntas são um verdadeiro fermento na produção de conteúdo por aqui, que tem no formspring o biólogo Rodrigo Véras como estrela maior.

Infelizmente, o formspring já deu cabo de dezenas de respostas antigas, praticamente todas até a época em que fui entrevistado pela Ciência Hoje por isso ser novidade na divulgação científica na rede lusófona. É para não perder o que se produz por lá que lanço este post coletando, editando e ampliando as primeiras sobreviventes das minhas respostas com referências científicas.

***

 

A explicação da psicologia evolutiva para a gula é que ela é a expressão de instintos nossos que foram moldados pela seleção natural num ambiente em que nossos ancestrais viviam, e este ambiente era escasso em energia em comparação ao ambiente da vida moderna com geladeiras, granjas, supermercados ou – nem é preciso ir tão longe – lavouras.

Ter um apetite insaciável é algo vantajoso para a sobrevivência numa savana que seja modesta na produção de caça, frutos e raízes, como era o ambiente em que nasceu a humanidade há cerca de 200 mil anos no leste africano. Se as pessoas variassem em apetite, e se esta variação tivesse base genética, teriam maior sucesso na sobrevivência e reprodução as pessoas com maior apetite.

 

Mas não é só o ambiente o responsável, a via é de mão dupla: uma vez que novidades foram surgindo na nossa linhagem, como nosso grande cérebro, a demanda por comida era maior, favorecendo assim a seleção favorável ao comportamento mais, digamos, guloso. Enquanto hoje gastamos a quantidade exorbitante de 20% da energia que consumimos, em média, apenas no cérebro, o chimpanzé só precisa de cerca de 9% da energia que come, em média. Nosso cérebro já era uma fornalha dezenas de milhares de anos atrás e demandava ser alimentada!

O ambiente mudou rápido (porque a cultura evolui rápido independente dos genes), e o instinto que foi esculpido por milênios não teve como mudar junto. Então, na época da bonança (ao menos bonança para quem está nas regiões desenvolvidas ou em desenvolvimento sócio-econômico hoje) este instinto pode levar ao excesso de peso, quiçá à obesidade e outros problemas de saúde relacionados à dieta opulenta. Toda essa história é muito bem contada e melhor referenciada no livro “El mono obeso” (O macaco obeso, tradução livre) de José Enrique Campillo Álvarez.

Em 2010, os pesquisadores Francisco Mauro Salzano, Maria Cátira Bortolini e Tábita Hünemeier, do Laboratório de Evolução Molecular e Genética de Populações Humanas da UFRGS, publicaram um estudo inédito, em parceria com dezenas de outros pesquisadores ao redor do mundo, identificando uma nova variante do gene ABCA1 em nativos americanos. Este gene codifica uma proteína ligada à membrana celular que faz parte de um sistema de expulsão do colesterol para fora das células.

ResearchBlogging.orgOs pesquisadores descobriram que este alelo do ABCA1 – chamado de alelo C230 – é exclusivo de povos ameríndios, particularmente aqueles cuja dieta dependia do consumo do milho (que foi domesticado e selecionado neste continente). As técnicas de evolução molecular mostraram que o alelo C230 foi um alvo da seleção natural positiva*. É o primeiro caso documentado de seleção positiva em nível molecular atuando no genoma humano nesta região do planeta.

E o interessante é que este alelo está associado a um alto índice de massa corporal (IMC) em seus portadores modernos! Células que têm este alelo em vez do alelo selvagem mostraram 27% de redução no efluxo (saída) de colesterol de dentro delas.

 

Deve ser um dos poucos estudos já publicados que corroboram com tanta clareza a hipótese dos psicólogos evolucionistas.

 

Mas há nuances: uma implicação interessante a ser discutida, que tem a ver com a própria cultura agrícola do milho, é que aparentemente a sedentarização dos ameríndios em civilizações dependentes da cultura do milho piorou a situação das populações em termos de nutrição energética num primeiro momento, quando poderia ter acontecido esta seleção natural.

 

É em parte verdade que somos o que comemos: não é a primeira vez que há indicação de que a dieta adotada por populações humanas pode ter modificado parte do genoma. Também em 2010, Angela Hancock e colaboradores detectaram mudanças sutis de frequências de genes (evolução) em populações humanas ao redor do globo, e esta evolução em cada caso pode ser creditada à dieta e ao ambiente (ecorregião). Por exemplo, as mudanças nas frequências de alelos de genes do metabolismo do amido foram associadas ao consumo de tubérculos e outras raízes em populações humanas específicas.

Uma reflexão importante remonta a quantos de nós ainda estamos à mercê da carestia dos nossos antepassados. À parte fontes concebíveis de seleção como o sedentarismo e a dieta, vale lembrar que bilhões de pessoas vivem em situações deploráveis: fome, falta de abrigo, vulnerabilidade a microorganismos patogênicos, etc. Segundo a ONU, uma em quatro crianças no mundo em desenvolvimento é desnutrida.

Retratado como obeso por alguns seguidores, o Buda sempre dizia que o caminho correto é o caminho do meio. Que o futuro reserve o caminho do meio para a mesa do Homo sapiens, distante tanto da obesidade quanto da fome.

 

* A seleção positiva é aquela que gera novidades, também chamada de darwiniana. A seleção negativa é a seleção natural que conserva ‘o que está dando certo’ (em time que está ganhando não se mexe), também chamada de seleção purificadora. Antes de Darwin, o ornitólogo Edward Blyth (1810-1873) pensou na seleção purificadora em aves, porém não teve a sagacidade de Charles Darwin, Patrick Matthew e Alfred Russel Wallace para imaginar que a seleção negativa era uma das faces da moeda da seleção natural, que também poderia ser positiva.

 

Referências

 

1. Álvarez, J.E.C. El mono obeso: la evolución humana y las enfermedades de la opulencia : diabetes, hipertensión, arteriosclerosis. Editorial Critica, 2004. 235 pp.

2. Acuna-Alonzo, V., Flores-Dorantes, T., Kruit, J., Villarreal-Molina, T., Arellano-Campos, O., Hunemeier, T., Moreno-Estrada, A., Ortiz-Lopez, M., Villamil-Ramirez, H., Leon-Mimila, P., Villalobos-Comparan, M., Jacobo-Albavera, L., Ramirez-Jimenez, S., Sikora, M., Zhang, L., Pape, T., Granados-Silvestre, M., Montufar-Robles, I., Tito-Alvarez, A., Zurita-Salinas, C., Bustos-Arriaga, J., Cedillo-Barron, L., Gomez-Trejo, C., Barquera-Lozano, R., Vieira-Filho, J., Granados, J., Romero-Hidalgo, S., Huertas-Vazquez, A., Gonzalez-Martin, A., Gorostiza, A., Bonatto, S., Rodriguez-Cruz, M., Wang, L., Tusie-Luna, T., Aguilar-Salinas, C., Lisker, R., Moises, R., Menjivar, M., Salzano, F., Knowler, W., Bortolini, M., Hayden, M., Baier, L., & Canizales-Quinteros, S. (2010). A functional ABCA1 gene variant is associated with low HDL-cholesterol levels and shows evidence of positive selection in Native Americans Human Molecular Genetics, 19 (14), 2877-2885 DOI: 10.1093/hmg/ddq173


3. Hancock, A., Witonsky, D., Ehler, E., Alkorta-Aranburu, G., Beall, C., Gebremedhin, A., Sukernik, R., Utermann, G., Pritchard, J., Coop, G., & Di Rienzo, A. (2010). Colloquium Paper: Human adaptations to diet, subsistence, and ecoregion are due to subtle shifts in allele frequency Proceedings of the National Academy of Sciences, 107 (Supplement_2), 8924-8930 DOI: 10.1073/pnas.0914625107

 

Créditos das imagens: 

GRANDJEAN / SCIENCE PHOTO LIBRARY;

邰秉宥 de Changhua, Taiwan / WIKIMEDIA COMMONS.

Cientistas criacionistas: quantos são?

Fonte: Phylointelligence

Tradução e adaptação: Eli Vieira

Pontos-chave:

  • Somente 0,84% dos cientistas que estudam a vida e a Terra, que são geralmente treinados nas questões das origens, são criacionistas.
  • Os EUA têm mais criacionistas do que qualquer outro país desenvolvido. Entretanto, mesmo nos EUA, os criacionistas representam uma minoria pífia entre os cientistas. Fora dos EUA, os cientistas criacionistas são virtualmente inexistentes em países de pesquisa de ponta.
  • 97% de todos os cientistas norteamericanos aceitam a ancestralidade comum das espécies incluindo o homem, enquanto apenas 2% são criacionistas, e apenas 8% defendem o criacionismo do tipo Design Inteligente.
  • A famosa entidade criacionista Discovery Institute compilou uma lista de menos que 800 supostos cientistas ao redor do mundo que “discordam do darwinismo”. Isto é menos que 0,1% do número de cientistas americanos no ano de 1999.

 

Dados Estatísticos

 

De acordo com uma publicação de 2009 do Pew Research Center, 97% dos cientistas dos EUA aceitam que os humanos evoluíram ao longo do tempo. Apenas 2% dos cientistas relataram ser criacionistas, e apenas 8% alegaram ser defensores do Design Inteligente (D.I.). Note que não há razão em particular para um cientista criacionista mentir a este respeito; os resultados individuais não foram, obviamente, publicados, e os criacionistas tiveram um forte incentivo para dizer a verdade em tais pesquisas para aumentar sua publicidade. Portanto, este número pode ser visto como uma boa estimativa do número de cientistas criacionistas.

 

Obviamente, esses números incluem cientistas de várias áreas que têm [a priori] pouca relevância quanto à origem das espécies e da vida, incluindo químicos, astrônomos, médicos, etc.; embora esses cientistas possam ser extremamente sábios em seus próprios campos de pesquisa, ele jamais tiveram que passar por estudos aprofundados no campo das origens. Assim, eles podem não estar naturalmente ou justamente atualizados sobre a ciência da biologia evolutiva.

 

Estimando o número de cientistas criacionistas e pró-D.I. nas ciências da vida e da Terra

Entre os cientistas em áreas de fato relevatnes para o assunto, como as ciências da vida e da Terra, o número de criacionistas decresce ainda mais. Na lista de cientistas criacionistas do site Answers in Genesis,os cientistas da vida e da Terra se somam em 42% (80 em 190. Note que existem muito mais de 10 milhões de cientistas apenas nos EUA). Se aplicarmos esta proporição à estatística acima, apenas cerca de 0,84% dos cientistas da vida e da Terra são criacionistas. Além disso, assumindo a mesma proporção, apenas cerca de 2,24% (o,42 x 5,33) dos cientistas da vida e da Terra são defensores do Design Inteligente.

Estimando o número de cientistas criacionistas e pró-D.I. no mundo

A ampla maioria dos cientistas no mundo desenvolvido estão nos EUA (Miller 2006). Se aceitarmos uma estimativa extremamente conservadora de que os cientistas criacionistas são 1,5 vezes menos comuns em outros países, então a porcentagem dos cientistas criacionistas no resto do mundo desenvolvido é de 1,33%. Se o mesmo é verdade para cientistas pró-D.I., então apenas cerca de 5,33% dos cientistas no mundo desenvolvido aceitam o D.I.

A lista de “cientistas da criação” do Answers in Genesis

A organização criacionista AnswersInGenesis juntou uma lista fraca de “cientistas da Criação”. Apenas cerca de 80 dos 190 cientistas na lista, em janeiro de 2010, estavam envolvidos em ciências da vida e da Terra. Considerando que há bem mais de 839.000 cientistas com doutorado apenas nos EUA (NSF 1999), os cientistas do AnswersInGenesis dão bem menos que 0,02% dos cientistas dos EUA (considerando que as últimas estatísticas disponíveis são de 1999, e que o número de cientistas desde então certamente cresceu; além disso note que a lista do AiG é internacional, enquanto o número “total” é apenas o número de cientistas nos EUA).

 

Note que a existência de alguns poucos criacionistas com títulos acadêmicos em ciências é completamente concebível; seria relativamente fácil para uma pessoa fundamentalista passar em cursos de pós-graduação sem ter uma formação séria em evolução, ou fazendo um curso ao mesmo tempo em que nega a ciência apresentada nele.

A lista de “dissensão científica do darwinismo” do Discovery Institute

Em 2001, a entidade criacionista Discovery Institute publicou uma lista de cientistas que assinaram a seguinte declaração oficial:

“Somos céticos quanto às alegações pela habilidade da mutação aleatória e da seleção natural darem conta da complexidade da vida. Um exame cuidadoso das evidências pela teoria de Darwin deve ser encorajado.”

A lista cresceu até aproximadamente 800 cientistas. O fato mais importante para botar esta lista em perspectiva, é claro, é de que ela foi assinada por menos de 0,1% dos cientistas e engenheiros nos EUA.

 

1. A declaração é formulada de forma esperta para fazer cientistas que aceitam a evolução terem mais chance de assiná-la.

Note que a declaração não requer que o assinante negue a evolução; muitos cientistas que aceitam a evolução concordariam que a mutação aleatória e a seleção natural provavelmente não são os únicos fatores naturais que contribuem para a complexidade da vida; eles são simplesmente os fatores primários.

2. Um grande número de cientistas na lista não trabalham em ciências físicas ou biológicas.

Enquanto o grande número de cientistas na lista que não trabalham em áreas relacionadas à evolução possam ser considerados especialistas em suas próprias áreas, é importante lembrar que eles provavelmente jamais tiveram cursos básicos em nível de pós-graduação em biologia evolutiva, ou talvez mesmo em biologia geral, e assim é provável que não conheçam a maior parte da ciência por trás da evolução.

3. Os cientistas da lista são uma minoria extrema do número total de cientistas.

Dos mais de 839.000 cientistas apenas nos EUA, estes 800 constituem cerca de 0,1% de todos os cientistas e engenheiros com doutorado. Note que a lista do D.I. é internacional; embora nenhuma estatística apropriada exista para o número de cientistas no mundo todo. Assim, embora a porcentagem correta de cientistas criacionistas ou pró-D.I não possa ser calculada com certeza, o número certamente está abaixo de 0,1%, e considerando que o criacionismo é de longe mais prevalente nos EUA, é provável que este número seja menor que 0,01%.

Fontes

Pew Research Center, 2009. Scientific Achievements Less Prominent Than a Decade Ago.
http://people-press.org/reports/pdf/528.pdf

The National Science Foundation, 1999. U.S. scientists and engineers, by detailed field and level of highest degree attained.
http://www.nsf.gov/statistics/us-workforce/1999/tables/TableB1.pdf

 

N. do T.: Há uma lista jocosa composta completamente por cientistas evolucionistas que se chamam Steve. Neste momento já se somam 1157 cientistas que se chamam Steve e aceitam a evolução.

Ecossistemas, Casualidade e Evolucionismo: Ruído 1/f e Equilíbrio Pontuado

O texto anterior “Caos, Complexidade e Evolução: Mais uma Ponte entre Termodinâmica e Evolucionismo“, tratou dos princípios do caráter estocástico de ecossistemas. O Ruído 1/f é um processo aleatório não-estacionário apropriado para a modelagem de sistemas evolutivos ou de desenvolvimento (Keshner, 1982). Este ruído combina a forte influência de eventos passados no futuro, então um comportamento de certa forma previsível, com a influência de eventos aleatórios. As funções de auto-correlação não-estacionárias do ruído 1/f foram desenvolvidas de forma a provar que seu comportamento presente é igualmente afetado por eventos tanto de um passado distante quanto de um passado próximo.

 

O ruído 1/f é um processo estocástico (Papoulis, 1965) definido em termos do formato de sua intensidade de densidade espectral, representada por S(f). Esta densidade está relacionada com o quadrado de alguma variável associada a algum processo aleatório, e em grossos termos, proporcional à freqüência recíproca. Em mecanismos físicos foi desenvolvido por Bernamont, em 1937 e McWorther, em 1955 (Keshner, 1982), o ruído 1/f foi observado em flutuações em correntes de diodos, resistência de filmes metálicos finos, freqüência de osciladores de cristais de quartzo (Hooge, 1976). E também em dados econômicos, a taxa de retenção de insulina por diabéticos (Mandelbrot, et al., 1969).

 

O ruído 1/f é um processo evolutivo aleatório, cujo comportamento atual é fortemente influenciado pelo passado. Além do mais, sua memória é dinâmica (Keshner, 1982). Esta função foi testada em sistemas informacionais, que acumulam informação. Com o passar do tempo, estes sistemas apresentam aumento geral em complexidade e estrutura (como no caso de MOSFETs). A evolução biológica (tal como desenvolvimento social) é um bom exemplo de sistemas cujas flutuações são explicadas pelo ruído 1/f. O ruído 1/f também se aplica como flutuação nos altos e baixos de uma sinfonia (Voss e Clarke, 1978) em função do tempo. Obviamente, uma obra sinfônica não é aleatoriamente estruturada, porém, assim como em sistemas biológicos é influenciada por eventos do passado, e de alguma forma mostra padrões previsíveis, porém pode apresentar algumas surpresas. Em poucas palavras, o ruído 1/f é um processo estocástico com uma grande memória, isso o diferencia de outros ruídos, como, por exemplo, o ruído branco.

 

Assumindo uma interação entre dois corpos apenas, o sistema pode ser modelado como sendo linear, e existe outra propriedade especial do ruído 1/f neste aspecto: segundo Keshner (1982:216), em um sistema cuja historia passada é representada pelos valores presentes de suas variáveis de estado, a quantidade de números que devem ser utilizados para descrever a influência do passado no presente no ruído 1/f é de centenas, enquanto que no ruído branco este número é zero (o sistema não tem memória temporal), e no movimento browniano este número é um. A característica mais marcante e exuberante deste ruído é seu caráter holístico, uma vez que foi observado em numerosos sistemas.

 

A diversidade em ecossistemas é influenciada por pequenas mudanças do dia-a-dia (Halley, 1996). Eventos ditos raros, tais como grandes tempestades de areia no deserto podem ser descritos utilizando o ruído 1/f, porque têm efeito prolongado em um ecossistema. Neste ponto, já é possível perceber que a afirmação de Keshner de que “O Ruído 1/f é um processo aleatório não-estacionário apropriado para a modelagem de sistemas evolutivos ou de desenvolvimento” é muito bem acertada. O ruído 1/f diferencia-se de outros modelos estocásticos por admitir correlação temporal com eventos passados, ou seja, valores de sinais aleatórios não são independentes uns dos outros. Como na natureza, eventos atuais são motivados por uma grande variedade de eventos passados, então este modelo é o que chega mais perto de explicar como uma teoria flutuações observadas em ecossistemas.

 

Ao contrário de processos auto-regressivos, cuja correlação entre flutuações é uma queda mais rápida, o ruído 1/f tem queda de valor menos acentuada, e pode ser utilizado em séries ecológicas de tempo, extinções e modelos de evolução. Este texto tem como objetivo discutir o último assunto, focando seu interesse particularmente no modelo de equilíbrio pontuado. Para tanto, é necessário uma definição sob o ponto de vista analítico desta teoria proposta pelo paleontólogo e biólogo evolucionista americano Stephen Jay Gould (1941 – 2002) e o também americano, paleontólogo Niles Eldredge (1943 -).

O gradualismo filético, teoria baseada no uniformitarismo, afirma o seguinte (Ridley, 2006): (i) a evolução tem uma taxa constante; (ii) novas espécies surgem da transformação gradual de espécies ancestrais; (iii) a taxa de evolução durante a origem da nova espécie é bem parecido com a de outrora. Como alternativa para esta teoria surge o Equilíbrio Pontuado (Eldregde; Gould, 1972), que é uma extensão do trabalho de 1954 de Ernst Mayr (1904 – 2005) sobre especiação: “Change of Genetic Enviroment and Evolution”. Neste trabalho, quando o autor trata da estrutura das espécies diz que existem dois tipos evidentes de variação geográfica: a variação ecotípica e a variação “tipostrófica” (termo utilizado pelo paleontólogo Schindewolf para denotar o surgimento de um novo tipo de espécie). Este trabalho também popularizou a teoria da especiação alopátrica. O erro mais comum no entendimento desta teoria é a idéia de que na teoria de Gould e Eldredge os seres vivos evoluem em um piscar de olhos, o que não é consistente com os fundamentos do equilíbrio pontuado.

 

O objetivo deste texto não é o foco no registro fóssil que motivou o surgimento da teoria do equilíbrio pontuado, e sim as bases analíticas e ferramentas matemáticas que foram desenvolvidas para o entendimento e validação dela. Existem seis teorias que tratam de sistemas que evoluem em longos períodos de estabilidade intermediados por períodos compactos e pontuados de mudanças metamórficas qualitativas (Gersick, 1991), que são: (i) indivíduos, de Levinson (1978); (ii) grupos, de Gersick (1988); (iii) organizações, de Trushman & Romanelli (1985); (iv) campos científicos, de Kuhn (1970); (v) espécies biológicas, de Gould (1980); (vi) grande teoria, de Prigogine e Stengers (1984). Seguindo do artigo de Gersick, o que se pode extrair de (v) são suas características principais e no que ela se diferencia das contrapartes tradicionais (Gersick, 1991:12 – 14).

 

O equilíbrio pontuado tem como principais características as premissas de que linhagens têm poucas mudanças durante sua historia, com eventos rápidos que pontuam estes longos tempos de estabilidade. O longo tempo de estabilidade é chamado de equilíbrio e os curtos tempos de mudança, revoluções. Também neste modelo, a evolução é o diferencial de sobrevivência e o desdobramento destas pontuações. A teoria de Gould e Eldregde diferencia-se dos contrapontos tradicionais (nominalmente o gradualismo filético) no fato que a evolução não é um desdobramento digno [no qual] espécies novas surgem da transformação lenta e constante de populações inteiras, e sim uma historia de equilíbrios homeostáticos atrapalhados apenas “raramente” por eventos rápidos de evolução.

 

De acordo com o que foi dito acima, Gould e Elredge (1977:19) “nunca disseram que o gradualismo não poderia ocorrer em teoria ou que nunca ocorrera de fato. A natureza é muito complexa e variada para este tipo de absolutismo.” Outro pensamento com esta linha de raciocínio é de que “mudanças morfológicas como maneira de compensar mudanças ambientais são permitidas pela plasticidade comportamental dos indivíduos do grupo” (Wake et al., 1983).

É interessante também analisar a viabilidade termodinâmica desta teoria, uma vez que como uma teoria física, deve necessariamente respeitar as Leis Termodinâmicas. É recorrente que os ecossistemas sejam estudados pela termodinâmica de não-equilíbrio. Os indivíduos em um ecossistema são vistos como funis energéticos, ou seja, são unidades de produção e troca de entropia em um sistema termodinâmico aberto. Os ecossistemas evoluem até um estado estacionário globalmente estável.

 

Da análise clássica de ecossistemas, feita com as equações de Lotka-Volterra, conclui-se que a probabilidade de que uma população construída de maneira estocástica ser estável decresce rapidamente com o tamanho do ecossistema, tornando-se praticamente zero em um ecossistema com apenas dez espécies que interagem fortemente (Michaelian, 2005:326). E isto leva ao paradoxo estabilidade-complexidade. Entenda-se por complexidade o número de espécies participantes e a conectância do ecossistema. Este paradoxo foi resolvido de maneira encorajadora pela termodinâmica de não-equilíbrio por K. Michaelian (2005) que utilizou o framework da teoria clássica da termodinâmica irreversível. Neste artigo também, foi argumentado que a pontuação da estase levando à sucessão pode ser uma manifestação de “transições de fase” de não-equilíbrio trazidas por uma mudança das condições externas através de um ponto termodinâmico crítico. Também neste artigo, fica proposto que a evolução da estabilidade do sistema por seleção natural é resultado de diretivas termodinâmicas de não-equilíbrio. Este artigo mostra, portanto que o equilíbrio pontuado é viável em termos termodinâmicos.

 

Antes de prosseguir com o assunto, é necessário para ligar o equilíbrio pontuado e o ruído 1/f que seja apresentado o conceito introduzido em 1987 por Bak, Tang e Wiesenfeld de “criticalidade auto-organizada”, (cuja sigla em inglês é SOC, de “self-organized criticality”). Sistemas estendidos em não-equilíbrio podem se organizar em um estado crítico de escala invariante de maneira espontânea. Este estado crítico é caracterizado pela distribuição de lei de potências de tamanhos de avalanches, que é tida como a “assinatura” do SOC (Lin; Chen, 2005), o que significa, em outras palavras, que o ruído 1/f é tido como a assinatura do SOC. De maneira simples, o SOC é uma propriedade sistemas dinâmicos que têm um ponto crítico como um atrator, ou seja, cada estado possível está sendo representado como um ponto do espaço fásico de Gibbs, e neste caso, o que se representa são os tamanhos de populações sem que o tempo seja explicitamente representado, indicando que esta propriedade aplica-se a sistemas fortemente não-lineares. Esta definição implica no entendimento de sistemas deste tipo como operantes no limite entre ordem e caos, desta forma, existem longos períodos de estabilidade auto-organizados permeados por momentos diminutos de caos.

A ligação conceitual entre ruído 1/f e equilíbrios pontuados faz-se através do SOC. Isto acontece porque sistemas com características de auto-organização crítica são suscetíveis a qualquer fator externo, tais como ruídos. É importante ressaltar, porém que o SOC não é a única maneira de pontuar mudanças evolutivas, a saber, tal coisa pode ser feita utilizando-se para tal o modelo de Wright padrão combinando corrente aleatória e seleção natural (Halley, 1996).

 

 

A emergência da ordem a partir do caos já foi discutida, e este é um interessante exemplo de como interações estocásticas podem levar um sistema ao equilíbrio de estase, e que este estado pode ser quebrado para mudanças necessárias ao sabor de mudanças de condições do sistema, constituindo-se assim em um poderoso mecanismo de sobrevivência descrito qualitativamente por Darwin, que pode ser entendida como uma base sólida vista como [[teoria e fato]]. Em um modelo onde a microevolução aparece desacoplada da macroevolução todos os tamanhos de extinção, incluindo extinções em massa, podem ocorrer como conseqüência da dinâmica biológica interna, não precisando explicitamente de mecanismos de iniciação (Bak et al., 1995). A explicação de usar um modelo assim se faz para que micro e macroevolução sejam tratadas de forma mais independente, dividindo o problema, tornando-o assim mais fácil de ser trabalhado.

De maneira mais explícita, no trabalho de Bak, Tang e Wiesenfeld de 1987 existe a demonstração de que sistemas dinâmicos com graus de liberdade espaciais evoluem naturalmente a um ponto crítico auto-organizado, e o ruído 1/f pode ser identificado com a dinâmica do estado crítico. Este quadro também traz um vislumbre sobre a origem de objetos fractais. Sem dúvida, o caráter complexo com o qual a teoria lida se desdobra em muitos campos como, por exemplo: biológico, econômico, da física de materiais, cinética química…

Seria inadmissível que alguma teoria fosse proposta sem evidências. Para suportar a teoria, podemos citar o padrão intermitente observado na morfologia da espécie Pseudocubus vema (Per Bak et al., 1985); a evolução observada Globorotalia pliozea (Wei; Kennett, 1988), dentre outros. A maior conquista da teoria do equilíbrio pontuado foi conciliar o registro fóssil disponível e a teoria da evolução, desta forma servindo como uma robusta ponte entre estes conceitos, de forma a mais uma vez validar as célebres idéias de Charles Darwin. Obviamente, como já dito no texto não é possível que a evolução se processe por apenas um mecanismo, porém a evolução biológica como um todo não pode ser invalidada em nenhum nível, a complexão do evolucionismo mostra que ele é uma das mais perfeitas teorias descobertas pelo Homem, pois nela observa-se o mais perfeito respeito às leis físicas gerais do Universo. É muito interessante também a quantidade de nível teórico que esta teoria suporta o que pode levar em um panorama distante à teoria unificada entre física e biologia, fato já discutido por Richard Dawkins e Steven Weinberg.

 

_____________________________________________________________________________________

Referências

 

 

 

 

 

Halley, J. (1996). Ecology, evolution and ?-noise Trends in Ecology & Evolution, 11 (1), 33-37 DOI: 10.1016/0169-5347(96)81067-6
Keshner, M. (1982). 1/f noise Proceedings of the IEEE, 70 (3), 212-218 DOI: 10.1109/PROC.1982.12282

Mandelbrot, B., & Wallis, J. (1969). Some long-run properties of geophysical records Water Resources Research, 5 (2) DOI: 10.1029/WR005i002p00321

Marinari, E., Parisi, G., Ruelle, D., & Windey, P. (1983). On the interpretation of 1/f noise Communications in Mathematical Physics, 89 (1), 1-12 DOI: 10.1007/BF01219521

MICHAELIAN, K. (2005). Thermodynamic stability of ecosystems Journal of Theoretical Biology, 237 (3), 323-335 DOI: 10.1016/j.jtbi.2005.04.019

Rikvold, P., & Zia, R. (2003). Punctuated equilibria and 1/f noise in a biological coevolution model with individual-based dynamics Physical Review E, 68 (3) DOI: 10.1103/PhysRevE.68.031913

Lin, M., & Chen, T. (2005). Self-organized criticality in a simple model of neurons based on small-world networks Physical Review E, 71 (1) DOI: 10.1103/PhysRevE.71.016133

Sole, R., Alonso, D., & McKane, A. (2002). Self-organized instability in complex ecosystems Philosophical Transactions of the Royal Society B: Biological Sciences, 357 (1421), 667-681 DOI: 10.1098/rstb.2001.0992

Mandelbrot, B., & Wallis, J. (1969). Robustness of the rescaled range R/S in the measurement of noncyclic long run statistical dependence Water Resources Research, 5 (5) DOI: 10.1029/WR005i005p00967

Bak, P., Tang, C., & Wiesenfeld, K. (1987). Self-organized criticality: An explanation of the 1/f noise Physical Review Letters, 59 (4), 381-384 DOI: 10.1103/PhysRevLett.59.381

Voss, R. (1978). ’’1/f noise’’ in music: Music from 1/f noise The Journal of the Acoustical Society of America, 63 (1) DOI: 10.1121/1.381721

Romanelli, E., & Tushman, M. (1994). Organizational Transformation as Punctuated Equilibrium: An Empirical Test The Academy of Management Journal, 37 (5) DOI: 10.2307/256669

Gersick, C. (1991). Revolutionary Change Theories: A Multilevel Exploration of the Punctuated Equilibrium Paradigm The Academy of Management Review, 16 (1) DOI: 10.2307/258605

WAKE, D., ROTH, G., & WAKE, M. (1983). On the problem of stasis in organismal evolution Journal of Theoretical Biology, 101 (2), 211-224 DOI: 10.1016/0022-5193(83)90335-1

Hooge, F. (1976). 1/f noise Physica B+C, 83 (1), 14-23 DOI: 10.1016/0378-4363(76)90089-9

Gould, Stephen Jay, & Eldredge, Niles (1977). “Punctuated equilibria: the tempo and mode of evolution reconsidered.” Paleobiology 3 (2): 115-151. (p.145)

Mayr, Ernst (1954). “Change of genetic environment and evolution” In J. Huxley, A. C. Hardy and E. B. Ford. Evolution as a Process. London: Allen and Unwin, pp. 157-180.

Ridley, M., Evolution Oxford, England: Oxford University Press. ISBN 9781-405-103459. An anthology of analytical studies in paleobiology.

 

 

 

ResearchBlogging.org

Darwin e Boltzmann: a ligação entre átomos e seres vivos

 Um nome raramente associado de pronto à Teoria da Evolução é o do físico austríaco Ludwig Eduard Boltzmann (1844 – 1906), famoso por suas contribuições nos ramos da mecânica estatística e termodinâmica estatística. Daí já surge um ponto de contato entre Boltzmann e Darwin: quando ambos defendiam de forma ferrenha a Teoria Atômica (Boltzmann) e a Teoria da Evolução (Darwin) foram severamente atacados por críticos [1,2]. Um fato histórico interessante é que Boltzmann admirava o trabalho de Darwin, esta admiração é tão notável que ficou imortalizada na seguinte citação [3]:

 

“Boltzmann tinha uma tremenda admiração por Darwin e desejava estender o darwinismo da evolução biológica para a cultural. Na verdade ele considerava a evolução biológica e cultural como uma só e a mesma coisa. (…) Curtamente, a evolução cultural era um processo físico acontecendo no cérebro. Boltzmann incluiu ética nas idéias que se desenvolveram neste modelo.”

                                                                                                                                                                                    S. R. de Groot

 

Mas qual é então a ponte conceitual entre a Teoria da Evolução e a Termodinâmica de Boltzmann? A resposta surge de um termo cunhado por Rudolph Clausius (1822 – 1888): entropia. O trabalho de Clausius foi o de afirmar que durante processos espontâneos existe uma grandeza crescente de forma monotônica chamada entropia (esta definição serve apenas para sistemas isolados, que não permitem entrada nem saída de energia do sistema) [4]. Esta é a conhecida (e por muitas vezes mal utilizada) Segunda Lei da Termodinâmica [5].

 

Pelo enunciado da Segunda Lei já existe um caráter direcional associado à entropia. Este caráter é explorado pelo próprio Boltzmann no assim chamado “Princípio da Irreversibilidade Macroscópica”, problema também estudado pelo químico soviético (formalmente russo, pois nasceu antes da Revolução, e posteriormente naturalizado belga) Ilya Prigogine (1917 – 2003). Vale ressaltar a idéia de que a teoria da evolução não viola em momento algum as leis da termodinâmica, os argumentos de anti-evolucionistas para desqualificar o trabalho de Darwin com este argumento apresentam erros de lógica ou conceituais (um quarto organizado não tem entropia menor que o mesmo quarto desorganizado, e em uma sala de aula desorganizar as carteiras não faz a entropia do sistema aumentar, em termos mais precisos a entropia é a desordem de um sistema microscópico, ou em uma forma mais rigorosa, a dispersão energética de um sistema).

 

 A interpretação dada por Boltzmann à entropia foi estatística. A grande idéia (uma das grandes idéias deste grande gênio) de Boltzmann, que desenvolveu a mecânica estatística antes que a Teoria Quântica fosse desenvolvida, foi a de descrever um sistema em termos probabilísticos e estatísticos, uma vez que se tornava um desafio imensamente difícil (senão impossível) saber as energias individuais de cada partícula de um sistema.

 

A última metade do século XIX assistiu o surgimento na biologia e na física de um novo paradigma: a análise mecanística do comportamento macroscópico. Na física, Boltzmann propôs um modelo mecanístico de fenômenos macroscópicos baseado em uma noção radicalmente nova da heterogeneidade molecular: as moléculas em qualquer grande sistema diferem em nível de energia. Na biologia, Darwin foi o cientista que desenvolveu a explicação mecanística de tendências evolutivas baseado na noção análoga de heterogeneidade de organismos: os indivíduos de qualquer grande população de organismos replicantes diferem em termos de fecundidade e mortalidade.

 

Já o direcionamento em populações de organismos replicantes pode ser parametrizado em termos do conceito estatístico da entropia evolutiva [6]. Mas como então duas coisas aparentemente tão distintas como evolução natural e entropia estatística conseguiram se acoplar?

 

 

 Isto também demanda um pouco de história: Boltzmann profundamente ligado às tradições matemáticas do século XIX da física derivou sua célebre equação de entropia (S=klogW), onde W é o número de estados energéticos disponível em uma dada temperatura, k é a constante de Boltzmann. Esta equação foi trabalhada por Josiah Willard Gibbs (1839 – 1903), que a deu uma interpretação de probabilidade, a assim chamada entropia de Gibbs.

Assim então o universo macroscópico pode ser entendido em termos de mudanças temporais de uma função analítica bem definida de estados microscópicos. O tempo de relaxação do processo adiabático nesta teoria é determinante para a definição de processos reversíveis e irreversíveis. Como esperado, processos irreversíveis têm grande tempo de relaxação, já processos reversíveis, pequeno tempo de relaxação. O termo relaxação refere-se ao tempo preciso para que um sistema que sofre uma perturbação retornar ao seu estado de equilíbrio.

A coerência e complexão lógica da teoria desenvolvida por Boltzmann e Gibbs derivam do conceito puramente geométrico da heterogeneidade molecular que foi analiticamente expresso pela física disponível no século XIX. 

Darwin, no entanto desenvolveu sua teoria nos moldes naturalistas da biologia do século XIX. Um molde que se apoiava muito mais na observação que em desenvolvimentos matemáticos. A Teoria da Evolução por seleção natural em contraste com Termodinâmica Estatística é essencialmente uma teoria qualitativa, que provê um framework mais conceitual que analítico para entender a dinâmica evolucionária em populações de seres vivos [6].

 

A redescoberta das leis de herança de Mendel em 1910 faz parte do processo de surgimento de uma teoria da evolução analítica, tornando-se um importante tópico de estudos biológicos. A primeira síntese matemática da teoria de Darwin surge com o livro “Genetical Theory of Natural Selection”[7] de Ronald A. Fisher, um livro de doze capítulos que aborda temas desde a natureza da herança até as condições para uma civilização permanente. Este livro, cuja pedra fundamental  é incorporada no “teorema fundamental da seleção natural”, congrega um estudo matemático da teoria de Darwin e das leis de Mendel.

 

 

 Atualmente é considerado que a teoria de Fisher e suas extensões de variedades não explicam o conceito de macroevolução [8,9]. O teorema fundamental e um grande conteúdo de estudos de genética clássica preocupam-se primariamente com mudanças em freqüências genéticas em uma população devida à viabilidade diferencial de genótipos. O conceito de aptidão média, a chave-mestra da teoria fisheriana descreve a viabilidade média de genótipos, conceitos que não precisam estar relacionados à persistência ou estabilidade de uma população [8].

 

Por outro lado, a variabilidade demográfica tem sua origem em processos que estão ligados à ontogenia do indivíduo [7]. Tal afirmação pode ser observada em (a) populações celulares, onde a variabilidade demográfica resulta de mutações aleatórias, como por exemplo, distribuição desigual de componentes metabólicos, ou (b) em organismos multicelulares complexos onde a variabilidade deriva de pequenas variações na seqüência do evento de desenvolvimento que transformam um zigoto em um adulto. A implicação disso é que em uma população qualquer geneticamente homogênea será caracterizada pela heterogenia demográfica, condição que explica a estabilidade e persistência de uma população à condições ambientais diversas.

 

 A teoria de Boltzmann e Gibbs é baseada na geometria do sistema, enquanto que a taxa de variabilidade de um sistema de seres vivos tem caráter dinâmico. O que torna a teoria de Boltzmann e Gibbs incapaz de descrever sistemas a natureza dinâmica da heterogeneidade de biopopulações.

 

Em 1950, dois pesquisadores, Kolmogorov e Sinai [9] introduziram uma noção de entropia dinâmica baseados na teoria ergódica de Boltzmann, cujos principais conceitos são a hipótese ergódica (essa hipótese pode ser enunciada como: um sistema de moléculas assumirá ao longo do tempo todos os micro-estados concebíveis com a conservação da energia) e a ergodicidade. Neste ponto já é possível vislumbrar uma ponte que começa a ser construída entre as teorias de Boltzmann (ou Boltzmann-Gibbs) e Darwin. A teoria ergódica estuda as propriedades estatísticas de um sistema mecânico em termos de um objeto matemático chamado de medida preservando a transformação de um espaço de medida [9].

 

O trabalho de Demetrius [10] explorou o isomorfismo invariante e conseguiu criar um primeiro modelo de heterogeneidade em taxas de nascimento e morte que caracterizam uma biopopulação. Em estudos posteriores, este modelo foi explorado para o desenvolvimento de um análogo evolucionário da teoria de Boltzmann [6].

Conforme os modelos tornam-se cada vez mais refinados, explicações e previsões de estabilidade e persistência populacional tornam-se mais confiáveis [10, 11]. Esforços para elucidar de forma mais conclusiva a relação entre termodinâmica e evolução ainda hoje são feitas, gerando um grande número de trabalhos [6].

 

 As relações entre a teoria de Boltzmann e de Darwin geraram sem dúvidas muitos frutos. Em uma análise rápida destes desenvolvimentos, três importantes modelos para explicar termodinamicamente as observações feitas de uma biopopulação são descritos na Ref. 6: a heterogeneidade intrínseca de organismos replicantes, a dinâmica populacional e a dinâmica evolutiva.

 

É possível concluir destes vários estudos feitos na direção de ligar as duas teorias que as estruturas matemáticas da mecânica estatística de organismos replicantes (Teoria da Direcionalidade) e a mecânica estatística de sistemas físicos (Teoria Termodinâmica) estão intimamente ligadas. A entropia evolutiva é uma extensão da entropia termodinâmica [6]. O Princípio de Direcionalidade, que descreve uma complexidade crescente e a estabilidade de entidades replicantes sujeitas à constantes de crescimento estacionárias é um análogo em não-equilíbrio da Segunda Lei, que descreve um crescimento na desordem de um sistema de matéria inanimada sujeito à processos irreversíveis e condições adiabáticas.

 

 

Referências

  1. Revista Super Interessante, Edição 263, p. 06, Março (2009). Entrevista de Dom Odílio Scherer. 
  2.  “Theoretical Physics and Philosophical Problems, Selected Writings” – S. R. de Groot  Livro.
  3. Ilya Prigogine – Nobel Lecture Lecture
  4. Tutorial sobre a Segunda Lei da Termodinâmica   página acessada em 15/12/2010.
  5. Demetrius, L., PNAS April 15, 1997 vol. 94 no. 8 3491-3498.  Artigo
  6. Fisher R A (1930) The Genetical Theory of Natural Selection (Dover, New York).
  7. Maynard, Smith J. (1998) in Evolutionary Progress, ed Nitecki M (University of Chicago Press, Chicago), pp 219-230.
  8. Billingsley, P. Ergodic Thoery of Information (Wiley, New York).
  9. Demetrius, L. (1977) Proc NatlAcd Sci USA 77:384-386.
  10. Demetrius L (1974) Proc Natl Acad Sci 71:4645–4647, pmid:4531007.  Artigo
  11. Wang Z, Feng M, Zheng W, & Fan D (2007). Kinesin is an evolutionarily fine-tuned molecular ratchet-and-pawl device of decisively locked direction. Biophysical journal, 93 (10), 3363-72 PMID: 17675343

 

 

 

ResearchBlogging.org