sexta-feira, 18 de dezembro de 2020

COVID-19 => LEIAM ISSO E VAMOS SALVAR VIDAS => Comparando o que eu disse em abril de 2020 com o que já descobrimos agora!

 ESTAMOS ERRADOS: a chave do problema da COVID-19 é o sistema imune!

Gilson Lima 1

COMPARANDO O QUE DISSE EM ABRIL DE 2020 COM O QUE JÁ DESCOBRIMOS


Retomando.



 

No início da pandemia eu dizia que - pela simbiogênese o problema da COVID-19, sobretudo, das mortes não era o vírus e sim o Sistema Imune de algumas pessoas e fui chamado de bruxo, esotérico. Causador de ruídos.

Em abril de 2020 pedi a ajuda  no debate e nas pesquisas mais especificamente com os bioquímicos, microbiologistas e especialistas em sistema imune, para uma possível interferência junto aos cientistas das principais bancadas de enfrentamento ao SAR-COV-2.  Isso aconteceu. 

Minha ideia era de que estava tudo errado. Estávamos focando no vírus e o problema, o centro de atividade da doença era nós mesmos. 

A referência, óbvio era que a abordagem militar e de guerra do Sistema Imune (Darwinista clássica)  não combinava com a Simbiogênese. Nosso sistema imune, como nosso Planeta vivo é uma perfeita homeostase cooperativa.

Para saber mais sobre simbiogênese.

MARGULIS, Lynn. Microcosmo. São Paulo: Cultrix, 2002. MARGULIS, Lynn; SAGAN, Dorion. O que é Vida. Rio de Janeiro: Editora Jorge Zahar, 2002b. MARGULIS, Lynn; SAGAN, Dorion. O que é Sexo. Rio de Janeiro: Editora Jorge Zahar, 2002c. MARGULIS, Lynn. O Planeta Simbiótico: nova perspectiva da evolução. Rio de Janeiro: Rocco, 2001. 


LIMA, Gilson. Biodiversidade e Simbiogênese: não somos tão humanos quanto pensávamos. In: Quaresma, Alexandre (org.). Artificial Intelligences: Essays on inorganic and non-biological systems. Madrid: Global Knowledge, p. 207-208, 2018.

LIMA, Gilson. Nômades de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, p. 152, 2005.

LIMA, Gilson. A sociologia na Complexidade. Revista Sociologias, n. 15. Porto Alegre: UFRGS, 2006.


Tudo começou depois de alguns meses quando pesquisei  artigos científicos chineses  envolvendo a família dos corona vírus que conhecíamos mais detidamente a partir de 2002.

https://www.sciencedirect.com/science/article/abs/pii/S0165242702000478

Eram várias as referências!

Assim, indiquei o equívoco analisando as pesquisas na China de não lharmos com cuidado para o sistema imune quando do primeiro COVID em 2002 que a tempestade de citocina estava sempre presente desde nos óbitos reforçando que o problema estava em nós mesmo e não no vírus.

Estar focado no vírus –  é bom – vacinas, medicamentos antivirais, mas o vírus não deveria ser o centro de atividade de nossos esforços mais de longo agora frente as respostas aos casos graves e os óbitos. Porém, o centro de Atividade da COVID-19 não é o vírus. O segredo da derrota da doença está em nós mesmos. A Chave é o sistema imune. O que está matando os simbióticos hoje é nosso próprio sistema imunológico, não tanto o vírus em si

Verificando estudos sobre óbitos e situações de agravamento dos sintomas da COVID-19 me inclinei fortemente a considerar que nossos esforços – desse mutirão científico planetário jamais visto nessa em escala - estão concentrados  no vírus e fora do centro de atividade principal da doença.

Tudo indicava que o vírus produz um determinado quadro, que impõe, para alguns de nós, um stress ao sistema imunológico um stressUma super reação desorganizada. O sistema imunológico, ao super reagir, está causando as mortes.

Isso não pareceria uma grande novidade se lêssemos com outros olhos muitas das pesquisas realizadas. Está presente de modo fragmentado em muitas delas. Falta é ligar o problema como centro da atividade. O que não se encontra presente é esse olhar de que o centro do problema vital pode estar no nosso sistema imunológico. 

Não se sabia ainda por certo o porquê a passagem  em alguns casos dos sintomas leves para os graves e que podem gerar até óbitos. Sabe-se que morremos por uma reação exagerada de nossas defesas que pode acontecer em algumas pessoas. Minha hipótese era genética. Um erro cromossômico que esse vírus induz uma "leitura" e uma ação equivocada. 

Acontece também quando não conseguimos identificar defeitos de células cancerígenas, não só com vírus. Mas dada a virulência desse vírus - que é até bem inofensivo frente a tantos outros a situação se agrava em capacidade de resposta - sobretudo - do Sistema de Saúde que temos montado em nossas sociedades.

Para entender como os indivíduos adquirem imunidade a um agente viral é preciso compreender o processo de resposta imune aos patógenos. 

Nosso sistema imune é uma complexidade viva maravilhosa mobilizada pela paz e o entendimento, a homeostase é a regra. Assim como é nosso Planeta vivo, que a vida em longo agora de evolução replica em nosso Planeta Simbiótico. 

Porém, como se trata de um vírus novo e atípico para nosso sistema era preciso entender melhor essa reação antibiótica provocada pelo sistema imune de algumas pessoas. 

Primeiro. O SARS-Coc-2 era um vírus que convivia muito bem com o morcego. Ele estava lá. Em paz. Em cooperação. Um morcego picou um Pangolim- um mamífero selvagem.  Ao estudá-lo e,  sem querer,  alguns cientistas chineses de um laboratório de Wuhan acabaram por liberar seu salto na rede dos simbióticos nessa região central e industrial da China.

Para entender melhor essa conexão antibiótica de estratégias de reconhecimento é preciso dizer que nosso organismo identifica tais agentes estranhos por estruturas que são compartilhadas por vários deles, conhecidos por padrões moleculares associados a patógenos já conhecidos, PMAPs (no inglês PAMPs: Pathogens-Associated Molecular Pattern). Assim, se diz que o sistema imune foi ativado. 

Por conseguinte, isso é feito de modo bem tranquilo para quase todos nós e para quase todos vírus, porém algumas pessoas estão reagindo de modo diferente não como via de prevenção, mas deflagrando repostas que a fim de conter aquele contato inoportuno acaba quebrando o equilíbrio simbiótico do sistema (homeostase).

A primeira estratégia de resposta aos agentes infecciosos é a imunidade inata. Como se trata de um vírus novo, nosso sistema imunológico não tem memória para combatê-lo vai depender totalmente de nosso sistema inato que é composto por barreiras físicas corporais, substâncias químicas com ação inibitória e células especializadas capazes de identificar e neutralizar potenciais agentes de infecções, de forma generalizada e não específico.

Uma questão que parece certa era certa PARA TODOS e que explicava as oscilações de contágio é a quantidade de vírus com a qual o nosso organismo tem contato: a carga viral. Quando menor a quantidade, mais fácil será se livrar dele no início. A insistência de entrada do vírus, gerando cada vez uma maior quantidade deles – permite que ele ultrapasse a fronteira inicial. Nossa resposta inata (primeira linha de defesa do organismo) já atacaria o vírus facilmente.  Quando recebemos uma alta carga viral, o que acontece principalmente para os profissionais de saúde, já é mais difícil de conter.

Então a COVID-19 é uma resposta do sistema imunológico é a hiperinflamação[i] A causa era a reação de alguns sistemas imunes frente ao visitante inesperado e não o próprio visitante em si.

COMO OCORRE?

Sabíamos que o SARS-Cov-2 e o SARS-Cov (esse que em 2004 acometeu mais de 8 mil pessoas em vários países e matou 800 indivíduos), são muito semelhantes.

De fato, seus genomas compartilham mais de 80% de similaridade. Portanto, o conhecimento prévio é muito valioso. Há evidências de que resposta imune humoral padrão, salvo exceções, não persiste por muito tempo após a infecção ter sido debelada. 

Ainda que a ativação do sistema imune seja um dos maiores trunfos na resposta do organismo humano aos "patógenos", a imensa maioria deles são benéficos, inclusive bactérias, e são nossos amigos e amigas, muitos dos quais já compõem nossa rede biótica permitindo funcionarmos melhor e sermos mais duráveis.

Isso pode ser verificado. Cada 10 células humanas da nossa rede biótica só uma é humana as outras são alianças que os simbióticos fizeram num longo agora, rompendo o eu-humano linear e constituindo uma nova espécie muito mais complexa e duradoura: os simbióticos. Até nosso DNA não é mais o mesmo que ios humanos, os de nossos bisavós. Hoje 25% de nosso DNA é retrovírus. Somos mais duráveis e mais evoluídos graças a simbiogênese natural e a medicina, a simbiogênese não natural proveniente da ciência e da tecnologia que permitiu a emergência dessa nova espécie mais evoluída filogeneticamente: os simbióticos. A consciência ainda é humana e predadora. Ela vem por última e está emergindo.

 No geral, as citocinas são produzidas por células tanto do sistema imune inato quanto o adaptativo, afim de ativar, mediar ou regular a resposta imune total. Elas possuem tempo de vida média, curta e dependem de ligação receptor-substrato específica, ou seja, só ativam células que tenham o receptor específico.

Quando o vírus é internalizado na célula pode ocorrer maior facilidade para quem tem a alteração num gene e o vírus consegue - assim - se reproduzir mais rapidamente e infectar outras células do que a maioria dos simbióticos.

Isso explicaria muita coisa. Quando várias células já estão infectadas, nosso próprio sistema imunológico, que serve para  nos proteger contra vírus e bactérias, pode oferecer risco. O novo coronavírus (SARS-CoV-2) pode infectar algumas das células de defesa e fazer com que elas entrem uma luta desproporcional no organismo. Confusos com a infecção do vírus, neutrófilos e linfócitos T citotóxicos, importantes células de defesa, podem entrar em atividade exaltada, combatendo tanto o inimigo quanto outras células saudáveis — prejudicando a defesa e causando danos a tecidos saudáveis.

Na época indicamos que essa análise pode ser detectada verificando um conjunto de apenas alguns genes envolvidos na imunidade à interferon, uma proteína produzida por leucócitos e fibroblastos para impedir a replicação de vírus. Com a presença da infecção viral no organismo, a proteína alerta o sistema imunológico, que combate a doença.

Isso pode mudar tudo, inclusive o esforço de combate ao vírus pelas vacinas. A boa notícia é que bloquear a atuação destrutiva do sistema imunológico pode ser mais fácil, mais rápido e bem mais barato.

  A hipótese era genética.

Uma outra questão importante dizíamos é que o DNA que difere normalmente de indivíduo para indivíduo. Se seu código genético for "premiado" com uma alteração que facilite a entrada dos vírus nas células, as chances de desenvolver um quadro grave da covid-19 seria bem maior.

Estudando detalhadamente o porquê de jovens saudáveis morrerem afirmei que poderíamos verificar muitas novidades. Uma delas talvez será que uma falha em um dos genes da imunidade podem ajudar a explicar que o vírus pode estar matando as pessoas muito mais pela reação do nosso próprio sistema imunológico do que pela sua letalidade. Poderíamos começar focando no ACE-2, responsável por codificar uma proteína à qual o vírus se conecta para infectar as células. O gene ACE-2, funciona como um receptor molecular tem sido a porta de entrada do vírus que também indica uma explicação de por que ocorrem casos graves.

Agora com os novos estudos  verificou-se que o genoma desses jovens comparados com o DNA de pessoas saudáveis revelou o problema era na falha de um gene chamado TYK2. Esse gene é a parte do sistema que torna as células imunológicas mais irritadas e mais inflamatórias. Se esse gene estiver imperfeito, essa resposta imune pode entrar em exaustão, colocando os pacientes em risco de séria inflamação pulmonar. 

Outra questão que se destacou foi a de que eles tinham pouco Interferon. As diferenças genéticas também foram encontradas em um gene chamado DPP9, que desempenha um papel em inflamações e num gene chamado OAS, que ajuda a impedir que o vírus se multiplique. Além disso, variações em um gene chamado IFNAR2 também foram identificadas nos pacientes de terapia intensiva. O IFNAR2 está ligado a uma molécula antiviral potente chamada interferon, que ajuda a ativar o sistema imunológico assim que uma infecção é detectada. Esses pacientes produziam menos interferon e isso dá ao vírus uma vantagem inicial, permitindo que ele se replique rapidamente, levando a quadros mais Outros estudos já haviam apontados o problema da dosagem de interferon. Verifiquei isso num estudo na revista Science que por meio de mutações genéticas e um distúrbio autoimune que afetava a sua produção normal do interferon.

O interferon pode ser administrado como tratamento. Isso é ótimo. Alguns estudos concluíram que não houve diferença com o tratamento de Interferon, mas isso pode estar relacionado com o contexto e que nos primeiros dois, três, ou quatro dias de infecção, o interferon pode funcionar. Claro que isso exigirá mais estudos clínicos.

Porém, de imediato existe a indicação de um tipo de medicamento anti-inflamatório chamado Baricitinib, já pode ser usado para doenças como a artrite reumatóide tem como alvo exatamente esse mecanismo biológico. Consulte seu médico.

Agora sabemos. Monitorar as citocinas causadoras das inflamações, sobretudo a  interleucina 6 salvará vidas. Essas são - como vimos -  as moléculas humanas que devido a quebra da homeostase ataca nós mesmos causando inflamações. Indicando que poderá ter ou não tempestade de citocina.

Já estão dosando a interleucina 6 - IL-6. 

Vejam o que já a Beckman Coulter Dx (uma empresa de Indianápolis nos Estados Unidos) - Beckman Coulter Life Sciences). Veja como estão fazendo agora:

👇

https://youtu.be/b9J3NjvDIQA

Isso é um grande feito!

Agora exames de sangue também poderiam então ajudar. E não são feitos ainda em laboratórios poderiam ser feitos através de monitoramento da Interleucina 6 – IL-6. 

Então é muito importante bloquear também a atividade da IL ‐ 6, reduzindo a agressão da imunossupressão retirando os antimetabólitos, descontinuando ou reduzindo significativamente um  inibidor mantendo pequenas doses de esteróides.

Em estágios mais avançados de COVID ‐ 19 (síndrome da tempestade de citocinas), o tratamento provavelmente deve se concentrar na redução da inflamação descontrolada, bloqueando a IL ‐ 6, TNF ‐ alfa ou removendo as citocinas por hemoperfusão.

Fatores de Necrose Tumoral Alfa (sigla em inglês: TNF-α) refere-se a um grupo de citocinas capaz de provocar a morte de células (apoptose) tumorais e que possuem uma vasta gama de ações pró-inflamatórias. O TNF-α  é secretado principalmente por macrófagos[VIII]. Seu mau funcionamento pode causar inflamações dolorosas em doenças automimunes e auto inflamatórias, choque séptico e permitir o aparecimento de tumores.

INDICAÇÃO =>

Por isso reforço a necessidade de criarmos um protocolo de exames antes da alta de pacientes graves que podem estar ainda levando citocinas em outros órgãos além do pulmão (coração e rim e pâncreas principalmente) e até no cérebro.

Os laboratórios não fazendo isso é possível por técnica de citometria de fluxo.

Na luta fragmentos do vírus vão para o sistema circulatório e as citocinas vão atrás. Se instalam em órgãos e até  no cérebro as vezes e mesmo sem vírus esses pacientes vão ter inflamações e sequelas adiante. É preciso prever com anti-inflamatórios com muita cautela.

PALAVRAS FINAIS

A simbiogênese ajuda muito mais a ir a fundo na causa das doenças do que a velha visão darwinista da guerra e da luta pelo mais apto. Ainda temos necessidades urgentes de novos estudos e de encontrar novos tratamentos para esta doença e temos que fazer as escolhas certas sobre os próximos tratamentos e isso pode ajudar muito no combate a até de vírus que serão ainda muito mais perigosos no futuro.

O sistema imune também é um exemplo do processo Darwiniano de adaptação, seleção, sobrevivência e transmissão dos caracteres. Em certos momentos, organismos cooperam em simbiose e assim se adaptam, em outros, há seleção de caracteres mais bem adaptados às condições ambientais

Devemos tudo a Darwin ele só errou no como (visão da luta). Mas quando colocou a historia na natureza e não só na cultura como os humanistas insistem até hoje foi a maior de todas ideias hereges da ciência. Não somos humanos. Estamos humanos. Não fomos ontem e não seremos amanhã. Claro que se os neodarwinistas não tivessem desconsiderado a simbiogênese e aceitassem a Tese de Gaia - isso Leonardo da Vince já tinha dito. Se os neodarwinistas aceitasse a hipótese de Gaia em homeostase. Não estaríamos tão predadores ainda. Nessa situação tão terrível de um Planeta em febre. Eles nos atrasaram bastante. Imagine o que seria o mundo hoje se Lyn Marques tivesse sido ouvida e não taxada como bruxa... Como alguém disse que a célula tem intencionalidade cooperativa... Imagine ao contrário. Ela ganhando o Prêmio Nobel e o mundo sem motores de combustão, avançado no magnetismo da vida simbiotica cooperando com esse Planeta vivo. Estaríamos muito mais evoluídos hoje. A consciência simbiótica não chegou ainda. Os neo-darwinistas e a turma da cognição computável e seus reducionismos ainda reinam na ciência e nas academias. Eles ainda são um freio.... Disso temos tolerâncias e esperanças diferenciadas.

1. Gilson Lima. É cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neuroreabilitação em diferentes cidades e diferentes países principalmente, europeus.

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções e coordenando a Banda Seu Kowalsky e os Nômades de Pedra. Suas músicas e shows vídeos podem ser acessadas no canal do youtube. https://www.youtube.com/c/seukowalskyeosnomadesdepedra



[i] A Intlerleucina 6 IL-¨- Foi inicialmente descrita como interferon-2 pelo fator estimulador de hepatócito, fator de diferenciação de células B e fator de crescimento de hibridoma/plasmocitoma, sendo o nome IL-6 adquirido na década de 80. Tem ação na hematopoiese levando ao crescimento de células-mãe primitivas hematopoiéticas e Está relacionada ao aumento da maturação e proliferação megacariocítica.

Verificamos agora que à produção de secreção excessiva  da interleucina-6 (IL-6)[i] - essa citocina mais especificamente, pode desempenhar atividades pró-inflamatórias chamada de  "tempestade de citocinas”.  É isso que leva a uma síndrome do desconforto respiratório agudo, quando o corpo é incapaz de produzir uma resposta adaptativa adequada contra o vírus. Isso acontece para algumas pessoas e que está associado a erros genéticos que que culmina a óbitos e a estágios mais graves da doença.

Durante a secreção de citocinas relacionadas a um papel pleotrópico (quando um único gene hereditário que controla diversas características do fenótipo), no caso, em todo o sistema imunológico. A IL-6 pode então bloquear células T citotóxicas CD8+ inibindo a secreção de interferon gama.

A falta de Interferon é fundamental para desorganizar as reações frente ao novo visitante pelo o nosso sistema imune. Além disso, a IL ‐ 6 induzindo a supressão da sinalização de citocinas (SOCS ‐ 3) e aumentando a expressão de PD ‐ 1 paralisa a resposta antiviral mediada por células durante uma tempestade de citocinas.

 [i] Por isso, alguns defendem, e com equívocos, sem bases consolidadas na insistência do tratamento da COVID-19 com drogas fármacos que tem a característica comum de induzir a remissão ou controle da artrite reumatoide e outras doenças imunomediadas como é o caso da hidroxicloroquina, um medicamento de prateleira antimalárico que também é antirreumático, inibe a produção do fator reumatoide e outros reagentes da fase aguda da inflamação.

Apesar disso, os anticorpos de alguns pacientes curados, principalmente do tipo IgG[ii], são específicos contra determinadas partes do vírus.

[ii] Imunoglobulina G é um anticorpo. É uma imunoglobulina monomérica simples de 150.000 daltons, cadeias pesadas tipo G, que perfaz 80% das imunoglobulinas do organismo. Está igualmente distribuída nos compartimentos extracelulares e é a única que atravessa a placenta. Na COVID-19 os anticorpos de fase aguda da doença, que são os IgM ou IgA, aparecem em torno do 10º dia de sintomas. Já os anticorpos do tipo IgG são produzidos posteriormente pelo organismo e geralmente aparecem a partir do 15º dia de contágio

Além de anticorpos, a infecção pelo SARS-CoV-2 também estimula a produção das células do sistema imune celular, TCD4[iii] e TCD8[iv]. Ambos os tipos celulares são comuns em infecções virais. Enquanto os linfócitos do tipo TCD4 respondem à infecção por meio da produção de citocinas[v] e de interleucinas[vi], os do tipo TCD8[vii] que reconheciam e eliminavam células infectadas pelo vírus. 

[iii] CD4 é uma molécula que se expressa na superfície de algumas células T, macrófagos, monócitos e na célula dendrítica. É uma glicoproteína monomérica de 59k Da (gene) que contém quatro domínios de tipo imunoglobulinas. As glicoproteínas são proteínas que contêm cadeias de oligossacarídeos (glicanos – hidratos de carbono) covalentemente ligados a cadeias laterais de polipeptídeos. Glicano e polissacarídio são definidos pela IUPAC como sinônimos com a seguinte definição: compostos que consistem em um grande número de monossacarídios unidos por ligações glicosídicas. Os peptídios, peptídeos ou péptidos são biomoléculas formadas pela ligação de dois ou mais aminoácidos atrávés de ligações peptídicas, estabelecidas entre um grupo amina de um aminoácido, e um grupo carboxilo do outro aminoácido. Aminoácidos são substâncias orgânicas que apresentam em sua constituição dois grupos funcionais diferentes: uma carboxila (referente aos ácidos carboxílicos) e um amino (referente à amina). Aminas são substâncias orgânicas que apresentam um ou mais radicais ligados ao Nitrogênio e são muito utilizadas na produção de outros compostos orgânicos. Aminas são compostos orgânicos nitrogenados que derivam da substância amônia (NH3) pela substituição de um ou mais hidrogênios por radicais orgânicos. Os peptídios são resultantes do processamento de proteínas e podem possuir na sua constituição 2 ou mais aminoácidos.

[iv]Os linfócitos CD8, também chamados supressores ou citotóxicos, participam da identificação e da destruição de células infectadas por vírus ou afetadas por câncer. Os linfócitos T CD8+ têm ação citolítica, ou seja, são capazes de destruir células que carreguem na superfície peptídeos que eles reconheçam como estranhos e aos quais se liguem especificamente.

Existem dois mecanismos principais responsáveis pela morte dessas células por esses linfócitos. O primeiro mecanismo envolve a formação de poros nas membranas e com isso ocorre a entrada de íons e água na célula. O segundo, envolve a apoptose, que é a morte celular programada.

[v] No geral as citocinas são produzidas por células tanto do sistema imune inato quanto o adaptativo, afim de ativar, mediar ou regular a resposta imune total. Elas possuem tempo de vida média, curta e dependem de ligação receptor-substrato específica, ou seja, só ativam células que tenham o receptor específico.

[vi] As interleucinas (do grego, entre células brancas) são alguns tipos de proteínas produzidas principalmente por leucócitos (também conhecidos por glóbulos brancos um grupo de células células a unidade básica da vida e são diferenciadas a partir de células-tronco multipotentes, oriundas da medula óssea e presentes no sangue, linfa -  um líquido que impregna o corpo, produzida quando o sangue atravessa os vasos capilares e vaza para o corpo, órgãos linfoides também conhecido como tecido linfático) é um tipo de tecido conetivo no sistema linfático que é uma rede complexa de vasos e pequenas estruturas chamadas de nódulos linfáticos que são também chamados de gânglios linfáticos pequenos órgãos cujo sinônimo é grupo de tecidos e no caso são perfurados por canais que existem em diversos pontos da rede linfática, um a rede de ductos que faz parte do sistema linfático. Os glóbulos brancos – interleucinas- atuam na defesa do organismo humano e produzem anticorpos conhecidos como imunoglobulinas, abreviado Ig) que são um tipo de protepina (glicoproteína) do tipo gamaglobulina, a fracção de globuninas (as proteínas insolúveis em água) mais abundante no plasma sanguíneo, chamado assim e que tem a parte líquida do sangue e corresponde a 55% do volume total. Nele, também as proteínas, sais minerais, gás carbônico e outras substâncias estão dissolvidos em água. Os nódulos linfáticos transportam o fluido linfático (linfa) dos tecidos de volta para o sistema circulatório. O sistema linfático contém grande quantidade de linfócitos (órgãos linfoides e tecidos conjuntivos) - principalmente por linfócitos T, ou células T que são células do sistema imunológico e também um grupo de glóbulos brancos (leucócitos) responsáveis pela defesa do organismo contra agentes desconhecidos (antígenos: é toda substância estranha ao organismo que desencadeia a produção de anticorpos)macrófagos que são células hematopoiéticas fagocíticas de linhagem mieloide presentes no tecido conjuntivo ou tecido conectivo que caracteriza-se por apresentar variados tipos celulares, que são separados por uma matriz extracelular composta de fibras e substância fundamental. As células-tronco mieloides originam as hemácias (glóbulos vermelhos ou eritrócitos), as plaquetas (ou trombócitos) e os leucócitos (glóbulos brancos), tais como neutrófilos, basófilos, eosinófilos e monócitos. Já as células-tronco linfoides dão origem aos linfócitos B e T.

Tecido conjuntivo também se refere ao grupo de tecidos orgânicos responsáveis por unir, ligar, nutrir, proteger e sustentar os outros tecidos. Tecido conjuntivo se distribuem por órgãos como fígado e pulmão e,  eosinófilos que são os granulócitos eosinófilos, geralmente chamados apenas de eosinófilos (ou, menos comumente, acidófilos), são células do sistema imune responsáveis pela ação contra parasitas multicelulares e certas infecções nos vertebrados. Junto com os mastócitos (por vezes também referido por labrócito), que também são células do tecido conjuntivo e hematopoiéticas situadas na medula óssea também controlam mecanismos associados com a alergia e asma.

Hematopoéticas por hematopoéticas por que se desenvolvem-se na medula óssea (Hematopoiese, também conhecida por hematopoese,hemopoese e hemopoiese, é o processo de formação, desenvolvimento e maturação dos elementos figurados do sangue - eeritrócitos ou glóbulos vermelhos as hemácias são unidades morfológicas da série vermelha do sangue, também designadas por eritrócitos ou glóbulos vermelhos, que estão presentes no fluído corporal chamado sangue e está presente nele em número de cerca de 4,5 a 6,0 x 106/mm³, em condições normais. São constituídas basicamente por globulina que são as proteínas insolúveis em água, solúveis em soluções salinas, ácidas ou básicas diluídas, e coaguláveis (coágulo é o cessamento da perda de sangue de um vaso danificado) pelo calor. Básicas aqui é uma base (também chamada de álcali - base também), de acordo com a química clássica, é qualquer substância que libera única e exclusivamente o ânion, um íon com carga negativa OH(íons hidroxila ou oxidrila – bases dos hidróxidos – uma função química, os exemplos mais conhecidos são o hidróxido de sódio(NaOH), vulgarmente conhecido como "soda cáustica", e o hidróxido de potássio (KOH), também conhecido como "potassa cáustica". Os hidróxidos são caracterizados por seu caráter básico (tingem de azul o papel tornassol - azul de tornassol ou papel tornassol que é um indicador solúvel em água). como o exemplo mais conhecido a soda caustica) em solução aquosa). Por fim também a hemoglobina (frequentemente abreviada como Hb) é uma metaloproteína que é um uma proteína (molécula biológica de aminoácido) que contém um ou mais iões metálicos na sua estrutura, no caso contém ferro, presente nos glóbulos vermelhos (eritrócvitos) e que permite o transporte de oxigênio pelo sistema circulatório. Sai função é essa transportar o oxigênio (principalmente) e o gás carbônico (CO2) (em menor quantidade) aos tecidos. Os eritrócitos vivem por aproximadamente 120 dias.

Além dos glóbulos brancos ou leucócitos temos no sangue as plaqueta ou trombócito uma componente do sangue cuja função (junto com os fatores de coagulação) é a de parar sangramentos aglomerando-se e formando coágulos em lesões nos vasos sanguíneos. Plaquetas não têm núcleos: são fragmentos de citoplasma derivados de megacarióticos células responsáveis pela produção das plaquetas da medula óssea ( a fábrica também conhecida como tutano, é um tecido líquido-gelatinoso que preenche a cavidade interna de vários ossos e fabrica os elementos figurados do sangue periférico como: hemácias (glóbulos vermelhos), leucócitos (glóbulos brancos) e as plaquetas), que entram em circulação. Plaquetas são somente encontradas em mamíferos, sendo que em outros animais (como aves ou anfíbios), trombócitos circulam como células mononucleadas intactas e plaquetas - a partir de um precursor celular comum e indiferenciado conhecido como célula hematopoiética pluripotente, célula-tronco ou stem-cell. As células-tronco, que no adulto encontram-se na medula óssea, são as responsáveis por formar todas as células e derivados celulares que circulam no sangue) antes de migrar para o sangue periférico. Cada uma com suas funções, sendo que a maioria delas está envolvida na ativação ou supressão do sistema imune sistema imune que porteja o organismo contra as doenças e também na indução de divisão de outras células. Também possuem função na memória e são usados como medicamento.

Existem mais de 36 tipos de interleucinas, numeradas pela ordem da sua descoberta, e alguns podem ser divididos em sub-tipos de acordo com sua atividade, por exemplo, IL-1a, IL-1b e IL-1ra. Antigamente possuíam nomes de acordo com sua ação, exemplo, "fator quimiotático de neutrófilos" para o IL-8, que ignoravam que elas podiam ter múltiplas funções. Quimotático é uma das funções na inflamação a quimiotaxia. Proteínas presentes em lisossomos de neutrófilos são quimiotáticos para monócitos. Derivados de células.

O efeito que uma interleucina produz depende da célula que o capta, atuando como um capitão que dá uma ordem diferente para cada tipo de soldado. Muitos de seus efeitos ocorrem em cadeia e inibem o sistema imune, por exemplo, a interleucina 10 (IL-10) é produzido por linfócitos T regulatórios (LTr) para inibir a atividade de outros linfócitos T ao mesmo tempo que estimulam outros LTr a produzir mais IL-10. Essa autoimunossupressão (imunossupressão é o ato de reduzir a atividade ou eficiência do  sistrma imunológico) é importante para evitar respostas excessivas. Autoimunidade que é a falha em uma divisão funcional do sistema imunológico chamada de autotolerância, que resulta em respostas imunes contra as células e tecidos do próprio organismo. Qualquer doença que resulte deste tipo de resposta é chamada de doença autoimune.

[vii] Os linfócitos T CD8+ têm que são capazes de destruir células que carreguem na superfície peptídeos que eles reconheçam como estranhos e aos quais se liguem especificamente. Existem dois mecanismos principais responsáveis pela morte dessas células por esses linfócitos. O primeiro mecanismo envolve a formação de poros nas membranas e com isso ocorre a entrada de íons e água na célula. O segundo, envolve a apoptose, que é a morte celular programada.

Para que isso ocorra o linfócito T CD8+ ativado produz duas proteínas envolvidas nesse processo. São elas a perforina e a granzima. Essas proteínas se concentram em grânulos citoplasmáticos ligados à membrana. Grânulo, na biologia celular, é uma partícula pequena. Ele pode ser qualquer partícula visível em microscópio óptico, sendo frequentemente usado para descrever vesículas secretoras. Os grânulos citoplasmáticos são, geralmente, os responsáveis pelo armazenamento do produto das secreções das células glandulares.

As membranas do linfócito e da célula alvo se fundem e, por um processo de exocitose, o linfócito T CD8+ transfere o conteúdo desses grânulos que levam à lise celular. Exocitose é o processo biológico pelo qual uma célula eucariótica viva libera substâncias para o fluido extracelular, seja o fluido que envolve as células de um tecido, nos organismos multicelulares, seja para o ambiente aquático, por modificação da membrana celular, isto é, sem ser por difusão.

A perforina é uma proteína formadora de poros em membrana celular e as granzimas são serino-proteases (serino-protease) que entram na célula alvo através dos poros formados pela perforina (perforina é uma proteína efetora citotóxica formadora de poros, expressa especificamente em células T citotóxicas. Tais proteínas são armazenadas na sua forma ativa em grânulos citotóxicos e só é liberada a exercer sua função após o reconhecimento do antígeno na superfície de uma célula-alvo. Suas moléculas se agrupam na superfície na membrana plasmática da célula alvo, formando um canal que possibilita a transferência de enzimas proteolíticas situadas em células de defesa), elas -  as perforinas - induzem a apoptose. Apoptose é uma forma de morte celular programada, ou "suicídio celular". É diferente de necrose, na qual as células morrem por causa de uma lesão. A apoptose é um processo ordenado, no qual o conteúdo da célula é compactado em pequenos pacotes de membrana para a "coleta de lixo" pelas células do sistema imunológico.

Depois de agir na célula, o linfócito T CD8+ se desliga sem nenhuma injúria. Além de agirem na destruição de células, eles ainda secretam citocinas que ativam células fagocíticas (Os fagócitos são leucócitos do sangue que protegem o corpo através da ingestão (fagocitose) de partículas estranhas, bactérias (um tipo de célula biológicoa) e células mortas ou células a morrer) e também induzem inflamação.

[VIII] Os macrófagos são células hematopoiéticas fagocíticas de linhagem mieloide presentes no tecido conjuntivo e se distribuem por órgãos como fígado e pulmão. Têm origem na medula óssea tendo como precursores os monócitos que circulam na corrente sanguínea e migram temporariamente para os tecidos, por meio de estímulos inflamatórios, onde se diferenciam e passam a exercer funções específicas. Os macrófagos são importantes células do sistema imunológico por participar da imunidade inata, tendo como suas principais funções a fagocitose de partículas estranhas, apresentadora de antígenos aos linfócitos (APC), promovem resposta inflamatória, reorganização tecidual e ação microbiana. Esse processo de fagocitose leva a ativação dos macrófagos e a indução da liberação de uma série de moléculas, como a secreção de citocinas que são proteínas capazes de promover a interação entre os macrófagos e linfócitos, atuando sobre o seu crescimento e diferenciação. Essas células também são ativas no processo de involução fisiológica de alguns órgãos. É o caso do útero, que após o parto sofre uma redução de volume, havendo uma notável participação dos macrófagos nesse processo.

sexta-feira, 11 de dezembro de 2020

O PARADIGMA DA COMPLEXIDADE

 

 

O PARADIGMA DA COMPLEXIDADE

 Gilson Lima - Kowalsky🎤[1]

O chão escorregou de nossos pés. Como testar o conhecimento e fazer ciência sobre o que não veem. (Albert Einstein)


 

Foi Thomas Kuhn quem popularizou, em seu famoso livro sobre a Estrutura das Revoluções Científicas, o conceito de paradigma. Nessa obra, ele nos apresenta 18 noções de paradigmas. Uma delas é a que aqui nos importa: a ideia padrão de concepção de mundo.

Assim, por paradigma entendemos um modelo padrão de concepção de mundo compartilhado por uma determinada comunidade científica. Newton, por exemplo, consolidou o paradigma cartesiano pela suas modelações matemáticas e teorias subjacentes, sobretudo, pela lei da gravitação universal.

No paradigma cartesiano-newtoniano, por exemplo, existem conceitos fundamentais:

=======================================================

O paradigma da complexidade traz conceitos que permitem explicar a gravitação quântica e a relatividade integrada na historicidade. Usa-se de demonstrações de modelos matemáticos não lineares e das interações nucleares fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria integrada à consciência organizada.

Atratores => forças de atração, relações de atração ascendente = organização óAuto-organização: estruturação sem estrutura ó  forças de repulsão (dissipação) => entropia => descendente. Também encontramos a própria historicidade no interior do paradigma, historicidade essa que é rejeitada pelo paradigma cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria matéria se expande e se contrai.

======================================================

 Quanto ao paradigma da complexidade, tudo parece ter começado efetivamente em 1911, com o russo Belouzov, pouco conhecido, mas que é tido como o pai, quem inaugurou o novo paradigma da complexidade.  Ele teve apenas duas páginas publicadas, mas é muito citado hoje pelos cientistas da complexidade. A ideia de evolução trouxe, junto à temporalidade ausente no paradigma cartesiano, a quebra do universo mecânico como fenômeno factual e destemporal, tomado por leis universais e irreversíveis que eram independentes da história e do tempo.

 Para o paradigma da complexidade, outros conceitos são fundamentais, por exemplo:

======================================================

O paradigma da complexidade traz conceitos que permitem explicar a gravitação quântica e a relatividade integrada na historicidade. Usa-se de demonstrações de modelos matemáticos não lineares e das interações nucleares fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria integrada à consciência organizada.

Atratores => forças de atração, relações de atração ascendente = organização óAuto organização: estruturação sem estrutura ó  forças de repulsão (dissipação) => entropia => descendente. Também encontramos a própria historicidade no interior do paradigma, historicidade essa que é rejeitada pelo paradigma cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria matéria se expande e se contrai.

 ======================================================

Assim, na concepção de um paradigma, afirmam-se conceitos fundamentais e categorias compartilhadas pela comunidade científica em questão. Um paradigma inclui e exclui categorias e processos que efetivam uma concepção de mundo onde as suas categorias chaves geram deduções e induções teóricas. Nessa perspectiva, o referencial teórico está implicado em um paradigma de modo consciente ou não. As teorias são deduções de uma proposição paradigmática.

As mudanças de paradigmas na história dizem respeito, também, ao exercício de poder. A transição de um paradigma para outro traz junto uma nova concepção de mundo que se afirma e outra que é deixada de lado.  Daí que, em um período de transição entre paradigmas, é particularmente importante, do ponto de vista epistemológico, observar o que se passa nessas ciências. Por exemplo, hoje não basta apenas apontar a tendência para a superação da disciplinaridade do conhecimento e da ruptura da velha distinção moderna entre ciências naturais e ciências sociais, é preciso conhecer o sentido e conteúdo dessa distinção e dessa superação. Precisamente porque, em períodos de transição paradigmática, vivemos mais intensamente um estado de turbulência, em que as vibrações do novo paradigma repercutem-se desigualmente nas várias regiões do paradigma dominante e vigente, por isso os sinais do futuro são ambíguos.

Nas fases de transição e de revolução científica, encontramos muita insegurança em que a nossa reflexão epistemológica torna-se muito mais avançada e sofisticada do que a nossa prática científica. Hoje, nenhum de nós pode visualizar projetos concretos de investigação que correspondam inteiramente ao paradigma emergente. É por isso que, precisamente, nos encontramos em uma fase de transição paradigmática. Duvidamos suficientemente do passado para imaginarmos o futuro, mas vivemos demasiadamente o presente para podermos realizar nele o futuro. Estamos divididos, fragmentados entre o velho e o novo. 

Sabemo-nos a caminho do novo, mas não exatamente onde nós estamos na jornada. A condição epistemológica da ciência repercute-se na condição existencial dos cientistas. Afinal, "se todo o conhecimento é autoconhecimento, também todo o desconhecimento é autodesconhecimento". (SANTOS, Boaventura de Souza. Um Discurso Sobre as Ciências. Portugal: Afrontamento, 2001: 58).

O mundo não tem mais uma estrutura implícita. É uma estruturação sem estrutura. É organizado, mas não é dado como organizado, pois está por, também, vir a ser organizado ascendente como possibilidade e desorganização descendente em tensão. As leis também se integram a esse vir a ser e deixar de ser, o vir a ser tem suas leis que dependem, igualmente, do deixar de ser.  Tem a flecha ascendente, mas tem, também, a descendente, temos entropia.  Tudo se organiza e se desorganiza. Podemos, inclusive, chegar ao fim do Universo (pensam alguns diante da entropia).

Vivemos uma crise de percepção do velho itinerário cartesiano-newtoniano da mente. Percebe-se, além disso, uma  crise atual da ciência. As facetas desta crise podem ser descritas resumidamente como uma crise de percepção do mundo.

O paradigma cartesiano emerge com o heliocentrismo; unifica as leis em uma única totalidade, sobretudo pela gravitação universal de Newton; unifica a percepção celeste e terrestre e gera uma nova percepção do mundo. Para Descartes, o mundo é estável, tem uma ordem implícita, as causas e os efeitos são produtos de uma mesma ordem, porém, não tem, no seu paradigma, uma noção de tempo. 

Os evolucionistas potencializam  a flecha ascendente, mas ela só vale para os seres vivos, para os sistemas vivos e não físicos. Mais adiante, um cientista austríaco propõe a entropia, na explicação científica. É a flecha descendente. Entropia é a desordem, o caos, a desorganização que pode chegar ao motor da destruição geral (fim do universo). A complexidade lida com as duas flechas: a ascendente e a descendente. Mais complexidade. Um vir a ser, e não um ser estável, que, na relação entre vir a ser e deixar de vir, possibilita um possível vir a ser como possibilidade de vitória sobre a entropia. Evolução é mais complexa, é a luta da evolução contra a involução. Aqui temos a noção de tempo, que é simultaneamente relativo. No universo cartesiano não tem tempo.

Então, a matéria se expande (vir a ser) (tempo da matéria); no mesmo momento, ela se desagrega (tempo de desagregação); e, no mesmo momento, evolui a consciência civilizadora cultural e social (tempo),  é o tempo que organiza e media esta complexidade orgânica e inorgânica.

A matéria se auto-organiza. É uma nova percepção. Sistemas se auto-organizam no tempo. No paradigma moderno, a organização está banida da ciência. A partir dos anos 1950, os cientistas começam a falar sobre a auto-organização, inclusive sobre o mundo físico.

 Já Bergson nos diz que a percepção humana não é uma fotografia da realidade (positiva). A Percepção é a excitação interativa de nosso mundo interno e externo,  de meu espírito eletromagnético integrado na imersão do fosforescente mundo vivo. Segundo Bergson, percepção é, então, a captação dos centros de ação do modo pelo qual o universo evolui.

 O universo está em movimento ativo (a matéria se expande), a matéria tem tempo. Teoria das cordas: uma corda não pode ser menor que um quantum. Isto põe fim ao dualismo cartesiano: matéria x mente.

Segundo o aspecto da crise do paradigma cartesiano, a  explicação racional não é um diagnóstico fotográfico da realidade. A explicação deve buscar a gênese (explicação genética, muito presente em Nietzsche: metodologia genealógica, também incorporada por Foucault: genealogia do saber – gênese dos processos que têm um ou vários resultados). Por exemplo, a eugenia. Não se trata apenas de uma evolução baseada na flecha ascendente. A complexidade pergunta como o sistema vai se auto-organizar depois da intervenção das novas informações genéticas. Não pode ser necessariamente mal nem deterministicamente bom. Por isso, não devemos ter diagnósticos fotográficos, mas compreensões interdisciplinares e interações mais complexas entre subjetivar e objetivar. Como a matéria se torna consciência (auto-organiza) ela se integra a dois movimentos contraditórios e intrínsecos: uma flecha ascendente (vir a ser evolução), e uma flecha descendente (desagregadora, não vir e ser).  Desta tensão nasce a sustentabilidade, cuja auto-organização (nova compreensão da organização da matéria incorporando a decomposição, inclusive, a entropia complexa) deve ser a supremacia da flecha descendente sobre a ascendente e leva a morte de uma estruturação complexa, da vida e até do universo.

O universo, essa estruturação complexa, está em expansão, evolução e dissipação, e o mesmo deve ser integrado à evolução humana e à cultura civilizadora. Para isso, se faz necessário ter a compreensão da gênese e não se submeter ao velho determinismo da casualidade e do destino finalista:


A física quântica desencadeia, por exemplo, o colapso do Universo de Laplace e a queda do dogma determinista, além do esboroamento de toda ideia de que haveria uma unidade simples na base do universo e introduz, também, a incerteza no conhecimento científico. Não é mais suficiente, para produzirmos ciência, isolarmos variáveis, sejam elas  dependentes ou independentes, nem identificarmos a causa do efeito, a linearidade do determinismo causal. No paradigma cartesiano a gênese não é discutida, não tem tempo nem história, pode até ter fatos mas analiticamente isolados do tempo.

Um terceiro aspecto da crise do paradigma moderno é o questionamento do princípio da separabilidade proposto na regra cartesiana. A matéria expande, não linearmente, mas de modo caótico e integrado a duas realidades simultâneas: ordem e desordem. Para o paradigma cartesiano, tanto do positivismo, até mesmo do racionalismo de Bachelard, de Einstein, de Heisenberg e de Niels Bohr, a ordem no universo e na natureza era dada.

Agora estamos descobrindo que os sábios antigos do oriente, bem antes da hegemonia do paradigma cartesiano, estavam muito mais próximos da complexidade do mundo, pois já tinham a visão de que a natureza é caótica, de que o universo brota da desordem e que o Universo e a matéria se auto-organizam.

A não separabilidade da visão do esfacelamento do Big Bang intensificou ainda mais a busca de uma divisão inseparável da matéria até o microcósmico do quantum e da genética. No entanto, a complexidade afirma que, junto à divisão e ao esfacelamento da grande explosão, tivemos, sobretudo, a auto-organização produtiva da matéria, que gerou estrelas, planetas, constelações e onde ondas se integraram, gerando energia, como a energia solar, tão importante para os sistemas vivos na terra. A relação matéria e energia: a dispersão e auto-organização tornam-se assim holísticas.

O holismo simbiótico, no paradigma da complexidade, integra natureza com natureza humana e não pode mais ser visto de modo separado (inseparabilidade: tecnologia, homem, cultura e natureza) nem como um sistema auto-organizativo com entropia – dispersão, mas sim como um sistema impossível de separarmos e isolarmos, como pretendia o cartesianismo. Não há variáveis isoladas na complexidade. Como ilustra Wigner em seu exemplo: “a medição da curvatura do espaço causada por uma partícula não pode ser levada a cabo sem criar novos campos que são bilhões de vezes maiores que o campo sob investigação”.[2] Assim, também a própria consciência é matéria transformada em que a noção de totalidade é menor do que a soma das partes, pois não se reduz em saber e em conhecer e analisar a matéria e o objeto visual apenas, mas em complexidade de auto-organização e auto compreensão.

Assim também como nos diz Penroese, a mente não física deve ser inseparável da mente física para entendermos a consciência e a complexidade. Nenhuma variável é separada da outra. Nossos cérebros não são computadores. Nossos biofótons se encontram em esboroamento de sistemas e não se reduzem a variáveis isoladas. O pensamento é um sistema complexo de vir a ser, não separado da auto-organização da matéria e da energia mental elétrica produzida por seus processos ondulatórios subjacentes. Pensar é exercitar trocas e lutas em auto-organização produtiva do pensamento também integrado no mundo e na natureza.

As ondas captadas e radiadas pela matéria cerebral permitem interpretar e auto-organizar a realidade pela consciência, isto implica que o vir a ser da auto-organização não é separado da matéria cerebral. A linguagem não pode ser separada das partículas e corpúsculos de ondas e biofótons geradores de consciência. O cérebro é matéria formada por ondas que, pela complexidade auto-organizada dessa mesma matéria e espírito, torna-se consciência. O cérebro permite a matéria se auto-organizar em consciência: é uma gênese complexa do processo organizacional (sociologia, ecologia, física etc.).  

Atualmente falamos em biofótons dentro da nossa circulação sanguínea (matéria organizada). O pensamento implica na produção intensa de biofótons, cuja auto produção é intensificada e acelerada (número maior de fótons = mais energia, que é também mais qualificada); é matéria auto-organizada que se interliga a proteínas que conduzem os impulsos elétricos dos neurônios, geram micro voltagens.



No cérebro cartesiano a matéria inexiste. Ele é tomado por um poder entrópico, é dual: corpo separado da mente. Assim, a micro voltagem do pensamento não é resultado da matéria.

Um outro aspecto da crise é a crise do sujeito e da posição do sujeito na observação e explicação do mundo. A explicação sistêmica da matéria, em termos de atrator (atração) + entropia (dispersão). A energia é continuada e requer trocas nucleadas até a criação de sistemas complexos (auto-organização produtiva).

Isto só é possível se não mantivermos o sujeito fora do objeto. O vir a ser do objeto é também do sujeito integrado emitindo suas micro-ondas materiais. O sujeito não é uma fabricação subjetiva, por exemplo, hoje insistem em impor exógenamente o mercado como um sujeito e como uma variável independente proveniente do mundo físico sobre a vida social.

O próprio Werner Heisenberg demonstrou, com seu significativo Princípio da Incerteza, que comentaremos a seguir. Com esse princípio, portanto, assumimos a existência da interferência estruturante do sujeito no objeto observado, o que possui implicações de vulto. Há muita coisa a ser discutida no tocante à evolução da ciência. Salientemos, apenas, que ela, frente à mensuração, deixou de ser absolutamente vista pela lógica simétrica e sob os ângulos técnico e matemático restritos e converteu-se em  modalidades novas e reflexivas, às quais criaram e derivaram novas e mais profundas teorias.

Isso se pode confirmar considerando alguns exemplos interessantes, que apresentaremos logo a seguir: 

1) O princípio da incerteza. Como já comentamos rapidamente acima, Werner Heisenberg é um dos aspectos mais significativos, pela ilustração do Princípio da Incerteza: não se podem reduzir simultaneamente os erros da medição da velocidade e da posição das partículas; o que for feito para reduzir o erro de uma das medições aumenta o erro da outra. É como se ele apontasse o dedo da mão direita para baixo indicando o local de um elétron e, com a outra mão, ele apontasse o dedo para cima indicando também a onda de seu impulso. O mais certo é que nós não sabemos e não temos como localizar, a qualquer momento, o local exato do elétron. O mais seguro para nós é tentarmos localizar o impulso de um quantum, identificamos apenas sua órbita, mas não temos segurança de seu local exato. Isso implica o princípio da ideia de que não conhecemos do real senão o que nele introduzimos, ou seja, que não conhecemos do real senão a nossa intervenção nele.

Este princípio e, portanto, a demonstração da interferência estrutural do sujeito no objeto observado, têm implicações de vulto. Por um lado, sendo estruturalmente limitado o rigor do nosso conhecimento, só podemos aspirar a resultados aproximados, por isso as leis da física são tão-só probabilísticas. Por outro lado, a hipótese do determinismo mecanicista é inviabilizada, uma vez que a totalidade do real não se reduz à soma das partes em que a dividimos para observar e medir. Por último, a distinção sujeito/objeto é muito mais complexa do que à primeira vista pode parecer. A distinção perde os seus contornos dicotômicos e assume a forma de um continuum. 

2) O observador interfere na realidade em observação. Niels Bohr indicou a dualidade classificatória da natureza dual e complementar do quantum. Um quantum é simultaneamente uma onda e uma partícula, mas qualquer experiência pode medir apenas um aspecto ou outro. Bohr discutiu também a teoria de que, no Universo da observação, deve-se incluir um fator importante, para considerarmos os efeitos da sua mensuração ou de qualquer medida do quantum pretendida, ou seja, a influência do observador. Bohr e Heisenberg discutiram que as predições exatas em mecânicas de quantum não podem ser limitadas às descrições estatísticas exatas do comportamento destes pacotes de energia. Isto fez o Einstein declarar que ele não poderia acreditar que Deus joga dados com o Universo.

Assim, Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto que sai de um processo de medição não é o mesmo que lá entrou. 

3) O dilema da incompletude formal. A demonstração e as indagações da incompletude formal, pelo teorema de Gödel (1906-78)[3], enquadram-se entre as mais notáveis realizações da história da cultura, com repercussões em todas as manifestações do saber e mudando os próprios paradigmas da lógica, da matemática, da teoria da informação e do pensamento científico em geral.

Com a incompletude formal, o próprio rigor da medição foi posto em causa pela mecânica quântica e foi profundamente abalado a partir do questionamento do veículo formal do próprio rigor explicativo em que a medição é expressa, ou seja, o rigor da matemática.

É isso o que sucede com as investigações de Gödel e seu teorema da incompletude, demonstrando a impossibilidade de: "em certas circunstâncias, encontrar dentro de um dado sistema formal a prova da sua consistência vieram mostrar que, mesmo seguindo à risca as regras da lógica matemática, é possível formular proposições indecidíveis, proposições que se não podem demonstrar nem refutar, sendo que uma dessas proposições é precisamente a que postula o caráter não-contraditório do sistema"[4].

Se as leis da natureza fundamentam o seu rigor no rigor das formalizações matemáticas em que se expressam, as investigações de Gödel vêm demonstrar que o rigor da matemática carece ele próprio de fundamento. A partir daqui é possível não só questionar o rigor da matemática, como também redefini-lo enquanto forma de rigor que se opõe a outras formas de rigor alternativas, uma forma de rigor cujas condições de êxito na ciência moderna não podem continuar a ser concebidas como naturais e óbvias. A própria filosofia da matemática tem vindo a problematizar criativamente estes temas e reconhece hoje que o rigor matemático, como qualquer outra forma de rigor, assenta num critério de seletividade e que, como tal, tem um lado construtivo e um lado destrutivo.[5] 

4) A crise da estrutura simétrica e estática e a constatação da natureza dissipativa das estruturas. As descobertas e investigações do bioquímico Ilya Prigogine foram também um grande choque no paradigma cartesiano-newtoniano. A teoria das estruturas dissipativas indica o princípio da “ordem através de flutuações” que se estabelecem em sistemas abertos, ou seja, em sistemas que operam nas margens da estabilidade. Assim, a evolução se explica por flutuações de energia que, em determinados momentos, nunca inteiramente previsíveis, desencadeiam espontaneamente reações que, por via de mecanismos não lineares, pressionam o sistema para além de um limite máximo de instabilidade e o conduzem a um novo estado macroscópico.

Esta transformação irreversível e termodinâmica é o resultado da interação de processos microscópicos, segundo uma lógica de auto-organização em uma situação de não equilíbrio. Não existe equilíbrio na complexidade, não existe estrutura em si, encontramos uma estruturação sem estrutura. A complexidade descarta tanto o acaso determinístico como o determinismo da objetividade, classificando as mutações como processos aleatórios estocásticos (não predizíveis, indeterminísticos, criativos e novos). Nestes termos, os processos envolvidos nos sistemas vivos não resultam de uma casualidade cega, mas de uma causalidade criativa que permite aos sistemas vivos se autocriarem e se automultiplicarem.

A matéria já não é vista como algo estático — moléculas inertes governadas por puxões e empurrões, ela é vista como alguma coisa ativa e viva. A situação de bifurcação, ou seja, o ponto crítico em que a mínima flutuação de energia pode conduzir a um novo estado, representa a potencialidade do sistema em ser atraído para um novo estado de menor entropia. Deste modo, a irreversibilidade nos sistemas abertos significa que estes são produtos da sua história.

A importância desta teoria está na nova concepção da matéria e da natureza que propõe uma concepção dificilmente comparável com a que herdamos da física clássica. Como nos diz Boaventura de Sousa Santos: “Em vez da eternidade, temos a história; em vez do determinismo, a imprevisibilidade; em vez do mecanicismo, a interpenetração, a espontaneidade e a auto-organização; em vez da reversibilidade, a irreversibilidade e a evolução; em vez da ordem, a desordem; em vez da necessidade, a criatividade e o acidente”.[6]

Por causa de seus estudos em bioquímica, o russo Ilya Prigogine recebeu o Prêmio Nobel de 1977 por seu trabalho relacionado a uma nova visão acerca dos sistemas vivos. O Prêmio Nobel foi concedido a Prigogine, sobretudo, por sua teoria dos sistemas vivos como estruturas dissipativas (ou dispersivas), que lançou uma ponte entre os sistemas vivos e os não vivos. Nas palavras da comissão de premiação do Premio Nobel: “Prigogine transformou fundamentalmente a ciência da termodinâmica irreversível, revisando-a; deu-lhe nova relevância, criando teorias que estreitaram o abismo entre os campos biológico e físico da pesquisa científica”.[7]

O próprio Prigogine expressa, em poucas palavras, seu pensamento: Enfatizando a interdependência, podemos mostrar que vida e não-vida não se opõem. E assim tem de ser porque, de outro modo, teríamos de um lado um mundo mecânico [mecanicismo] e de outro, um mundo orgânico [vitalismo].”.

Muitos críticos de Prigogine afirmam que ele era um bioquímico em busca de consagração na comunidade científica ortodoxa. Assim, apesar de suas inovações, ele foi muito mais cauteloso sobre as implicações de sua teoria sobre a estrutura teórica-clássica. Os críticos afirmam que foi esta postura que o impediu de ser refutado pela ortodoxia (postura que lhe permitiu ganhar o Prêmio Nobel). Prigogine ensaia uma mudança radical na Biologia clássica, sua teoria refere-se à capacidade dos sistemas vivos de se autocriarem, auto-recriarem e auto-evoluírem em esquemas inéditos acionados por variáveis capazes de desviar todo um sistema de um tipo para um outro tipo novo e inesperado. Entretanto, Prigogine, segundo seus críticos, declara-se favorável à entropia e ao evolucionismo e, assim, age como se tentasse justificar e fortalecer tanto a teoria da evolução quanto a entropia. No entanto, mesmo assim, as ideias de Prigogine, despidas de seu favoritismo pela entropia e pela evolução, prestam-se maravilhosamente bem para suportar a teoria dos sistemas vivos como sistemas pulsantes e é de grande significação para vários campos do conhecimento.

Seus estudos estabeleceram vínculos essenciais entre a Física, a Química, a Biologia e a sociologia, superando a dicotomia clássica entre vida e não vida. Nesse sentido, a Teoria da Estruturação, do sociólogo inglês Anthony Giddens, tem uma grande dívida com Prigogine, mesmo sem ser devidamente citado, pois encontramos muitas semelhanças na sua teoria social com a proposição das estruturações disssipativas propostas por Prigogine, apesar de Giddens, contraditoriamente, insistir na tese weberiana da especificidade da sociologia diante das ciências naturais.

Prigogine contestou a visão mecanicista dos sistemas vivos, afirmando a unidade entre os sistemas vivos e os não vivos e a sua bioquântica, ele classifica-os como: sistemas vivos orgânicos e sistemas vivos inorgânicos. Sua teoria implica que os Sistemas vivos escapam à entropia devido a uma capacidade inata de auto-organização; neles, uma ordem superior, não predizível pela entropia, surge do caos. Assim, os sistemas vivos são sistemas abertos, complexos organizacionais semi-estáveis (dispersivos ou dissipativos), estado que lhes assegura uma constante e íntima interação com o ambiente, com o qual trocam energia, mantendo-se devido a esse infindável fluxo dinâmico. Ora, se os sistemas vivos e seu habitat são uma unidade essencial, já podemos antecipar que o planeta Terra em sua inteireza também é um sistema vivo.

Concluindo, vemos então o entendimento de que os sistemas vivos caminham em direção contrária à entropia, tendo-se auto-ordenado a partir da matéria inorgânica e de um estado caótico, um estado de ordem não linear, bem como preservam seu estado ordenado a despeito da entropia.

O argumento favorável à entropia diz que esta se aplica unicamente a sistemas fechados, e os sistemas vivos são sistemas abertos, pois continuamente trocam energia com o ambiente externo. Alguém poderia contra-argumentar em favor da entropia, imaginando-se um exemplo de sistema fechado perfeito, como uma esfera hermeticamente fechada e intocável por vibrações, som, luz, campos magnéticos, raios X, ou qualquer outra forma de transmissão de energia — uma espécie de corpo negro fechado e imperial. O surpreendente é que no mundo físico e da vida também não existem sistemas exclusivamente fechados ou exclusivamente abertos no universo conhecido. O próprio universo como um todo é simultaneamente um sistema aberto-e-fechado. A nova Física demonstrou, matemática e experimentalmente, que um fluxo de partículas, átomos e moléculas está continuamente entrando e saindo do universo físico. A teoria quântica, a teoria da síntese estelar e a teoria das estruturas dissipativas demonstram claramente estes fatos. Novos átomos estão sendo sintetizados nas estrelas à revelia da entropia.

A teoria das estruturas dissipativas demonstrou que os sistemas vivos são sistemas simultaneamente estáveis e instáveis. Mesmo individualizados e com formas limitadas e características, que lhes conferem a aparência de sistemas fechados, sabe-se que eles continuamente trocam energia e matéria com o meio circundante, o que os caracteriza como sistemas semi-abertos.

Toda a biosfera, aparentemente constituída de sistemas vivos individualizados, funciona como um único sistema vivo, simultaneamente aberto e fechado, conforme demonstrou a hipótese Gaia, de James Lovelock, a teoria da simbiogênese, de Lynn Margulis, e como demonstram os estudos ecológicos. Pode-se afirmar o mesmo com relação ao planeta Terra, ao Sistema Solar e ao universo como um todo. Trata-se da unidade da diversidade, no dizer de Bohm.

Todos os sistemas do universo são unidades coletivas, níveis de organização dentro de níveis de organização ad infinitum. Assim, efetivamente, não existem sistemas exclusivamente abertos ou exclusivamente fechados no universo. Todos os subsistemas e o próprio sistema-mor — o universo  são simultaneamente abertos e fechados. O universo inteiro é um único sistema vivo: um ser bioquântico relativamente estável, cuja natureza fundamental é o vir-a-ser, como demonstrou Prigogine.

Nós acrescentaríamos: um vir-a-ser contínuo, cuja estabilidade e perpetuidade são garantidas pelo próprio vir-a-ser, que o renova cíclica e continuamente. Poder-se-ia comparar a ideia de Biocosmos com uma cascata: é a contínua renovação de suas águas que lhe confere configuração, identidade e existência. Como se vê, não existem fundamentos científicos para se encaixar em um quadro desses o conceito clássico da entropia irreversível, uma vez que sua validade depende unicamente da existência de sistemas exclusivamente fechados. De tudo isso, podemos deduzir que a entropia é um conceito inaplicável em nosso universo: hipoteticamente admissível e aplicável em algum outro universo igualmente hipotético; não no único e real universo até hoje conhecido — o nosso. Sendo assim, de que nos serviu um conceito hipotético aplicável a fenômenos hipotéticos de algum universo hipotético? Serviu de empecilho teórico. Devido à crença na entropia, a compreensão da natureza do universo e da vida foi enormemente retardada. 

5) A relatividade de Einstein. Albert Einstein sustentou a convicção de que o Universo pode ser descrito com a unificação de uma equação. Einstein descobriu que a relatividade do tempo e a relação entre matemática e energia eram, para ele, o tema primordial da física contemporânea, e ele se dedicou o resto de sua vida a formular um campo teórico unificado da física. Embora agora nós tenhamos que usar probabilidades para descrever eventos do quantum, Einstein expressou para o futuro a esperança de que os cientistas acharão uma ordem escondida atrás da mecânica quântica.

Tal como em outros períodos de transição, difíceis de entender e de percorrer, é necessário voltar às coisas simples, à capacidade de formular perguntas simples, perguntas que, depois de feitas, são capazes de trazer uma luz nova a nossa perplexidade.

Ao contrário da ciência aristotélica, a ciência moderna desconfia sistematicamente das evidências da nossa experiência imediata. Tais evidências, que estão na base do conhecimento vulgar, são ilusórias. Como bem salienta Einstein no prefácio ao Diálogo sobre os Grandes Sistemas do Mundo, Galileu esforça-se denodadamente por demonstrar que a hipótese dos movimentos de rotação e de translação da Terra não é refutada pelo fato de não observarmos quaisquer efeitos mecânicos desses movimentos, ou seja, pelo fato de a Terra nos parecer parada e quieta.[8]

Por outro lado, é total a separação entre a natureza e o ser humano. A natureza é tão-somente extensão e movimento; é passiva, eterna e reversível de mecanismo cujos elementos se podem desmontar e depois relacionar sob a forma de leis; não tem qualquer outra qualidade ou dignidade que nos impeça de desvendar os seus mistérios, desvendamento que não é contemplativo, mas antes ativo, já que visa conhecer a natureza para a dominar e controlar. Como diz Bacon, a ciência fará da pessoa humana o senhor, o possuidor da natureza.

Einstein, como um bom racionalista, ao contrário do que propôs Bacon, não considerou que a experiência não dispensa a teoria prévia, o pensamento dedutivo ou mesmo a especulação, mas forçou qualquer deles a não dispensarem, enquanto instância de confirmação última, a observação empírica dos fatos. Einstein se dirigiu mais à dinâmica de conhecimento racionalista de Galileu.  Einstein, inclusive, chama a atenção para o fato de os métodos experimentais de Galileu serem tão imperfeitos que só por via de especulações ousadas poderia preencher as lacunas entre os dados empíricos.[9]

Para Galileu, o livro da natureza está inscrito em caracteres geométricos: 

Se o termo “entendimento”, tomado na acepção de “intensivo”, significa a compreensão intensiva, isto é, perfeita, de uma dada proposição, direi então que o entendimento humano compreende algumas proposições tão perfeitamente e alcança uma certeza tão absoluta quanto a própria natureza. Tal é o caso, por exemplo, das proposições das ciências matemáticas puras, a saber, a geometria e a aritmética; o intelecto divino conhece um número infinitamente maior, dado que as conhece todas, mas, se o intelecto humano conhece poucas, julgo que o conhecimento que delas iguala, em certeza objetiva, o conhecimento divino, porque chega a compreender-lhes a necessidade, e esse é o mais alto grau de certeza.[10] 

Einstein não pensava de modo tão diferente. A admiração de Einstein por Galileu está bem patente no prefácio já citado em que ele escreveu para o Diálogo de Galileu. O modo radical como Einstein “vê” a natureza matemática da estrutura da matéria explica em parte a sua longa batalha sobre a interpretação da mecânica quântica (especialmente contra a interpretação de Copenhague).

Contudo, o próprio Einstein constituiu uma grande fissura no paradigma da ciência moderna, uma fissura, aliás, mais importante do que Einstein teve dificuldade de admitir. Um dos pensamentos mais profundos de Einstein é o da relatividade da simultaneidade.

Einstein distingue entre a "simultaneidade de acontecimentos presentes no mesmo lugar e a simultaneidade de acontecimentos distantes, em particular de acontecimentos separados por distâncias astronômicas". Em relação a estes últimos, o problema lógico a resolver é o seguinte: "como é que o observador estabelece a ordem temporal de acontecimentos no espaço?" Certamente por medições da velocidade da luz, partindo do pressuposto, que é fundamental na teoria de Einstein, de que não há na natureza velocidade superior à da luz.

No entanto, ao medir a velocidade em uma direção única (de A a B), Einstein defronta-se com um círculo vicioso: a fim de determinar a simultaneidade dos acontecimentos distantes, é necessário conhecer a velocidade; mas, para medir a velocidade, é necessário conhecer a simultaneidade dos acontecimentos. Com um golpe de gênio, Einstein rompe com este círculo, demonstrando que a simultaneidade de acontecimentos distantes não pode ser verificada, pode tão-somente ser definida. É, portanto, arbitrária e daí que, quando fazemos medições, não possa haver contradições nos resultados, uma vez que estes nos devolverão a simultaneidade que nós introduzimos por definição no sistema de medição.[11] 

Esta teoria veio revolucionar as nossas concepções de espaço e de tempo. Não havendo simultaneidade universal, o tempo e o espaço absolutos de Newton deixam de existir. Dois acontecimentos simultâneos num sistema de referência não são simultâneos em outro sistema de referência. As leis da física e da geometria baseiam-se em medições locais: Os "instrumentos de medida, sejam relógios ou metros, não têm magnitudes independentes, ajustam-se ao campo métrico do espaço, cuja estrutura se manifesta mais claramente nos raios de luz". [12]

O caráter local das medições e, portanto, do rigor do conhecimento que, com base nelas, se obtém, vai inspirar o surgimento da segunda condição teórica da crise do paradigma dominante, a mecânica quântica. Se Einstein relativizou o rigor das leis de Newton no domínio da astrofísica, a mecânica quântica lê-lo no domínio da microfísica. Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto que sai de um processo de medição não é o mesmo que lá entrou. Como ilustra Wigner, “a medição da curvatura do espaço causada por uma partícula não pode ser levada a cabo sem criar novos campos que são bilhões de vezes maiores que o campo sob investigação”. [13]

Todas elas têm uma vocação não dualista, e algumas são especificamente orientadas para superar as incompatibilidades entre a mecânica quântica e a teoria da relatividade de Einstein. É como se nós tivéssemos lançado na aventura de conhecer os objetos mais distantes e diferentes de nós próprios, para, uma vez aí chegados, nos descobrirmos refletidos como num espelho, já no princípio da década de sessenta, e extrapolando a partir da mecânica quântica.

Eugene Wigner considerava que o inanimado não era uma qualidade diferente, mas apenas um caso limite, que a distinção corpo/alma deixara de ter sentido e que a física e a psicologia acabariam por se fundir em uma única ciência. [14] Hoje é possível ir muito além da mecânica quântica. Enquanto esta introduziu a consciência no ato do conhecimento, nós temos hoje de a introduzir no próprio objeto do conhecimento. 

6) A teoria do Caos.  A luz emerge através de chuvas de partículas elementares como uma cascata que jorra em cima das borboletas geradoras de caos. Assim nasce a Teoria do Caos, principalmente, pelo esforço de um matemático, Benoit Mandelbrot nascido na Polônia, em Varsóvia, em 1924. Mandelbrot descobriu, em suas pesquisas e observações, uma família de padrões que se tornou o fundamento da geometria denominada fractal.

 Existem, também, fractais chamados de não-lineares, nos quais a relação entre as partes e o todo pode mudar dinamicamente. É o caso do conhecido conjunto de Mandelbrot, que ficou bem popular entre artistas por apresentar belas imagens de computação gráfica, cuja imprevisibilidade aumenta à medida que é ampliado.

Tratam-se de ligações insuspeitadas entre famílias inteiras de sistemas caóticos, isto implicou na constituição de uma nova teoria que relacionaria desde fluidos turbulentos, de circuitos eletrônicos flutuantes aos ritmos da própria vida. Essas famílias de sistemas físicos, aparentemente fortuitos ou caóticos, foram sendo reveladas através de novas maneiras de formular equações para descrevê-los, usando computadores para criar padrões visuais a partir das equações - padrões que não eram óbvios de nenhum outro modo.

Enfim, fractais são objetos cujas partes, ao serem ampliadas, reproduzem a do todo - é a chamada simetria de escala. A descrição desses objetos é feita por uma moderna teoria matemática conhecida como geometria fractal, que se opõe à tradicional geometria euclidiana, com seus objetos básicos, como linhas, curvas e retas. Objetos fractais têm aparências mais recortadas, irregulares, como as folhas de uma samambaia.

A palavra fractal foi criada pelo já citado matemático Mandelbrot . Fractal deriva do verbo em latim frangere, traduzido como "quebrar, fracionar", e do adjetivo fractus, "fragmentado". Formas fractais também podem ser encontradas na natureza, embora não tenham uma simetria de escala perfeita. São formas como as irregularidades da costa marítima de um país ou as fissuras na crosta terrestre  provocadas por um terremoto, por exemplo.

Segundo o velho Euclides, matemático grego que viveu dois milênios atrás, existem figuras que não têm dimensão, ou melhor, têm dimensão 0. É o caso dos pontos, como este ponto final (.). Uma linha, por sua vez — considerada a distância entre dois pontos quaisquer —, é algo com uma única dimensão. Já a capa de um livro, por exemplo, de acordo com a geometria euclidiana, tem duas dimensões, pois, para conhecer qual a sua área, é necessário multiplicar dois números — o do comprimento pelo da largura. Do mesmo modo, um bloco possui três dimensões, porque precisamos multiplicar três números (comprimento, largura e altura) para saber qual o seu volume. Euclides estava certo, mas não resolveu todo o problema.

Os contornos das montanhas, a superfície dos pulmões humanos, a trajetória das gotículas de água quando penetram na terra   existe uma infinidade de fenômenos na natureza que não podem ser descritos por essa geometria toda certinha. É preciso apelar para complicados cálculos que resultam nas chamadas dimensões fracionárias —  como a dimensão 0,5, por exemplo, típica de um objeto que é mais do que um simples ponto com dimensão zero, porém menos do que uma linha com dimensão 1. Só a chamada geometria dos fractais consegue descrevê-lo.

Os fractais não poderiam ter sido revelados de modo minucioso se não fossem os computadores, mas, na evolução dos computadores, os analógicos representavam um beco sem saída. Computadores digitais, construídos a partir de circuitos que podiam ser ligados ou desligados, zero ou um, sim ou não, davam respostas precisas às perguntas feitas pelos programadores. Computadores analógicos, por sua própria concepção, eram muito vagos.

Existia um computador analógico pesada e empoeirado de Santa Cruz, nos Estados Unidos, com um painel de madeira na fachada, como aqueles usados antigamente em mesas telefônicas. Programar um computador analógico era questão de conectar e desconectar fios. Ao conceber diversas combinações de circuitos, um programador simula sistemas de equações de modo a fazê-los adaptarem-se perfeitamente a problemas de engenharia.

Um belo dia, um amigo astrofísico, William Burke, entregou a Shaw uma folha de papel com três equações rabiscadas e pediu-lhe que as colocasse em seu computador. As equações pareciam simples. Edward Lorenz as havia escolhido como um método despojado para calcular um processo conhecido em Meteorologia, os movimentos ascendentes e descendentes do ar ou da água, chamado convecção. Shaw levou apenas poucas horas para conectar os fios adequados e ajustar os botões. Alguns minutos mais tarde, ele viu aparecer na tela um padrão peculiar, cambiante e infinitamente complicado.

A tela de Shaw proporcionava uma maneira de criar diagramas abstratos de comportamento dinâmico de longo prazo de qualquer sistema físico — uma bolinha de gude imóvel no fundo de um buraco, um relógio de pêndulo balançando monotonamente ou o tumulto imprevisível do tempo na Terra. Para a bolinha de gude em repouso, o diagrama seria simplesmente um ponto. Para um sistema periodicamente cíclico como o relógio de pêndulo, o diagrama teria a forma de uma lançada. Para o sistema enganadoramente simples das três equações da convecção, o diagrama era algo completamente diferente.

Ao mesmo tempo, o estranho atrator revelava padrões inesperados. Era sinônimo de desordem e imprevisibilidade, mas, ainda assim, significava um novo tipo de ordem no tumulto. Dois cientistas franceses, David Roelle e Floris Takens, mais tarde dariam a esses padrões seu nome provocativo: estranhos atratores. Shaw conhecia a nova linguagem da geometria fractal. No entanto, muito tempo havia passado antes que ele, assim como outros envolvidos em trabalhos do mesmo gênero, reconhecesse que a forma diante de seus olhos era um fractal, o que significa que revelava novas complexidades em escalas cada vez menores.

Assim, ele passou várias noites no laboratório observando o ponto verde do osciloscópio percorrendo a tela, traçando sem parar seu roteiro caótico e nunca exatamente no mesmo modo. O percurso da forma permaneceu na retina, oscilante e vibrante, diferente de qualquer objeto que Shaw conhecera em suas pesquisas. Parecia ter vida própria. Prendia a mente como uma chama que se move em padrões que nunca se repetem. Isso era interessante, pois um sistema linear obedece às leis da proporção  quanto mais depressa se vai, mais longe se chega. A linearidade torna os cálculos fáceis ou, ao menos, manejáveis. Infelizmente, a maioria dos sistemas do mundo real não é linear.

A não-linearidade exigia cálculos mais difíceis. Era a mosca na sopa previsível da Mecânica clássica. Poucos consideraram a não-linearidade uma força criativa; mas foi a não-linearidade que criou os padrões misteriosamente belos dos estranhos atratores.  Nesta época, a palavra “não-linear” era um termo que você só encontrava no final do livro onde um estudante de física fazia um curso de matemática e o último capítulo tratava de equações não-lineares. Geralmente essa parte era deixada de lado.

Shaw e seus colaboradores que foram se aproximando de suas observações precisavam fazer perguntas que pudessem ser respondidas e que valessem a pena ser respondidas tentando isolar as qualidades especiais que tornavam os estranhos atratores tão encantadores. A imprevisibilidade era uma delas — mas onde encontrar os calibres para medir tal qualidade?

Para isso, Shaw acabou por ocupar-se de um projeto experimental que iria mantê-lo entretido por anos, adotou um sistema dinâmico tão caseiro quanto algum físico pudesse imaginar: uma torneira pingando. Como gerador de organização, uma torneira pingando oferece pouco para se trabalhar. No entanto, para um investigador iniciante do caos, a torneira pingando provou ter certas vantagens. Todo mundo tem dela uma imagem mental. O fluxo de dados é o mais unidimensional possível: uma batida ritmada de pontos isolados mensuráveis no tempo.

Na torneira pingando, tudo que existe é a solitária linha de dados. E não é nem uma variação contínua de velocidade ou temperatura - apenas uma lista dos tempos de gotejamento. Os pingos podem ser regulares. Ou, como qualquer um descobre ao ajustar uma torneira, podem tornar-se irregulares e aparentemente imprevisíveis. Solicitado a organizar um ataque a um sistema como esse, um físico tradicional começaria por montar um modelo físico o mais completo possível. Os processos que norteiam a formação e a ruptura das gotas são compreensíveis, ainda que não sejam tão simples como possam parecer. Uma variável importante é o ritmo do fluxo (este deve ser lento, comparado à maioria dos sistemas hidrodinâmicos. Normalmente, Shaw observou o ritmo de uma a dez gotas por segundo.) Outras variáveis incluem a viscosidade do fluxo e a tensão de superfície.

Um físico que tentasse construir um modelo completo do problema da gota, formulando um conjunto de equações para depois tentar resolvê-las, acabaria numa encruzilhada sem fim. Uma alternativa seria esquecer a Física e observar apenas os dados, como se estivessem saindo de uma caixa-preta. Dada uma lista de números representando intervalos entre as gotas, será que um especialista em dinâmica caótica encontraria algo útil para dizer?

Na verdade, como foi comprovado mais tarde, podem-se conceber métodos para organizar esses dados dentro da Física e esses métodos se mostraram decisivos no que diz respeito à aplicação do caos a problemas do mundo real. Shaw criou uma espécie de caricatura de um modelo físico completo. Ele fez um resumo rudimentar da Física das gotas, imaginando um peso que pendesse de uma mola. O peso aumenta constantemente. A mola estica e o peso desce cada vez mais. A certa altura, uma porção do peso se rompe. A quantidade que se desprendesse, Shaw supôs arbitrariamente, dependeria apenas da velocidade da queda do peso descendente quando atingisse o ponto de ruptura.

Então, naturalmente, o peso restante voltaria para a posição anterior, como fazem as molas, com oscilações que estudantes aprendem a delinear usando equações normais. A característica interessante do modelo - a única característica interessante - era a torção não-linear que possibilita o comportamento caótico. O tempo preciso de uma gota dependia do ritmo do fluxo, é claro, mas dependia também de como a elasticidade desse saco de tensão superficial interagia com o peso que aumentava constantemente. Se uma gota iniciasse sua vida já em queda, ela se romperia mais cedo. Se acaso se formasse quando sua superfície inferior estivesse subindo, poderia encher-se com um pouco mais de água antes de romper-se.

Enquanto isso, Shaw fazia suas equações e operava o computador analógico, produzindo uma torrente de dados imaginários, muito parecidos às gotas da torneira real. Mas, para ir além, Shaw necessitava de um modo de colher dados puros de qualquer experiência e trabalhar com equações e estranhos atratores que pudessem revelar padrões ocultos.

Com um sistema mais complicado, uma variável poderia ser graficamente relacionada à outra, correlacionando mudanças na temperatura ou na velocidade com o passar do tempo. Contudo, a torneira pingando proporcionava apenas uma série de tempos. Shaw tentou, então, uma técnica desenvolvida pela equipe de Santa Cruz, que foi talvez sua contribuição prática mais esperta e duradoura ao progresso do caos - um método de reconstruir um estranho atrator invisível que poderia ser aplicado a qualquer série de dados. Para os dados da torneira pingando, Shaw construiu um gráfico no qual o eixo horizontal representava um intervalo de tempo entre duas gotas, e o eixo vertical representava o intervalo de tempo entre as duas seguintes.

Se entre a gota número um e a gota número dois decorressem 150 milésimos de segundo, e depois 150 milésimos de segundo decorressem entre a gota número dois e a gota número três, ele marcava um ponto na posição 150-150. Era tudo que havia a fazer. Se o gotejamento fosse regular, o gráfico seria apropriadamente inerte. Cada ponto cairia no mesmo lugar. O gráfico seria um simples ponto, ou quase: na verdade, a primeira diferença entre a torneira pingando no computador e a torneira real era que esta estava sujeita a distúrbios, ou "ruído", sendo extremamente sensível. O barulho significava que, em vez do simples ponto previsto pela teoria, ele veria uma mancha ligeiramente indistinta.

À medida que o fluxo aumentasse, o sistema passaria por uma mudança repentina nas suas características. Então as gotas cairiam em pares repetidos. Um intervalo poderia ser de 150 milésimos de segundo e o próximo, de 80. Assim, o gráfico mostraria duas manchas indistintas, uma centrada em 150-80 e outra em 80-150 e assim por diante. O verdadeiro teste ocorreu no momento em que o padrão se tornou caótico, quando o ritmo do fluxo foi novamente modificado. Se fosse mesmo fortuito, haveriam pontos dispersos por todo o gráfico. No entanto, se um estranho atrator estivesse oculto nos dados, poderia se revelar como um padrão vago, mas perceptível.

O caos já ostentava a fama de ser mencionado a meia voz, mas poucos dos físicos presentes à conferência sabiam do que se tratava. Shaw começou então explicando os diferentes tipos de atratores, dos comuns aos estranhos; a princípio, os estados inertes (quando tudo fica imóvel); depois, ciclos periódicos (quando tudo oscila); e, por fim, estranhos atratores caóticos (o restante). Ele demonstrou sua teoria com gráficos computadorizados em videoteipe. Os meios audiovisuais lhe deram uma vantagem, podia-se agora hipnotizar os observadores com flashes de luz, isso permitiu ilustrar o atrator e a torneira que pinga.

Quanto mais se aproximava do mundo real da ciência, mais perto da separação se encontrava. Assim, muitos cientistas passaram a procurar estranhos atratores em bandeiras tremulantes e em velocímetros defeituosos, os cientistas fizeram questão de detectar os sintomas do caos em toda a Física atual. Peculiaridades outrora desprezadas como ruído - flutuações surpreendentes, regularidades misturadas a irregularidades - eram explicadas agora nos termos da nova ciência. Tais efeitos pipocaram de repente em escritos a respeito de tudo, desde lasers até circuitos eletrônicos.

Hoje, especialistas em finanças usam as técnicas desenvolvidas pelo grupo de Santa Cruz para analisar décadas de cotações diárias de bolsas de valores, buscando padrões que acreditam existir ali. Muitos fisiólogos acreditam agora que o caos proporciona um modo de prever - e talvez de tratar  - ritmos irregulares no processo que governa a vida, desde a respiração, os batimentos cardíacos e até a função do cérebro. Em universidades do mundo todo, médicos comparam eletrocardiogramas humanos com dados de um modelo de computador de contrações cardíacas caóticas, em uma tentativa de prever, com bastante antecedência, quando o órgão sofrerá um espasmo fatal.

Ecologistas usam a Matemática do caos para descobrir como, na ausência de mudanças ambientais fortuitas, populações de espécies podem crescer ou diminuir desordenadamente por conta própria. Estuda-se a tendência de processos caóticos de criar padrões complexos em fenômenos como flocos de neve, cujas formas delicadas incorporam uma mistura de estabilidade e instabilidade que só agora começa a ser compreendida. Utiliza-se a física dos sistemas dinâmicos para estudar o sistema imunológico humano, com seus bilhões de componentes e sua capacidade de aprender, memorizar e reconhecer padrões. Para muitos cientistas, o caos tornou-se um conjunto de instrumentos capazes de elucidar fatos aparentemente casuais.

Mas o caos é também uma série de atitudes em relação à complexidade — uma nova maneira de ver. Sente-se que estamos revertendo uma tendência científica de analisar sistemas em termos de suas partes constituintes — quarks, cromossomos ou nêutrons. A tendência científica, particularmente em Física, tem sido pelo reducionismo, uma constante fragmentação das coisas em minúsculos pedacinhos. O que os cientistas estão finalmente percebendo é que esse processo é um beco sem saída. Novas perspectivas apontam para um interesse muito maior na ideia de que o todo pode ser maior que a soma da partes.[15]

Não são poucas as implicações da teoria do caos para a sociologia. Por exemplo, Boaventura de Sousa Santos chama atenção de que o que distingue, neste domínio, a sociologia funcionalista de uma sociologia crítica é o fato de a primeira pretender a ordem da regulação social, e a segunda, a ordem da emancipação social, porém, para ambas, o conhecimento totalizante é um conhecimento da ordem sobre o caos.[16]

Uma das positividades é a ideia de não-linearidade, a ideia de que, nos sistemas complexos, as funções não são lineares e, por isso, ao contrário do que ocorre nas funções lineares, uma pequena causa social pode produzir um grande efeito. Ora, como os indivíduos e as sociedades não podem produzir consequências senão através de causas, e como estas, segundo as teorias do caos, não ocorrem na mesma escala dos seus efeitos, não é possível partir do pressuposto de que o controle das causas acarreta consigo o controle das consequências. Pelo contrário, a falta de controle sobre as consequências significa que as ações empreendidas como causas têm, não apenas as consequências intencionais (lineares) da ação, mas uma multiplicidade imprevisível (potencialmente infinita) de consequências. O controle das causas, sendo absoluto, é absolutamente precário. [17]

As teorias do caos contribuem, assim, para elucidar o modo como a ciência moderna, transformada em recurso tecnológico de sistemas sociais cada vez mais complexos, levou ao extremo a discrepância entre a capacidade de ação (controle das causas) e a capacidade de previsão (controle das consequências). Transformado em máxima de ação social e política, o caos apela a suspeitar da capacidade de ação e a pôr em causa a ideia da transparência entre a causa e o efeito. Dito de outro modo, o caos integra-se ao paradigma emergente que convida-nos a um conhecimento prudente.[18]

A última grande tentativa de produzir uma teoria crítica moderna coube a Foucault, tomando precisamente como alvo o conhecimento totalizante da modernidade, a ciência moderna. Foucault representa ao mesmo tempo o clímax e, paradoxalmente, a derrocada da teoria crítica moderna. Levando às últimas consequências o poder disciplinar do panóptico construído pela ciência moderna, Foucault mostra que não há qualquer saída emancipatória dentro deste “regime da verdade”, já que a própria resistência se transforma ela própria em um poder disciplinar e, portanto, em uma opressão consentida porque é interiorizada.

O grande mérito de Foucault foi ter mostrado as opacidades e os silêncios produzidos pela ciência moderna, conferindo credibilidade à busca de “regimes da verdade” alternativos, outras formas de conhecer marginalizadas, suprimidas e desacreditadas pela ciência moderna. Assim, Boaventura conclui que o nosso lugar é hoje um lugar multicultural, um lugar que exerce uma constante hermenêutica de suspeição contra supostos universalismos ou totalidades. lntrigantemente, segundo o autor, a sociologia disciplinar tem ignorado quase completamente o multiculturalismo, ainda que possamos encontrar cada vez mais estudos culturais com configurações transdisciplinares em que convergem as diferentes ciências sociais e os estudos literários e onde se tem produzido conhecimento crítico, feminista, anti-sexista, anti-racista, pós-colonial.[19]

Depois de dois séculos de utopismo automático da ciência e da tecnologia, o princípio da prudência faz-nos uma dupla exigência. Por um lado, exige que, perante os limites da nossa capacidade de previsão, em comparação com o poder e a complexidade da práxis tecnológica, privilegiemos perscrutar as consequências negativas desta, em detrimento das suas consequências positivas. Não se deve ver nisto uma atitude pessimista e muito menos uma atitude reacionária. Uma das virtualidades do utopismo tecnológico é que, hoje, sabe­mos melhor aquilo que não queremos do que aquilo que queremos. Se a nossa capacidade de previsão é menos limitada a respeito das consequências negativas do que das consequências positivas, é de bom senso concentrarmos o conhecimento emancipatório nas consequências negativas. Isso implica assumir perante ela - e esta é a segunda exigência - uma certa “hermenêutica de suspeição”, como Ricoeur chamaria, as consequências negativas duvidosas, mas possíveis, devem ser tidas como certas.[20]

Segundo Boaventura de Sousa Santos, a aceitação e a revalorização do caos é uma das estratégias epistemológicas que tornam possível desequilibrar o conhecimento a favor da emancipação, revalorizando a solidariedade como forma de saber. [21] 

7) A teoria geral da recursão da computação abstrata. A teoria da recursão pode ser encarada de modo geral como a teoria abstrata das máquinas computacionais (máquinas de Turing operada por algoritmos), sendo os computadores com os quais estamos acostumados, os produtos físicos que mais exemplificam a ideia de máquinas teóricas cognitiva traduzidas em artefatos cognitivos operatórios. Um outro exemplo menos conhecido é o dos autônomos finitos de Markov. Assim, da teoria geral e abstrata da recursão podemos derivar vários resultados sobre os computadores comuns e os artefatos robóticos ou simuladores simbólicos.

A teoria da recursão se refere a certas estruturas algébricas, mas hoje foi estendida para abranger os sistemas lógicos e simbólicos complexos (especo informacional) pelo processo de sintetização digital da realidade. Acreditamos que com a emergência das maquinas computáveis cognitivas, surgem também quatro grandes camadas imateriais de amplificação da realidade abstrata. É preciso primeiramente afirmar de que a informação digital computada incorpora-se a uma gama de múltiplos saberes envolvidos em simbiose e vinculados a suportes infra-estruturais sofisticados de redes comunicantes e interativas que compartilham essas quatro camadas informacionais: a) primeira camada: A álgebra boolena; b) segunda camada: A informação como expressão binária digital; c) terceira camada: Pensar e construir instruções através de algoritmos e d) quarta camada: A Cultura da interface.

Hoje defendo uma quinta informática que evoluiu em simbiose ainda mais colaborativa com a vida: as interfaces simbióticas.

A representação e o tratamento da informação em simbiose com as máquinas cognitivas, incluem e nos conduz hoje a uma imagem unificada em nódulos informacionais complexos da cognição, inclusive por conexões não-clássicas, e estabelece novos vínculos entre teoria da informação, matemática e análise simbólica. Assim, exemplificando, em certas questões mesmo de matemática qualificada e construtiva, deve-se recorrer a uma lógica divergente da clássica, ou seja, à chamada lógica e procedimentos intuicionista; em outros contextos, muito utilizado na mecânica quântica. Um outro exemplo em áreas mais duras da ciência, encontra-se tópicos de química e de genética, tem-se apelado para o cálculo lamba e a lógica combinatória, que não pertencem, propriamente, à classe das modalidades clássicas em acepção estrita. 

8) Por fim, O eletromagnetismo do quantum. Richard Feynman entre diagramas de partículas virtuais que se levantam como notas de música da realidade, gerou uma nova e elegante teoria com também novas equações que eliminavam as infinidades de possibilidades que tinham que ser previstas na solução da explicação de sua realidade quântica. Feynman descobriu o eletromagnetismo do quantum, e um sistema mais prático de resolver problemas do quantum. Esse trabalho denominado eletrodinâmica quântica deu a Richard Phillips Feynman o Nobel de 1965. Essa nova teoria explicava um universo tão vasto e complexo quanto importante para a sociedade moderna. Esse universo inclui nada menos que a arquitetura interna dos átomos, a ação dos lasers, os fenômenos radioativos, eletrônicos e químicos, assim como esquisitas transformações das partículas subatômicas, como o elétron e o próton.

Feynman, no entanto, fez mais do que isso. Recriou desde o princípio as ideias da antiga teoria quântica — que após quase meio século de esforço continuavam incompletas e obscura. Ele tomou os conceitos semi-acabados e transformou-os em ferramentas que qualquer físico podia compreender e usar. A teoria de Feynman é muito prática, especialmente os “diagramas de Feynman”, hoje indispensáveis. No fundo, os diagramas são simples tabelas, como uma espécie de gráfico sofisticado, com o qual o mundo dentro dos átomos não parece tão estranho e fica muito mais fácil calcular a trajetória e as trocas de energia entre as partículas.

A teoria quântica ganhou muito de aplicabilidade depois de Feynman. Por exemplo, graças ao microscópio de efeito túnel, baseado nos princípios da física quântica, os cientistas conseguem enxergar átomos e manipulá-los um a um. Em uma década, a nanotecnologia, ciência do infinitamente pequeno, poderá ver os primeiros resultados práticos da possibilidade de construir moléculas sob medida. Em longo prazo, em vinte ou trinta anos, é provável que surjam supercomputadores de bolso e minúsculas sondas para percorrer o interior do corpo humano.

Em dezembro de 1959, quando Feynman preferiu as visionárias palavras na palestra "Há muito lugar no fundo" para seus colegas da Sociedade Americana de Física, os computadores ainda eram geringonças que ocupavam metade das salas em que eram colocados. Feynman falava em mexer átomos num tempo em que ninguém sequer tinha visto um deles. Trinta anos depois, o sonho do físico ganhou forma na ciência do muito pequeno, a nanotecnologia, assim chamada porque seus objetos de estudo costumam ser medido em nanômetros — 1 milhão de vezes menor que 1 milímetro.

Richard Feynman (1918-1988), sugeriu, em 1981, criar supercomputadores que usariam os 36 estados quânticos do elétron como linguagem no lugar do tradicional idioma binário da Informática.

Assim, ainda no início dos anos 80, os cientistas começaram a alertar que a evolução dos computadores, da maneira como são construídos hoje, estava com os dias contados. O motivo era, e ainda é, a incrível transformação dos circuitos eletrônicos, que nos últimos trinta anos ficaram 3 milhões de vezes mais rápidos, enquanto os seus componentes básicos, que são os transistores, encolhiam na mesma proporção. Os primeiros transistores da década de 60 não eram menores que um grão de feijão, e os atuais já estão cem vezes menores que o diâmetro de um fio de cabelo.

Só que eles não podem diminuir muito mais. A miniaturização deve dar mais um salto de cem vezes, nos próximos dez ou quinze anos. E se em seguida forem divididos novamente por dez, deixam de existir: vão se desmanchar em uma nuvenzinha de átomos, 1 milhão de vezes menor que 1 centímetro. Ou seja, os computadores vão ter de virar máquinas atômicas, já que suas peças essenciais serão átomos soltos, em lugar dos transistores convencionais.

Por isso, o novo modelo de processar informações está sendo chamado de computador quântico, em referência à Mecânica Quântica, o ramo da Física que governa o comportamento dos átomos. Por enquanto, é quase tudo teoria. Ninguém sabe direito que estrutura a nova máquina vai ter. Mas os especialistas garantem que, se ela um dia chegar a operar. É que em vez de executar um cálculo por vez, como os computadores atuais, ela vai raciocinar em bloco, compondo verdadeiras sinfonias inteligentes. O que vai acontecer com os circuitos eletrônicos quando suas peças, de tanto diminuir de tamanho, virarem uma autêntica poeira de átomos? A ideia é produzir uma máquina superior, estupidamente mais rápida que as atuais.

O que aconteceria se pudéssemos mover átomos? É o que se perguntava Feynman. Hoje os cientistas que os manipulam respondem: podemos construir supercomputadores que caibam no bolso, gravar bibliotecas inteiras em superfícies de centímetros quadrados, colocar micro sondas para fazer testes sangüíneos dentro do corpo humano. Tudo isso ainda é suposição, previsão, talvez sonho, no entanto, como Léon Lederman, laureado de Nobel e Diretor Emeritus de Fermilab, gosta de mostrar, mais que 25 por cento do total produto nacional da superpotência norte americana é dependente em tecnologia de um modo ou outro pelas descobertas dos fenômenos do quantum.

Por fim, cabe destacar que Feymnam foi um dos participantes importantes do Projeto Manhattan do lado de Robert Oppenheimer, que chefiou o Projeto que implicou na criação da bomba atômica. Esta sua participação é uma polêmica até hoje nos meios acadêmicos e isto só vem a conformar que genialidade sabedoria nem sempre andam juntas.

 

PALAVRAS FINAIS

 

Estes são alguns exemplos paradoxais de nosso tempo. Finda a idade industrial da humanidade mas fica sua herança, suas teorias, seus fantasmas, suas cidades poluídas e decadentes, subproduto do combustível fóssil, fica também suas instituições e a mega herança da desigualdade social e da degradação do ecossistema ao mesmo tempo em que entra em estágio de putrefação o velho moderno modo de conhecer e produzir conhecimento.

Em síntese, os últimos desenvolvimentos na física e na biologia, alguns acima mencionados sinteticamente, parecem apontar na direção da unificação do saber e do conhecimento diante da complexidade, entendendo cada vez mais que todas as ciências são sociais. E que a dualidade simétrica, vida x corpo, matéria x espírito, são desprovidas de complexidade.

Assim, os avanços recentes da física e da biologia põem em causa a distinção entre o orgânico e o inorgânico, entre seres vivos e matéria inerte e mesmo entre o humano e o não humano. As características da auto-organização, do metabolismo e da auto-reprodução, antes consideradas específicas dos seres vivos, são hoje atribuídas aos sistemas pré-celulares de moléculas. E, quer num quer noutros, reconhecem-se propriedades e comportamentos antes considerados específicos dos seres humanos e das relações sociais.

Todas as recentes teorias científicas mencionadas introduzem na matéria os conceitos de historicidade, de liberdade, de autodeterminação e até de consciência que antes o homem e a mulher tinham reservado para si.  Isso implica uma nova e ainda mais radical conclusão se o saber e a matéria estão intimamente ligados na complexidade, então, as ciências naturais e as sociais estão também interligadas, assim ,não existe a possibilidade de uma ciência não social e como nos lembra Boaventura de Sousa Santos, na complexidade: todas as ciências são sociais.[22]

Enfim existem paradigmas maiores e paradigmas menores. O paradigma cartesiano vigorou intensamente até 1950. A crise do paradigma cartesiano implica na emergência de um outro: o paradigma da complexidade (que é diferente).

No método 3, Edgar Morin nos fala em crise dos fundamentos seguros do pensamento e da ciência, frente à construção de sistemas firmados - por estes próprios fundamentos de base - que impedem a desconstrução generalizada realizada pelos questionamentos relativizadores sobre todo o conhecimento. Nesta nova e complexa percepção da estruturação sem estrutura, no lugar dos fundamentos agora perdidos o próprio Einstein nos diz: retiraram nosso chão sólido e visível sobre o qual pisamos, a matéria se integrou ao mundo oculto, o chão escorregou. Na complexidade, somos plasmados pelo lodo do oculto do corpúsculo, da partícula e da onda elementar que compõem a unidade inseparável da ordem e da desordem e organização do Universo.

 Até 1617, o paradigma astrológico (aristotélico tomista) concebia um universo celeste perfeito. O paradigma cartesiano - começando por Copérnico sistematizado por Descartes e modelado teórica e matematicamente por Newton, sobretudo, pela confirmação da lei da gravitação universal - propunha uma ruptura radical, a unificação do mundo físico terrestre com o mundo cósmico/celeste. Isto implicou em modificação radical também da Universidade medieval, construção de departamentos, disciplinas especializadas de conhecimento, etc. Um novo modo de pensar e instituir o pensamento científico e de estruturar todas as instituições modernas.

O paradigma cartesiano é uma ruptura muito radical com o paradigma astrológico. O mundo passa a vir a ser – flecha ascendente integrando matéria e energia (eletromagnetismo) buscando uma totalidade sistêmica sistêmica – ainda que mecânica e não complexa. O cérebro (mente) é separado do corpo e o sujeito é separado do objeto.

O paradigma da complexidade implica na indissociação do sujeito do objeto, da mente e da matéria, e de uma dimensão sistêmica que integre a flecha descendente com a ascendente. Não se trata de buscar o equilíbrio, nas estruturas dissipativas. O equilíbrio não existe na complexidade, seria a tensão absoluta entre o vir a ser e o não vir a ser. A auto organização é uma preponderância do vir a ser sobre a dissipação. A preponderância absoluta da dissipação é a morte de um sistema, sua destruição total.

Com o paradigma da complexidade podemos reinterpretar os clássicos das ciências sociais e redescobrir novas e ocultas conexões que não estão imediatamente presentes.

A crise dos paradigmas gera também uma crise de poder. Francis Bacon já tinha nos alertado de que a senda que conduz o homem ao poder e a que o conduz à ciência estão muito próximas, sendo quase a mesma. Geordano Bruno que o diga, foi uma vítima do poder da inquisição e queimado vivo, entre outros motivos por que seu sistema explicativo baseado numa filosofia naturalista, que  questionava a supremacia celeste sobre a natureza e apresentava um novo homem capaz de descobrir causas racionais e verificáveis no mundo e que mais tarde veio a se integrar ao paradigma cartesiano.

A ciência cartesiana é fonte de muito poder. A balística serviu a produção de projéteis, a criação dos computadores e a volumosos recursos de financiamento. Na ciência cartesiana, tecnologia e ciência se tornaram inseparável produzindo grandes descobertas e imensos recursos de financiamento de pesquisas.

As nações modernas, França, Espanha, Bélgica e Inglaterra para se independizarem do poder Papal, imprimiram enormes volumes de dinheiros aos cientistas e novos aventureiros do conhecimento moderno. Na Inglaterra temos o exemplo bem visível da Real society que financiou muitos experimentos científicos.

A laiticidade e recusa do sagrado, separação dos poderes são princípios que marcaram profundamente o pensamento ocidental e não apenas a Revolução Francesa, bem como a figura do mecenas que financiavam intelectuais. Como afirmamos antes, no Brasil, este processo é bem diferente. O paradigma cartesiano emerge sobre a influência positivista e a ciência nasce extremamente dependente do Estado.

Em que sentido o paradigma complexo compõem um novo tipo de poder ou um poder científico de novo tipo? Ele – o paradigma complexo - exige integrar a concepção da organização no mundo científico, diferentemente do paradigma cartesiano que se consolidava institucionalmente de modo cartesiano mas não incorporava a organização da ciência no processo de autoconstrução do saber.

O paradigma complexo impõe a integração do caos na organização e uma estrutura dissipativa descentralizada aberta à auto-organização produtiva. Também integra o sujeito ao objeto, o sujeito não está fora do mundo é reverberativo.

Independentemente de nós, o Universo se auto organizou antes de nós mesmo emergirmos como sistema vivo complexo. É necessária organização descentralizada e capaz de enfrentar a expressão mais radical da crise gerada pela pulsão arrasadora da dissipação, o que Edgar Morin chama de “motor selvagem”.

Segundo também Edgar Morin, no seu livro O Método tomo 1, vivemos numa desordem organizada, inclui no entanto a organização no próprio paradigma da ciência. Caminhamos em cima da turbulência da dissipação energética, da improbabilidade, da incerteza.[23]

Não podemos entender a alma sem a sua substância material e nem o corpo como substância própria separada da auto organização da matéria, pensamos ligados ao corpo e a consciência é também  matéria complexa organizada.

O mesmo não podemos entender na complexidade a ideia do sujeito determinando e separado da ideia de objeto.

A complexidade não é um problema novo. O pensamento humano sempre enfrentou a complexidade e tentou, ou bem reduzi-la, ou bem traduzi-la. Os grandes pensadores sempre fizeram urna descoberta de complexidade. Até uma simples lei, como a da gravidade, permite ligar, sem reduzi-los, fenômenos diversos como a queda dos corpos, o fato de a Lua não cair na Terra, o movimento das marés. Toda grande filosofia é uma descoberta de complexidade; depois, ao formar um sistema em torno da complexidade que revelou, ela encerra outras complexidades.

A rigidez da lógica clássica pelo diálogo capaz de conceber noções ao mesmo tempo complementares e antagonistas, e completara o conhecimento da integração das partes em um rodo, pelo reconhecimento da integração do todo no interior das partes.

Ligará a explicação à compreensão, em todos os fenômenos humanos. Vamos repetir aqui a diferença entre explicação e compreensão. Explicar é considerar o objeto de conhecimento apenas como um objeto e aplicar-lhe todos os meios objetivos de elucidação. De modo que há um conhecimento explicativo que é objetivo, isto é, que considera os objetos dos quais é preciso determinar as for­mas, as qualidades, as quantidades, e cujo comportamento conhecemos pela causalidade mecânica e determinista. A explicação, claro, é necessária à compreensão intelectual ou objetiva. Mas é insuficiente para a compreensão humana.

Há um conhecimento que é compreensível e está fundada sobre a comunicação e a empatia — simpatia, mesmo — intersubjetivas. Assim, compreendo as lágrimas, o sorriso, o riso, o medo, a cólera, ao ver o ego alter como alter ego, por minha capacidade de experimentar os mesmos sentimentos que ele. A partir daí, compreender comporta um processo de identificação e de projeção de sujeito a sujeito. Vê-se uma criança em prantos, vou compreendê-la não pela medição do grau de salinidade de suas lágrimas, mas por identificá-la comigo e identificar-me com ela. A compreensão, sempre intersubjetiva, necessita de abertura e generosidade.

O paradigma da moderna ciência em crise insere na ideia de mensuração e, assim, na curiosa história da lógica. Vindo desde a criação da indução por Aristóteles (384-322 a.C.), permaneceu praticamente imutável durante dois milênios. Pensadores como Galileu Bacon, Mill e depois Kant (1724-1804) achavam do ponto de vista essencial, em lógica, depois do grande filósofo grego muito pouco era preciso ser feito além de minuciá-la e desenvolvê-la.

O estudo da lógica e da metodologia restringia-se ao da inferência válida (algumas vezes incluindo também a inferência dita indutiva, não válida, porém possuindo certo caráter verossímil), de um prisma formal. Na inferência válida, de premissas verdadeiras chega-se, sempre, a conclusões verdadeiras. As regras da lógica, devidamente utilizadas, assegurariam isso. Portanto, vimos que a mensuração lógica está amarrada e se sustenta também com um pensamento lógico devotado ao raciocínio formalmente redutor.

Por exemplo, Newton, produziu sua síntese mecanicista extraordinária acreditando que devemos buscar as proposições inferidas por indução geral a partir dos fenômenos, e não por meio de especulações hipotéticas. É enfático seu pronunciamento a esse respeito: ”Non fingo hypotheses”, isto é eu não invento nenhuma dessas causas, que, sem dúvida, podem dar conta dos fenômenos, mas que somente são verossímeis. Newton não admite outra causa senão a que pode ser ‘deduzida dos próprios fenômenos”. [24]

Para Newton, a argumentação indutiva não é uma demonstração de conclusões gerais e está sujeita a exceções reveladas pelos fenômenos constatados, pois tudo que não é deduzido dos fenômenos deve ser chamado uma hipótese; e a hipótese, quer metafísicas ou físicas, quer de qualidades ocultas ou mecânicas, não têm lugar na filosofia experimental. Nessa filosofia, as proposições particulares são inferidas dos fenômenos, e depois tornadas gerais pela indução. [25] 

Assim em vez de presumir hipóteses sem nenhuma comprovação experimental, é preciso consultar a própria natureza, realizar experimentos bem planejados e a partir daí investigar as causas que engendram os efeitos. A indução é, então, o melhor caminho de argumentação que a natureza das coisas admite, e pode ser considerada tanto mais forte quanto mais geral ela for comprovada.

De um modo geral os pensadores sociais não questionavam profundamente essas premissas, divergiam sobre seu emprego mais analítico e dedutivo, mais dialético ou mais compreensivo, porém jamais colocaram em questão ou criaram novas modalidades de mensuração complexa para embasar seus pensamentos e conhecimentos sobre a realidade social.

É claro que os fundacionistas da sociologia não compartilharam das grandes mudanças científicas que vieram a ocorrer sobre esta tradição milenar. Pois somente a partir da segunda metade do século 19 e durante todo o século 20 que isso veio ocorrer e os clássicos da sociologia não puderam ou não conseguiram sofrer os efeitos da assombrosa transformação produzida por intelectuais e cientistas contemporâneos.

Hoje a mensuração lógica simétrica deixou de ser tão somente vinculada à validação das formas válidas de raciocínio, embora a teoria da argumentação ainda pertença ao campo de suas aplicações. No momento, ela versa sobretudo, de determinadas “estruturas abstratas ou reflexivas”, que podemos denominar de sistemas lógicos simétricos e (não ou) assimétricos, indo desde procedimentos lógicos orquestrados com analógicos em espírito e subjetivação integrados radicalmente em estruturas da álgebra reflexiva ou de outros ramos da matemática computacional e da teoria da informação.

A mensuração clássica é praticamente e estritamente lógica pura. O sociólogo pesquisador contemporâneo deve saber tratar de sistemas lógicos diversificados, de inúmeras e contraditórias conformidades de relevância intrínseca e de significados tocantes às aplicações sociais múltiplas em fundamentos condizentes com as teorias da informação.

Além disso, a pesquisa aplicada, não pode se voltar apenas para  aplicações dos sistemas e métodos lógicos em todas as áreas do conhecimento. É certo que existe determinada semelhança entre algoritmos e problematizações sociais e entre informações em associações analógicas e lógicas. Até mesmo em geometria não existe mais quem defenda uma geometria pura, pois se estudam diversas estruturas geométricas: euclidiana, riemaniana, finita etc. e na geometria aplicada volta-se para as estruturas com ênfase em aplicações mais ou menos precisas, como nos casos da geometria do espaço de Minkowski em relatividade restrita ou da geometria de Riemann em relatividade geral.

Vivemos num tempo atônito que ao debruçar-se sobre ele próprio descobrimos que os nossos pés são um cruzamento de sombras, sombras que vêm do passado que ora pensamos já não sermos, ora pensamos não termos ainda deixados de ser, sombras que vêm do futuro que ora pensamos já sermos, ora pensamos nunca virmos a ser. Quando, ao procurarmos analisar a situação presente das ciências no seu conjunto, olhamos para o passado, a primeira imagem é talvez a de que os progressos científicos dos últimos trinta anos são de tal ordem dramáticos que os séculos que nos precederam ‑ desde o século XVI, onde todos nós, cientistas modernos, nascemos, até ao próprio século XIX ‑ não são mais que uma pré‑história longínqua. Mas se fecharmos os olhos e os voltarmos a abrir, verificamos com surpresa que os grandes cientistas que estabeleceram e mapearam o campo teórico em que ainda hoje nos movemos viveram ou trabalharam entre o século XVIII e os primeiros vinte anos do século XX, de Adam Smith e Ricardo a Lavoisier e Darwin, de Marx e Durkheim a Max Weber e Pareto, de Humboldt e Planck a Poincaré e Einstein. E de tal modo é assim que é possível dizer que em termos científicos vivemos ainda no século XIX do que no século XXI.

No entanto, contraditoriamente, a ciência transfigurou-se nos últimos 150 anos frente à complexidade da mensuração em três grandes aspectos: 1) em extraordinário desenvolvimento técnico; 2) aparecimento das chamadas lógicas e procedimentos não-clássicos, que complementam ou se afastam daquela batizada de clássica simétrica, a qual se inspirava em pressupostos da tradição aristotélica compilada e melhorada pela primeira moderna geração da ciência, ou seja, a emergência da complexidade e de novas modalidades operatórias complexas sobre a realidade, inimagináveis até então; 3) a eclosão de variadas e numerosas aplicações da teoria da informação digital em quase todos os domínios do saber.

Por fim, um dos maiores desafios da complexidade é romper com o saber disciplinar e violentar as fronteiras dicotômicas que separam as ciências naturais/ciências sociais. O novo paradigma da complexidade implica em emanciparmos dessa falsa dicotomia.

As próprias ciências sociais constituíram-se no século XIX segundo os modelos de racionalidade das ciências naturais clássicas e, assim, a égide das ciências sociais, afirmada sem mais, pode revelar-se ilusória, contudo, que a constituição das ciências sociais teve lugar segundo duas vertentes: uma mais diretamente vinculada à epistemologia e à metodologia positivistas das ciências naturais, e outra, de vocação antipositivista, caldeada numa tradição filosófica complexa, fenomenológica, interacionista, mito-simbólica, hermenêutica, existencialista, pragmática, reivindicando a especificidade do estudo da sociedade mas tendo, para isso, de pressupor uma concepção mecanicista da natureza. A pujança desta segunda vertente nas duas últimas décadas é indicativa de ser o modelo de ciências sociais que, numa época de revolução científica, transporta para a emergência do novo paradigma.[26]  Trata-se, como referi também, de um modelo de transição, uma vez que define a especificidade do humano por contraposição a uma concepção da natureza que as ciências naturais hoje consideram ultrapassada, mas é um modelo em que aquilo que o prende ao passado é menos forte do que aquilo que o prende ao futuro.[27]

Para apreciar o pleno significado do movimento antifundacional nas ciências sociais, é de suma importância às contribuições presentes nas obras de Foucault e de Derrida. Mesmo tendo presente tal importância, este texto deixará de abordar diretamente as temáticas destes autores e seguirá noutra direção.

É de amplo conhecimento nas ciências sociais, seguindo a concepção também positivista do conhecimento científico, tomou posição de que o papel das ciências sociais é reunir “dados objetivos” e submetê-los à análise científica. O humanismo, ao invés, renuncia à procura de dados objetivos e aceita a ”subjetividade” inerente às ciências sociais. À primeira vista parece que os humanistas oferecem uma alternativa clara à abordagem positivista que assenta numa epistemologia totalmente diferente. Uma análise mais profunda mostra que não é assim. Ambos grupos - humanistas e positivistas - partilham uma assunção epistemológica fundamental: a oposição entre sujeito e objeto. A essência da abordagem positivista consiste em acentuar o lado do objeto nesta oposição. Os positivistas pretendem que o fito da investigação científica se constitua pela acumulação de “conhecimento objetivo” livre de qualquer mancha de subjetividade. Os humanistas, por outro lado, salientaram a vertente do sujeito na dicotomia. Na terminologia contemporânea o que os humanistas realizaram foi a “desconstrução” do objeto no processo de conhecimento nas ciências sociais. Defendem que a matéria prima das ciências sociais tem como fonte ações significativas produzidas nas relações intra-humanas, que são inerentemente “subjetivas”. [28]

Em resumo, à medida que as ciências naturais se aproximam das ciências sociais, estas se aproximam das humanidades. A revalorização dos estudos humanísticos acompanha a revalorização da racionalidade estético-expressiva das artes e da literatura que, juntamente com o princípio da comunidade, é uma representação inacabada da modernidade simples A superação da dicotomia ciências naturais/ciências sociais tende assim a revalorizar os “estudos humanísticos”. Mas esta revalorização não ocorrerá sem que as humanidades sejam, elas também, profundamente transformadas. O que há nelas de futuro é terem resistido à separação entre sujeito e objeto e entre natureza e cultura, e terem preferido a compreensão do mundo à manipulação do mundo. [29]

Além disso, quer resistam, quer sucumbam ao modelo cientista, os estudos humanísticos decidiram, de modo geral, ignorar as relações e os processos sociais responsáveis pela auto-atribuição da qualidade de autor, pelos critérios de inclusão na comunidade interpretativa, pela repartição do poder retórico entre diferentes argumentos, em suma, pela distribuição social das boas razões.

Há que recuperar esse núcleo genuíno e pô-lo ao serviço de uma reflexão global sobre o mundo. O texto, sobre que sempre se debruçou a filologia, é uma das analogias matriciais com que se construirá no paradigma emergente o conhecimento sobre a sociedade e a natureza. Como catalisadores da progressiva fusão das ciências naturais e das ciências sociais, os novos estudos humanísticos ajudam-nos a procurar categorias globais de inteligibilidade, conceitos quentes que derretam as fronteiras em que a ciência moderna dividiu e encerrou a realidade. Enfim, todas as ciências são sociais e a nova ciência emergente é uma ciência assumidamente não simétrica e analógica Em síntese, há procedimentos e lógicas variadas como há geometrias distintas. É habitual conceber a criação das geometrias não-euclidianas como uma das grandes transformações de paradigma da ciência, dado que a lógica se mostra mais básica que a geometria na hierarquia do conhecimento, decorre de implicações e mudanças no paradigma na ciência aristotélica.[30]

Esse processo está presente hoje em quase todos os campos do saber: em filosofia, em filosofia da ciência, em lingüística, em matemática (por exemplo, utilização de teoria de modelos em álgebra), em química, em biologia, em direito, em psicologia etc.

Todavia o que mais nos surpreende são as aplicações tecnológicas da teoria da informação digital frente à mensuração científica da realidade. Aplicações, exemplificando, a matemática das redes conhecida como grafos, muito utilizada para simulações complexas e para entendermos as organizações emergentes, a lógica "fuzzy" muito utilizada em engenharia de produção e no controle de tráfego, na notação em robótica e no reconhecimento automático de assinaturas em bancos, e da clássica em computação e programação, em sistemas especialistas para diagnóstico médico, em fabricação de máquinas e na  nova modalidade da teoria da computação flexível e simbólica.

Assim a história da clássica geração moderna da ciência evidencia e comprova, pelo menos em linhas esquemáticas, os limites na mensuração do raciocínio correto e lógico de natureza das próprias noções lógicas, das conexões entre ela e a matemática, caráter eterno ou provisório das suas leis lógicas, da base limitada da cognição marcada pelo realismo nas ciências lógico-matemáticas.

O notável lógico e filósofo inglês A.N. Whitehead (1861-1947) afirmava que a mensuração reflexiva contemporânea estava para a tradicional assim como a matemática do século passado para a aritmética das tribos primitivas. Essa afirmação de Whitehead se mostra, em nossa época, como inteiramente justificável. Porém podemos verificar também que a mensuração lógica foi incorporada sem modificações críticas e operantes de relevância pelos fundacionistas da sociologia na construção do próprio saber sociológico e que eles estão para o Século XXI tão próximos quando estão afastados da mutação científica que os procederam.

Para tomarmos consciência da profundidade da crise em que a ciência social se encontra, faz-se necessário integrar sua crise específica com a crise geral que fundou o moderno saber científico somente assim poderemos encontrar pistas para a integração cada vez mais complexa do saber social com o saber da natureza e os novos e pulsantes desafios dessa nova simbiose.

Estamos cada vez mais imersos na emergência de uma nova civilização complexa, a civilização simbiótica. Se os seres humanos tivessem sido feitos para durar mais, seríamos diferentes. A ciência da vida juntamente com a evolução  simbiótica natural cooperativa de nossos corpos com bactérias benignas (quase a totalidade deles no planeta são) e com os vírus que muitos já compõem nosso DNA (25% é retrovírus incorporado), nos deram nas últimas décadas a espécie simbiótica e a conquista da morte pelo envelhecimento.

Agora para vivermos mais tempo e melhor, a simbiogênese social está permitindo co-fabricar um corpo simbiótico distinto dos que a natureza nos desenhou, com seus discos abaulados, ossos frágeis, quadris fraturados, ligamentos rompidos, veias varicosas, catarata, perda da audição, hérnias e hemorroidas: a lista das mazelas corporais que nos afligem à medida que envelhecemos é longa e muito familiar.

Estamos nos dirigindo para a emergência de uma nova espécie simbiótica altamente duradoura, com partículas minúsculas dedicadas totalmente aos bilhões de esforços jeitosos e cooperativos necessários para nos manter intactos e que nos farão experimentar um estranhamento sobre o que conhecemos como existência ou sobre o que é o real movido pela nossa atual singularidade humana.

Se informação não é conhecimento, e se conhecimento não é sinônimo de sabedoria, não é preciso lembrar que essas conquistas geram riscos, desafios éticos e sociais imensos que julgamos não estarmos, ainda, à altura de enfrentá-los.

Temos, cada vez mais, uma compreensão da importância da simbiogênese, não apenas a demonstrada nas nossas interações com os micro-organismos, mas um borramento amplo de fronteiras entre o mundo físico, social e biológico; uma transubstancialização do poder-corpo para o poder-vida.

Com o borramento e amplificação da simbiogênese microfísica com o universo macrofísico de nosso tecido social, construímos nossa hipótese da simbiogênêse social. Acreditamos que estamos – como espécie – borrando uma passagem evolutiva da era simbiótica e não parabiótica. No lugar de transformar o mundo, nós vamos agora mudar o próprio ser em evolução.

Assim, não somos humanos, estamos ainda apenas humanos, mas o futuro duradouro é do simbiótico, e estamos a passos acelerados nessa direção. Caminhamos aceleradamente, com a manipulação molecular, para a saída da era neolítica, em que logramos a tarefa de dominar nosso ambiente, para uma nova era da programação simbiótica. As nossas próximas tarefas serão o domínio de nosso próprio corpo e dos organismos vivos em geral.

Nessa nova era de uma evolução borrada entre os recursos orgânicos e os inorgânicos, em cooperação com a vida, estaremos transferindo para as criaturas vivas e para as máquinas ou para matérias inorgânicas parte das suas propriedades singulares, um borramento de uma nova ecologia simbiótica. Isso já está sendo demonstrado. Por exemplo, o marca-passo tem sido utilizado com sucesso na medicina desde 1958. [31]

Outros dispositivos já foram demonstrados em diferentes experimentos e estão sendo também implantados no corpo humano ao longo dos últimos anos. Por exemplo, eletrodos para fazer conexão elétrica à espinha dorsal, de modo a estimular órgãos paralisados (utilizado em Larry Flynt, o famoso editor da revista pornográfica Hustler, para recuperar sua virilidade, após uma tentativa de assassinato que o deixou paraplégico) e o incrível implante de olhos artificiais (na verdade, câmeras CCD ligadas a processadores de imagens) para os cegos, o projeto desenvolvido pelos oftalmologistas norte-americanos John Wyatt e Joseph Rizzo.

A vida tecnologicamente inteligente está constituindo uma potente beta natureza (seca, inorgânica) e gerando um novo recurso simbiótico com a alfa natureza (úmida e orgânica). São exatamente os recursos da ciência e da tecnologia modelados por uma sociedade do conhecimento que estão nos impelindo para entrar numa nova era da evolução. Estamos iniciando a embarcação de uma nova era simbiótica. [32]

Minha indicação final é que não vivemos apenas uma nova convergência neurodigital ou uma nova emergência do pós-humano, transhumano ou pós-evolutiva, ao contrário, estamos deixando para trás o humano demasiadamente humano e emergindo novos seres simbióticos modelados por uma aceleração envolta de uma evolução simbiótica, uma evolução geradora de seres bióticos mais duradouros, numa nova ecologia simbiótica, mais recursiva, ou seja, com novos e potentes recursos e sentidos para e pro bióticos.

Nos últimos anos, artistas como Stelarc [33] se dedicaram à discussão cultural e política da possibilidade de ultrapassar o humano, através de radicais intervenções cirúrgicas, de interfaces entre a carne e a eletrônica, ou, ainda, de próteses robóticas, para complementar ou expandir as potencialidades do corpo biológico. Mais do que apenas antecipar profundas mudanças em nossa percepção, em nossa concepção de mundo e na reorganização de nossos sistemas sociopolíticos, esses pioneiros anteciparam transformações fundamentais em nossa própria espécie. Essas transformações poderão, inclusive, alterar nosso código genético e reorientar o processo darwiniano de evolução.

No entanto, a simbiogênese enfrenta a visão reducionista da tecnologia inorgânica, em que a evolução é tecnocientífica, é assimbiótica, e, por consequência, o futuro pertence a entidades assimbióticas, sem vida, “andrógenos” ou a seres deuses, como postula outro israelense, Yuval Noal Harari. [34]

Para entender essa atrofia que paralisou a evolução científica, em detrimento da hiperevolução tecnológica nos últimos cinquenta anos, é preciso começar na gênese desse entroncamento e desvio de rota.

Isso permitirá, também, ao leitor entender porque minha tão marginal proposição social da simbiogênese ficou no âmbito de toda minha carreira científica de tornar pública a construção desse caminho frente às denúncias de atrofia das opções acadêmicas, científicas, no universo do poder-saber. Entenderão o quão marginal fiquei diante da capacidade de diálogo com a tecnociência que dominou completamente, principalmente, a partir dos anos 1980, e hegemonizando totalmente o conhecimento científico, a partir dos anos 1990, uma síntese de ciências cognitivas e suas sub-colônias disciplinares.

Tenho uma metáfora para explicar esse fenômeno da invasão da literatura técnico-científica e técnico-empresarial no universo das academias, universidades e no solo fértil da produção científica.

As titãs “ciências cognitivas” são como uma figueira (que aliás são árvores centenárias maravilhosas e muito poderosas, e sou grande admirador). As figueiras – geralmente com sementes trazidas por pássaros – germinam em uma árvore hospedeira e, bem aos poucos, vão se comportando como estranguladoras. Crescem se enroscando no caule da hospedeira, competindo com ela, sugando seus insumos e sua água; quando alcançam o solo, se enraízam, engrossam suas raízes, mostram toda sua força e, por cintamento, vão apertando, apertando, até sufocar e matar suas hospedeiras, dando vazão a seus domínios imperiais e centenários.

Da mesma forma, as ciências cognitivas, (que são muito mais técnico-ciências), facilitadas pelo imenso poder da computabilidade das máquinas cognitivas, foram enroscando e sufocando as ciências de base em todo o universo da produção acadêmica e “científica”, tornando quase a totalidade da ciência e das universidades uma agência da cognição.

Uma hegemonia que chega a ser assustadora. De todos os recursos disponibilizados para a pesquisa científica, em torno de 93% da verba é afunilada para as técnico-ciências cognitivas e suas sub-colônias disciplinares.

Por fim, mas não por final, a civilização simbiótica envolve sociedades que são holísticas; envolve sociedades que também dão respostas pró-bióticas; envolve sociedades que também transbordam em constantes fenômenos emergentes; envolve sociedades que são ecológicas, mas produtivas; envolve sociedades que também são tomadas pela consciência de energias espirituais, não dogmáticas e não reduzidas na matéria; e a civilização simbiótica envolve sociedades que também dialogam profunda e abertamente com a ciência.

Na esperança da cooperação humana: que venha a consciência simbiótica


[1] Cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neuroreabilitação em diferentes cidades e diferentes países principalmente, europeus. 

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com/

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções e coordenando a Banda Seu Kowalsky e os Nômades de Pedra. Suas músicas e shows vídeos podem ser acessadas no canal do youtube. https://www.youtube.com/c/seukowalskyeosnomadesdepedra

[2] WIGNER, Eugene. Symmetries and Reflections: Scientific Essays. Cambridge: Cambridge University Press,  1970: 7.

[3] Cf. SANTOS, Boaventura de Sousa. A Crítica a Razão Indolente: contra o desperdício da experiência. São Paulo: Cortez, 2000: 70-71.

[4] O impacto dos teoremas de Gõdel na filosofia da ciência tem sido diversamente avaliado. Ver, por exemplo, LADRIÈRE, Jean. Lês limites de la formalisation, in Piaget (org). Paris: Gallmard, 1967: 312 e 55; JONES, Roger. Physics as Metaphor. Nova York: New American Library, 1982: 158; PARAIN-VIAL, Jeanne. Philosophie dês sciences de la nature: tendances nouvelles.  Paris: Klincksieck, 1983: 52 e THOM, René. Parábolas e Catástofres. Lisboa:D. Quixote,1985: 36

[5] SANTOS, 2000: 70.

[6] SANTOS, 2000: 70-71.

[7] WEBER, Renée. Cientistas e Sábios. São Paulo: Cultrix, 1988 224.

[8] EINSTEIN, Albert. ”Preface of Galileo”, in Easlea, Brian. Londres: Liberation and the Aims of Science. Londres: Chatto & Windus: 1973: XIX.

[9] Idem.

[10] GALILEI, Galileu. Diálogo dos Grandes sistemas (primeira jornada). Lisboa: Publicações Gradiva, 1979: 110.

[11] REICHENBACH, Hans. From Copernicus to Einstein. Nova York: Dover Publications, 1970: 68.

[12] WIGNER, Eugene. Symmetries and Reflections: Scientific Essays. Cambridge: 1970: 07. 

[13] Idem.

[14] Idem: 271.

[15] Cf. SANTOS, 2000:69.

[16] Cf. SANTOS, 2000:26.

[17] Cf. SANTOS, 2000:79-80.

[18] Cf. SANTOS, 2000:103-104.

[19] Cf. SANTOS, 2000:26-27.

[20] RICOEUR, Paul. Le Conflit des interprétations. Paris: Seuil, 1969: 148-153.

[21] Cf. SANTOS, 2000: 81.

[22] SANTOS, 2000: 89.

[23] MORIN, Edgar. . O método 1: a natureza da natureza. Portugal : Publicações Europa-América, LDA, 1987.

[24] ANDERY, Maria Amália et al. Para Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ: 1988: 245.

[25] ANDERY, Maria Amália et al. Para Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ: 1988: 245-246.

[26] SANTOS, 2000: 92.

[27] Idem.

[28] KEKEMAN, SJ. Hermêutica e sociologia do conhecimento. Lisboa : Edições 70, 1986:235-236.

[29] Idem

[30] SANTOS, 2000: 89-94.

[31] Para saber mais veja: KEMPF, Hervé. La Révolution Biolithique: Humains Artificiels et Machines Animées. Paris: Albin Michel, 1998.

[32] Para saber mais veja: LIMA, Gilson. Nômades de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, 2005.

[33] http://stelarc.org/projects.php (última visita em: 28 de julho de 2020).

[34] Para saber mais veja: HARARI, Yuval Noah. Homo Deus. São Paulo: Companhia das Letras, 2016.