sexta-feira, 11 de dezembro de 2020

O PARADIGMA DA COMPLEXIDADE

 

 

O PARADIGMA DA COMPLEXIDADE

 Gilson Lima - Kowalsky🎤[1]

O chão escorregou de nossos pés. Como testar o conhecimento e fazer ciência sobre o que não veem. (Albert Einstein)


 

Foi Thomas Kuhn quem popularizou, em seu famoso livro sobre a Estrutura das Revoluções Científicas, o conceito de paradigma. Nessa obra, ele nos apresenta 18 noções de paradigmas. Uma delas é a que aqui nos importa: a ideia padrão de concepção de mundo.

Assim, por paradigma entendemos um modelo padrão de concepção de mundo compartilhado por uma determinada comunidade científica. Newton, por exemplo, consolidou o paradigma cartesiano pela suas modelações matemáticas e teorias subjacentes, sobretudo, pela lei da gravitação universal.

No paradigma cartesiano-newtoniano, por exemplo, existem conceitos fundamentais:

=======================================================

O paradigma da complexidade traz conceitos que permitem explicar a gravitação quântica e a relatividade integrada na historicidade. Usa-se de demonstrações de modelos matemáticos não lineares e das interações nucleares fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria integrada à consciência organizada.

Atratores => forças de atração, relações de atração ascendente = organização óAuto-organização: estruturação sem estrutura ó  forças de repulsão (dissipação) => entropia => descendente. Também encontramos a própria historicidade no interior do paradigma, historicidade essa que é rejeitada pelo paradigma cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria matéria se expande e se contrai.

======================================================

 Quanto ao paradigma da complexidade, tudo parece ter começado efetivamente em 1911, com o russo Belouzov, pouco conhecido, mas que é tido como o pai, quem inaugurou o novo paradigma da complexidade.  Ele teve apenas duas páginas publicadas, mas é muito citado hoje pelos cientistas da complexidade. A ideia de evolução trouxe, junto à temporalidade ausente no paradigma cartesiano, a quebra do universo mecânico como fenômeno factual e destemporal, tomado por leis universais e irreversíveis que eram independentes da história e do tempo.

 Para o paradigma da complexidade, outros conceitos são fundamentais, por exemplo:

======================================================

O paradigma da complexidade traz conceitos que permitem explicar a gravitação quântica e a relatividade integrada na historicidade. Usa-se de demonstrações de modelos matemáticos não lineares e das interações nucleares fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria integrada à consciência organizada.

Atratores => forças de atração, relações de atração ascendente = organização óAuto organização: estruturação sem estrutura ó  forças de repulsão (dissipação) => entropia => descendente. Também encontramos a própria historicidade no interior do paradigma, historicidade essa que é rejeitada pelo paradigma cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria matéria se expande e se contrai.

 ======================================================

Assim, na concepção de um paradigma, afirmam-se conceitos fundamentais e categorias compartilhadas pela comunidade científica em questão. Um paradigma inclui e exclui categorias e processos que efetivam uma concepção de mundo onde as suas categorias chaves geram deduções e induções teóricas. Nessa perspectiva, o referencial teórico está implicado em um paradigma de modo consciente ou não. As teorias são deduções de uma proposição paradigmática.

As mudanças de paradigmas na história dizem respeito, também, ao exercício de poder. A transição de um paradigma para outro traz junto uma nova concepção de mundo que se afirma e outra que é deixada de lado.  Daí que, em um período de transição entre paradigmas, é particularmente importante, do ponto de vista epistemológico, observar o que se passa nessas ciências. Por exemplo, hoje não basta apenas apontar a tendência para a superação da disciplinaridade do conhecimento e da ruptura da velha distinção moderna entre ciências naturais e ciências sociais, é preciso conhecer o sentido e conteúdo dessa distinção e dessa superação. Precisamente porque, em períodos de transição paradigmática, vivemos mais intensamente um estado de turbulência, em que as vibrações do novo paradigma repercutem-se desigualmente nas várias regiões do paradigma dominante e vigente, por isso os sinais do futuro são ambíguos.

Nas fases de transição e de revolução científica, encontramos muita insegurança em que a nossa reflexão epistemológica torna-se muito mais avançada e sofisticada do que a nossa prática científica. Hoje, nenhum de nós pode visualizar projetos concretos de investigação que correspondam inteiramente ao paradigma emergente. É por isso que, precisamente, nos encontramos em uma fase de transição paradigmática. Duvidamos suficientemente do passado para imaginarmos o futuro, mas vivemos demasiadamente o presente para podermos realizar nele o futuro. Estamos divididos, fragmentados entre o velho e o novo. 

Sabemo-nos a caminho do novo, mas não exatamente onde nós estamos na jornada. A condição epistemológica da ciência repercute-se na condição existencial dos cientistas. Afinal, "se todo o conhecimento é autoconhecimento, também todo o desconhecimento é autodesconhecimento". (SANTOS, Boaventura de Souza. Um Discurso Sobre as Ciências. Portugal: Afrontamento, 2001: 58).

O mundo não tem mais uma estrutura implícita. É uma estruturação sem estrutura. É organizado, mas não é dado como organizado, pois está por, também, vir a ser organizado ascendente como possibilidade e desorganização descendente em tensão. As leis também se integram a esse vir a ser e deixar de ser, o vir a ser tem suas leis que dependem, igualmente, do deixar de ser.  Tem a flecha ascendente, mas tem, também, a descendente, temos entropia.  Tudo se organiza e se desorganiza. Podemos, inclusive, chegar ao fim do Universo (pensam alguns diante da entropia).

Vivemos uma crise de percepção do velho itinerário cartesiano-newtoniano da mente. Percebe-se, além disso, uma  crise atual da ciência. As facetas desta crise podem ser descritas resumidamente como uma crise de percepção do mundo.

O paradigma cartesiano emerge com o heliocentrismo; unifica as leis em uma única totalidade, sobretudo pela gravitação universal de Newton; unifica a percepção celeste e terrestre e gera uma nova percepção do mundo. Para Descartes, o mundo é estável, tem uma ordem implícita, as causas e os efeitos são produtos de uma mesma ordem, porém, não tem, no seu paradigma, uma noção de tempo. 

Os evolucionistas potencializam  a flecha ascendente, mas ela só vale para os seres vivos, para os sistemas vivos e não físicos. Mais adiante, um cientista austríaco propõe a entropia, na explicação científica. É a flecha descendente. Entropia é a desordem, o caos, a desorganização que pode chegar ao motor da destruição geral (fim do universo). A complexidade lida com as duas flechas: a ascendente e a descendente. Mais complexidade. Um vir a ser, e não um ser estável, que, na relação entre vir a ser e deixar de vir, possibilita um possível vir a ser como possibilidade de vitória sobre a entropia. Evolução é mais complexa, é a luta da evolução contra a involução. Aqui temos a noção de tempo, que é simultaneamente relativo. No universo cartesiano não tem tempo.

Então, a matéria se expande (vir a ser) (tempo da matéria); no mesmo momento, ela se desagrega (tempo de desagregação); e, no mesmo momento, evolui a consciência civilizadora cultural e social (tempo),  é o tempo que organiza e media esta complexidade orgânica e inorgânica.

A matéria se auto-organiza. É uma nova percepção. Sistemas se auto-organizam no tempo. No paradigma moderno, a organização está banida da ciência. A partir dos anos 1950, os cientistas começam a falar sobre a auto-organização, inclusive sobre o mundo físico.

 Já Bergson nos diz que a percepção humana não é uma fotografia da realidade (positiva). A Percepção é a excitação interativa de nosso mundo interno e externo,  de meu espírito eletromagnético integrado na imersão do fosforescente mundo vivo. Segundo Bergson, percepção é, então, a captação dos centros de ação do modo pelo qual o universo evolui.

 O universo está em movimento ativo (a matéria se expande), a matéria tem tempo. Teoria das cordas: uma corda não pode ser menor que um quantum. Isto põe fim ao dualismo cartesiano: matéria x mente.

Segundo o aspecto da crise do paradigma cartesiano, a  explicação racional não é um diagnóstico fotográfico da realidade. A explicação deve buscar a gênese (explicação genética, muito presente em Nietzsche: metodologia genealógica, também incorporada por Foucault: genealogia do saber – gênese dos processos que têm um ou vários resultados). Por exemplo, a eugenia. Não se trata apenas de uma evolução baseada na flecha ascendente. A complexidade pergunta como o sistema vai se auto-organizar depois da intervenção das novas informações genéticas. Não pode ser necessariamente mal nem deterministicamente bom. Por isso, não devemos ter diagnósticos fotográficos, mas compreensões interdisciplinares e interações mais complexas entre subjetivar e objetivar. Como a matéria se torna consciência (auto-organiza) ela se integra a dois movimentos contraditórios e intrínsecos: uma flecha ascendente (vir a ser evolução), e uma flecha descendente (desagregadora, não vir e ser).  Desta tensão nasce a sustentabilidade, cuja auto-organização (nova compreensão da organização da matéria incorporando a decomposição, inclusive, a entropia complexa) deve ser a supremacia da flecha descendente sobre a ascendente e leva a morte de uma estruturação complexa, da vida e até do universo.

O universo, essa estruturação complexa, está em expansão, evolução e dissipação, e o mesmo deve ser integrado à evolução humana e à cultura civilizadora. Para isso, se faz necessário ter a compreensão da gênese e não se submeter ao velho determinismo da casualidade e do destino finalista:


A física quântica desencadeia, por exemplo, o colapso do Universo de Laplace e a queda do dogma determinista, além do esboroamento de toda ideia de que haveria uma unidade simples na base do universo e introduz, também, a incerteza no conhecimento científico. Não é mais suficiente, para produzirmos ciência, isolarmos variáveis, sejam elas  dependentes ou independentes, nem identificarmos a causa do efeito, a linearidade do determinismo causal. No paradigma cartesiano a gênese não é discutida, não tem tempo nem história, pode até ter fatos mas analiticamente isolados do tempo.

Um terceiro aspecto da crise do paradigma moderno é o questionamento do princípio da separabilidade proposto na regra cartesiana. A matéria expande, não linearmente, mas de modo caótico e integrado a duas realidades simultâneas: ordem e desordem. Para o paradigma cartesiano, tanto do positivismo, até mesmo do racionalismo de Bachelard, de Einstein, de Heisenberg e de Niels Bohr, a ordem no universo e na natureza era dada.

Agora estamos descobrindo que os sábios antigos do oriente, bem antes da hegemonia do paradigma cartesiano, estavam muito mais próximos da complexidade do mundo, pois já tinham a visão de que a natureza é caótica, de que o universo brota da desordem e que o Universo e a matéria se auto-organizam.

A não separabilidade da visão do esfacelamento do Big Bang intensificou ainda mais a busca de uma divisão inseparável da matéria até o microcósmico do quantum e da genética. No entanto, a complexidade afirma que, junto à divisão e ao esfacelamento da grande explosão, tivemos, sobretudo, a auto-organização produtiva da matéria, que gerou estrelas, planetas, constelações e onde ondas se integraram, gerando energia, como a energia solar, tão importante para os sistemas vivos na terra. A relação matéria e energia: a dispersão e auto-organização tornam-se assim holísticas.

O holismo simbiótico, no paradigma da complexidade, integra natureza com natureza humana e não pode mais ser visto de modo separado (inseparabilidade: tecnologia, homem, cultura e natureza) nem como um sistema auto-organizativo com entropia – dispersão, mas sim como um sistema impossível de separarmos e isolarmos, como pretendia o cartesianismo. Não há variáveis isoladas na complexidade. Como ilustra Wigner em seu exemplo: “a medição da curvatura do espaço causada por uma partícula não pode ser levada a cabo sem criar novos campos que são bilhões de vezes maiores que o campo sob investigação”.[2] Assim, também a própria consciência é matéria transformada em que a noção de totalidade é menor do que a soma das partes, pois não se reduz em saber e em conhecer e analisar a matéria e o objeto visual apenas, mas em complexidade de auto-organização e auto compreensão.

Assim também como nos diz Penroese, a mente não física deve ser inseparável da mente física para entendermos a consciência e a complexidade. Nenhuma variável é separada da outra. Nossos cérebros não são computadores. Nossos biofótons se encontram em esboroamento de sistemas e não se reduzem a variáveis isoladas. O pensamento é um sistema complexo de vir a ser, não separado da auto-organização da matéria e da energia mental elétrica produzida por seus processos ondulatórios subjacentes. Pensar é exercitar trocas e lutas em auto-organização produtiva do pensamento também integrado no mundo e na natureza.

As ondas captadas e radiadas pela matéria cerebral permitem interpretar e auto-organizar a realidade pela consciência, isto implica que o vir a ser da auto-organização não é separado da matéria cerebral. A linguagem não pode ser separada das partículas e corpúsculos de ondas e biofótons geradores de consciência. O cérebro é matéria formada por ondas que, pela complexidade auto-organizada dessa mesma matéria e espírito, torna-se consciência. O cérebro permite a matéria se auto-organizar em consciência: é uma gênese complexa do processo organizacional (sociologia, ecologia, física etc.).  

Atualmente falamos em biofótons dentro da nossa circulação sanguínea (matéria organizada). O pensamento implica na produção intensa de biofótons, cuja auto produção é intensificada e acelerada (número maior de fótons = mais energia, que é também mais qualificada); é matéria auto-organizada que se interliga a proteínas que conduzem os impulsos elétricos dos neurônios, geram micro voltagens.



No cérebro cartesiano a matéria inexiste. Ele é tomado por um poder entrópico, é dual: corpo separado da mente. Assim, a micro voltagem do pensamento não é resultado da matéria.

Um outro aspecto da crise é a crise do sujeito e da posição do sujeito na observação e explicação do mundo. A explicação sistêmica da matéria, em termos de atrator (atração) + entropia (dispersão). A energia é continuada e requer trocas nucleadas até a criação de sistemas complexos (auto-organização produtiva).

Isto só é possível se não mantivermos o sujeito fora do objeto. O vir a ser do objeto é também do sujeito integrado emitindo suas micro-ondas materiais. O sujeito não é uma fabricação subjetiva, por exemplo, hoje insistem em impor exógenamente o mercado como um sujeito e como uma variável independente proveniente do mundo físico sobre a vida social.

O próprio Werner Heisenberg demonstrou, com seu significativo Princípio da Incerteza, que comentaremos a seguir. Com esse princípio, portanto, assumimos a existência da interferência estruturante do sujeito no objeto observado, o que possui implicações de vulto. Há muita coisa a ser discutida no tocante à evolução da ciência. Salientemos, apenas, que ela, frente à mensuração, deixou de ser absolutamente vista pela lógica simétrica e sob os ângulos técnico e matemático restritos e converteu-se em  modalidades novas e reflexivas, às quais criaram e derivaram novas e mais profundas teorias.

Isso se pode confirmar considerando alguns exemplos interessantes, que apresentaremos logo a seguir: 

1) O princípio da incerteza. Como já comentamos rapidamente acima, Werner Heisenberg é um dos aspectos mais significativos, pela ilustração do Princípio da Incerteza: não se podem reduzir simultaneamente os erros da medição da velocidade e da posição das partículas; o que for feito para reduzir o erro de uma das medições aumenta o erro da outra. É como se ele apontasse o dedo da mão direita para baixo indicando o local de um elétron e, com a outra mão, ele apontasse o dedo para cima indicando também a onda de seu impulso. O mais certo é que nós não sabemos e não temos como localizar, a qualquer momento, o local exato do elétron. O mais seguro para nós é tentarmos localizar o impulso de um quantum, identificamos apenas sua órbita, mas não temos segurança de seu local exato. Isso implica o princípio da ideia de que não conhecemos do real senão o que nele introduzimos, ou seja, que não conhecemos do real senão a nossa intervenção nele.

Este princípio e, portanto, a demonstração da interferência estrutural do sujeito no objeto observado, têm implicações de vulto. Por um lado, sendo estruturalmente limitado o rigor do nosso conhecimento, só podemos aspirar a resultados aproximados, por isso as leis da física são tão-só probabilísticas. Por outro lado, a hipótese do determinismo mecanicista é inviabilizada, uma vez que a totalidade do real não se reduz à soma das partes em que a dividimos para observar e medir. Por último, a distinção sujeito/objeto é muito mais complexa do que à primeira vista pode parecer. A distinção perde os seus contornos dicotômicos e assume a forma de um continuum. 

2) O observador interfere na realidade em observação. Niels Bohr indicou a dualidade classificatória da natureza dual e complementar do quantum. Um quantum é simultaneamente uma onda e uma partícula, mas qualquer experiência pode medir apenas um aspecto ou outro. Bohr discutiu também a teoria de que, no Universo da observação, deve-se incluir um fator importante, para considerarmos os efeitos da sua mensuração ou de qualquer medida do quantum pretendida, ou seja, a influência do observador. Bohr e Heisenberg discutiram que as predições exatas em mecânicas de quantum não podem ser limitadas às descrições estatísticas exatas do comportamento destes pacotes de energia. Isto fez o Einstein declarar que ele não poderia acreditar que Deus joga dados com o Universo.

Assim, Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto que sai de um processo de medição não é o mesmo que lá entrou. 

3) O dilema da incompletude formal. A demonstração e as indagações da incompletude formal, pelo teorema de Gödel (1906-78)[3], enquadram-se entre as mais notáveis realizações da história da cultura, com repercussões em todas as manifestações do saber e mudando os próprios paradigmas da lógica, da matemática, da teoria da informação e do pensamento científico em geral.

Com a incompletude formal, o próprio rigor da medição foi posto em causa pela mecânica quântica e foi profundamente abalado a partir do questionamento do veículo formal do próprio rigor explicativo em que a medição é expressa, ou seja, o rigor da matemática.

É isso o que sucede com as investigações de Gödel e seu teorema da incompletude, demonstrando a impossibilidade de: "em certas circunstâncias, encontrar dentro de um dado sistema formal a prova da sua consistência vieram mostrar que, mesmo seguindo à risca as regras da lógica matemática, é possível formular proposições indecidíveis, proposições que se não podem demonstrar nem refutar, sendo que uma dessas proposições é precisamente a que postula o caráter não-contraditório do sistema"[4].

Se as leis da natureza fundamentam o seu rigor no rigor das formalizações matemáticas em que se expressam, as investigações de Gödel vêm demonstrar que o rigor da matemática carece ele próprio de fundamento. A partir daqui é possível não só questionar o rigor da matemática, como também redefini-lo enquanto forma de rigor que se opõe a outras formas de rigor alternativas, uma forma de rigor cujas condições de êxito na ciência moderna não podem continuar a ser concebidas como naturais e óbvias. A própria filosofia da matemática tem vindo a problematizar criativamente estes temas e reconhece hoje que o rigor matemático, como qualquer outra forma de rigor, assenta num critério de seletividade e que, como tal, tem um lado construtivo e um lado destrutivo.[5] 

4) A crise da estrutura simétrica e estática e a constatação da natureza dissipativa das estruturas. As descobertas e investigações do bioquímico Ilya Prigogine foram também um grande choque no paradigma cartesiano-newtoniano. A teoria das estruturas dissipativas indica o princípio da “ordem através de flutuações” que se estabelecem em sistemas abertos, ou seja, em sistemas que operam nas margens da estabilidade. Assim, a evolução se explica por flutuações de energia que, em determinados momentos, nunca inteiramente previsíveis, desencadeiam espontaneamente reações que, por via de mecanismos não lineares, pressionam o sistema para além de um limite máximo de instabilidade e o conduzem a um novo estado macroscópico.

Esta transformação irreversível e termodinâmica é o resultado da interação de processos microscópicos, segundo uma lógica de auto-organização em uma situação de não equilíbrio. Não existe equilíbrio na complexidade, não existe estrutura em si, encontramos uma estruturação sem estrutura. A complexidade descarta tanto o acaso determinístico como o determinismo da objetividade, classificando as mutações como processos aleatórios estocásticos (não predizíveis, indeterminísticos, criativos e novos). Nestes termos, os processos envolvidos nos sistemas vivos não resultam de uma casualidade cega, mas de uma causalidade criativa que permite aos sistemas vivos se autocriarem e se automultiplicarem.

A matéria já não é vista como algo estático — moléculas inertes governadas por puxões e empurrões, ela é vista como alguma coisa ativa e viva. A situação de bifurcação, ou seja, o ponto crítico em que a mínima flutuação de energia pode conduzir a um novo estado, representa a potencialidade do sistema em ser atraído para um novo estado de menor entropia. Deste modo, a irreversibilidade nos sistemas abertos significa que estes são produtos da sua história.

A importância desta teoria está na nova concepção da matéria e da natureza que propõe uma concepção dificilmente comparável com a que herdamos da física clássica. Como nos diz Boaventura de Sousa Santos: “Em vez da eternidade, temos a história; em vez do determinismo, a imprevisibilidade; em vez do mecanicismo, a interpenetração, a espontaneidade e a auto-organização; em vez da reversibilidade, a irreversibilidade e a evolução; em vez da ordem, a desordem; em vez da necessidade, a criatividade e o acidente”.[6]

Por causa de seus estudos em bioquímica, o russo Ilya Prigogine recebeu o Prêmio Nobel de 1977 por seu trabalho relacionado a uma nova visão acerca dos sistemas vivos. O Prêmio Nobel foi concedido a Prigogine, sobretudo, por sua teoria dos sistemas vivos como estruturas dissipativas (ou dispersivas), que lançou uma ponte entre os sistemas vivos e os não vivos. Nas palavras da comissão de premiação do Premio Nobel: “Prigogine transformou fundamentalmente a ciência da termodinâmica irreversível, revisando-a; deu-lhe nova relevância, criando teorias que estreitaram o abismo entre os campos biológico e físico da pesquisa científica”.[7]

O próprio Prigogine expressa, em poucas palavras, seu pensamento: Enfatizando a interdependência, podemos mostrar que vida e não-vida não se opõem. E assim tem de ser porque, de outro modo, teríamos de um lado um mundo mecânico [mecanicismo] e de outro, um mundo orgânico [vitalismo].”.

Muitos críticos de Prigogine afirmam que ele era um bioquímico em busca de consagração na comunidade científica ortodoxa. Assim, apesar de suas inovações, ele foi muito mais cauteloso sobre as implicações de sua teoria sobre a estrutura teórica-clássica. Os críticos afirmam que foi esta postura que o impediu de ser refutado pela ortodoxia (postura que lhe permitiu ganhar o Prêmio Nobel). Prigogine ensaia uma mudança radical na Biologia clássica, sua teoria refere-se à capacidade dos sistemas vivos de se autocriarem, auto-recriarem e auto-evoluírem em esquemas inéditos acionados por variáveis capazes de desviar todo um sistema de um tipo para um outro tipo novo e inesperado. Entretanto, Prigogine, segundo seus críticos, declara-se favorável à entropia e ao evolucionismo e, assim, age como se tentasse justificar e fortalecer tanto a teoria da evolução quanto a entropia. No entanto, mesmo assim, as ideias de Prigogine, despidas de seu favoritismo pela entropia e pela evolução, prestam-se maravilhosamente bem para suportar a teoria dos sistemas vivos como sistemas pulsantes e é de grande significação para vários campos do conhecimento.

Seus estudos estabeleceram vínculos essenciais entre a Física, a Química, a Biologia e a sociologia, superando a dicotomia clássica entre vida e não vida. Nesse sentido, a Teoria da Estruturação, do sociólogo inglês Anthony Giddens, tem uma grande dívida com Prigogine, mesmo sem ser devidamente citado, pois encontramos muitas semelhanças na sua teoria social com a proposição das estruturações disssipativas propostas por Prigogine, apesar de Giddens, contraditoriamente, insistir na tese weberiana da especificidade da sociologia diante das ciências naturais.

Prigogine contestou a visão mecanicista dos sistemas vivos, afirmando a unidade entre os sistemas vivos e os não vivos e a sua bioquântica, ele classifica-os como: sistemas vivos orgânicos e sistemas vivos inorgânicos. Sua teoria implica que os Sistemas vivos escapam à entropia devido a uma capacidade inata de auto-organização; neles, uma ordem superior, não predizível pela entropia, surge do caos. Assim, os sistemas vivos são sistemas abertos, complexos organizacionais semi-estáveis (dispersivos ou dissipativos), estado que lhes assegura uma constante e íntima interação com o ambiente, com o qual trocam energia, mantendo-se devido a esse infindável fluxo dinâmico. Ora, se os sistemas vivos e seu habitat são uma unidade essencial, já podemos antecipar que o planeta Terra em sua inteireza também é um sistema vivo.

Concluindo, vemos então o entendimento de que os sistemas vivos caminham em direção contrária à entropia, tendo-se auto-ordenado a partir da matéria inorgânica e de um estado caótico, um estado de ordem não linear, bem como preservam seu estado ordenado a despeito da entropia.

O argumento favorável à entropia diz que esta se aplica unicamente a sistemas fechados, e os sistemas vivos são sistemas abertos, pois continuamente trocam energia com o ambiente externo. Alguém poderia contra-argumentar em favor da entropia, imaginando-se um exemplo de sistema fechado perfeito, como uma esfera hermeticamente fechada e intocável por vibrações, som, luz, campos magnéticos, raios X, ou qualquer outra forma de transmissão de energia — uma espécie de corpo negro fechado e imperial. O surpreendente é que no mundo físico e da vida também não existem sistemas exclusivamente fechados ou exclusivamente abertos no universo conhecido. O próprio universo como um todo é simultaneamente um sistema aberto-e-fechado. A nova Física demonstrou, matemática e experimentalmente, que um fluxo de partículas, átomos e moléculas está continuamente entrando e saindo do universo físico. A teoria quântica, a teoria da síntese estelar e a teoria das estruturas dissipativas demonstram claramente estes fatos. Novos átomos estão sendo sintetizados nas estrelas à revelia da entropia.

A teoria das estruturas dissipativas demonstrou que os sistemas vivos são sistemas simultaneamente estáveis e instáveis. Mesmo individualizados e com formas limitadas e características, que lhes conferem a aparência de sistemas fechados, sabe-se que eles continuamente trocam energia e matéria com o meio circundante, o que os caracteriza como sistemas semi-abertos.

Toda a biosfera, aparentemente constituída de sistemas vivos individualizados, funciona como um único sistema vivo, simultaneamente aberto e fechado, conforme demonstrou a hipótese Gaia, de James Lovelock, a teoria da simbiogênese, de Lynn Margulis, e como demonstram os estudos ecológicos. Pode-se afirmar o mesmo com relação ao planeta Terra, ao Sistema Solar e ao universo como um todo. Trata-se da unidade da diversidade, no dizer de Bohm.

Todos os sistemas do universo são unidades coletivas, níveis de organização dentro de níveis de organização ad infinitum. Assim, efetivamente, não existem sistemas exclusivamente abertos ou exclusivamente fechados no universo. Todos os subsistemas e o próprio sistema-mor — o universo  são simultaneamente abertos e fechados. O universo inteiro é um único sistema vivo: um ser bioquântico relativamente estável, cuja natureza fundamental é o vir-a-ser, como demonstrou Prigogine.

Nós acrescentaríamos: um vir-a-ser contínuo, cuja estabilidade e perpetuidade são garantidas pelo próprio vir-a-ser, que o renova cíclica e continuamente. Poder-se-ia comparar a ideia de Biocosmos com uma cascata: é a contínua renovação de suas águas que lhe confere configuração, identidade e existência. Como se vê, não existem fundamentos científicos para se encaixar em um quadro desses o conceito clássico da entropia irreversível, uma vez que sua validade depende unicamente da existência de sistemas exclusivamente fechados. De tudo isso, podemos deduzir que a entropia é um conceito inaplicável em nosso universo: hipoteticamente admissível e aplicável em algum outro universo igualmente hipotético; não no único e real universo até hoje conhecido — o nosso. Sendo assim, de que nos serviu um conceito hipotético aplicável a fenômenos hipotéticos de algum universo hipotético? Serviu de empecilho teórico. Devido à crença na entropia, a compreensão da natureza do universo e da vida foi enormemente retardada. 

5) A relatividade de Einstein. Albert Einstein sustentou a convicção de que o Universo pode ser descrito com a unificação de uma equação. Einstein descobriu que a relatividade do tempo e a relação entre matemática e energia eram, para ele, o tema primordial da física contemporânea, e ele se dedicou o resto de sua vida a formular um campo teórico unificado da física. Embora agora nós tenhamos que usar probabilidades para descrever eventos do quantum, Einstein expressou para o futuro a esperança de que os cientistas acharão uma ordem escondida atrás da mecânica quântica.

Tal como em outros períodos de transição, difíceis de entender e de percorrer, é necessário voltar às coisas simples, à capacidade de formular perguntas simples, perguntas que, depois de feitas, são capazes de trazer uma luz nova a nossa perplexidade.

Ao contrário da ciência aristotélica, a ciência moderna desconfia sistematicamente das evidências da nossa experiência imediata. Tais evidências, que estão na base do conhecimento vulgar, são ilusórias. Como bem salienta Einstein no prefácio ao Diálogo sobre os Grandes Sistemas do Mundo, Galileu esforça-se denodadamente por demonstrar que a hipótese dos movimentos de rotação e de translação da Terra não é refutada pelo fato de não observarmos quaisquer efeitos mecânicos desses movimentos, ou seja, pelo fato de a Terra nos parecer parada e quieta.[8]

Por outro lado, é total a separação entre a natureza e o ser humano. A natureza é tão-somente extensão e movimento; é passiva, eterna e reversível de mecanismo cujos elementos se podem desmontar e depois relacionar sob a forma de leis; não tem qualquer outra qualidade ou dignidade que nos impeça de desvendar os seus mistérios, desvendamento que não é contemplativo, mas antes ativo, já que visa conhecer a natureza para a dominar e controlar. Como diz Bacon, a ciência fará da pessoa humana o senhor, o possuidor da natureza.

Einstein, como um bom racionalista, ao contrário do que propôs Bacon, não considerou que a experiência não dispensa a teoria prévia, o pensamento dedutivo ou mesmo a especulação, mas forçou qualquer deles a não dispensarem, enquanto instância de confirmação última, a observação empírica dos fatos. Einstein se dirigiu mais à dinâmica de conhecimento racionalista de Galileu.  Einstein, inclusive, chama a atenção para o fato de os métodos experimentais de Galileu serem tão imperfeitos que só por via de especulações ousadas poderia preencher as lacunas entre os dados empíricos.[9]

Para Galileu, o livro da natureza está inscrito em caracteres geométricos: 

Se o termo “entendimento”, tomado na acepção de “intensivo”, significa a compreensão intensiva, isto é, perfeita, de uma dada proposição, direi então que o entendimento humano compreende algumas proposições tão perfeitamente e alcança uma certeza tão absoluta quanto a própria natureza. Tal é o caso, por exemplo, das proposições das ciências matemáticas puras, a saber, a geometria e a aritmética; o intelecto divino conhece um número infinitamente maior, dado que as conhece todas, mas, se o intelecto humano conhece poucas, julgo que o conhecimento que delas iguala, em certeza objetiva, o conhecimento divino, porque chega a compreender-lhes a necessidade, e esse é o mais alto grau de certeza.[10] 

Einstein não pensava de modo tão diferente. A admiração de Einstein por Galileu está bem patente no prefácio já citado em que ele escreveu para o Diálogo de Galileu. O modo radical como Einstein “vê” a natureza matemática da estrutura da matéria explica em parte a sua longa batalha sobre a interpretação da mecânica quântica (especialmente contra a interpretação de Copenhague).

Contudo, o próprio Einstein constituiu uma grande fissura no paradigma da ciência moderna, uma fissura, aliás, mais importante do que Einstein teve dificuldade de admitir. Um dos pensamentos mais profundos de Einstein é o da relatividade da simultaneidade.

Einstein distingue entre a "simultaneidade de acontecimentos presentes no mesmo lugar e a simultaneidade de acontecimentos distantes, em particular de acontecimentos separados por distâncias astronômicas". Em relação a estes últimos, o problema lógico a resolver é o seguinte: "como é que o observador estabelece a ordem temporal de acontecimentos no espaço?" Certamente por medições da velocidade da luz, partindo do pressuposto, que é fundamental na teoria de Einstein, de que não há na natureza velocidade superior à da luz.

No entanto, ao medir a velocidade em uma direção única (de A a B), Einstein defronta-se com um círculo vicioso: a fim de determinar a simultaneidade dos acontecimentos distantes, é necessário conhecer a velocidade; mas, para medir a velocidade, é necessário conhecer a simultaneidade dos acontecimentos. Com um golpe de gênio, Einstein rompe com este círculo, demonstrando que a simultaneidade de acontecimentos distantes não pode ser verificada, pode tão-somente ser definida. É, portanto, arbitrária e daí que, quando fazemos medições, não possa haver contradições nos resultados, uma vez que estes nos devolverão a simultaneidade que nós introduzimos por definição no sistema de medição.[11] 

Esta teoria veio revolucionar as nossas concepções de espaço e de tempo. Não havendo simultaneidade universal, o tempo e o espaço absolutos de Newton deixam de existir. Dois acontecimentos simultâneos num sistema de referência não são simultâneos em outro sistema de referência. As leis da física e da geometria baseiam-se em medições locais: Os "instrumentos de medida, sejam relógios ou metros, não têm magnitudes independentes, ajustam-se ao campo métrico do espaço, cuja estrutura se manifesta mais claramente nos raios de luz". [12]

O caráter local das medições e, portanto, do rigor do conhecimento que, com base nelas, se obtém, vai inspirar o surgimento da segunda condição teórica da crise do paradigma dominante, a mecânica quântica. Se Einstein relativizou o rigor das leis de Newton no domínio da astrofísica, a mecânica quântica lê-lo no domínio da microfísica. Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto que sai de um processo de medição não é o mesmo que lá entrou. Como ilustra Wigner, “a medição da curvatura do espaço causada por uma partícula não pode ser levada a cabo sem criar novos campos que são bilhões de vezes maiores que o campo sob investigação”. [13]

Todas elas têm uma vocação não dualista, e algumas são especificamente orientadas para superar as incompatibilidades entre a mecânica quântica e a teoria da relatividade de Einstein. É como se nós tivéssemos lançado na aventura de conhecer os objetos mais distantes e diferentes de nós próprios, para, uma vez aí chegados, nos descobrirmos refletidos como num espelho, já no princípio da década de sessenta, e extrapolando a partir da mecânica quântica.

Eugene Wigner considerava que o inanimado não era uma qualidade diferente, mas apenas um caso limite, que a distinção corpo/alma deixara de ter sentido e que a física e a psicologia acabariam por se fundir em uma única ciência. [14] Hoje é possível ir muito além da mecânica quântica. Enquanto esta introduziu a consciência no ato do conhecimento, nós temos hoje de a introduzir no próprio objeto do conhecimento. 

6) A teoria do Caos.  A luz emerge através de chuvas de partículas elementares como uma cascata que jorra em cima das borboletas geradoras de caos. Assim nasce a Teoria do Caos, principalmente, pelo esforço de um matemático, Benoit Mandelbrot nascido na Polônia, em Varsóvia, em 1924. Mandelbrot descobriu, em suas pesquisas e observações, uma família de padrões que se tornou o fundamento da geometria denominada fractal.

 Existem, também, fractais chamados de não-lineares, nos quais a relação entre as partes e o todo pode mudar dinamicamente. É o caso do conhecido conjunto de Mandelbrot, que ficou bem popular entre artistas por apresentar belas imagens de computação gráfica, cuja imprevisibilidade aumenta à medida que é ampliado.

Tratam-se de ligações insuspeitadas entre famílias inteiras de sistemas caóticos, isto implicou na constituição de uma nova teoria que relacionaria desde fluidos turbulentos, de circuitos eletrônicos flutuantes aos ritmos da própria vida. Essas famílias de sistemas físicos, aparentemente fortuitos ou caóticos, foram sendo reveladas através de novas maneiras de formular equações para descrevê-los, usando computadores para criar padrões visuais a partir das equações - padrões que não eram óbvios de nenhum outro modo.

Enfim, fractais são objetos cujas partes, ao serem ampliadas, reproduzem a do todo - é a chamada simetria de escala. A descrição desses objetos é feita por uma moderna teoria matemática conhecida como geometria fractal, que se opõe à tradicional geometria euclidiana, com seus objetos básicos, como linhas, curvas e retas. Objetos fractais têm aparências mais recortadas, irregulares, como as folhas de uma samambaia.

A palavra fractal foi criada pelo já citado matemático Mandelbrot . Fractal deriva do verbo em latim frangere, traduzido como "quebrar, fracionar", e do adjetivo fractus, "fragmentado". Formas fractais também podem ser encontradas na natureza, embora não tenham uma simetria de escala perfeita. São formas como as irregularidades da costa marítima de um país ou as fissuras na crosta terrestre  provocadas por um terremoto, por exemplo.

Segundo o velho Euclides, matemático grego que viveu dois milênios atrás, existem figuras que não têm dimensão, ou melhor, têm dimensão 0. É o caso dos pontos, como este ponto final (.). Uma linha, por sua vez — considerada a distância entre dois pontos quaisquer —, é algo com uma única dimensão. Já a capa de um livro, por exemplo, de acordo com a geometria euclidiana, tem duas dimensões, pois, para conhecer qual a sua área, é necessário multiplicar dois números — o do comprimento pelo da largura. Do mesmo modo, um bloco possui três dimensões, porque precisamos multiplicar três números (comprimento, largura e altura) para saber qual o seu volume. Euclides estava certo, mas não resolveu todo o problema.

Os contornos das montanhas, a superfície dos pulmões humanos, a trajetória das gotículas de água quando penetram na terra   existe uma infinidade de fenômenos na natureza que não podem ser descritos por essa geometria toda certinha. É preciso apelar para complicados cálculos que resultam nas chamadas dimensões fracionárias —  como a dimensão 0,5, por exemplo, típica de um objeto que é mais do que um simples ponto com dimensão zero, porém menos do que uma linha com dimensão 1. Só a chamada geometria dos fractais consegue descrevê-lo.

Os fractais não poderiam ter sido revelados de modo minucioso se não fossem os computadores, mas, na evolução dos computadores, os analógicos representavam um beco sem saída. Computadores digitais, construídos a partir de circuitos que podiam ser ligados ou desligados, zero ou um, sim ou não, davam respostas precisas às perguntas feitas pelos programadores. Computadores analógicos, por sua própria concepção, eram muito vagos.

Existia um computador analógico pesada e empoeirado de Santa Cruz, nos Estados Unidos, com um painel de madeira na fachada, como aqueles usados antigamente em mesas telefônicas. Programar um computador analógico era questão de conectar e desconectar fios. Ao conceber diversas combinações de circuitos, um programador simula sistemas de equações de modo a fazê-los adaptarem-se perfeitamente a problemas de engenharia.

Um belo dia, um amigo astrofísico, William Burke, entregou a Shaw uma folha de papel com três equações rabiscadas e pediu-lhe que as colocasse em seu computador. As equações pareciam simples. Edward Lorenz as havia escolhido como um método despojado para calcular um processo conhecido em Meteorologia, os movimentos ascendentes e descendentes do ar ou da água, chamado convecção. Shaw levou apenas poucas horas para conectar os fios adequados e ajustar os botões. Alguns minutos mais tarde, ele viu aparecer na tela um padrão peculiar, cambiante e infinitamente complicado.

A tela de Shaw proporcionava uma maneira de criar diagramas abstratos de comportamento dinâmico de longo prazo de qualquer sistema físico — uma bolinha de gude imóvel no fundo de um buraco, um relógio de pêndulo balançando monotonamente ou o tumulto imprevisível do tempo na Terra. Para a bolinha de gude em repouso, o diagrama seria simplesmente um ponto. Para um sistema periodicamente cíclico como o relógio de pêndulo, o diagrama teria a forma de uma lançada. Para o sistema enganadoramente simples das três equações da convecção, o diagrama era algo completamente diferente.

Ao mesmo tempo, o estranho atrator revelava padrões inesperados. Era sinônimo de desordem e imprevisibilidade, mas, ainda assim, significava um novo tipo de ordem no tumulto. Dois cientistas franceses, David Roelle e Floris Takens, mais tarde dariam a esses padrões seu nome provocativo: estranhos atratores. Shaw conhecia a nova linguagem da geometria fractal. No entanto, muito tempo havia passado antes que ele, assim como outros envolvidos em trabalhos do mesmo gênero, reconhecesse que a forma diante de seus olhos era um fractal, o que significa que revelava novas complexidades em escalas cada vez menores.

Assim, ele passou várias noites no laboratório observando o ponto verde do osciloscópio percorrendo a tela, traçando sem parar seu roteiro caótico e nunca exatamente no mesmo modo. O percurso da forma permaneceu na retina, oscilante e vibrante, diferente de qualquer objeto que Shaw conhecera em suas pesquisas. Parecia ter vida própria. Prendia a mente como uma chama que se move em padrões que nunca se repetem. Isso era interessante, pois um sistema linear obedece às leis da proporção  quanto mais depressa se vai, mais longe se chega. A linearidade torna os cálculos fáceis ou, ao menos, manejáveis. Infelizmente, a maioria dos sistemas do mundo real não é linear.

A não-linearidade exigia cálculos mais difíceis. Era a mosca na sopa previsível da Mecânica clássica. Poucos consideraram a não-linearidade uma força criativa; mas foi a não-linearidade que criou os padrões misteriosamente belos dos estranhos atratores.  Nesta época, a palavra “não-linear” era um termo que você só encontrava no final do livro onde um estudante de física fazia um curso de matemática e o último capítulo tratava de equações não-lineares. Geralmente essa parte era deixada de lado.

Shaw e seus colaboradores que foram se aproximando de suas observações precisavam fazer perguntas que pudessem ser respondidas e que valessem a pena ser respondidas tentando isolar as qualidades especiais que tornavam os estranhos atratores tão encantadores. A imprevisibilidade era uma delas — mas onde encontrar os calibres para medir tal qualidade?

Para isso, Shaw acabou por ocupar-se de um projeto experimental que iria mantê-lo entretido por anos, adotou um sistema dinâmico tão caseiro quanto algum físico pudesse imaginar: uma torneira pingando. Como gerador de organização, uma torneira pingando oferece pouco para se trabalhar. No entanto, para um investigador iniciante do caos, a torneira pingando provou ter certas vantagens. Todo mundo tem dela uma imagem mental. O fluxo de dados é o mais unidimensional possível: uma batida ritmada de pontos isolados mensuráveis no tempo.

Na torneira pingando, tudo que existe é a solitária linha de dados. E não é nem uma variação contínua de velocidade ou temperatura - apenas uma lista dos tempos de gotejamento. Os pingos podem ser regulares. Ou, como qualquer um descobre ao ajustar uma torneira, podem tornar-se irregulares e aparentemente imprevisíveis. Solicitado a organizar um ataque a um sistema como esse, um físico tradicional começaria por montar um modelo físico o mais completo possível. Os processos que norteiam a formação e a ruptura das gotas são compreensíveis, ainda que não sejam tão simples como possam parecer. Uma variável importante é o ritmo do fluxo (este deve ser lento, comparado à maioria dos sistemas hidrodinâmicos. Normalmente, Shaw observou o ritmo de uma a dez gotas por segundo.) Outras variáveis incluem a viscosidade do fluxo e a tensão de superfície.

Um físico que tentasse construir um modelo completo do problema da gota, formulando um conjunto de equações para depois tentar resolvê-las, acabaria numa encruzilhada sem fim. Uma alternativa seria esquecer a Física e observar apenas os dados, como se estivessem saindo de uma caixa-preta. Dada uma lista de números representando intervalos entre as gotas, será que um especialista em dinâmica caótica encontraria algo útil para dizer?

Na verdade, como foi comprovado mais tarde, podem-se conceber métodos para organizar esses dados dentro da Física e esses métodos se mostraram decisivos no que diz respeito à aplicação do caos a problemas do mundo real. Shaw criou uma espécie de caricatura de um modelo físico completo. Ele fez um resumo rudimentar da Física das gotas, imaginando um peso que pendesse de uma mola. O peso aumenta constantemente. A mola estica e o peso desce cada vez mais. A certa altura, uma porção do peso se rompe. A quantidade que se desprendesse, Shaw supôs arbitrariamente, dependeria apenas da velocidade da queda do peso descendente quando atingisse o ponto de ruptura.

Então, naturalmente, o peso restante voltaria para a posição anterior, como fazem as molas, com oscilações que estudantes aprendem a delinear usando equações normais. A característica interessante do modelo - a única característica interessante - era a torção não-linear que possibilita o comportamento caótico. O tempo preciso de uma gota dependia do ritmo do fluxo, é claro, mas dependia também de como a elasticidade desse saco de tensão superficial interagia com o peso que aumentava constantemente. Se uma gota iniciasse sua vida já em queda, ela se romperia mais cedo. Se acaso se formasse quando sua superfície inferior estivesse subindo, poderia encher-se com um pouco mais de água antes de romper-se.

Enquanto isso, Shaw fazia suas equações e operava o computador analógico, produzindo uma torrente de dados imaginários, muito parecidos às gotas da torneira real. Mas, para ir além, Shaw necessitava de um modo de colher dados puros de qualquer experiência e trabalhar com equações e estranhos atratores que pudessem revelar padrões ocultos.

Com um sistema mais complicado, uma variável poderia ser graficamente relacionada à outra, correlacionando mudanças na temperatura ou na velocidade com o passar do tempo. Contudo, a torneira pingando proporcionava apenas uma série de tempos. Shaw tentou, então, uma técnica desenvolvida pela equipe de Santa Cruz, que foi talvez sua contribuição prática mais esperta e duradoura ao progresso do caos - um método de reconstruir um estranho atrator invisível que poderia ser aplicado a qualquer série de dados. Para os dados da torneira pingando, Shaw construiu um gráfico no qual o eixo horizontal representava um intervalo de tempo entre duas gotas, e o eixo vertical representava o intervalo de tempo entre as duas seguintes.

Se entre a gota número um e a gota número dois decorressem 150 milésimos de segundo, e depois 150 milésimos de segundo decorressem entre a gota número dois e a gota número três, ele marcava um ponto na posição 150-150. Era tudo que havia a fazer. Se o gotejamento fosse regular, o gráfico seria apropriadamente inerte. Cada ponto cairia no mesmo lugar. O gráfico seria um simples ponto, ou quase: na verdade, a primeira diferença entre a torneira pingando no computador e a torneira real era que esta estava sujeita a distúrbios, ou "ruído", sendo extremamente sensível. O barulho significava que, em vez do simples ponto previsto pela teoria, ele veria uma mancha ligeiramente indistinta.

À medida que o fluxo aumentasse, o sistema passaria por uma mudança repentina nas suas características. Então as gotas cairiam em pares repetidos. Um intervalo poderia ser de 150 milésimos de segundo e o próximo, de 80. Assim, o gráfico mostraria duas manchas indistintas, uma centrada em 150-80 e outra em 80-150 e assim por diante. O verdadeiro teste ocorreu no momento em que o padrão se tornou caótico, quando o ritmo do fluxo foi novamente modificado. Se fosse mesmo fortuito, haveriam pontos dispersos por todo o gráfico. No entanto, se um estranho atrator estivesse oculto nos dados, poderia se revelar como um padrão vago, mas perceptível.

O caos já ostentava a fama de ser mencionado a meia voz, mas poucos dos físicos presentes à conferência sabiam do que se tratava. Shaw começou então explicando os diferentes tipos de atratores, dos comuns aos estranhos; a princípio, os estados inertes (quando tudo fica imóvel); depois, ciclos periódicos (quando tudo oscila); e, por fim, estranhos atratores caóticos (o restante). Ele demonstrou sua teoria com gráficos computadorizados em videoteipe. Os meios audiovisuais lhe deram uma vantagem, podia-se agora hipnotizar os observadores com flashes de luz, isso permitiu ilustrar o atrator e a torneira que pinga.

Quanto mais se aproximava do mundo real da ciência, mais perto da separação se encontrava. Assim, muitos cientistas passaram a procurar estranhos atratores em bandeiras tremulantes e em velocímetros defeituosos, os cientistas fizeram questão de detectar os sintomas do caos em toda a Física atual. Peculiaridades outrora desprezadas como ruído - flutuações surpreendentes, regularidades misturadas a irregularidades - eram explicadas agora nos termos da nova ciência. Tais efeitos pipocaram de repente em escritos a respeito de tudo, desde lasers até circuitos eletrônicos.

Hoje, especialistas em finanças usam as técnicas desenvolvidas pelo grupo de Santa Cruz para analisar décadas de cotações diárias de bolsas de valores, buscando padrões que acreditam existir ali. Muitos fisiólogos acreditam agora que o caos proporciona um modo de prever - e talvez de tratar  - ritmos irregulares no processo que governa a vida, desde a respiração, os batimentos cardíacos e até a função do cérebro. Em universidades do mundo todo, médicos comparam eletrocardiogramas humanos com dados de um modelo de computador de contrações cardíacas caóticas, em uma tentativa de prever, com bastante antecedência, quando o órgão sofrerá um espasmo fatal.

Ecologistas usam a Matemática do caos para descobrir como, na ausência de mudanças ambientais fortuitas, populações de espécies podem crescer ou diminuir desordenadamente por conta própria. Estuda-se a tendência de processos caóticos de criar padrões complexos em fenômenos como flocos de neve, cujas formas delicadas incorporam uma mistura de estabilidade e instabilidade que só agora começa a ser compreendida. Utiliza-se a física dos sistemas dinâmicos para estudar o sistema imunológico humano, com seus bilhões de componentes e sua capacidade de aprender, memorizar e reconhecer padrões. Para muitos cientistas, o caos tornou-se um conjunto de instrumentos capazes de elucidar fatos aparentemente casuais.

Mas o caos é também uma série de atitudes em relação à complexidade — uma nova maneira de ver. Sente-se que estamos revertendo uma tendência científica de analisar sistemas em termos de suas partes constituintes — quarks, cromossomos ou nêutrons. A tendência científica, particularmente em Física, tem sido pelo reducionismo, uma constante fragmentação das coisas em minúsculos pedacinhos. O que os cientistas estão finalmente percebendo é que esse processo é um beco sem saída. Novas perspectivas apontam para um interesse muito maior na ideia de que o todo pode ser maior que a soma da partes.[15]

Não são poucas as implicações da teoria do caos para a sociologia. Por exemplo, Boaventura de Sousa Santos chama atenção de que o que distingue, neste domínio, a sociologia funcionalista de uma sociologia crítica é o fato de a primeira pretender a ordem da regulação social, e a segunda, a ordem da emancipação social, porém, para ambas, o conhecimento totalizante é um conhecimento da ordem sobre o caos.[16]

Uma das positividades é a ideia de não-linearidade, a ideia de que, nos sistemas complexos, as funções não são lineares e, por isso, ao contrário do que ocorre nas funções lineares, uma pequena causa social pode produzir um grande efeito. Ora, como os indivíduos e as sociedades não podem produzir consequências senão através de causas, e como estas, segundo as teorias do caos, não ocorrem na mesma escala dos seus efeitos, não é possível partir do pressuposto de que o controle das causas acarreta consigo o controle das consequências. Pelo contrário, a falta de controle sobre as consequências significa que as ações empreendidas como causas têm, não apenas as consequências intencionais (lineares) da ação, mas uma multiplicidade imprevisível (potencialmente infinita) de consequências. O controle das causas, sendo absoluto, é absolutamente precário. [17]

As teorias do caos contribuem, assim, para elucidar o modo como a ciência moderna, transformada em recurso tecnológico de sistemas sociais cada vez mais complexos, levou ao extremo a discrepância entre a capacidade de ação (controle das causas) e a capacidade de previsão (controle das consequências). Transformado em máxima de ação social e política, o caos apela a suspeitar da capacidade de ação e a pôr em causa a ideia da transparência entre a causa e o efeito. Dito de outro modo, o caos integra-se ao paradigma emergente que convida-nos a um conhecimento prudente.[18]

A última grande tentativa de produzir uma teoria crítica moderna coube a Foucault, tomando precisamente como alvo o conhecimento totalizante da modernidade, a ciência moderna. Foucault representa ao mesmo tempo o clímax e, paradoxalmente, a derrocada da teoria crítica moderna. Levando às últimas consequências o poder disciplinar do panóptico construído pela ciência moderna, Foucault mostra que não há qualquer saída emancipatória dentro deste “regime da verdade”, já que a própria resistência se transforma ela própria em um poder disciplinar e, portanto, em uma opressão consentida porque é interiorizada.

O grande mérito de Foucault foi ter mostrado as opacidades e os silêncios produzidos pela ciência moderna, conferindo credibilidade à busca de “regimes da verdade” alternativos, outras formas de conhecer marginalizadas, suprimidas e desacreditadas pela ciência moderna. Assim, Boaventura conclui que o nosso lugar é hoje um lugar multicultural, um lugar que exerce uma constante hermenêutica de suspeição contra supostos universalismos ou totalidades. lntrigantemente, segundo o autor, a sociologia disciplinar tem ignorado quase completamente o multiculturalismo, ainda que possamos encontrar cada vez mais estudos culturais com configurações transdisciplinares em que convergem as diferentes ciências sociais e os estudos literários e onde se tem produzido conhecimento crítico, feminista, anti-sexista, anti-racista, pós-colonial.[19]

Depois de dois séculos de utopismo automático da ciência e da tecnologia, o princípio da prudência faz-nos uma dupla exigência. Por um lado, exige que, perante os limites da nossa capacidade de previsão, em comparação com o poder e a complexidade da práxis tecnológica, privilegiemos perscrutar as consequências negativas desta, em detrimento das suas consequências positivas. Não se deve ver nisto uma atitude pessimista e muito menos uma atitude reacionária. Uma das virtualidades do utopismo tecnológico é que, hoje, sabe­mos melhor aquilo que não queremos do que aquilo que queremos. Se a nossa capacidade de previsão é menos limitada a respeito das consequências negativas do que das consequências positivas, é de bom senso concentrarmos o conhecimento emancipatório nas consequências negativas. Isso implica assumir perante ela - e esta é a segunda exigência - uma certa “hermenêutica de suspeição”, como Ricoeur chamaria, as consequências negativas duvidosas, mas possíveis, devem ser tidas como certas.[20]

Segundo Boaventura de Sousa Santos, a aceitação e a revalorização do caos é uma das estratégias epistemológicas que tornam possível desequilibrar o conhecimento a favor da emancipação, revalorizando a solidariedade como forma de saber. [21] 

7) A teoria geral da recursão da computação abstrata. A teoria da recursão pode ser encarada de modo geral como a teoria abstrata das máquinas computacionais (máquinas de Turing operada por algoritmos), sendo os computadores com os quais estamos acostumados, os produtos físicos que mais exemplificam a ideia de máquinas teóricas cognitiva traduzidas em artefatos cognitivos operatórios. Um outro exemplo menos conhecido é o dos autônomos finitos de Markov. Assim, da teoria geral e abstrata da recursão podemos derivar vários resultados sobre os computadores comuns e os artefatos robóticos ou simuladores simbólicos.

A teoria da recursão se refere a certas estruturas algébricas, mas hoje foi estendida para abranger os sistemas lógicos e simbólicos complexos (especo informacional) pelo processo de sintetização digital da realidade. Acreditamos que com a emergência das maquinas computáveis cognitivas, surgem também quatro grandes camadas imateriais de amplificação da realidade abstrata. É preciso primeiramente afirmar de que a informação digital computada incorpora-se a uma gama de múltiplos saberes envolvidos em simbiose e vinculados a suportes infra-estruturais sofisticados de redes comunicantes e interativas que compartilham essas quatro camadas informacionais: a) primeira camada: A álgebra boolena; b) segunda camada: A informação como expressão binária digital; c) terceira camada: Pensar e construir instruções através de algoritmos e d) quarta camada: A Cultura da interface.

Hoje defendo uma quinta informática que evoluiu em simbiose ainda mais colaborativa com a vida: as interfaces simbióticas.

A representação e o tratamento da informação em simbiose com as máquinas cognitivas, incluem e nos conduz hoje a uma imagem unificada em nódulos informacionais complexos da cognição, inclusive por conexões não-clássicas, e estabelece novos vínculos entre teoria da informação, matemática e análise simbólica. Assim, exemplificando, em certas questões mesmo de matemática qualificada e construtiva, deve-se recorrer a uma lógica divergente da clássica, ou seja, à chamada lógica e procedimentos intuicionista; em outros contextos, muito utilizado na mecânica quântica. Um outro exemplo em áreas mais duras da ciência, encontra-se tópicos de química e de genética, tem-se apelado para o cálculo lamba e a lógica combinatória, que não pertencem, propriamente, à classe das modalidades clássicas em acepção estrita. 

8) Por fim, O eletromagnetismo do quantum. Richard Feynman entre diagramas de partículas virtuais que se levantam como notas de música da realidade, gerou uma nova e elegante teoria com também novas equações que eliminavam as infinidades de possibilidades que tinham que ser previstas na solução da explicação de sua realidade quântica. Feynman descobriu o eletromagnetismo do quantum, e um sistema mais prático de resolver problemas do quantum. Esse trabalho denominado eletrodinâmica quântica deu a Richard Phillips Feynman o Nobel de 1965. Essa nova teoria explicava um universo tão vasto e complexo quanto importante para a sociedade moderna. Esse universo inclui nada menos que a arquitetura interna dos átomos, a ação dos lasers, os fenômenos radioativos, eletrônicos e químicos, assim como esquisitas transformações das partículas subatômicas, como o elétron e o próton.

Feynman, no entanto, fez mais do que isso. Recriou desde o princípio as ideias da antiga teoria quântica — que após quase meio século de esforço continuavam incompletas e obscura. Ele tomou os conceitos semi-acabados e transformou-os em ferramentas que qualquer físico podia compreender e usar. A teoria de Feynman é muito prática, especialmente os “diagramas de Feynman”, hoje indispensáveis. No fundo, os diagramas são simples tabelas, como uma espécie de gráfico sofisticado, com o qual o mundo dentro dos átomos não parece tão estranho e fica muito mais fácil calcular a trajetória e as trocas de energia entre as partículas.

A teoria quântica ganhou muito de aplicabilidade depois de Feynman. Por exemplo, graças ao microscópio de efeito túnel, baseado nos princípios da física quântica, os cientistas conseguem enxergar átomos e manipulá-los um a um. Em uma década, a nanotecnologia, ciência do infinitamente pequeno, poderá ver os primeiros resultados práticos da possibilidade de construir moléculas sob medida. Em longo prazo, em vinte ou trinta anos, é provável que surjam supercomputadores de bolso e minúsculas sondas para percorrer o interior do corpo humano.

Em dezembro de 1959, quando Feynman preferiu as visionárias palavras na palestra "Há muito lugar no fundo" para seus colegas da Sociedade Americana de Física, os computadores ainda eram geringonças que ocupavam metade das salas em que eram colocados. Feynman falava em mexer átomos num tempo em que ninguém sequer tinha visto um deles. Trinta anos depois, o sonho do físico ganhou forma na ciência do muito pequeno, a nanotecnologia, assim chamada porque seus objetos de estudo costumam ser medido em nanômetros — 1 milhão de vezes menor que 1 milímetro.

Richard Feynman (1918-1988), sugeriu, em 1981, criar supercomputadores que usariam os 36 estados quânticos do elétron como linguagem no lugar do tradicional idioma binário da Informática.

Assim, ainda no início dos anos 80, os cientistas começaram a alertar que a evolução dos computadores, da maneira como são construídos hoje, estava com os dias contados. O motivo era, e ainda é, a incrível transformação dos circuitos eletrônicos, que nos últimos trinta anos ficaram 3 milhões de vezes mais rápidos, enquanto os seus componentes básicos, que são os transistores, encolhiam na mesma proporção. Os primeiros transistores da década de 60 não eram menores que um grão de feijão, e os atuais já estão cem vezes menores que o diâmetro de um fio de cabelo.

Só que eles não podem diminuir muito mais. A miniaturização deve dar mais um salto de cem vezes, nos próximos dez ou quinze anos. E se em seguida forem divididos novamente por dez, deixam de existir: vão se desmanchar em uma nuvenzinha de átomos, 1 milhão de vezes menor que 1 centímetro. Ou seja, os computadores vão ter de virar máquinas atômicas, já que suas peças essenciais serão átomos soltos, em lugar dos transistores convencionais.

Por isso, o novo modelo de processar informações está sendo chamado de computador quântico, em referência à Mecânica Quântica, o ramo da Física que governa o comportamento dos átomos. Por enquanto, é quase tudo teoria. Ninguém sabe direito que estrutura a nova máquina vai ter. Mas os especialistas garantem que, se ela um dia chegar a operar. É que em vez de executar um cálculo por vez, como os computadores atuais, ela vai raciocinar em bloco, compondo verdadeiras sinfonias inteligentes. O que vai acontecer com os circuitos eletrônicos quando suas peças, de tanto diminuir de tamanho, virarem uma autêntica poeira de átomos? A ideia é produzir uma máquina superior, estupidamente mais rápida que as atuais.

O que aconteceria se pudéssemos mover átomos? É o que se perguntava Feynman. Hoje os cientistas que os manipulam respondem: podemos construir supercomputadores que caibam no bolso, gravar bibliotecas inteiras em superfícies de centímetros quadrados, colocar micro sondas para fazer testes sangüíneos dentro do corpo humano. Tudo isso ainda é suposição, previsão, talvez sonho, no entanto, como Léon Lederman, laureado de Nobel e Diretor Emeritus de Fermilab, gosta de mostrar, mais que 25 por cento do total produto nacional da superpotência norte americana é dependente em tecnologia de um modo ou outro pelas descobertas dos fenômenos do quantum.

Por fim, cabe destacar que Feymnam foi um dos participantes importantes do Projeto Manhattan do lado de Robert Oppenheimer, que chefiou o Projeto que implicou na criação da bomba atômica. Esta sua participação é uma polêmica até hoje nos meios acadêmicos e isto só vem a conformar que genialidade sabedoria nem sempre andam juntas.

 

PALAVRAS FINAIS

 

Estes são alguns exemplos paradoxais de nosso tempo. Finda a idade industrial da humanidade mas fica sua herança, suas teorias, seus fantasmas, suas cidades poluídas e decadentes, subproduto do combustível fóssil, fica também suas instituições e a mega herança da desigualdade social e da degradação do ecossistema ao mesmo tempo em que entra em estágio de putrefação o velho moderno modo de conhecer e produzir conhecimento.

Em síntese, os últimos desenvolvimentos na física e na biologia, alguns acima mencionados sinteticamente, parecem apontar na direção da unificação do saber e do conhecimento diante da complexidade, entendendo cada vez mais que todas as ciências são sociais. E que a dualidade simétrica, vida x corpo, matéria x espírito, são desprovidas de complexidade.

Assim, os avanços recentes da física e da biologia põem em causa a distinção entre o orgânico e o inorgânico, entre seres vivos e matéria inerte e mesmo entre o humano e o não humano. As características da auto-organização, do metabolismo e da auto-reprodução, antes consideradas específicas dos seres vivos, são hoje atribuídas aos sistemas pré-celulares de moléculas. E, quer num quer noutros, reconhecem-se propriedades e comportamentos antes considerados específicos dos seres humanos e das relações sociais.

Todas as recentes teorias científicas mencionadas introduzem na matéria os conceitos de historicidade, de liberdade, de autodeterminação e até de consciência que antes o homem e a mulher tinham reservado para si.  Isso implica uma nova e ainda mais radical conclusão se o saber e a matéria estão intimamente ligados na complexidade, então, as ciências naturais e as sociais estão também interligadas, assim ,não existe a possibilidade de uma ciência não social e como nos lembra Boaventura de Sousa Santos, na complexidade: todas as ciências são sociais.[22]

Enfim existem paradigmas maiores e paradigmas menores. O paradigma cartesiano vigorou intensamente até 1950. A crise do paradigma cartesiano implica na emergência de um outro: o paradigma da complexidade (que é diferente).

No método 3, Edgar Morin nos fala em crise dos fundamentos seguros do pensamento e da ciência, frente à construção de sistemas firmados - por estes próprios fundamentos de base - que impedem a desconstrução generalizada realizada pelos questionamentos relativizadores sobre todo o conhecimento. Nesta nova e complexa percepção da estruturação sem estrutura, no lugar dos fundamentos agora perdidos o próprio Einstein nos diz: retiraram nosso chão sólido e visível sobre o qual pisamos, a matéria se integrou ao mundo oculto, o chão escorregou. Na complexidade, somos plasmados pelo lodo do oculto do corpúsculo, da partícula e da onda elementar que compõem a unidade inseparável da ordem e da desordem e organização do Universo.

 Até 1617, o paradigma astrológico (aristotélico tomista) concebia um universo celeste perfeito. O paradigma cartesiano - começando por Copérnico sistematizado por Descartes e modelado teórica e matematicamente por Newton, sobretudo, pela confirmação da lei da gravitação universal - propunha uma ruptura radical, a unificação do mundo físico terrestre com o mundo cósmico/celeste. Isto implicou em modificação radical também da Universidade medieval, construção de departamentos, disciplinas especializadas de conhecimento, etc. Um novo modo de pensar e instituir o pensamento científico e de estruturar todas as instituições modernas.

O paradigma cartesiano é uma ruptura muito radical com o paradigma astrológico. O mundo passa a vir a ser – flecha ascendente integrando matéria e energia (eletromagnetismo) buscando uma totalidade sistêmica sistêmica – ainda que mecânica e não complexa. O cérebro (mente) é separado do corpo e o sujeito é separado do objeto.

O paradigma da complexidade implica na indissociação do sujeito do objeto, da mente e da matéria, e de uma dimensão sistêmica que integre a flecha descendente com a ascendente. Não se trata de buscar o equilíbrio, nas estruturas dissipativas. O equilíbrio não existe na complexidade, seria a tensão absoluta entre o vir a ser e o não vir a ser. A auto organização é uma preponderância do vir a ser sobre a dissipação. A preponderância absoluta da dissipação é a morte de um sistema, sua destruição total.

Com o paradigma da complexidade podemos reinterpretar os clássicos das ciências sociais e redescobrir novas e ocultas conexões que não estão imediatamente presentes.

A crise dos paradigmas gera também uma crise de poder. Francis Bacon já tinha nos alertado de que a senda que conduz o homem ao poder e a que o conduz à ciência estão muito próximas, sendo quase a mesma. Geordano Bruno que o diga, foi uma vítima do poder da inquisição e queimado vivo, entre outros motivos por que seu sistema explicativo baseado numa filosofia naturalista, que  questionava a supremacia celeste sobre a natureza e apresentava um novo homem capaz de descobrir causas racionais e verificáveis no mundo e que mais tarde veio a se integrar ao paradigma cartesiano.

A ciência cartesiana é fonte de muito poder. A balística serviu a produção de projéteis, a criação dos computadores e a volumosos recursos de financiamento. Na ciência cartesiana, tecnologia e ciência se tornaram inseparável produzindo grandes descobertas e imensos recursos de financiamento de pesquisas.

As nações modernas, França, Espanha, Bélgica e Inglaterra para se independizarem do poder Papal, imprimiram enormes volumes de dinheiros aos cientistas e novos aventureiros do conhecimento moderno. Na Inglaterra temos o exemplo bem visível da Real society que financiou muitos experimentos científicos.

A laiticidade e recusa do sagrado, separação dos poderes são princípios que marcaram profundamente o pensamento ocidental e não apenas a Revolução Francesa, bem como a figura do mecenas que financiavam intelectuais. Como afirmamos antes, no Brasil, este processo é bem diferente. O paradigma cartesiano emerge sobre a influência positivista e a ciência nasce extremamente dependente do Estado.

Em que sentido o paradigma complexo compõem um novo tipo de poder ou um poder científico de novo tipo? Ele – o paradigma complexo - exige integrar a concepção da organização no mundo científico, diferentemente do paradigma cartesiano que se consolidava institucionalmente de modo cartesiano mas não incorporava a organização da ciência no processo de autoconstrução do saber.

O paradigma complexo impõe a integração do caos na organização e uma estrutura dissipativa descentralizada aberta à auto-organização produtiva. Também integra o sujeito ao objeto, o sujeito não está fora do mundo é reverberativo.

Independentemente de nós, o Universo se auto organizou antes de nós mesmo emergirmos como sistema vivo complexo. É necessária organização descentralizada e capaz de enfrentar a expressão mais radical da crise gerada pela pulsão arrasadora da dissipação, o que Edgar Morin chama de “motor selvagem”.

Segundo também Edgar Morin, no seu livro O Método tomo 1, vivemos numa desordem organizada, inclui no entanto a organização no próprio paradigma da ciência. Caminhamos em cima da turbulência da dissipação energética, da improbabilidade, da incerteza.[23]

Não podemos entender a alma sem a sua substância material e nem o corpo como substância própria separada da auto organização da matéria, pensamos ligados ao corpo e a consciência é também  matéria complexa organizada.

O mesmo não podemos entender na complexidade a ideia do sujeito determinando e separado da ideia de objeto.

A complexidade não é um problema novo. O pensamento humano sempre enfrentou a complexidade e tentou, ou bem reduzi-la, ou bem traduzi-la. Os grandes pensadores sempre fizeram urna descoberta de complexidade. Até uma simples lei, como a da gravidade, permite ligar, sem reduzi-los, fenômenos diversos como a queda dos corpos, o fato de a Lua não cair na Terra, o movimento das marés. Toda grande filosofia é uma descoberta de complexidade; depois, ao formar um sistema em torno da complexidade que revelou, ela encerra outras complexidades.

A rigidez da lógica clássica pelo diálogo capaz de conceber noções ao mesmo tempo complementares e antagonistas, e completara o conhecimento da integração das partes em um rodo, pelo reconhecimento da integração do todo no interior das partes.

Ligará a explicação à compreensão, em todos os fenômenos humanos. Vamos repetir aqui a diferença entre explicação e compreensão. Explicar é considerar o objeto de conhecimento apenas como um objeto e aplicar-lhe todos os meios objetivos de elucidação. De modo que há um conhecimento explicativo que é objetivo, isto é, que considera os objetos dos quais é preciso determinar as for­mas, as qualidades, as quantidades, e cujo comportamento conhecemos pela causalidade mecânica e determinista. A explicação, claro, é necessária à compreensão intelectual ou objetiva. Mas é insuficiente para a compreensão humana.

Há um conhecimento que é compreensível e está fundada sobre a comunicação e a empatia — simpatia, mesmo — intersubjetivas. Assim, compreendo as lágrimas, o sorriso, o riso, o medo, a cólera, ao ver o ego alter como alter ego, por minha capacidade de experimentar os mesmos sentimentos que ele. A partir daí, compreender comporta um processo de identificação e de projeção de sujeito a sujeito. Vê-se uma criança em prantos, vou compreendê-la não pela medição do grau de salinidade de suas lágrimas, mas por identificá-la comigo e identificar-me com ela. A compreensão, sempre intersubjetiva, necessita de abertura e generosidade.

O paradigma da moderna ciência em crise insere na ideia de mensuração e, assim, na curiosa história da lógica. Vindo desde a criação da indução por Aristóteles (384-322 a.C.), permaneceu praticamente imutável durante dois milênios. Pensadores como Galileu Bacon, Mill e depois Kant (1724-1804) achavam do ponto de vista essencial, em lógica, depois do grande filósofo grego muito pouco era preciso ser feito além de minuciá-la e desenvolvê-la.

O estudo da lógica e da metodologia restringia-se ao da inferência válida (algumas vezes incluindo também a inferência dita indutiva, não válida, porém possuindo certo caráter verossímil), de um prisma formal. Na inferência válida, de premissas verdadeiras chega-se, sempre, a conclusões verdadeiras. As regras da lógica, devidamente utilizadas, assegurariam isso. Portanto, vimos que a mensuração lógica está amarrada e se sustenta também com um pensamento lógico devotado ao raciocínio formalmente redutor.

Por exemplo, Newton, produziu sua síntese mecanicista extraordinária acreditando que devemos buscar as proposições inferidas por indução geral a partir dos fenômenos, e não por meio de especulações hipotéticas. É enfático seu pronunciamento a esse respeito: ”Non fingo hypotheses”, isto é eu não invento nenhuma dessas causas, que, sem dúvida, podem dar conta dos fenômenos, mas que somente são verossímeis. Newton não admite outra causa senão a que pode ser ‘deduzida dos próprios fenômenos”. [24]

Para Newton, a argumentação indutiva não é uma demonstração de conclusões gerais e está sujeita a exceções reveladas pelos fenômenos constatados, pois tudo que não é deduzido dos fenômenos deve ser chamado uma hipótese; e a hipótese, quer metafísicas ou físicas, quer de qualidades ocultas ou mecânicas, não têm lugar na filosofia experimental. Nessa filosofia, as proposições particulares são inferidas dos fenômenos, e depois tornadas gerais pela indução. [25] 

Assim em vez de presumir hipóteses sem nenhuma comprovação experimental, é preciso consultar a própria natureza, realizar experimentos bem planejados e a partir daí investigar as causas que engendram os efeitos. A indução é, então, o melhor caminho de argumentação que a natureza das coisas admite, e pode ser considerada tanto mais forte quanto mais geral ela for comprovada.

De um modo geral os pensadores sociais não questionavam profundamente essas premissas, divergiam sobre seu emprego mais analítico e dedutivo, mais dialético ou mais compreensivo, porém jamais colocaram em questão ou criaram novas modalidades de mensuração complexa para embasar seus pensamentos e conhecimentos sobre a realidade social.

É claro que os fundacionistas da sociologia não compartilharam das grandes mudanças científicas que vieram a ocorrer sobre esta tradição milenar. Pois somente a partir da segunda metade do século 19 e durante todo o século 20 que isso veio ocorrer e os clássicos da sociologia não puderam ou não conseguiram sofrer os efeitos da assombrosa transformação produzida por intelectuais e cientistas contemporâneos.

Hoje a mensuração lógica simétrica deixou de ser tão somente vinculada à validação das formas válidas de raciocínio, embora a teoria da argumentação ainda pertença ao campo de suas aplicações. No momento, ela versa sobretudo, de determinadas “estruturas abstratas ou reflexivas”, que podemos denominar de sistemas lógicos simétricos e (não ou) assimétricos, indo desde procedimentos lógicos orquestrados com analógicos em espírito e subjetivação integrados radicalmente em estruturas da álgebra reflexiva ou de outros ramos da matemática computacional e da teoria da informação.

A mensuração clássica é praticamente e estritamente lógica pura. O sociólogo pesquisador contemporâneo deve saber tratar de sistemas lógicos diversificados, de inúmeras e contraditórias conformidades de relevância intrínseca e de significados tocantes às aplicações sociais múltiplas em fundamentos condizentes com as teorias da informação.

Além disso, a pesquisa aplicada, não pode se voltar apenas para  aplicações dos sistemas e métodos lógicos em todas as áreas do conhecimento. É certo que existe determinada semelhança entre algoritmos e problematizações sociais e entre informações em associações analógicas e lógicas. Até mesmo em geometria não existe mais quem defenda uma geometria pura, pois se estudam diversas estruturas geométricas: euclidiana, riemaniana, finita etc. e na geometria aplicada volta-se para as estruturas com ênfase em aplicações mais ou menos precisas, como nos casos da geometria do espaço de Minkowski em relatividade restrita ou da geometria de Riemann em relatividade geral.

Vivemos num tempo atônito que ao debruçar-se sobre ele próprio descobrimos que os nossos pés são um cruzamento de sombras, sombras que vêm do passado que ora pensamos já não sermos, ora pensamos não termos ainda deixados de ser, sombras que vêm do futuro que ora pensamos já sermos, ora pensamos nunca virmos a ser. Quando, ao procurarmos analisar a situação presente das ciências no seu conjunto, olhamos para o passado, a primeira imagem é talvez a de que os progressos científicos dos últimos trinta anos são de tal ordem dramáticos que os séculos que nos precederam ‑ desde o século XVI, onde todos nós, cientistas modernos, nascemos, até ao próprio século XIX ‑ não são mais que uma pré‑história longínqua. Mas se fecharmos os olhos e os voltarmos a abrir, verificamos com surpresa que os grandes cientistas que estabeleceram e mapearam o campo teórico em que ainda hoje nos movemos viveram ou trabalharam entre o século XVIII e os primeiros vinte anos do século XX, de Adam Smith e Ricardo a Lavoisier e Darwin, de Marx e Durkheim a Max Weber e Pareto, de Humboldt e Planck a Poincaré e Einstein. E de tal modo é assim que é possível dizer que em termos científicos vivemos ainda no século XIX do que no século XXI.

No entanto, contraditoriamente, a ciência transfigurou-se nos últimos 150 anos frente à complexidade da mensuração em três grandes aspectos: 1) em extraordinário desenvolvimento técnico; 2) aparecimento das chamadas lógicas e procedimentos não-clássicos, que complementam ou se afastam daquela batizada de clássica simétrica, a qual se inspirava em pressupostos da tradição aristotélica compilada e melhorada pela primeira moderna geração da ciência, ou seja, a emergência da complexidade e de novas modalidades operatórias complexas sobre a realidade, inimagináveis até então; 3) a eclosão de variadas e numerosas aplicações da teoria da informação digital em quase todos os domínios do saber.

Por fim, um dos maiores desafios da complexidade é romper com o saber disciplinar e violentar as fronteiras dicotômicas que separam as ciências naturais/ciências sociais. O novo paradigma da complexidade implica em emanciparmos dessa falsa dicotomia.

As próprias ciências sociais constituíram-se no século XIX segundo os modelos de racionalidade das ciências naturais clássicas e, assim, a égide das ciências sociais, afirmada sem mais, pode revelar-se ilusória, contudo, que a constituição das ciências sociais teve lugar segundo duas vertentes: uma mais diretamente vinculada à epistemologia e à metodologia positivistas das ciências naturais, e outra, de vocação antipositivista, caldeada numa tradição filosófica complexa, fenomenológica, interacionista, mito-simbólica, hermenêutica, existencialista, pragmática, reivindicando a especificidade do estudo da sociedade mas tendo, para isso, de pressupor uma concepção mecanicista da natureza. A pujança desta segunda vertente nas duas últimas décadas é indicativa de ser o modelo de ciências sociais que, numa época de revolução científica, transporta para a emergência do novo paradigma.[26]  Trata-se, como referi também, de um modelo de transição, uma vez que define a especificidade do humano por contraposição a uma concepção da natureza que as ciências naturais hoje consideram ultrapassada, mas é um modelo em que aquilo que o prende ao passado é menos forte do que aquilo que o prende ao futuro.[27]

Para apreciar o pleno significado do movimento antifundacional nas ciências sociais, é de suma importância às contribuições presentes nas obras de Foucault e de Derrida. Mesmo tendo presente tal importância, este texto deixará de abordar diretamente as temáticas destes autores e seguirá noutra direção.

É de amplo conhecimento nas ciências sociais, seguindo a concepção também positivista do conhecimento científico, tomou posição de que o papel das ciências sociais é reunir “dados objetivos” e submetê-los à análise científica. O humanismo, ao invés, renuncia à procura de dados objetivos e aceita a ”subjetividade” inerente às ciências sociais. À primeira vista parece que os humanistas oferecem uma alternativa clara à abordagem positivista que assenta numa epistemologia totalmente diferente. Uma análise mais profunda mostra que não é assim. Ambos grupos - humanistas e positivistas - partilham uma assunção epistemológica fundamental: a oposição entre sujeito e objeto. A essência da abordagem positivista consiste em acentuar o lado do objeto nesta oposição. Os positivistas pretendem que o fito da investigação científica se constitua pela acumulação de “conhecimento objetivo” livre de qualquer mancha de subjetividade. Os humanistas, por outro lado, salientaram a vertente do sujeito na dicotomia. Na terminologia contemporânea o que os humanistas realizaram foi a “desconstrução” do objeto no processo de conhecimento nas ciências sociais. Defendem que a matéria prima das ciências sociais tem como fonte ações significativas produzidas nas relações intra-humanas, que são inerentemente “subjetivas”. [28]

Em resumo, à medida que as ciências naturais se aproximam das ciências sociais, estas se aproximam das humanidades. A revalorização dos estudos humanísticos acompanha a revalorização da racionalidade estético-expressiva das artes e da literatura que, juntamente com o princípio da comunidade, é uma representação inacabada da modernidade simples A superação da dicotomia ciências naturais/ciências sociais tende assim a revalorizar os “estudos humanísticos”. Mas esta revalorização não ocorrerá sem que as humanidades sejam, elas também, profundamente transformadas. O que há nelas de futuro é terem resistido à separação entre sujeito e objeto e entre natureza e cultura, e terem preferido a compreensão do mundo à manipulação do mundo. [29]

Além disso, quer resistam, quer sucumbam ao modelo cientista, os estudos humanísticos decidiram, de modo geral, ignorar as relações e os processos sociais responsáveis pela auto-atribuição da qualidade de autor, pelos critérios de inclusão na comunidade interpretativa, pela repartição do poder retórico entre diferentes argumentos, em suma, pela distribuição social das boas razões.

Há que recuperar esse núcleo genuíno e pô-lo ao serviço de uma reflexão global sobre o mundo. O texto, sobre que sempre se debruçou a filologia, é uma das analogias matriciais com que se construirá no paradigma emergente o conhecimento sobre a sociedade e a natureza. Como catalisadores da progressiva fusão das ciências naturais e das ciências sociais, os novos estudos humanísticos ajudam-nos a procurar categorias globais de inteligibilidade, conceitos quentes que derretam as fronteiras em que a ciência moderna dividiu e encerrou a realidade. Enfim, todas as ciências são sociais e a nova ciência emergente é uma ciência assumidamente não simétrica e analógica Em síntese, há procedimentos e lógicas variadas como há geometrias distintas. É habitual conceber a criação das geometrias não-euclidianas como uma das grandes transformações de paradigma da ciência, dado que a lógica se mostra mais básica que a geometria na hierarquia do conhecimento, decorre de implicações e mudanças no paradigma na ciência aristotélica.[30]

Esse processo está presente hoje em quase todos os campos do saber: em filosofia, em filosofia da ciência, em lingüística, em matemática (por exemplo, utilização de teoria de modelos em álgebra), em química, em biologia, em direito, em psicologia etc.

Todavia o que mais nos surpreende são as aplicações tecnológicas da teoria da informação digital frente à mensuração científica da realidade. Aplicações, exemplificando, a matemática das redes conhecida como grafos, muito utilizada para simulações complexas e para entendermos as organizações emergentes, a lógica "fuzzy" muito utilizada em engenharia de produção e no controle de tráfego, na notação em robótica e no reconhecimento automático de assinaturas em bancos, e da clássica em computação e programação, em sistemas especialistas para diagnóstico médico, em fabricação de máquinas e na  nova modalidade da teoria da computação flexível e simbólica.

Assim a história da clássica geração moderna da ciência evidencia e comprova, pelo menos em linhas esquemáticas, os limites na mensuração do raciocínio correto e lógico de natureza das próprias noções lógicas, das conexões entre ela e a matemática, caráter eterno ou provisório das suas leis lógicas, da base limitada da cognição marcada pelo realismo nas ciências lógico-matemáticas.

O notável lógico e filósofo inglês A.N. Whitehead (1861-1947) afirmava que a mensuração reflexiva contemporânea estava para a tradicional assim como a matemática do século passado para a aritmética das tribos primitivas. Essa afirmação de Whitehead se mostra, em nossa época, como inteiramente justificável. Porém podemos verificar também que a mensuração lógica foi incorporada sem modificações críticas e operantes de relevância pelos fundacionistas da sociologia na construção do próprio saber sociológico e que eles estão para o Século XXI tão próximos quando estão afastados da mutação científica que os procederam.

Para tomarmos consciência da profundidade da crise em que a ciência social se encontra, faz-se necessário integrar sua crise específica com a crise geral que fundou o moderno saber científico somente assim poderemos encontrar pistas para a integração cada vez mais complexa do saber social com o saber da natureza e os novos e pulsantes desafios dessa nova simbiose.

Estamos cada vez mais imersos na emergência de uma nova civilização complexa, a civilização simbiótica. Se os seres humanos tivessem sido feitos para durar mais, seríamos diferentes. A ciência da vida juntamente com a evolução  simbiótica natural cooperativa de nossos corpos com bactérias benignas (quase a totalidade deles no planeta são) e com os vírus que muitos já compõem nosso DNA (25% é retrovírus incorporado), nos deram nas últimas décadas a espécie simbiótica e a conquista da morte pelo envelhecimento.

Agora para vivermos mais tempo e melhor, a simbiogênese social está permitindo co-fabricar um corpo simbiótico distinto dos que a natureza nos desenhou, com seus discos abaulados, ossos frágeis, quadris fraturados, ligamentos rompidos, veias varicosas, catarata, perda da audição, hérnias e hemorroidas: a lista das mazelas corporais que nos afligem à medida que envelhecemos é longa e muito familiar.

Estamos nos dirigindo para a emergência de uma nova espécie simbiótica altamente duradoura, com partículas minúsculas dedicadas totalmente aos bilhões de esforços jeitosos e cooperativos necessários para nos manter intactos e que nos farão experimentar um estranhamento sobre o que conhecemos como existência ou sobre o que é o real movido pela nossa atual singularidade humana.

Se informação não é conhecimento, e se conhecimento não é sinônimo de sabedoria, não é preciso lembrar que essas conquistas geram riscos, desafios éticos e sociais imensos que julgamos não estarmos, ainda, à altura de enfrentá-los.

Temos, cada vez mais, uma compreensão da importância da simbiogênese, não apenas a demonstrada nas nossas interações com os micro-organismos, mas um borramento amplo de fronteiras entre o mundo físico, social e biológico; uma transubstancialização do poder-corpo para o poder-vida.

Com o borramento e amplificação da simbiogênese microfísica com o universo macrofísico de nosso tecido social, construímos nossa hipótese da simbiogênêse social. Acreditamos que estamos – como espécie – borrando uma passagem evolutiva da era simbiótica e não parabiótica. No lugar de transformar o mundo, nós vamos agora mudar o próprio ser em evolução.

Assim, não somos humanos, estamos ainda apenas humanos, mas o futuro duradouro é do simbiótico, e estamos a passos acelerados nessa direção. Caminhamos aceleradamente, com a manipulação molecular, para a saída da era neolítica, em que logramos a tarefa de dominar nosso ambiente, para uma nova era da programação simbiótica. As nossas próximas tarefas serão o domínio de nosso próprio corpo e dos organismos vivos em geral.

Nessa nova era de uma evolução borrada entre os recursos orgânicos e os inorgânicos, em cooperação com a vida, estaremos transferindo para as criaturas vivas e para as máquinas ou para matérias inorgânicas parte das suas propriedades singulares, um borramento de uma nova ecologia simbiótica. Isso já está sendo demonstrado. Por exemplo, o marca-passo tem sido utilizado com sucesso na medicina desde 1958. [31]

Outros dispositivos já foram demonstrados em diferentes experimentos e estão sendo também implantados no corpo humano ao longo dos últimos anos. Por exemplo, eletrodos para fazer conexão elétrica à espinha dorsal, de modo a estimular órgãos paralisados (utilizado em Larry Flynt, o famoso editor da revista pornográfica Hustler, para recuperar sua virilidade, após uma tentativa de assassinato que o deixou paraplégico) e o incrível implante de olhos artificiais (na verdade, câmeras CCD ligadas a processadores de imagens) para os cegos, o projeto desenvolvido pelos oftalmologistas norte-americanos John Wyatt e Joseph Rizzo.

A vida tecnologicamente inteligente está constituindo uma potente beta natureza (seca, inorgânica) e gerando um novo recurso simbiótico com a alfa natureza (úmida e orgânica). São exatamente os recursos da ciência e da tecnologia modelados por uma sociedade do conhecimento que estão nos impelindo para entrar numa nova era da evolução. Estamos iniciando a embarcação de uma nova era simbiótica. [32]

Minha indicação final é que não vivemos apenas uma nova convergência neurodigital ou uma nova emergência do pós-humano, transhumano ou pós-evolutiva, ao contrário, estamos deixando para trás o humano demasiadamente humano e emergindo novos seres simbióticos modelados por uma aceleração envolta de uma evolução simbiótica, uma evolução geradora de seres bióticos mais duradouros, numa nova ecologia simbiótica, mais recursiva, ou seja, com novos e potentes recursos e sentidos para e pro bióticos.

Nos últimos anos, artistas como Stelarc [33] se dedicaram à discussão cultural e política da possibilidade de ultrapassar o humano, através de radicais intervenções cirúrgicas, de interfaces entre a carne e a eletrônica, ou, ainda, de próteses robóticas, para complementar ou expandir as potencialidades do corpo biológico. Mais do que apenas antecipar profundas mudanças em nossa percepção, em nossa concepção de mundo e na reorganização de nossos sistemas sociopolíticos, esses pioneiros anteciparam transformações fundamentais em nossa própria espécie. Essas transformações poderão, inclusive, alterar nosso código genético e reorientar o processo darwiniano de evolução.

No entanto, a simbiogênese enfrenta a visão reducionista da tecnologia inorgânica, em que a evolução é tecnocientífica, é assimbiótica, e, por consequência, o futuro pertence a entidades assimbióticas, sem vida, “andrógenos” ou a seres deuses, como postula outro israelense, Yuval Noal Harari. [34]

Para entender essa atrofia que paralisou a evolução científica, em detrimento da hiperevolução tecnológica nos últimos cinquenta anos, é preciso começar na gênese desse entroncamento e desvio de rota.

Isso permitirá, também, ao leitor entender porque minha tão marginal proposição social da simbiogênese ficou no âmbito de toda minha carreira científica de tornar pública a construção desse caminho frente às denúncias de atrofia das opções acadêmicas, científicas, no universo do poder-saber. Entenderão o quão marginal fiquei diante da capacidade de diálogo com a tecnociência que dominou completamente, principalmente, a partir dos anos 1980, e hegemonizando totalmente o conhecimento científico, a partir dos anos 1990, uma síntese de ciências cognitivas e suas sub-colônias disciplinares.

Tenho uma metáfora para explicar esse fenômeno da invasão da literatura técnico-científica e técnico-empresarial no universo das academias, universidades e no solo fértil da produção científica.

As titãs “ciências cognitivas” são como uma figueira (que aliás são árvores centenárias maravilhosas e muito poderosas, e sou grande admirador). As figueiras – geralmente com sementes trazidas por pássaros – germinam em uma árvore hospedeira e, bem aos poucos, vão se comportando como estranguladoras. Crescem se enroscando no caule da hospedeira, competindo com ela, sugando seus insumos e sua água; quando alcançam o solo, se enraízam, engrossam suas raízes, mostram toda sua força e, por cintamento, vão apertando, apertando, até sufocar e matar suas hospedeiras, dando vazão a seus domínios imperiais e centenários.

Da mesma forma, as ciências cognitivas, (que são muito mais técnico-ciências), facilitadas pelo imenso poder da computabilidade das máquinas cognitivas, foram enroscando e sufocando as ciências de base em todo o universo da produção acadêmica e “científica”, tornando quase a totalidade da ciência e das universidades uma agência da cognição.

Uma hegemonia que chega a ser assustadora. De todos os recursos disponibilizados para a pesquisa científica, em torno de 93% da verba é afunilada para as técnico-ciências cognitivas e suas sub-colônias disciplinares.

Por fim, mas não por final, a civilização simbiótica envolve sociedades que são holísticas; envolve sociedades que também dão respostas pró-bióticas; envolve sociedades que também transbordam em constantes fenômenos emergentes; envolve sociedades que são ecológicas, mas produtivas; envolve sociedades que também são tomadas pela consciência de energias espirituais, não dogmáticas e não reduzidas na matéria; e a civilização simbiótica envolve sociedades que também dialogam profunda e abertamente com a ciência.

Na esperança da cooperação humana: que venha a consciência simbiótica


[1] Cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neuroreabilitação em diferentes cidades e diferentes países principalmente, europeus. 

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com/

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções e coordenando a Banda Seu Kowalsky e os Nômades de Pedra. Suas músicas e shows vídeos podem ser acessadas no canal do youtube. https://www.youtube.com/c/seukowalskyeosnomadesdepedra

[2] WIGNER, Eugene. Symmetries and Reflections: Scientific Essays. Cambridge: Cambridge University Press,  1970: 7.

[3] Cf. SANTOS, Boaventura de Sousa. A Crítica a Razão Indolente: contra o desperdício da experiência. São Paulo: Cortez, 2000: 70-71.

[4] O impacto dos teoremas de Gõdel na filosofia da ciência tem sido diversamente avaliado. Ver, por exemplo, LADRIÈRE, Jean. Lês limites de la formalisation, in Piaget (org). Paris: Gallmard, 1967: 312 e 55; JONES, Roger. Physics as Metaphor. Nova York: New American Library, 1982: 158; PARAIN-VIAL, Jeanne. Philosophie dês sciences de la nature: tendances nouvelles.  Paris: Klincksieck, 1983: 52 e THOM, René. Parábolas e Catástofres. Lisboa:D. Quixote,1985: 36

[5] SANTOS, 2000: 70.

[6] SANTOS, 2000: 70-71.

[7] WEBER, Renée. Cientistas e Sábios. São Paulo: Cultrix, 1988 224.

[8] EINSTEIN, Albert. ”Preface of Galileo”, in Easlea, Brian. Londres: Liberation and the Aims of Science. Londres: Chatto & Windus: 1973: XIX.

[9] Idem.

[10] GALILEI, Galileu. Diálogo dos Grandes sistemas (primeira jornada). Lisboa: Publicações Gradiva, 1979: 110.

[11] REICHENBACH, Hans. From Copernicus to Einstein. Nova York: Dover Publications, 1970: 68.

[12] WIGNER, Eugene. Symmetries and Reflections: Scientific Essays. Cambridge: 1970: 07. 

[13] Idem.

[14] Idem: 271.

[15] Cf. SANTOS, 2000:69.

[16] Cf. SANTOS, 2000:26.

[17] Cf. SANTOS, 2000:79-80.

[18] Cf. SANTOS, 2000:103-104.

[19] Cf. SANTOS, 2000:26-27.

[20] RICOEUR, Paul. Le Conflit des interprétations. Paris: Seuil, 1969: 148-153.

[21] Cf. SANTOS, 2000: 81.

[22] SANTOS, 2000: 89.

[23] MORIN, Edgar. . O método 1: a natureza da natureza. Portugal : Publicações Europa-América, LDA, 1987.

[24] ANDERY, Maria Amália et al. Para Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ: 1988: 245.

[25] ANDERY, Maria Amália et al. Para Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ: 1988: 245-246.

[26] SANTOS, 2000: 92.

[27] Idem.

[28] KEKEMAN, SJ. Hermêutica e sociologia do conhecimento. Lisboa : Edições 70, 1986:235-236.

[29] Idem

[30] SANTOS, 2000: 89-94.

[31] Para saber mais veja: KEMPF, Hervé. La Révolution Biolithique: Humains Artificiels et Machines Animées. Paris: Albin Michel, 1998.

[32] Para saber mais veja: LIMA, Gilson. Nômades de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, 2005.

[33] http://stelarc.org/projects.php (última visita em: 28 de julho de 2020).

[34] Para saber mais veja: HARARI, Yuval Noah. Homo Deus. São Paulo: Companhia das Letras, 2016.

 

APRESENTAÇÃO => Gilson Lima - Kowalsky🎤

 

Gilson Lima - Kowalsky🎤



 

Cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neuroreabilitação em diferentes cidades e diferentes países principalmente, europeus.  

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com/

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções e coordenando a Banda Seu Kowalsky e os Nômades de Pedra. Suas músicas e shows vídeos podem ser acessadas no canal do youtube. https://www.youtube.com/c/seukowalskyeosnomadesdepedra

 

segunda-feira, 7 de dezembro de 2020

SAIBA TUDO SOBRE AS VACINAS DA COVID-19: as pesquisas, os debates entre os cientistas, as mentiras que circulam, medos e esperança.

 Gilson Lima

PERGUNTA GERAL

Gilson Lima. Você tem acompanhado o desenvolvimento das vacinas? Encontra evidencias de algum risco? Ou se há riscos quais seriam?

Gilson Lima - Kowalsky🎤: Nossa preciso de tempo para responder essa.




Primeiro você sabe de que pela simbiogênese as coisas são mais complicadas do que mandar uma artilharia no vírus e as pessoas não morrem por causa dele. São 82% tem uma rede biótica que convivem bem com o vírus. 3% desorganizam de tal modo o sistema imune que passam a destruir a si mesmo (chamam de tempestade de citocinas).


Referência....

..... Evidências científicas sugerem que infecções graves por COVID-19 podem estar relacionadas a síndrome de tempestade de citocinas. Evidências científicas sugerem que infecções graves por COVID-19 podem estar relacionadas a síndrome de tempestade de citocinas.

____________________________________________

 Sei que na história as vacinas de primeira geração representam aquelas que empregam na sua composição o agente patogênico na sua constituição completa, mas submetido a tratamentos que levam à inativação ou à atenuação dos micro-organismos. Nesse grupo, destacam-se também as vacinas voltadas para a prevenção da coqueluche ou pertússis (vacinal celular), as vacinas contra varíola, poliomielite, sarampo, rubéola, adenovírus, entre outras.

A segunda geração surgiu com a noção de que, em alguns patógenos, a proteção vacinal pode ser obtida após a indução de anticorpos voltados para um único alvo, como uma toxina, responsável pelos sintomas da doença, ou açúcares de superfície que permitem ao sistema imune do hospedeiro neutralizar e eliminar bactérias que de outra forma se propagariam rapidamente antes de serem notadas por nossas principais linhas de defesa imunológica. Nesse grupo, destacam-se vacinas acelulares que empregam toxoides (toxinas purificadas e inativadas por tratamento químico), proteínas e polissacarídeos purificados, como as antitetânica, antidiftérica, hepatite B e as vacinas voltadas para o controle da meningite meningocócica e da pneumonia.


______________________________________

A vacina é o que podemos fazer por enquanto. Não temos uma outra saída a médio prazo enquanto não descobrimos como ajudar nosso sistema imune a lidar com o SARS-Cov-2.

Gilson Lima - Kowalsky🎤: Falando mais especificamente sobre a vacina.

Não vou entrar no debate rasteiro se devemos ou não vacinar. Século XXI minha gente.

Se alguma vacina genética tivesse pegado carona e acelerado o processo de testes e riscos da forma oportunistas, como chegaram a ensaiar, eu botaria a boca no trombone, mas não é o caso. Eles estão comportados. Por enquanto...

As vacinas genéticas são mais recentes e sofisticadas e ainda cercadas de polêmicas. Até o momento, apenas vacinas genéticas veterinárias foram aprovadas para o uso na clínica. 

Cada minúscula mudança em nosso genoma pode gerar imensos efeitos e fazer uma grande diferença.

 Acho que o que ainda chamam de vacina genética é o caminho, ... não será nem mesmo uma vacina é outro conceito, mas ainda temos muitas dúvidas sérias sobre os riscos de nossa ignorância de seus efeitos a médio e longo prazo na nossa rede biótico colaborativa.

Toda semana há notícias de avanços, de que alguma vacina já chegou à fase de testes com "humanos". São impressionante os dados desse mutirão científico em busca da vacina.  Desde que começou a pandemia, quase 30 mil artigos científicos foram publicados e um número enorme de vacinas (mais de uma centena) começaram a ser testadas. E algumas chegaram extremamente rápido, como nunca se viu, às fases clínicas. Isso é louvável, mas perigoso numa perspectiva de longo prazo. Como cientistas, temos de ter muita cautela e ser muito críticos.

Não é uma corrida para ver quem vai chegar primeiro. Pode parecer estranho que ter tanta gente fazendo a mesma coisa. Isso é sem precedentes na história, mas é extremamente necessário ter vários grupos trabalhando nas suas respectivas estratégias vacinais. Mas isso é muito importante. Quem chegar primeiro vai dar um fôlego para que as outras continuem.

Das 141 candidatas a vacinas para a COVID-19 mapeadas na OMS que acompanhei e vem sendo investigadas hoje no mundo, 16 já estão bem adiantadas na fase de testes clínicos em humanos. A de Oxford já foi aprovada para fins de imunização pública no Reino Unido. A China está vacinando há dois meses e a Rússia começou nesse fim de semana.

 A primeira vacina a ser concluída não necessariamente será a melhor. O que não invalida o processo de vacinação. Isso não significa que teremos que colocar a vacina no lixo.

 A vacina de Oxford, certamente, mostrou que protege com índice bem elevado a COVID-19, minha dúvida é se ela terá a capacidade de impedir transmitir a doença para quem não tomou. Não provaram ainda ou não temos certeza de saber se os humanos vacinados poderão continuar transmitir o vírus. É uma coisa grave em termos de saúde pública, porque as pessoas que não estiverem vacinadas estarão sob ameaças.

A escolha também poderia ter sido melhor.

A vacina de Oxford, por exemplo, usou um adenovírus de chimpanzé, que não vai causar nenhum mal para os cientistas que a manipulam.

Os Russos optaram, mais corretamente (com mais riscos na produção) com células humanas. Russo é russo tem os caminhos que só russos fazem. Se não fizerem o partido manda "bala" (metaforicamente).

A probabilidade de dar certo na Rússia é grande a meu ver apesar dos caminhos - digamos - não muito adequados na aceleração.

Ambas usam o vírus como uma plataforma, um vetor onde se coloca a sequência genética do SARS-COV-2 que codifica a proteína da espícula, que é a proteína que a que vai dar a melhor resposta imune. Ao injetar a vacina nas nossas células, elas vão produzir a proteína do vírus, vão apresentar isso para o nosso sistema imune, que vai identificar que o vírus está presente e ele monta uma resposta imune. Mas o vírus nunca esteve lá. Só está lá a proteína, que nossas células fizeram.

Interação. Efeitos colaterais?

Gilson Lima - Kowalsky🎤

 Certamente alguns apresentarão e teremos que preparar. Qual a opção: vacinar.

Sobre a logística: Sou crítico severo. As mais próximas de aprovação serão musculares. Um erro. Deveriam ser em gotas. O melhor caminho para esse vírus. Além da facilidade logística. Mas isso encareceria mais a pesquisa e seria pedir muito para os laboratórios.

A pesquisa da turma de Israel tá nesse caminho. Será em gotas.

É isso nunca se fez nada assim antes nessa escala e velocidade. Isso demonstra, por outro lado, o quanto estamos evoluindo tão rapidamente.

Interlocutor A. Obrigada por toda explanação científica que aqui deu. Essa clareza é extremamente importante para se analisar conjunturas tão delicadas. Essa mensagem deve ser compreendida e replicada.

QUESTÃO. PROBLEMATIZAÇÃO.

Interlocutor B. "Ok, mas RNAm não faz apenas um caminho, porque transita entre núcleo de DNA e fora, levando a decisão de quais proteínas o corpo vai produzir.

É o mesmo princípio do GMO do milho, que com essa tecnologia, faz com que o milho transgênico "produza" a sua própria defesa.  

NOTA! OGM é a sigla de Organismos Geneticamente Modificados, organismos manipulados geneticamente de modo a favorecer características desejadas, como a cor, tamanho, etc. Os OGMs possuem alteração em trechos do genoma realizadas através da tecnologia do RNA/DNA recombinante ou engenharia genética.

O milho GMO-FRE é o milho livre de transgênicos ou milho convencional. Fornecedores de produtos de milho GMO-FREE (non-GMO) aprimoram continuamente seus processos de produção, por meio de certificações que comprovam o uso de matéria-prima não transgênica na elaboração de sua linha de produtos.

 No entanto com muitos anos de GMO no reino vegetal, o que vejo é a apogenia genética a longo prazo, e não só dos molhos transgênicos, mas dos milhos que são cruzados através da polinização natural com eles. 

Cada vez mais vejo espigas disformes, faltando grãos de milho na espiga, saindo do seu padrão que era harmônico e ficando feias, inclusive as crioulas que recebem cruza. 

No sentido de produzir a própria defesa, vejo agricultores cada vez reclamando mais porque a cada ano precisam de mais glifosato e a promessa era oposta a isso.

Vejo efeitos colaterais da complexidade que ninguém imaginou, como a contaminação das águas e morte de abelhas. 

As vacinas com vírus atenuado se mostraram absolutamente seguras, salvo o barateamento que a indústria faz em nome do lucro, inserindo veículos baratos como mercúrio, nocivo, cromossomos de cavalos, etc.... Ou seja, para mim faria sentido o desenvolvimento de vacina que não são genéticas.

Creio que estamos atravessando uma linha perigosa.

É muito nítida que a relação que a civilização europeia traz com a Natureza, por terem vindo de biomas nos quais a Natureza era hostil (neve, escassez de diversidade nas matas - florestas coníferas), eles tem a mentalidade de que a Natureza precisa ser "dominada".  Fim do interlocutor B.

________________________________

NOTA. Florestas Coníferas. É um bioma predominante das regiões localizadas em elevadas latitudes cujo clima típico é o continental frio e polar, comumente encontrado no norte do Alasca, Canadá, sul da Groenlândia, parte da Noruega, Suécia, Finlândia, ... etc.

________________________________

 Interlocutor continua

Aqui na Atlântica os povos de biomas mais gentis desenvolveram outra relação.

=====================================

Gilson Lima - Kowalsky🎤:

Sobre Apogenia genética. Até onde sei isso é muito informal e em botânica significa que os órgãos sexuais estão privados da sua atividade. Não entendi nada.... da relação com os transgênicos e  a vacina.

RESPOSTA. Então. Vejo que está convencida sobre o que vai acontecer nas gerações seguintes com as vacinas dessa tecnologia e quem mesmo para quem já usa medicações já consolidadas com essa mesma tecnologia.  Mas estranho ser tão enfática com uma medicação que não tenha estudos randômicos sérios comprovados para algo que acontece hoje. Não?

Precisamos de mais estudos para essa certeza toda não acha?

Tem razão que o vírus não mata e isso tem a ver com o desequilíbrio simbiótico de alguns sistemas nervoso, de algumas pessoas e numa escala mundial que não temos sistema de saúde que dê conta. Vão querer o que enterrar corpos como ratos?

 Pelo que entendi você é contra a vacinas e a favor de uma medicação de prateleira dita como já eficaz. Se é tão fácil assim. Está resolvido. Suspendam as vacinas e vamos apenas tratar com essa medicação para piolho. Esqueçam de ler os mais de trinta mil artigos científicos. O milagre está diante de nossos olhos. Só precisamos enxergar. Será?

Mas veja. Compara o SARS-Cov-2 com o SARS-Cov-1.    As epidemias de 2002  e a última de 2016 na Arábia Saudita. Esse vírus tem uma singularidade extraordinária. Ele não é um ebola. Comparado é quase uma Lady. Por que acha que temos uma pandemia mundial com ele? Não tivemos com os outros. O foco é no nosso sistema imune. Claro, não o vírus. Você está absolutamente correta nisso.  E estamos longe das respostas de longo agora para isso.

Essa falta absoluta de padrão de reações tão diversas para um vírus que é tão estável, mesmo na reabilitação é desafiador.

Agora a aceleração de conhecimento é interação entre bancadas é visível nesse mutirão mundial contra a pandemia. Não tem como enganar tanta gente por tanto tempo. Esses salvadores de soluções mágicas sem vacina precisam trabalhar mais, além de produzirem tantos ruídos de certezas. Pelo menos não me convenceu.... Olha que não sou otimista.

As vacinas aprovadas até agora não são genéticas, elas  não vão apenas usar o DNA ou RNA do vírus alvo, o SARS-COV-2, ou trabalhar direto com a proteína. Isso é muito diferente.

Injetar RNA em uma pessoa não mexe em nada no DNA de uma célula humana.

Nesse sentido não tem nenhum risco disso da vacina transitar entre núcleo de DNA. Esse processo com RNAm foi já está consolidado e sem riscos em vários estudos com medicamentos desse porte foram testados em “humanos” nos últimos anos. E, desde o início da pandemia, a vacina foi testada em dezenas de milhares de pessoas em todo o mundo e passou por processos de aprovação de segurança.

Interlocutor C. Eu aprecio a sua confiança, mas como te falei o ensaio mais longo de alteração no RNAm é o milho transgênico, que tem efeitos colaterais claros e explícitos.

Se a tecnologia de vacina de vírus atenuado é possível, não vejo porque partir para edição de RNAm, que é quem define que proteínas o meu corpo vai produzir ou não.  Tão pouco pode se prever o que as crianças que vão procriar entre si com essa diferenciação vão produzir geneticamente como filhos. 

Muitos efeitos colaterais de inovações são percebidos apenas na geração seguinte, como já se vê. Eu aprecio a sua forma otimista e confiante, como pessoa, mas não consigo me desconectar do real e factível que é a distância entre as expectativas dessas inovações e suas reais entregas, agravadas por efe…

Uma médica traz os estudos de uso de Ivermectina e fala algo em torno de 90 a 95% de eficiência, uma porcentagem dificilmente atingida por uma vacina.

Então se temos um remédio sem patente, baixo custo, que não precisa de uma logística sofisticada para ser executada, com um resultado tão expressivo como esse, porque ainda estamos falando de vacina?

Então existem sempre stakeholdes prontos para lucrar e curioso que a pouco tempo a gente estava falando de como as empresas de aviação não valiam mais nada, que estavam indo rumo a falência, e agora para levar vacinas como a DA Pfizer/BioNTech precisa estar a 75 graus abaixo de 0; esse setor vai receber investimentos gigantes e serão novamente valorizados.  

________________________________

NOTA. Os stakeholders (partes interessadas, em português) são as pessoas e as organizações que podem ser afetadas por um projeto ou empresa, de forma direta ou indireta, positiva ou negativamente. Os stakeholders fazem parte da base da gestão de comunicação e são importantes para o planejamento e execução de um projeto.

________________________________

 Desculpe não ser romântica... Eu sou uma mulher que já teve o coraçãozinho mil vezes estraçalhado no meu tempo de atuação coorporativa.  Conheço de perto os interesses NADA altruístas que movimentam esses pares. 

Interlocutor continua....

Deve ser uma conversa assim:

"Temos um remédio barato que já existe em todo o mundo com 90% de sucesso, descoberto em uma pesquisa alemã"

- "malditos alemães"! O setor de pesquisa científica em alguns países ainda não está totalmente dominado.

- "Bom, temos ou esse remédio ou um plano mirabolante que incluí uma corrida enlouquecida para emplacar uma vacina com patente e na sequência um plano logisticamente enlouquecedor para entregar essa vacina. O que vamos escolher?!

- hummm, a segunda opção, qto mais mirabolante e inverificavel, mais dinheiro poderemos fazer

- certo. Está resolvido então. Comprem as mídias para dizer que a ivermectina não funciona, e que somos salvadores do mundo por desenvolver uma vacina inovadora e ainda levar a menos 75 graus até o deserto do Saara!

Eu: 😅 sinceramente

O patriarcado e suas megalomanias...

Fim do interlocutor C

 ================================

Gilson Lima - Kowalsky🎤:

São várias coisas.

Não existe nada que comprove que o RNAm transita pelo núcleo. Se alguém tem uma pesquisa que confirme isso gostaria de conhecer.

RNAm só tem uma função, ser traduzido em proteína que ele codifica. Não entendi também essa relação da vacina com transgênico, que relação isso tem com vacinas. Com vacinas, apresentamos o vírus atenuado ou partes dele para as nossas células de defesa do nosso sistema imune, para que nossas células saibam reconhecer esse vírus. O que muda é o modo de apresentação dessa partes.

Realmente, não consigo captar como o RNAm vai escolher quais proteínas do corpo serão produzidas, nem qual a relação com transgênicos. O RNAm vai traduzir a proteína do vírus, e essa será apresentada ao sistema imune apenas. Não consigo ver como isso alteraria código genético. Estou até curioso se tiver artigo e pesquisa sobre isso me interesso.

Agora qual a relação entre a resposta imune de um indivíduo com a herança genética? Se fosse assim, quem recebesse uma vacina, de pólio por exemplo, ou qualquer outra, os filhos nasceriam vacinados? Acreditar que vacina altera o código genético, e ainda mais, de células germinativas passando para a prole, não me parece ter sentido algum.

O que é uma vacina genética. Vamos acertar isso?  

Como já disse. A vacina de Oxford, usou um adenovírus de chimpanzé. A Russa usou células humanas. Usa-se o vírus como uma plataforma, um vetor onde se coloca a sequência genética do SARS-COV-2 que codifica a proteína da espícula, que é a proteína que a que vai dar a melhor resposta imune. Ao injetar a vacina nas nossas células, elas só vão produzir a proteína do vírus, vão apresentar isso para o nosso sistema imune, que vai identificar que o vírus está presente e ele monta uma resposta imune. Mas o vírus nunca esteve lá. Só está lá a proteína, que nossas células fizeram.

As vacinas genéticas são mais recentes e sofisticadas e ainda cercadas de polêmicas. Vacinas genéticas para a COVI-19 são projetadas para se transformar em organismos geneticamente modificados (GMOs).

A vacina genética é uma vacina de DNA, onde jogo direto a sequência de DNA do vírus dentro da célula. Pode-se fazer isso com uma molécula de RNA, que é o mesmo raciocínio. O RNA codifica a proteína. A vantagem dessas técnicas mais modernas é não ter de trabalhar com o vírus. Elas são mais rápidas, mais versáteis. E tem uma grande vantagem dessas vacinas de DNA, RNA, e as de vetor, como a de Oxford, é ter uma plataforma pronta, em que é possível só trocar de sequência genética de vírus. Conseguindo isso ficamos bem preparados para uma próxima doença. Se vier um outro vírus, é só trocar a sequência genética e a vacina está pronta.

Vacinas gênicas, não são baseadas no próprio patógeno, como as vacinas atenuadas ou inativadas e sim, na informação genética do mesmo. Dessa forma, essa informação genética codifica uma ou mais proteínas do organismo patogênico, utilizando a maquinaria do próprio hospedeiro. Essas proteínas são denominadas antígenos e irão ativar o sistema imunológico do receptor da vacina, levando à produção de anticorpos, de células citotóxicas e de células de memória.

Até o momento, apenas vacinas genéticas veterinárias foram aprovadas para o uso na clínica. Cada minúscula mudança em nosso genoma pode gerar imensos efeitos e fazer uma grande diferença.

Quando essa vacina é administrada em uma pessoa, o DNA é reconhecido por suas células, que começam a produzir substâncias que seriam normalmente produzidas por bactérias, vírus, ou qualquer outro agente, fazendo com que o organismo hospedeiro reconheça e produza imunidade contra essas substâncias, criando assim uma memória imunológica. Assim, quando o indivíduo entrar em contato com esse patógeno, não desenvolverá a doença e, inclusive, poderá – a princípio estar protegido por toda a sua vida. 

Na Internet circula que a Fundação de casal bilionário Bill e Melinda Gates estão ajudando financiar.  Agora é uma idiotice acreditar nas notícias falsas das redes sociais de que Bill Gates não tem um plano de implantar microchips nas pessoas para dominar o mundo. 

Também informações falsas e sensacionalistas estão sendo espalhadas nas redes sociais de que células MRC-5 de fetos abortados que é mentira.

 

NOTA. MRC-5 é reconhecida como um dos mais importantes substratos celulares para a produção de vacinas virais, e também tem sido adotada como modelo de estudo para senescência celular in vitro.

 

Quatro das vacinas para o SARS-Cov-2, envolvem culturas originadas a partir de fetos, as células são usadas para fabricar adenovírus atenuados, que servem para transportar parte do genoma do coronavírus para dentro do organismo. Os adenovírus infectam as células do nosso corpo e as fazem produzir proteínas do coronavírus, o que pesquisadores esperam ser capaz de gerar uma resposta imunológica. Porém, a afirmação feita pela suposta notícias de que as vacinas contra CIIVID-19 têm células de fetos em sua composição é falsa. As células são usadas para produzir os vírus. Depois, eles são separados das células, e só são usados os vírus na vacina.

A criação de vacinas realmente pode envolver o uso de culturas de células obtidas de tumores ou de fetos humanos que foram abortados.  Isso já é muito usado. Essas culturas são essenciais para esse tipo de trabalho, porque os pesquisadores precisam de células às quais um vírus possa infectar e se reproduzir. Assim, é possível obter exemplares suficientes para testar e produzir vacinas. As vacinas normalmente usam cópias inativadas (mortas) ou atenuadas (alteradas para não serem infecciosas) de um vírus, que, uma vez injetado no corpo, leva o sistema imunológico a produzir anticorpos para combater a ameaça. Desta forma, o organismo conseguirá combater um patógeno mais eficientemente quando for realmente infectado, impedindo que uma pessoa fique doente.

As culturas de células são usadas para isso desde meados do século passado e estão envolvidas na produção de algumas das principais vacinas que temos disponíveis hoje, como para rubéola, catapora e hepatite A. A primeira vacina desenvolvida assim foi a contra poliomielite. Antes, era preciso obter o vírus de pessoas ou injetá-lo em um animal, matá-lo, tirar um pedaço do corpo, purificar o material. Quando foi desenvolvida a técnica do cultivo de células em laboratório, foi uma grande revolução na virologia e na biologia de forma geral. Além de facilitar a produção de vacinas e permitir sua produção em massa, essas culturas têm outra vantagem.

Essas culturas têm sido reproduzidas em laboratório e vendidas para pesquisadores de todo o mundo. É importante deixar bem claro que isso foi feito pontualmente uma vez. Não é como se agora estivessem sendo feito abortos para produzir vacinas.

O biólogo molecular Alex Van der Eb, desenvolveu outra cultura a partir de células da retina de um feto abortado em 1985, chamada PER.C6.

 Realmente as vacinas estão chegando em tempo recorde de testes clínicos. Existe rumores de que estão utilizando manipulações de isolamento de células que perderam a capacidade de sofrer apoptose em testes de vacinas para a Covid-19. Alguns grandes laboratórios sonham com isso. A apoptose não ocorre em células para o organismo. Esse tipo de pesquisa para combate ao câncer já existe.  São pesquisas muito incipientes para serem utilizadas para a COVID-19, apesar do desejo de alguns biotecnológicos. É preciso estar atentos para que a ansiedade da cura pela vacina não seja atropelada de modo irresponsável por experimentos ainda muito incipientes e que, mesmo tendo potenciais de cura do câncer podem, ao contrário, fazer um grande estrago em nossa rede biótica se forem utilizados sem os devidos processos seguros de consolidação.

 ________________________________

NOTA. Apoptose é uma forma de morte celular programada, ou "suicídio celular". É diferente de necrose, na qual as células morrem por causa de uma lesão. A apoptose é um processo ordenado, no qual o conteúdo da célula é compactado em pequenos pacotes de membrana para a "coleta de lixo" pelas células do sistema imunológico.

 ________________________________

Um jeito que a gente sabia fazer vacina era cultivar o vírus, atenuá-lo ou inativá-lo. Para isso precisa ter laboratório de segurança, porque é um vírus respiratório, contagioso, então precisa de toda uma estrutura, que a gente tem – inclusive - no Brasil. As vacinas que vão lidar com a proteína, tem maneiras de fazer isso. Ou se usa vacinas genéticas, que vão usar o DNA ou RNA do vírus alvo, o SARS-COV-2, ou vai trabalhar direto com a proteína. A logística disso é muito diferente e nesse caso não precisa de um laboratório de segurança. Trabalha-se com plataformas que vão carregar uma sequência genética do vírus.

As vantagens das vacinas de DNA, em relação aos outros métodos mais clássicos, incluem: a rápida produção, a possibilidade de adaptação a patógenos emergentes, a alta estabilidade à temperatura ambiente (devido à grande estabilidade da molécula de DNA) e a ativação das respostas humoral e celular do hospedeiro.

Como principal desvantagem, temos a baixa imunogenicidade destas vacinas (ou seja, elas não estão sendo tão eficientes em ativar a resposta imunológica do hospedeiro) em testes com animais de grande porte e em humanos, diferente do que vem sendo observado nos testes com roedores. As vacinas de DNA possuem dificuldade em reconhecer, selecionar e correlacionar todas as partes do DNA do agente que se quer combater; possibilidade da indução de uma doença autoimune; integração do DNA no cromossomo do hospedeiro, causando mutações que poderiam levar ao aparecimento de um câncer; e indução de tolerância do hospedeiro às substâncias estimuladas pelo DNA. As vacinas de DNA podem ser administradas por diferentes vias, mas a injeção intramuscular é a forma mais utilizada.

Assim, ainda é necessário investir em estudos de adaptação de dose e em técnicas mais eficientes de administração destas vacinas. Temos outro problema. É que até hoje nenhuma vacina genética foi aprovada para uso humano.  Com a vacina de DNA, até hoje há discussão em aberto sobre a potencial ativação de oncogenes (genes relacionados a tumores). Ela também exige a inoculação de um grande material, o que acaba sendo tóxico.

As vacinas genicas que poderão ser utilizadas para combater a COVID-19, não são alheias a críticas severas.  E esse processo de aceleração pode sim representar muito perigo para nosso futuro se o caminho dos testes não forem devidamente realizados.

É muito complicado pegar algo tão invasivo em nossa rede biótica, com tantas dúvidas e que nunca tenha sido utilizado em humanos e permitir seu uso em escala. Estão apressando muitos processos, pulando testes em animais e querendo aplicarem direto em humanos. Não há testes clínicos randomizados e controlados por placebos para nenhuma vacina gênica. Não se está utilizando protocolos científicos sólidos. Caso essas vacinas – não forem devidamente aprovadas – podem causar danos e efeitos colaterais severos como convulsões, paralisias, por terem sido aprovadas seus donos e proprietários não serão devidamente responsabilizados.

________________________________

NOTA.  Cada um de nós tem informação de DNA suficiente para se estender por 10 bilhões de milhas se esticado. Isso significa 35 mil terabytes de dados ou 35 milhões de horas de vídeo de alta definição. Que informações são essas? Um plano para manter seu corpo vivo.

________________________________

Como esse seu corpo funciona, como ele cresce, como ele se reproduz, inclusive, quando pensamos e quando usamos nossas memórias. Você pode inserir um gene no genoma, colocar algo extra nele, você pode tirar algo dele e deixar isso faltando. Você pode também translocar, ou seja, retirar parte de um genoma e colocar em outro lugar, ou ainda pode pegar um fragmento de genoma sintético ou de outro organismo e inserir no seu genoma, ou cortar parte de um genoma humano e inserir outro genoma ali. Isso é bastante comum e dominado por estudantes de graduação que atuam em laboratórios de biotecnologia.

Cada minúscula mudança em nosso genoma pode gerar imensos efeitos e fazer uma grande diferença. Quando você faz isso estará reescrevendo seu código genético. Ao inserir uma célula sintética ou geneticamente modificada no seu genoma geralmente você está consumindo um “produto” patenteado ou com propriedade de alguém que tem um custo. Quando patentes estão envolvidas alguém é dono de uma célula não natural, mas modificada intencionalmente por pesquisadores e cientistas. Tudo isso torna o processo industrial mais complexo e temos que estar atento e os organismos internacionais devem monitorar bem de perto todo o processo.

Por outro lado, não conseguiremos vencer a pandemia, imunizar o planeta do corona vírus sem os grandes laboratórios farmacêuticos. Os discursos ideológicos que desconsideram isso são cercados de utopias, ingenuidade ou más intenções.

O futuro consolidará ainda mais as vacinas gênicas. Elas são muito importantes para o enfrentamento das pandemias e da sobrevivência duradoura de nossa espécie. Resistir de modo tão conservador a isso é o esmo que condenar o aborto em situações de risco para uma mulher grávida por motivos de crenças dogmáticas. Vivemos uma era de transição paradigmática na ciência e essa insegurança gera todo um movimento obscurantista frente as conquista do conhecimento complexo.

Não conseguiremos também vencer a pandemia, imunizar o planeta do corona vírus sem os grandes laboratórios farmacêuticos. Os discursos ideológicos que desconsideram isso são cercados de utopias, ingenuidade ou más intenções.

Sair por aí reproduzindo informações falsas e conspiratórias tem sido uma hábito, infelizmente muito utilizados por pessoas tomadas por uma energia do mal. E essa energia está se espalhando no planeta tanto quanto o corona vírus.

Uma coisa é ter a vacina outra é ela ser aplicada em cada um de nós. O que os governos deveriam saber é que quem ganha uma corrida de vacina não é quem chega primeiro, é quem chega em melhores condições. Isso significa: proteger da doença, eliminar o vírus, ter uma cobertura muito grande na população e desenvolver uma boa memória imunológica.

 ===============================================================

Outra coisa. Mais adiante é que gostaria de falar sobre o que que foi dito aqui a diferença entre a simbiogênese lenta que é feita com a inteligência “natural” dos seres vivos e a simbiogenese envolvida na minha abordagem da aceleração da civilização simbiótica. Quando conquistamos a capacidade e consciência de intervir na cooperação da própria simbiogênese dita “natural” com nosso próprio conhecimento acelerando o processo de evolução.

===========/%%%????########$$$'===$$$$

quinta-feira, 3 de dezembro de 2020

MANIFESTO PARA O GRANDE RESET: A emergência da nova civilização simbiótica!

Gilson  Lima

Aos simbióticos e àqueles que não sabem que são!



Ainda que poucos tenham entendido,  tenho dito e publicado que o vírus está acelerando um novo processo civilizatório, mais evoluído. É a emergência dos simbióticos, uma nova espécie pós-humana e de uma nova civilização. 

Deixaremos para trás os predadores inteligentes – os humanos – e construiremos uma nova teia de alta cooperação com o nosso Planeta Vivo e com a vida em nosso Planeta. É a civilização simbiótica: focada, centrada na cooperação com a vida, no Planeta vivo, e será a civilização mais evoluída que esse Planeta acolheu.

Há vários anos, em minhas aulas e atividades de pesquisas, em palestras, no que escrevo, em minhas músicas com ironia, diversão e romance, venho, implícita ou explicitamente, tentando recrutar simbióticos. Marginalizado nessas instituições antibióticas que ainda comandam a cadeia do conhecimento e poder, sempre ocupei as brechas da ignorância (do ignorar) e mandava ver sobre a emergência e a busca de novos simbióticos. 

Quem me acompanha há algum tempo sabe que somos uma galáxia de células de cooperação com bactérias vidas, e, junto ao nosso próprio conhecimento alcançado hoje, já somos muito mais potentes para alterar a evolução. Sobrevivemos ao suicídio da espécie. Vamos abandonar as armas da destruição. 

A vida já borbulha no Planeta com muito mais intensidade e cooperação. Falta a CONSCIÊNCIA, mas ela está sendo acelerada por esse vírus, o SARS-Cov-2. Até o Presidente do Banco Mundial já se rendeu e não fala mais em adaptar a economia, mas que ela foi RESETADA. 

Agora, querem se preparar para o GRANDE RESET. Vai ser divertido. Essas velhas cabeças tentando,  com teias envelhecidas, se adequar ao Tsunami. Já começam errando. Falam em NOVA ORDEM MUNDIAL, TRANSUMANO, INTELIGÊNCIA ARTIFICIAL, DESENVOLVIMENTO SUSTENTÁVEL,... O mesmo dicionário predador... É difícil para eles. Ainda acreditam na ideia de Ordem Mundial. Os simbióticos sabem que ordem e desordem são processos permanentes da emergência. Só existe ordem sem desordem e desordem sem ordem num equilíbrio total e absoluto do movimento da vida no que chamamos de morte. Ainda são antibióticos, QUEREM UMA NOVA TECNOCRACIA para comandar (veja comandar a NOVA ORDEM). Ao menos se deram conta de que ou mudam ou serão mudados e que não depende mais deles. 

Os tais transumanistas não entenderam. Já somos simbióticos. Os cognitivistas não entenderam as interfaces, não são mais as dos velhos Nerds (assimbióticos) que comandaram, até agora, o mundo da tecnologia. As interfaces serão simbióticas. A inteligência só existe onde tem vida, não no silício. Nosso cérebro não é um computador. Não teremos o melhoramento dos humanos pela nanotecnologia, biotecnologia, pela informática, e pela mãe de todas as ciências da computabilidade, as ciências cognitivas. Os humanos melhorados que vocês queriam eram os androides, máquinas inorgânicas fantásticas, mas apenas isso: máquinas que fabricamos. Os simbióticos são superiores porque estão vivos e além dos que emolduraram a vida no homem. 

A vida se libertou das correias da moderna ciência disciplinar, dos presídios escolares e universidades aprisionadas em si mesmas como velhos mosteiros da antiguidade. Instituições agora são interfaces simbióticas - a quinta geração da interface. Conectaremo-nos a tudo e aos displays, paredes, lâmpadas, geladeiras, ... com nosso corpo e não com equipamentos inorgânicos. Vamos melhorar isso, ainda que os bits caminhando com o Smarthphone (o computador que colocamos no bolso, graças à nanotecnologia) tenham sido já um grande avanço para a vida não ser tão sedentária com a tecnologia. Nossas roupas não serão para o frio. Elas monitorarão nossos corpos, ajudarão a manter nossas posturas e cooperarão com a gravidade que tanto nos maltrata.

Nossos Ministérios da Saúde não cuidarão de hospitais onde estão as piores inimigas da vida (antibióticas fabricadas pela indústria da morte). Ministério da saúde cuidará da vida, dos terrenos férteis, da biodiversidade, do ar e, principalmente, da indústria da alimentação pró-biótica. Toda indústria antibiótica da comida será varrida. Os motores serão magnéticos. Esses que pegam fogo e envenenam o Planeta serão varridos. O Petróleo voltará ao que era, uma memória fóssil da vida. Vamos parar de colocar fogo nele e estudá-lo. Sim, do ambiente (que não será mais dividido pelos desenvolvimentos predadores sustentáveis ou não). Não tem como salvar o desenvolvimento. Mesmo o sustentável acredita que o ambiente planetário pode ser dividido em dois: um, o nosso (e meu) e o outro que é o tal ambiente. Os simbióticos sabem que estamos dentro do ambiente em cooperação ou conflito, onde até as árvores se conversam, e evoluímos cooperando com Gaia - o planeta vivo. 

Simbióticos já somos todos, muitos são os que estão aí modelando uma nova civilização, outros ainda não adquiriram a consciência de que já são simbióticos. Chegarão lá!

Que venha a simbiogênese, a civilização simbiótica.