segunda-feira, 23 de maio de 2022

O PARADIGMA DA COMPLEXIDADE

 


Gilson Lima[1]

O chão escorregou de nossos pés. Como testar o conhecimento e fazer ciência sobre o que não vêem. (Albert Einstein)

 

Foi Thomas Kuhn que popularizou em seu famoso livro sobre a Estrutura das Revoluções Científicas o conceito de paradigma. Nessa obra ele nos apresenta 18 noções de paradigmas. Uma delas é a que aqui nos importa aqui: a ideia padrão de concepção de mundo.

Assim, por paradigma entendemos um modelo padrão de concepção de mundo compartilhado por uma determinada comunidade científica. Newton, por exemplo, consolidou o paradigma cartesiano pela suas modelações matemáticas e teorias subjacentes, sobretudo, pela lei da gravitação universal.

No paradigma cartesiano-newtoniano, existem conceitos fundamentais como por exemplo:

 Gravitação, força newtoniana, mente e corpo como entidades separadas; busca da verdade objetiva sem interferência do sujeito investigador (valores, intencionalidade,...) na representação e construção do conhecimento realidade, estrutura dividida em parcelamentos e funções, noção de tempo flecha sem historicidade, assim nas modernas ciências naturais, o conhecimento científico tornou-se possível, graças à formulação de um conjunto de princípios e de teorias sobre a estrutura da matéria que são aceita sem discussão por toda a comunidade científica, por exemplo,  trata-se de um consenso paradigmático no cartesianismo-newtoniano de que a natureza é estruturada podendo ser estilhada em objetos cada vez mais simples, que podem ser medidos em toda sua espessura por menor que ela seja. 

Quanto ao paradigma da complexidade, tudo parece ter começado efetivamente em 1911 com um russo Belouzov, pouco conhecido, mas que é tido como o pai que inaugurou o novo paradigma da complexidade.  Ele teve apenas duas páginas publicadas, mas, no entanto, é muito citado hoje pelos cientistas da complexidade. A ideia de evolução trouxe junto à temporalidade ausente no paradigma cartesiano, a quebra do universo mecânico como fenômeno factual e destemporal tomado por leis universais e irreversíveis que eram independentes da história e do tempo.

Para o paradigma da complexidade outros conceitos são fundamentais, por exemplo:

      O paradigma da complexidade traz conceitos que permitem explicar a gravitação quântica e a relatividade integrada na historicidade. Usa-se de demonstrações de modelos matemáticos não lineares e das interações nucleares fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria integrada à consciência organizada.
            Atratores => forças de atração, relações de atração ascendente = organização óAuto-organização: estruturação sem estrutura ó  forças de repulsão (dissipação) => entropia => descendente. Também encontramos a própria historicidade no interior do paradigma, historicidade essa que é rejeitada pelo paradigma cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria matéria se expande e se contrai.

Assim, na concepção de um paradigma afirmam-se conceitos fundamentais e categorias compartilhadas pela comunidade científica em questão. Um paradigma inclui e exclui categorias e processos que efetivam uma concepção de mundo onde as suas categorias chaves geram deduções e induções teóricas. Nessa perspectiva, o referencial teórico está implicado em um paradigma seja de modo consciente ou não. As teorias são deduções de uma proposição paradigmática.

As mudanças de paradigmas na história são também dizem respeito ao exercício de poder. A transição de um paradigma para outro traz junto uma nova concepção de mundo que se afirma e outra que é deixada de lado.  Daí que, num período de transição entre paradigmas, seja particularmente importante, do ponto de vista epistemológico, observar o que se passa nessas ciências. Por exemplo, hoje não basta apenas apontar a tendência para a superação da disciplinaridade do conhecimento e da ruptura da velha distinção moderna entre ciências naturais e ciências sociais, é preciso conhecer o sentido e conteúdo dessa distinção e dessa superação.

Precisamente porque em períodos de transição paradigmática vivemos mais intensamente um estado de turbulência, onde as vibrações do novo paradigma repercutem-se desigualmente nas várias regiões do paradigma dominante e vigente e por isso os sinais do futuro são ambíguos.

Nas fases de transição e de revolução científica, encontramos muita insegurança onde a nossa reflexão epistemológica torna-se muito mais avançada e sofisticada do que a nossa prática científica. Hoje, nenhum de nós pode neste momento visualizar projetos concretos de investigação que correspondam inteiramente ao paradigma emergente. É por isso que precisamente nos encontramos numa fase de transição paradigmática.

Duvidamos suficientemente do passado para imaginarmos o futuro, mas vivemos demasiadamente o presente para podermos realizar nele o futuro. Estamos divididos, fragmentados entre o velho e o novo. Sabemo-nos a caminho do novo, mas não exatamente onde nós estamos na jornada. A condição epistemológica da ciência repercute-se na condição existencial dos cientistas. Afinal, se todo o conhecimento é autoconhecimento, também todo o desconhecimento é autodesconhecimento. (SANTOS, Boaventura de Souza. Um Discurso Sobre as Ciências. Portugal: Afrontamento, 2001: 58).

 O mundo não tem uma estrutura de ORDEM MATERIAL implícita COMO PENSAM OS MODERNOS. É uma estruturação sem estrutura. É organizado, mas não é dado como organizado, pois é também vir a ser organizado ascendente como possibilidade e desorganização descendente em tensão. As leis também se integram a esse vir a ser e deixar de ser, o vir a ser tem suas leis que dependem também do deixar de ser.  Tem a flecha ascendente. mas tem também a descendente, temos entropia.  Tudo se organiza e se desorganiza. Podemos inclusive chegar ao fim do Universo (pensam alguns diante da entropia).

Vivemos uma crise de percepção do velho itinerário cartesiano-newtoniano da mente. Percebe-se uma  crise atual da ciência. As facetas desta crise podem ser descritas resumidamente como uma crise de percepção do mundo.

O paradigma cartesiano emerge com o heliocentrismo. Unifica as leis numa única totalidade, sobretudo pela gravitação universal de Newton. Unifica a percepção celeste e terrestre e geram uma nova percepção do mundo. Pra Descartes o mundo é estável, tem uma ordem implícita, as causas e os efeitos são produtos de uma mesma ordem, porém, não tem no seu paradigma uma noção de tempo. 

Os evolucionistas potencializam  a flecha ascendente, mas ela só vale para os seres vivos, para os sistemas vivos e não físicos. Mais adiante, um cientista austríaco propõe a entropia, na explicação científica. É a flecha descendente. Entropia é a desordem, o caos, a desorganização que pode chegar até ao motor da destruição geral (fim do universo). A complexidade lida com as duas flechas ascendente e a descendente. Mais complexidade. Um vir a ser e não um ser estável, que na relação entre vir a ser e deixar de vir possibilita um possível vir a ser como possibilidade de vitória sobre a entropia. Evolução é mais complexa é a luta da evolução contra a involução. Aqui temos a noção de tempo, que é simultaneamente relativo. No universo cartesiano não tem tempo.

Então, a matéria se expande (vir a ser) tempo da matéria, mesmo momento ela se desagrega (tempo de desagregação) e ao mesmo momento evolui a consciência civilizadora cultural e social (tempo)  é o tempo que organiza e media esta complexidade orgânica e inorgânica.

A matéria se auto organiza. É uma nova percepção. Sistemas se auto organizam no tempo. No paradigma moderno a organização está banida da ciência. A partir dos anos 50 que os cientistas começam a falar da auto-organização, inclusive do mundo físico.

 A percepção sombiótica não é uma fotografia da realidade (positiva). A Percepção é a excitação interativa de nosso mundo interno e externo,  de meu espírito eletromagnético integrado na imersão do fosforescente mundo vivo. Percepção é então a captação dos centros de ação do modo pelo qual o universo evolui.

 O universo está em movimento ativo (a matéria se expande) a matéria tem tempo. 

Segundo aspecto da crise do paradigma cartesiano então é a redução da explicação racional.  A vida não permite ser capturada em um diagnóstico fotográfico da realidade. 

A explicação deve buscar a gênese (abordagem muito presente em Nietzsche: metodologia genealógica e também incorporada por Foucault: genealogia do saber – gênese dos processos que tem um ou vários resultados).

Não se trata apenas de uma evolução baseada na flecha ascendente. Não pode ser necessariamente mal nem deterministicamente bom. Por isso não devemos ter diagnósticos fotográficos estáticos, mas compreensões interdisciplinares e interações mais complexas entre subjetivar e objetivar. Como a matéria se torna consciência integrada a inteligência inata (auto-organização) ela se mescla em cooperação de dois movimentos contraditórios e intrínsecos: uma flecha ascendente (vir a ser evolução) e uma flecha descendente (desagregadora, não vir e ser).  Desta tensão nasce a sustentabilidade cuja auto organização. É uma nova compreensão da organização da matéria incorporando, inclusive, a entropia complexa, a flecha descendente sobre a ascendente que pode até levar a morte de uma estruturação complexa, da vida.

No universo, estruturação complexa está em expansão, evolução e dissipação e o mesmo deve ser integrado à evolução humana e a cultura civilizadora. Para isso se faz necessário ter a compreensão da gêneseno devir que se auto organiza e não se submeter ao velho determinismo da casualidade e do destino finalista:

X => Y         (x determina y).

 A física quântica, por exemplo, desencadeia o colapso do Universo de Laplace e a queda do dogma determinista; o esboroamento de toda ideia de que haveria uma unidade simples na base do universo e introduz a incerteza no conhecimento científico. Não é mais suficiente a para produzirmos ciência isolarmos variáveis seja dependente seja independente e identificar a causa do efeito, linearidade do determinismo causal. No paradigma cartesiano a gênese não é discutida, não tem tempo nem história, pode até ter fatos mas analiticamente isolados do tempo.

Um terceiro aspecto da crise do paradigma moderno é o questionamento do princípio da separabilidade proposto na regra cartesiana. A matéria expande, não linearmente, mas de modo caótico integrado a múltiplas realidades simultâneas ordem e desordem. O que é ordem numa dimensão singular é desordem noutra. O pior é que se negam e estão  cada uma em sua singularidade corretas. O pior ainda é que as multidimensionalodades das realidades singulares ocorrem simultaneamente. 

Para o paradigma cartesiano tanto do positivismo e até mesmo do racionalismo de Bachelard, de Einstein, de Heisenberg e Niels Bohr a ordem no universo, na natureza era dada. Estava lá para ser conhecida matematicamente.

Agora estamos descobrindo que os sábios antigos do oriente, bem antes da hegemonia do paradigma cartesiano, estavam muito mais próximos da complexidade do mundo, pois já tinham a visão de que a natureza é caótica, de quer o universo brotava da desordem que borram frobteiras dimensionais e que o Universo e a matéria se auto organiza.

A não separabilidade com a visão do esfacelamento do big bang se intensificou ainda mais a busca de uma divisão inseparável da matéria até o microcósmico do quantum e da genética.

No entanto, a complexidade afirma que junto com a divisão e o esfacelamento da grande explosão tivemos, sobretudo, a auto-organização produtiva da matéria gerando estrelas, planetas, constelações e onde ondas se integraram gerando energia como a energia solar (estrelar) tão importante para os sistemas vivos na terra que enfrentaram a radiação. A relação matéria e energia tem uma dispersão e auto-organização e tornam-se assim holística.

O holismo simbiótico no paradigma da complexidade integra natureza, não existe meeio ambiente. Não tem ambiente pela metade, nem para destruí-lo, nem para sustentá-lo. A vida está imersa nele. Num Planeta vivo. A vida não pode mais ser vista de modo separada, objetiva (inseparabilidade: tecnologia, vida, cultura e natureza) e como um sistema auto organizativo com entropia – dispersão, mas impossível de separarmos e isolarmos como pretendia o cartesianismo. Não há variáveis isoladas na complexidade.

Como ilustra Wigner em seu exemplo: “ate a medição da curvatura do espaço causada por uma partícula não pode ser levada a cabo sem criar novos campos que são bilhões de vezes maiores que o campo sob investigação”.[2] 

Assim, também a própria consciência lenta, racional é matéria transformada onde a noção de totalidade é menor que a soma das partes, pois não se reduz em saber e em conhecer e analisar a matéria e o objeto visual apenas, mas em complexidade de auto organização e auto compreensão da inata, de uma inteligência imersa na vibração magnética. Não reduzida a lógica, maquinica, conputável linearmente.

Assim também como nos diz, Penroese a mente não física, deve ser inseparável da mente física para entendermos a consciência e a complexidade. Eu diria a mente não física deve ser inseparável da mente fisica e energia da vida, simbiótica.

Nenhuma variável é separada da outra. Nossos cérebros não são computadores. Nossos biofótons se encontram em esboroamento de sistemas inatos, analógicos, entrelaçados em trilhas magnéticas em todo o corpo integrada em cooperação de trilhas magnéticas internas e externas do planeta vivo, da sua malha magnética e côsmica.

Não podemos reduzirmos variáveis isoladas de linhas e colunas geométricas. O pensamento é um sistema complexo de vir a ser não separado da auto organização da matéria e da energia mental viva produzida por seus processos corporais ondulatórios subjacentes.

Pensar é exercitar trocas de cooperação em auto organização produtiva do pensamento e também integrado no mundo e na natureza quando acontecemos no mundo. 

As ondas captadas pela matéria cerebral centralizada permitem interpretar e auto organizar uma pequena parte ée muito lenta da realidade pela consciência também muitos mais lenta ainda.  Isto implica que o vir a ser da auto organização da vida ibteligente não é separado da matéria cerebral e dos campos magnéticos fractais operando simultaneamente em todo corpo.

Diferente da distinção  cartesiana mente e matéria nem mesmo a linguagem não inata pode ser separada das partículas e corpúsculos de ondas e biofótons geradores de consciência cerebral. Ele é apenas uma camada lenta até mesmo do processo mental.

O cérebro é matéria formada por ondas que pela complexidade auto organizada dessa mesma matéria e magnetismo torna-se consciência de raciocínios de um fluxo material muito lento. O cérebro mental deriva da matéria vibracional que se auto organiza também em consciência.  É uma gênese complexa do processo organizacional, mas um órgão central tem suas limitacoes frente a inteligência inata fractal.

Hoje falamos em biofótons dentro da nossa circulação sanguínea (matéria organizada), dentro do núcleo do DNA em centenas de trilhões deles simultaneamente operando em nosso corpo entre processos simultâneos cooperados em localizados e não localizados fractalmente operados.

O pensamento implica na produção intensa de biofótons cuja auto produção é intensificada e acelerada  com consumo maior de fótons que vibram. É matéria auto organizada que se interliga a proteínas que conduzem os impulsos magnéticos que encontramos também nos neurônios. Esse processo gera micro voltagens.

Intervenção externa  => REPOUSO =>    Ação <= intervenção interna => Ação

A eletricidade orgânica é lenta e é apenas o veículo e um veículo antibiótico, radioativo envolve (repouso micro voltagem - 40 watts). Calcula-se em torno de 100 watts para um corpo estar em repouso funcionando minimamente.

Mas para o cérebro cartesiano a matéria inexiste. É tomado por um poder entrópico, ele é dual: corpo separado da mente. Assim, a micro voltagem do pensamento não é resultado da matéria. Nem consome energia.

Um outro aspecto da crise é a crise do sujeito e da posição do sujeito na observação e explicação do mundo. A explicação sistêmica da matéria em termos de atrator (atração) + entropia (dispersão). A energia é continuada e requer trocas nucleadas até a criação de sistemas complexos (auto organização produtiva).

Isto só é possível se não mantermos o sujeito fora do objeto. O vir a ser do objeto é também do sujeito integrado emitindo suas micro ondas vivracionais. O sujeito não é uma fabricação subjetiva, por exemplo, nas sociedades contemporâneas de hoje ou insistem em impor exógena um mercado como um sujeito e como uma variável independente proveniente do mundo físico sobre o a vida social ou um Estado como um não mercado sem ação social implícita de interações de sujeitos e custos.

O próprio Werner Heisenberg, demonstrou com seu significativo Princípio da Incerteza que comentaremos a seguir. Com esse princípio, portanto, assumimos a existência da interferência estruturante do sujeito no objeto observado e possui implicações de vulto. Há muita coisa a discutir no tocante à evolução da ciência. Salientemos, apenas, que ela, frente à mensuração deixou de ser absolutamente vista pela lógica simétrica e sob os ângulos técnico e matemático restritos e converteu-se em  modalidades novas e reflexivas as quais criaram e derivaram novas e mais profundas teorias.

Isso se pode confirmar considerando alguns exemplos interessantes, que apresentamos logo a seguir:

1) O princípio da incerteza. Como já comentamos rapidamente acima, Werner Heisenberg é nos apresenta um dos mais significativos pela ilustração do Princípio da Incerteza: não se podem reduzir simultaneamente os erros da medição da velocidade e da posição das partículas; o que for feito para reduzir o erro de uma das medições aumenta o erro da outra. É como se ele tivesse apontasse o dedo da mão direita para baixo indicando o local de um elétron e com a outra mão ele aponta o dedo para cima indicando também a onda de seu impulso. O mais certo é que nós não sabemos e não temos como localizar a qualquer momento o local exato do elétron, o mais seguro para nós é tentarmos localizar o impulso de um quantum, identificamos apenas sua órbita, mas não temos segurança de seu local exato. Isso implica o princípio da ideia de que não conhecemos do real senão o que nele introduzimos, ou seja, que não conhecemos do real senão a nossa intervenção nele.

Este princípio e, portanto, a demonstração da interferência estrutural do sujeito no objeto observado, tem implicações de vulto. Por um lado, sendo estruturalmente limitado o rigor do nosso conhecimento, só podemos aspirar a resultados aproximados e por isso as leis da física são tão-só probabilísticas. Por outro lado, a hipótese do determinismo mecanicista é inviabilizada uma vez que a totalidade do real não se reduz à soma das partes em que a dividimos para observar e medir. Por último, a distinção sujeito/objeto é muito mais complexa do que à primeira vista pode parecer. A distinção perde os seus contornos dicotômicos e assume a forma de um continuum.


2) O observador interfere na realidade em observação. Niels Bohr indicou a dualidade classificatória da natureza dual e complementar do quantum. Um quantum é simultaneamente uma onda e uma partícula, mas qualquer experiência pode medir apenas só um aspecto ou o outro. Bohr discutiu também a teoria de que no Universo da observação têm que incluir um fator importante para considerar para os efeitos da sua mensuração ou de qualquer medida do quantum pretendida, ou seja, a influência do observador. Bohr e Heisenberg discutiram que as predições exatas em mecânicas de quantum não pode ser limitada às descrições estatísticas exatas do comportamento destes pacotes de energia. Isto fez o Einstein declarar que ele não poderia acreditar que Deus joga dados com o Universo.

Assim, Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto que sai de um processo de medição não é o mesmo que lá entrou.

3) O dilema da incompletude formal. A demonstração e indagações da incompletude formal pelo teorema de Gödel (1906-78)[3] enquadram-se entre as mais notáveis realizações da história da cultura, com repercussões em todas as manifestações do saber e mudando os próprios paradigmas da lógica, da matemática, da teoria da informação e do pensamento científico em geral.

Com a incompletude formal, o próprio rigor da medição foi posto em causa pela mecânica quântica e foi profundamente abalado a partir do questionamento do veículo formal do próprio rigor explicativo em que a medição é expressa, ou seja, o rigor da matemática.

É isso o que sucede com as investigações de Gödel e seu teorema da incompletude demonstrando a impossibilidade de: em certas circunstâncias, encontrar dentro de um dado sistema formal a prova da sua consistência vieram mostrar que, mesmo seguindo à risca as regras da lógica matemática, é possível formular proposições indecidíveis, proposições que se não podem demonstrar nem refutar, sendo que uma dessas proposições é precisamente a que postula o caráter não-contraditório do sistema[4].

A matematica cica problemas que não podem nem sequer ser resolvidos matematicamente. Imagine então os problemas snalógicos, não  racionais.

Se as leis modernas da natureza fundamentam o seu rigor no rigor nas formalizações matemáticas em que se expressam, as investigações de Gödel vêm demonstrar que o rigor da matemática carece ele próprio de fundamento. A partir daqui é possível não só questionar o rigor da matemática como também redefini-lo enquanto forma de rigor que se opõe a outras formas de rigor alternativo, uma forma de rigor cujas condições de êxito na ciência moderna não podem continuar a ser concebidas como naturais e óbvias.

A própria filosofia da matemática tem vindo a problematizar criativamente estes temas e reconhece hoje que o rigor matemático, como qualquer outra forma de rigor, assenta num critério de seletividade e que, como tal, tem um lado construtivo e um lado destrutivo.[5]

4) A crise da estrutura simétrica e estática e a constatação da natureza dissipativa das estruturas. As descobertas e investigações do bioquímico Ilya Prigogine, foram também um grande choque no paradigma cartesiano-newtoniano. A teoria das estruturas dissipativas indica o princípio da “ordem através de flutuações” que se estabelecem em sistemas abertos, ou seja, em sistemas que operam nas margens da estabilidade. Assim, a evolução se explica por flutuações de energia que em determinados momentos, nunca inteiramente previsíveis, que desencadeiam espontaneamente reações que, por via de mecanismos não lineares, pressionam o sistema para além de um limite máximo de instabilidade e o conduzem a um novo estado macroscópico.

Esta transformação irreversível e termodinâmica é o resultado da interação de processos microscópicos segundo uma lógica de auto-organização numa situação de não-equilíbrio. Não existe equilíbrio na complexidade, não existe estrutura em si, encontramos uma estruturação sem estrutura. A complexidade descarta tanto o acaso determinístico como o determinismo da objetividade, classificando as mutações como processos aleatórios estocásticos (não-predizíveis, indeterminísticos, criativos e novos). Nestes termos, os processos envolvidos nos sistemas vivos não resultam de uma casualidade cega, mas de uma causalidade criativa que permite aos sistemas vivos se autocriarem e se automultiplicarem.

A matéria já não é vista como algo estático — moléculas inertes governadas por puxões e empurrões, a matéria é vista como alguma coisa ativa e viva. A situação de bifurcação, ou seja, o ponto crítico em que a mínima flutuação de energia pode conduzir a um novo estado, representa a potencialidade do sistema em ser atraído para um novo estado de menor de entropia. Deste modo, a irreversibilidade nos sistemas abertos significa que estes são produtos da sua história.

A importância desta teoria está na nova concepção da matéria e da natureza que propõe, uma concepção dificilmente comparável com a que herdamos da física clássica. Como nos diz Boaventura de Sousa Santos: “Em vez da eternidade, temos a história; em vez do determinismo, a imprevisibilidade; em vez do mecanicismo, a interpenetração, a espontaneidade e a auto-organização; em vez da reversibilidade, a irreversibilidade e a evolução; em vez da ordem, a desordem; em vez da necessidade, a criatividade e o acidente”.[6]

Por causa de seus estudos em bioquímica, o russo Ilya Prigogine recebeu o Prêmio Nobel de 1977 por seu trabalho relacionado a uma nova visão acerca dos sistemas vivos. O Prêmio Nobel foi concedido a Prigogine, sobretudo, por sua teoria dos sistemas vivos como estruturas dissipativas (ou dispersivas), que lançou uma ponte entre os sistemas vivos e os não-vivos. Nas palavras da comissão de premiação do Premio Nobel: “Prigogine transformou fundamentalmente a ciência da termodinâmica irreversível, revisando-a; deu-lhe nova relevância, criando teorias que estreitaram o abismo entre os campos biológico e físico da pesquisa científica”.[7]

E o próprio Prigogine expressa em poucas palavras seu pensamento: “Enfatizando a interdependência, podemos mostrar que vida e não-vida não se opõe. E assim tem de ser porque, de outro modo, teríamos de um lado um mundo mecânico [mecanicismo] e de outro, um mundo orgânico [vitalismo].”.

Muitos críticos de Prigogine afirmam que ele era um bioquímico em busca de consagração na comunidade científica ortodoxa. Assim, apesar de suas inovações ele foi muito mais cauteloso sobre as implicações de sua teoria sobre a estrutura teórica clássica. Afirmam os críticos que foi esta postura o impediu de ser refutado pela ortodoxia (postura que lhe permitiu ganhar o Prêmio Nobel), Prigogine ensaia uma mudança radical na Biologia clássica, sua teoria refere-se à capacidade dos sistemas vivos de se autocriarem, auto recriarem e auto evoluírem em esquemas inéditos acionados por variáveis capazes de desviar todo um sistema de um tipo para um outro tipo novo e inesperado. Entretanto, Prigogine, segundo seus críticos, declara-se favorável à entropia e ao evolucionismo, e assim, age como se tentasse justificar e fortalecer tanto à teoria da evolução e a entropia. Porém, mesmo assim, as ideias de Prigogine, despidas de seu favoritismo pela entropia e pela evolução, prestam-se maravilhosamente bem para suportar a teoria dos sistemas vivos como sistemas pulsantes e é de grande significação para vários campos do conhecimento.

Seus estudos estabeleceram vínculos essenciais entre a Física, a Química e a Biologia, a sociologia, superando a dicotomia clássica entre vida e não-vida. Nesse sentido, a Teoria da Estruturação, do sociólogo inglês, Anthony Giddens, tem uma grande dívida com Prigogine, mesmo sem ser devidamente citado, encontramos muitas semelhanças na sua teoria social com a proposição das estruturações disssipativas propostas por Prigogine, apesar de Giddens, contraditoriamente, insistir na tese weberiana da especificidade da sociologia diante das ciências naturais.

Prigogine contestou a visão mecanicista dos sistemas vivos, afirmando a unidade entre os sistemas vivos e os não-vivos e a sua bioquântica classifica-os como: sistemas vivos orgânicos e sistemas vivos inorgânicos. Sua teoria implica que os Sistemas vivos escapam à entropia devido a uma capacidade inata de auto-organização; neles, uma ordem superior, não-predizivel pela entropia, surge do caos. Assim, os sistemas vivos são sistemas abertos, complexos organizacionais semi-estáveis (dispersivos ou dissipativos), estado que lhes assegura uma constante e intima interação com o ambiente, com o qual trocam energia, mantendo-se devido a esse infindável fluxo dinâmico. Ora, se os sistemas vivos e seu hábitat são uma unidade essencial, já podemos antecipar que o planeta Terra em sua inteireza também é um sistema vivo.

Concluindo, vemos então o entendimento de que os sistemas vivos caminham em direção contrária à entropia, tendo-se auto ordenado a partir da matéria inorgânica e de um estado caótico um estado de ordem não-linear, bem como preservam seu estado ordenado a despeito da entropia.

O argumento favorável à entropia diz que esta se aplica unicamente a sistemas fechados, e os sistemas vivos são sistemas abertos, pois continuamente trocam energia com o ambiente externo. Alguém poderia contra-argumentar em favor da entropia, imaginando-se um exemplo de sistema fechado perfeito como uma esfera hermeticamente fechada e intocável por vibrações, som, luz, campos magnéticos, raios X, ou qualquer outra forma de transmissão de energia — uma espécie de corpo negro fechado e imperial. O surpreendente é que no mundo físico e da vida também não existem sistemas exclusivamente fechados ou exclusivamente abertos no universo conhecido. O próprio universo como um todo é simultaneamente um sistema aberto-e-fechado. A nova Física demonstrou, matemática e experimentalmente, que um fluxo de partículas, átomos e moléculas está continuamente entrando e saindo do universo físico. A teoria quântica, a teoria da síntese estelar e a teoria das estruturas dissipativas demonstram claramente estes fatos. Novos átomos estão sendo sintetizados nas estrelas à revelia da entropia.

A teoria das estruturas dissipativas demonstrou que os sistemas vivos são sistemas simultaneamente estáveis e instáveis. Mesmo individualizados e com formas limitadas e características, que lhes conferem a aparência de sistemas fechados, sabe-se que eles Continuamente trocam energia e matéria com o meio circundante, o que os caracteriza como sistemas semi-abertos.

Toda a biosfera, aparentemente constituída de sistemas vivos individualizados, funciona como um único sistema vivo, simultaneamente aberto e fechado, conforme demonstrou a hipótese Gaia, de James Lovelock, a teoria da simbiogênese, de Lynn Margulis, e como demonstram os estudos ecológicos. Pode-se afirmar o mesmo com relação ao planeta Terra, ao Sistema Solar e ao universo como um todo. Trata-se da unidade da diversidade, no dizer de Bohm.

Todos os sistemas do universo são unidades coletivas, níveis de organização dentro de níveis de organização ad infinitum. Assim, efetivamente, não existem sistemas exclusivamente abertos ou exclusivamente fechados no universo. Todos os subsistemas, e o próprio sistema-mor — o universo , são simultaneamente abertos e fechados. O universo inteiro é um único sistema vivo; um ser bioquântico relativamente estável, cuja natureza fundamental é o vir-a-ser, como demonstrou Prigogine.

Nós acrescentaríamos: um vir-a-ser continuo, cuja estabilidade e perpetuidade são garantidas pelo próprio vir-a-ser, que o renova cíclica e continuamente. Poder-se-ia comparar a ideia de Biocosmos como uma cascata: é a contínua renovação de suas águas que lhe confere configuração, identidade e existência. Como se vê, não existem fundamentos científicos para se encaixar num quadro desses o conceito clássico da entropia irreversível, uma vez que sua validade depende unicamente da existência de sistemas exclusivamente fechados. De tudo isso, podemos deduzir que a entropia é um conceito inaplicável em nosso universo. Hipoteticamente admissível e aplicável em algum outro universo igualmente hipotético; não no único e real universo até hoje conhecido — o nosso. Sendo assim, de que nos serviu um conceito hipotético aplicável a fenômenos hipotéticos de algum universo hipotético? Serviu de empecilho teórico. Devido à crença na entropia, a compreensão da natureza do universo e da vida foi enormemente retardada.

5) A relatividade de Einstein. Albert Einstein, sustentou a convicção dele de que o Universo pode ser descrito com a unificação de uma equação. Einstein descobriu a relatividade do tempo e a relação entre matemática e energia eram ambas questões, para ele, o tema primordial da física contemporânea e ele se dedicou o resto da vida dele a formular um campo teórico unificado da física. Embora nós tenhamos que usar probabilidades agora para descrever eventos do quantum, Einstein expressou para o futuro a esperança de que os cientistas acharão uma ordem escondida atrás da mecânica quântica.

Tal como noutros períodos de transição, difíceis de entender e de percorrer, é necessário voltar às coisas simples, à capacidade de formular perguntas simples, perguntas que, depois de feitas, são capazes de trazer uma luz nova à nossa perplexidade.

Ao contrário da ciência aristotélica, a ciência moderna desconfia sistematicamente das evidências da nossa experiência imediata. Tais evidências, que estão na base do conhecimento vulgar, são ilusórias. Como bem salienta Einstein no prefácio ao Diálogo sobre os Grandes Sistemas do Mundo, Galileu esforça-se denodadamente por demonstrar que a hipótese dos movimentos de rotação e de translação da Terra não é refutada pelo fato de não observarmos quaisquer efeitos mecânicos desses movimentos, ou seja, pelo fato de a Terra nos parecer parada e quieta.[8]

Por outro lado, é total a separação entre a natureza e o ser humano. A natureza é tão-só extensão e movimento; é passiva, eterna e reversível de mecanismo cujos elementos se podem desmontar e depois relacionar sob a forma de leis; não tem qualquer outra qualidade ou dignidade que nos impeça de desvendar os seus mistérios, desvendamento que não é contemplativo, mas antes ativo, já que visa conhecer a natureza para a dominar e controlar. Como diz Bacon, a ciência fará da pessoa humana o senhor é o possuidor da natureza.

Einstein, como um bom racionalista, ao contrário do que propôs Bacon, não considerou de que a experiência não dispensa a teoria prévia, o pensamento dedutivo ou mesmo a especulação, mas força qualquer deles a não dispensarem, enquanto instância de confirmação última, a observação empírica dos fatos. Einstein se dirigindo mais a dinâmica de conhecimento racionalista de Galileu.  Einstein, inclusive, chama a atenção para o fato de os métodos experimentais de Galileu serem tão imperfeitos que só por via de especulações ousadas poderia preencher as lacunas entre os dados empíricos.[9]

Para Galileu, o livro da natureza está inscrito em caracteres geométricos:

"Se o termo 'entendimento', tomado na acepção de “intensivo”, significa a compreensão intensiva, isto é, perfeita, de uma dada proposição, direi então que o entendimento humano compreende algumas proposições tão perfeitamente e alcança uma certeza tão absoluta quanto a própria natureza. Tal é o caso, por exemplo, das proposições das ciências matemáticas puras, a saber, a geometria e a aritmética; o intelecto divino conhece um número infinitamente maior, dado que as conhece todas, mas, se o intelecto humano conhece poucas, julgo que o conhecimento que delas tem iguala, em certeza objetiva, o conhecimento divino, porque chega a compreender-lhes a necessidade, e esse é o mais alto grau de certeza”.[10]

Einstein não pensava de modo tão diferente. A admiração de Einstein por Galileu está bem patente no prefácio já citado em que ele escreveu para o Diálogo de Galileu. O modo radical como Einstein “vê” a natureza matemática da estrutura da matéria explica em parte a sua longa batalha sobre a interpretação da mecânica quântica (especialmente contra a interpretação de Copenhague).

Entretanto, o próprio Einstein constituiu uma grande fissura no paradigma da ciência moderna, uma fissura, aliás, mais importante do que o que Einstein teve grande dificuldade de admitir. Um dos pensamentos mais profundos de Einstein é o da relatividade da simultaneidade.

Einstein distingue entre a simultaneidade de acontecimentos presentes no mesmo lugar e a simultaneidade de acontecimentos distantes, em particular de acontecimentos separados por distâncias astronômicas. Em relação a estes últimos, o problema lógico a resolver é o seguinte: como é que o observador estabelece a ordem temporal de acontecimentos no espaço? Certamente por medições da velocidade da luz, partindo do pressuposto, que é fundamental na teoria de Einstein, de que não há na natureza velocidade superior à da luz.

No entanto, ao medir a velocidade numa direção única (de A a B), Einstein defronta-se com um círculo vicioso: a fim de determinar a simultaneidade dos acontecimentos distantes é necessário conhecer a velocidade; mas, para medir a velocidade, é necessário conhecer a simultaneidade dos acontecimentos. Com um golpe de gênio, Einstein rompe com este círculo, demonstrando que a simultaneidade de acontecimentos distantes não pode ser verificada, pode tão-só ser definida. É, portanto, arbitrária e daí que quando fazemos medições não possa haver contradições nos resultados uma vez que estes nos devolverão a simultaneidade que nós introduzimos por definição no sistema de medição.[11] 

Esta teoria veio revolucionar as nossas concepções de espaço e de tempo. Não havendo simultaneidade universal, o tempo e o espaço absolutos de Newton deixam de existir. Dois acontecimentos simultâneos num sistema de referência não são simultâneos noutro sistema de referência. As leis da física e da geometria baseiam-se em medições locais: Os instrumentos de medida, sejam relógios ou metros, não têm magnitudes independentes, ajustam-se ao campo métrico do espaço, cuja estrutura se manifesta mais claramente nos raios de luz. [12]

O caráter local das medições e, portanto, do rigor do conhecimento que com base nelas se obtém, vai inspirar o surgimento da segunda condição teórica da crise do paradigma dominante, a mecânica quântica. Se Einstein relativizou o rigor das leis de Newton no domínio da astrofísica, a mecânica quântica lê-lo no domínio da microfísica. Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto que sai de um processo de medição não é o mesmo que lá entrou. Como ilustra Wigner, “a medição da curvatura do espaço causada por uma partícula não pode ser levada a cabo sem criar novos campos que são bilhões de vezes maiores que o campo sob investigação”. [13]

Todas elas têm uma vocação não dualista e algumas são especificamente orientadas para superar as incompatibilidades entre a mecânica quântica e a teoria da relatividade de Einstein. E como se nos tivéssemos lançado na aventura de conhecer os objetos mais distantes e diferentes de nós próprios, para, uma vez aí chegados, nos descobrirmos refletidos como num espelho. já no princípio da década de sessenta, e extrapolando a partir da mecânica quântica.

Eugene Wigner considerava que o inanimado não era uma qualidade diferente mas apenas um caso limite, que a distinção corpo/alma deixara de ter sentido e que a física e a psicologia acabariam por se fundir numa única ciência. [14] Hoje é possível ir muito além da mecânica quântica. Enquanto esta introduziu a consciência no ato do conhecimento, nós temos hoje de a introduzir no próprio objeto do conhecimento.

6) A teoria do Caos.  A luz emerge através de chuvas de partículas elementares como uma cascata que jorra em cima das borboletas geradoras de caos. Assim, nasce a Teoria do Caos, principalmente, pelo esforço de um matemático, Benoit Mandelbrot nascido na Polônia, em Varsóvia 1924. Mandelbrot descobriu em suas pesquisas e observações, uma família de padrões que se tornou o fundamento da geometria denominada de fractal.

Existem também, fractais chamados de não-lineares, nos quais a relação entre as partes e o todo pode mudar dinamicamente. É o caso do conhecido conjunto de Mandelbrot, que ficou bem popular entre artistas por apresentar belas imagens de computação gráfica, cuja imprevisibilidade aumenta à medida que é ampliado.

Trata-se de ligações insuspeitadas entre famílias inteiras de sistemas caóticos, isto implicou na constituição de uma nova teoria que relacionaria desde fluidos turbulentos, de circuitos eletrônicos flutuantes aos ritmos da própria vida. Essas famílias de sistemas físicos aparentemente fortuitos ou caóticos, foram sendo reveladas através de novas maneiras de formular equações para descrevê-los, usando computadores para criar padrões visuais a partir das equações - padrões que não eram óbvios de nenhum outro modo.

Enfim, fractais são objetos cujas partes, ao ser ampliadas, reproduzem a do todo - é a chamada simetria de escala. A descrição desses objetos é feita por uma moderna teoria matemática conhecida como geometria fractal, que se opõe à tradicional geometria euclidiana, com seus objetos básicos, como linhas, curvas e retas. Objetos fractais têm aparências mais recortadas, irregulares, como as folhas de uma samambaia.

A palavra fractal foi criada pelo já citado matemático Mandelbrot . Fractal deriva do verbo em latim frangere, traduzido como "quebrar, fracionar", e do adjetivo fractus, "fragmentado". Formas fractais também podem ser encontradas na natureza, embora não tenham uma simetria de escala perfeita. São formas como as irregularidades da costa marítima de um país ou as fissuras na crosta terrestre  provocadas por um terremoto, por exemplo.

Segundo o velho Euclides, matemático grego que viveu dois milênios atrás, existem figuras que não têm dimensão, ou melhor, têm dimensão 0. É o caso dos pontos, como este ponto final (.). Uma linha, por sua vez — considerada a distância entre dois pontos quaisquer —, é algo com uma única dimensão. Já a capa de um livro, por exemplo, de acordo com a geometria euclidiana, tem duas dimensões. Pois, para conhecer qual a sua área, é necessário multiplicar dois números — o do comprimento pelo da largura. Do mesmo modo, um bloco possui três dimensões, porque precisamos multiplicar três números (comprimento, largura e altura) para saber qual o seu volume. Euclides estava certo. Mas não resolveu todo o problema.

Os contornos das montanhas, a superfície dos pulmões humanos, a trajetória das gotículas de água quando penetram na terra -  existe uma infinidade de fenômenos na natureza que não podem ser descritos por essa geometria toda certinha. É preciso apelar para complicados cálculos que resultam nas chamadas dimensões fracionárias —  como a dimensão 0,5, por exemplo, típica de um objeto que é mais do que um simples ponto com dimensão zero, porém menos do que uma linha com dimensão 1. Só a chamada geometria dos fractais consegue descrevê-lo.

Os fractais não poderiam ter sido revelados de modo minucioso se não fosse os computadores, mas na evolução dos computadores, os analógicos representavam um beco sem saída. Computadores digitais, construídos a partir de circuitos que podiam ser ligados ou desligados, zero ou um, sim ou não, davam respostas precisas às perguntas feitas pelos programadores. Computadores analógicos, por sua própria concepção, eram muito vagos.

Existia um computador analógico pesada e empoeirado de Santa Cruz nos Estados Unidos, com um painel de madeira na fachada, como aqueles usados antigamente em mesas telefônicas. Programar um computador analógico era questão de conectar e desconectar fios. Ao conceber diversas combinações de circuitos, um programador simula sistemas de equações de modo a fazê-los adaptar-se perfeitamente a problemas de engenharia.

Um belo dia, um amigo astrofísico, William Burke, entregou a Shaw uma folha de papel com três equações rabiscadas e pediu-lhe que as colocasse em seu computador. As equações pareciam simples. Edward Lorenz as havia escolhido como um método despojado para calcular um processo conhecido em Meteorologia, os movimentos ascendentes e descendentes do ar ou da água, chamado convecção. Shaw levou apenas poucas horas para conectar os fios adequados e ajustar os botões. Alguns minutos mais tarde, ele viu aparecer na tela um padrão peculiar, cambiante e infinitamente complicado.

A tela de Shaw proporcionava uma maneira de criar diagramas abstratos de comportamento dinâmico de longo prazo de qualquer sistema físico — uma bolinha de gude imóvel no fundo de um buraco, um relógio de pêndulo balançando monotonamente ou o tumulto imprevisível do tempo na Terra. Para a bolinha de gude em repouso, o diagrama seria simplesmente um ponto. Para um sistema periodicamente cíclico como o relógio de pêndulo, o diagrama teria a forma de uma lançada. Para o sistema enganadoramente simples das três equações da convecção, o diagrama era algo completamente diferente.

Ao mesmo tempo, o estranho atrator revelava padrões inesperados. Era sinônimo de desordem e imprevisibilidade mas, ainda assim, significava um novo tipo de ordem no tumulto. Dois cientistas franceses, David Roelle e Floris Takens, mais tarde dariam a esses padrões seu nome provocativo: estranhos atratores. Shaw conhecia a nova linguagem da geometria fractal. No entanto, muito tempo havia passado antes que ele, assim como outros envolvidos em trabalhos do mesmo gênero, reconhecesse que a forma diante de seus olhos era um fractal, o que significa que revelava novas complexidades em escalas cada vez menores.

Assim, ele passou várias noites no laboratório observando o ponto verde do osciloscópio percorrendo a tela, traçando sem parar seu roteiro caótico e nunca exatamente no mesmo modo. O percurso da forma permaneceu na retina, oscilante e vibrante, diferente de qualquer objeto que Shaw conhecera em suas pesquisas. Parecia ter vida própria. Prendia a mente como uma chama que se move em padrões que nunca se repetem. Isto era interessante, pois um sistema linear obedece às leis da proporção - quanto mais depressa se vai, mais longe se chega. A linearidade torna os cálculos fáceis ou, ao menos, manejáveis. Infelizmente, a maioria dos sistemas do mundo real não é linear.

A não-linearidade exigia cálculos mais difíceis. Era a mosca na sopa previsível da Mecânica clássica. Poucos consideraram a não-linearidade uma força criativa; mas foi a não-linearidade que criou os padrões misteriosamente belos dos estranhos atratores.  Nesta época a palavra “Não-linear” era um termo que você só encontrava no final do livro onde um estudante de física fazia um curso de matemática e o último capítulo tratava de equações não-lineares. Geralmente essa parte era deixada de lado.

Shaw e seus colaboradores que foram se aproximando de suas observações precisavam fazer perguntas que pudessem ser respondidas e que valessem a pena ser respondida tentando isolar as qualidades especiais que tornavam dos estranhos atratores tão encantadores. A imprevisibilidade era uma delas — mas onde encontrar os calibres para medir tal qualidade

Para isso, Shaw acabou por ocupar-se de um projeto experimental que iria mantê-lo entretido por anos, adotou um sistema dinâmico tão caseiro quanto algum físico pudesse imaginar: uma torneira pingando. Como gerador de organização, uma torneira pingando oferece pouco para se trabalhar. Mas, para um investigador iniciante do caos, a torneira pingando provou ter certas vantagens. Todo mundo tem dela uma imagem mental. O fluxo de dados é o mais unidimensional possível: uma batida ritmada de pontos isolados mensuráveis no tempo.

Na torneira pingando, tudo que existe é a solitária linha de dados. E não é nem uma variação contínua de velocidade ou temperatura - apenas uma lista dos tempos de gotejamento. Os pingos podem ser regulares. Ou, como qualquer um descobre ao ajustar uma torneira, podem tornar-se irregulares e aparentemente imprevisíveis. Solicitado a organizar um ataque a um sistema como esse, um físico tradicional começaria por montar um modelo físico o mais completo possível. Os processos que norteiam a formação e a ruptura das gotas são compreensíveis, ainda que não sejam tão simples como possam parecer. Uma variável importante é o ritmo do fluxo. (Este deve ser lento, comparado à maioria dos sistemas hidrodinâmicos. Normalmente, Shaw observou o ritmo de uma a dez gotas por segundo.) Outras variáveis incluem a viscosidade do fluxo e a tensão de superfície.

Um físico que tentasse construir um modelo completo do problema da gota, formulando um conjunto de equações para depois tentar resolvê-las, acabaria numa encruzilhada sem fim. Uma alternativa seria esquecer a Física e observar apenas os dados, como se estivessem saindo de uma caixa-preta. Dada uma lista de números representando intervalos entre as gotas, será que um especialista em dinâmica caótica encontraria algo útil para dizer?

Na verdade, como foi comprovado mais tarde, podem-se conceber métodos para organizar esses dados dentro da Física e esses métodos se mostraram decisivos no que diz respeito à aplicação do caos a problemas do mundo real. Shaw, criou uma espécie de caricatura de um modelo físico completo. Ele fez um resumo rudimentar da Física das gotas, imaginando um peso que pendesse de uma mola. O peso aumenta constantemente. A mola estica e o peso desce cada vez mais. A certa altura, uma porção do peso se rompe. A quantidade que se desprendesse, Shaw supôs arbitrariamente, dependeria apenas da velocidade da queda do peso descendente quando atingisse o ponto de ruptura.

Então, naturalmente, o peso restante voltaria para a posição anterior, como fazem as molas, com oscilações que estudantes aprendem a delinear usando equações normais. A característica interessante do modelo - a única característica interessante - era a torção não-linear que possibilita o comportamento caótico. O tempo preciso de uma gota dependia do ritmo do fluxo, é claro, mas dependia também de como a elasticidade desse saco de tensão superficial interagia com o peso que aumentava constantemente. Se uma gota iniciasse sua vida já em queda, ela se romperia mais cedo. Se acaso se formasse quando sua superfície inferior estivesse subindo, poderia encher-se com um pouco mais de água antes de romper-se.

Enquanto isso, Shaw fazia suas equações e operava o computador analógico, produzindo uma torrente de dados imaginários, muito parecidos às gotas da torneira real. Mas, para ir além, Shaw necessitava de um modo de colher dados puros de qualquer experiência e trabalhar com equações e estranhos atratores que pudessem revelar padrões ocultos.

Com um sistema mais complicado, uma variável poderia ser graficamente relacionada à outra, correlacionando mudanças na temperatura ou na velocidade com o passar do tempo. Mas a torneira pingando proporcionava apenas uma série de tempos. Shaw tentou, então, uma técnica desenvolvida pela equipe de Santa Cruz, que foi talvez sua contribuição prática mais esperta e duradoura ao progresso do caos - um método de reconstruir um estranho atrator invisível que poderia ser aplicado a qualquer série de dados. Para os dados da torneira pingando, Shaw construiu um gráfico no qual o eixo horizontal representava um intervalo de tempo entre duas gotas e o eixo vertical representava o intervalo de tempo entre as duas seguintes.

Se entre a gota número um e a gota número dois decorressem 150 milésimos de segundo, e depois 150 milésimos de segundo decorressem entre a gota número dois e a gota número três, ele marcava um ponto na posição 150-150. Era tudo que havia a fazer. Se o gotejamento fosse regular, o gráfico seria apropriadamente inerte. Cada ponto cairia no mesmo lugar. O gráfico seria um simples ponto. Ou quase - na verdade, a primeira diferença entre a torneira pingando no computador e a torneira real era que esta estava sujeita a distúrbios, ou "ruído", sendo extremamente sensível. O barulho significava que, em vez do simples ponto previsto pela teoria, ele veria uma mancha ligeiramente indistinta.

À medida que o fluxo aumentasse, o sistema passaria por uma mudança repentina nas suas características. Então as gotas cairiam em pares repetidos. Um intervalo poderia ser de 150 milésimos de segundo e o próximo, de 80. Assim, o gráfico mostraria duas manchas indistintas, uma centrada em 150-80 e outra em 80-150 e assim por diante. O verdadeiro teste ocorreu no momento em que o padrão se tornou caótico, quando o ritmo do fluxo foi novamente modificado. Se fosse mesmo fortuito, haveria pontos dispersos por todo o gráfico. Mas, se um estranho atrator estivesse oculto nos dados, poderia se revelar como um padrão vago, mas perceptível.

O caos já ostentava a fama de ser mencionado a meia voz, mas poucos dos físicos presentes à conferência sabiam do que se tratava. Shaw começou então explicando os diferentes tipos de atratores, dos comuns aos estranhos; a princípio, os estados inertes (quando tudo fica imóvel); depois, ciclos periódicos (quando tudo oscila); e, por fim, estranhos atratores caóticos (o restante). Ele demonstrou sua teoria com gráficos computadorizados em videoteipe. Os meios audiovisuais lhe deram uma vantagem, podia-se agora hipnotizar os observadores com flashes de luz, isto permitiu ilustrar o atrator e a torneira que pinga.

Quanto mais se aproximava do mundo real da ciência, mais perto da separação se encontrava. Assim, muitos cientistas passaram a procurar estranhos atratores em bandeiras tremulantes e em velocímetros defeituosos, os cientistas fizeram questão de detectar os sintomas do caos em toda a Física atual. Peculiaridades outrora desprezadas como ruído - flutuações surpreendentes, regularidades misturadas a irregularidades - eram explicadas agora nos termos da nova ciência. Tais efeitos pipocaram de repente em escritos a respeito de tudo, desde lasers até circuitos eletrônicos.

Hoje especialistas em finanças usam as técnicas desenvolvidas pelo grupo de Santa Cruz para analisar décadas de cotações diárias de bolsas de valores,buscando padrões que acreditam existir ali. Muitos fisiólogos acreditam agora que o caos proporciona um modo de prever - e talvez de tratar  - ritmos irregulares no processo que governa a vida, desde a respiração até os batimentos cardíacos e até a função do cérebro. Em universidades do mundo todos, médicos comparam eletrocardiogramas humanos com dados de um modelo de computador de contrações cardíacas caóticas, numa tentativa de prever com bastante antecedência quando o órgão sofrerá um espasmo fatal.

Ecologistas usam a Matemática do caos para descobrir como, na ausência de mudanças ambientais fortuitas, populações de espécies podem crescer ou diminuir desordenadamente por conta própria. Estuda-se a tendência de processos caóticos de criar padrões complexos em fenômenos como flocos de neve, cuja forma delicada incorpora uma mistura de estabilidade e instabilidade que só agora começa a ser compreendida. Utiliza-se à física dos sistemas dinâmicos para estudar o sistema imunológico humano, com seus bilhões de componentes e sua capacidade de aprender, memorizar e reconhecer padrões. Para muitos cientistas, o caos tornou-se um conjunto de instrumentos capaz de elucidar fatos aparentemente casuais.

Mas o caos é também uma série de atitudes em relação à complexidade — uma nova maneira de ver. Sente-se que estamos revertendo uma tendência científica de analisar sistemas em termos de suas partes constituintes — quarks, cromossomos ou nêutrons. A tendência científica, particularmente em Física, tem sido pelo reducionismo, uma constante fragmentação das coisas em minúsculos pedacinhos. O que os cientistas estão finalmente percebendo é que esse processo é um beco sem saída. Novas perspectivas apontam para um interesse muito maior na ideia de que o todo pode ser maior que a soma da partes.[15]

Não são poucas as implicações da teoria do caos para a sociologia. Por exemplo, Boaventura de Sousa Santos chama atenção de que o distingue neste domínio a sociologia funcionalista de uma sociologia crítica é o fato de a primeira pretender a ordem da regulação social e a segunda pretender a ordem da emancipação social, porém para ambas, o conhecimento totalizante é um conhecimento da ordem sobre o caos.[16]

Uma das positividades é a ideia de não-linearidade, a ideia de que nos sistemas complexos as funções não são lineares e, por isso, ao contrário do que ocorre nas funções lineares, uma pequena causa social pode produzir um grande efeito. Ora, como os indivíduos e as sociedades não podem produzir conseqüências senão através de causas e como estas, segundo as teorias do caos, não ocorrem na mesma escala dos seus efeitos, não é possível partir do pressuposto de que o controle das causas acarreta consigo o controle das conseqüências. Pelo contrário, a falta de controle sobre as conseqüências significa que as ações empreendidas como causas têm, não apenas as conseqüências intencionais (lineares) da ação, mas uma multiplicidade imprevisível (potencialmente infinita) de conseqüências. O controle das causas, sendo absoluto, é absolutamente precário. [17]

As teorias do caos contribuem, assim, para elucidar o modo como a ciência moderna, transformada em recurso tecnológico de sistemas sociais cada vez mais complexos, levou ao extremo a discrepância entre a capacidade de ação (controle das causas) e a capacidade de previsão (controle das conseqüências). Transformado em máxima de ação social e política, o caos apela a suspeitar da capacidade de ação e a pôr em causa a ideia da transparência entre a causa e o efeito. Dito de outro modo, o caos integra-se ao paradigma emergente que convida-nos a um conhecimento prudente.[18]

A última grande tentativa de produzir uma teoria crítica moderna coube a Foucault, tomando precisamente como alvo o conhecimento totalizante da modernidade, a ciência moderna. Foucault representa ao mesmo tempo o clímax e, paradoxalmente, a derrocada da teoria crítica moderna. Levando até às últimas conseqüências o poder disciplinar do panóptico construído pela ciência moderna, Foucault mostra que não há qualquer saída emancipatória dentro deste “regime da verdade”, já que a própria resistência se transforma ela própria num poder disciplinar e, portanto, numa opressão consentida porque interiorizada.

O grande mérito de Foucault foi ter mostrado as opacidades e os silêncios produzidos pela ciência moderna, conferindo credibilidade à busca de “regimes da verdade” alternativos, outras formas de conhecer marginalizadas, suprimidas e desacreditadas pela ciência moderna. Assim, Boaventura conclui que, o nosso lugar é hoje um lugar multicultural, um lugar que exerce uma constante hermenêutica de suspeição contra supostos universalismos ou totalidades. lntrigantemente, segundo o autor, a sociologia disciplinar tem ignorando quase completamente o multiculturalismo, ainda, que podemos encontrar cada vez mais estudos culturais com configurações transdisciplinares onde convergem as diferentes ciências sociais e os estudos literários e onde se tem produzido conhecimento crítico, feminista, anti-sexista, anti-racista, pós-colonial.[19]

Depois de dois séculos de utopismo automático da ciência e da tecnologia, o princípio da prudência faz-nos uma dupla exigência. Por um lado, exige que, perante os limites da nossa capacidade de previsão, em comparação com o poder e a complexidade da práxis tecnológica, privilegiemos perscrutar as conseqüências negativas desta em detrimento das suas conseqüências positivas. Não deve ver-se nisto uma atitude pessimista e muito menos uma atitude reacionária. Uma das virtualidades do utopismo tecnológico é que, hoje, sabe­mos melhor aquilo que não queremos do que aquilo que queremos. Se a nossa capacidade de previsão é menos limitada a respeito das conseqüências negativas do que a respeito das conseqüências positivas, é de bom senso concentrarmos o conhecimento emancipatório nas conseqüências negativas. Isto implica assumir perante ela - e esta é a segunda exigência - uma certa “hermenêutica de suspeição”, como Ricoeur lhe chamaria as conseqüências negativas duvidosas, mas possíveis, devem ser tidas como certas.[20]

Segundo Boaventura de Sousa Santos, a aceitação e a revalorização do caos é uma das estratégias epistemológicas que tornam possível desequilibrar o conhecimento a favor da emancipação, revalorizando a solidariedade como forma de saber. [21]

7) A teoria geral da recursão da computação abstrata (maquinas cognitivas). A teoria da recursão pode ser encarada de modo geral como a teoria abstrata das máquinas computacionais (máquinas de Turing operada por algoritmos), sendo os computadores com os quais estamos acostumados, os produtos físicos que mais exemplificam a ideia de máquinas teóricas cognitiva traduzidas em artefatos cognitivos operatórios. Um outro exemplo menos conhecido é o dos autônomos finitos de Markov. Assim, da teoria geral e abstrata da recursão podemos derivar vários resultados sobre os computadores comuns e os artefatos robóticos ou simuladores simbólicos.

A teoria da recursão se refere a certas estruturas algébricas, mas hoje foi estendida para abranger os sistemas lógicos e simbólicos complexos (especo informacional) pelo processo de sintetização digital da realidade. Acreditamos que com a emergência das maquinas computáveis cognitivas, surgem também quatro grandes camadas imateriais de amplificação da realidade abstrata. É preciso primeiramente afirmar de que a informação digital computada incorpora-se a uma gama de múltiplos saberes envolvidos em simbiose e vinculados a suportes infra estruturais sofisticados de redes comunicantes e interativas que compartilham essas quatro camadas informacionais: a) primeira camada: A álgebra boolena; b) segunda camada: A informação como expressão binária digital no circuito elétrico; c) terceira camada: Pensar e construir instruções através de algoritmos e d) quarta camada: A Cultura da interface.

Hoje defendo uma quinta informática que evoluiu em simbiose ainda mais colaborativa com a vida: as interfaces simbióticas.

A representação e o tratamento da informação em simbiose com as máquinas cognitivas, incluem e nos conduz hoje a uma imagem unificada em nódulos informacionais complexos da cognição, inclusive por conexões não-clássicas, e estabelece novos vínculos entre teoria da informação, matemática e análise simbólica. Assim, exemplificando, em certas questões mesmo de matemática qualificada e construtiva, deve-se recorrer a uma lógica divergente da clássica, ou seja, à chamada lógica e procedimentos intuicionista; em outros contextos, muito utilizado na mecânica quântica. Um outro exemplo em áreas mais duras da ciência, encontra-se tópicos de química e de genética, tem-se apelado para o cálculo lamba e a lógica combinatória, que não pertencem, propriamente, à classe das modalidades clássicas em acepção estrita.

8) Por fim, O eletromagnetismo do quantum. Richard Feynman entre diagramas de partículas virtuais que se levantam como notas de música da realidade, gerou uma nova e elegante teoria com também novas equações que eliminavam as infinidades de possibilidades que tinham que ser previstas na solução da explicação de sua realidade quântica. Feynman descobriu o eletromagnetismo do quantum, e um sistema mais prático de resolver problemas do quantum. Esse trabalho denominado eletrodinâmica quântica deu a Richard Phillips Feynman o Nobel de 1965. Essa nova teoria explicava um universo tão vasto e complexo quanto importante para a sociedade moderna. Esse universo inclui nada menos que a arquitetura interna dos átomos, a ação dos lasers, os fenômenos radioativos, eletrônicos e químicos, assim como esquisitas transformações das partículas subatômicas, como o elétron e o próton.

Feynman, no entanto, fez mais do que isso. Recriou desde o princípio as ideias da antiga teoria quântica — que após quase meio século de esforço continuavam incompletas e obscura. Ele tomou os conceitos semi-acabados e transformou-os em ferramentas que qualquer físico podia compreender e usar. A teoria de Feynman é muito prática, especialmente os “diagramas de Feynman”, hoje indispensáveis. No fundo, os diagramas são simples tabelas, como uma espécie de gráfico sofisticado, com o qual o mundo dentro dos átomos não parece tão estranho e fica muito mais fácil calcular a trajetória e as trocas de energia entre as partículas.

A teoria quântica ganhou muito de aplicabilidade depois de Feynman. Por exemplo, graças ao microscópio de efeito túnel, baseado nos princípios da física quântica, os cientistas conseguem enxergar átomos e manipulá-los um a um. Em uma década, a nanotecnologia, ciência do infinitamente pequeno, poderá ver os primeiros resultados práticos da possibilidade de construir moléculas sob medida. Em longo prazo, em vinte ou trinta anos, é provável que surjam supercomputadores de bolso e minúsculas sondas para percorrer o interior do corpo humano.

Em dezembro de 1959, quando Feynman preferiu as visionárias palavras na palestra "Há muito lugar no fundo" para seus colegas da Sociedade Americana de Física, os computadores ainda eram geringonças que ocupavam metade das salas em que eram colocados. Feynman falava em mexer átomos num tempo em que ninguém sequer tinha visto um deles. Trinta anos depois, o sonho do físico ganhou forma na ciência do muito pequeno, a nanotecnologia, assim chamada porque seus objetos de estudo costumam ser medido em nanômetros — 1 milhão de vezes menor que 1 milímetro.

Richard Feynman (1918-1988), sugeriu, em 1981, criar supercomputadores que usariam os 36 estados quânticos do elétron como linguagem no lugar do tradicional idioma binário da Informática.

Assim, ainda no início dos anos 80, os cientistas começaram a alertar que a evolução dos computadores, da maneira como são construídos hoje, estava com os dias contados. O motivo era, e ainda é, a incrível transformação dos circuitos eletrônicos, que nos últimos trinta anos ficaram 3 milhões de vezes mais rápidos, enquanto os seus componentes básicos, que são os transistores, encolhiam na mesma proporção. Os primeiros transistores da década de 60 não eram menores que um grão de feijão, e os atuais já estão cem vezes menores que o diâmetro de um fio de cabelo.

Só que eles não podem diminuir muito mais. A miniaturização deve dar mais um salto de cem vezes, nos próximos dez ou quinze anos. E se em seguida forem divididos novamente por dez, deixam de existir: vão se desmanchar em uma nuvenzinha de átomos, 1 milhão de vezes menor que 1 centímetro. Ou seja, os computadores vão ter de virar máquinas atômicas, já que suas peças essenciais serão átomos soltos, em lugar dos transistores convencionais.

Por isso, o novo modelo de processar informações está sendo chamado de computador "quântico", em referência à Mecânica Quântica, o ramo da Física que governa o comportamento dos átomos. Por enquanto, é quase tudo teoria. Ninguém sabe direito que estrutura a nova máquina vai ter. Mas os especialistas garantem que, se ela um dia chegar a operar. É que em vez de executar um cálculo por vez, como os computadores atuais, ela vai raciocinar em bloco, compondo verdadeiras sinfonias inteligentes. O que vai acontecer com os circuitos eletrônicos quando suas peças, de tanto diminuir de tamanho, virarem uma autêntica poeira de átomos? A ideia é produzir uma máquina superior, estupidamente mais rápida que as atuais.

O que aconteceria se pudéssemos mover átomos? É o que se perguntava Feynman. Hoje os cientistas que os manipulam respondem: podemos construir supercomputadores que caibam no bolso, gravar bibliotecas inteiras em superfícies de centímetros quadrados, colocar micro sondas para fazer testes sangüíneos dentro do corpo humano. Tudo isso ainda é suposição, previsão, talvez sonho, no entanto, como Léon Lederman, laureado de Nobel e Diretor Emeritus de Fermilab, gosta de mostrar, mais que 25 por cento do total produto nacional da superpotência norte americana é dependente em tecnologia de um modo ou outro pelas descobertas dos fenômenos do quantum.

Por fim, cabe destacar que Feymnam foi um dos participantes importantes do Projeto Manhattan do lado de Robert Oppenheimer, que chefiou o Projeto que implicou na criação da bomba atômica. Esta sua participação é uma polêmica até hoje nos meios acadêmicos e isto só vem a conformar que genialidade sabedoria nem sempre andam juntas.


          PALAVRAS FINAIS

Estes são alguns exemplos paradoxais de nosso tempo. Finda a idade industrial da humanidade mas fica sua herança, suas teorias, seus fantasmas, suas cidades poluídas e decadentes, subproduto do combustível fóssil, fica também suas instituições e a mega herança da desigualdade social e da degradação do ecossistema ao mesmo tempo em que entra em estágio de putrefação o velho moderno modo de conhecer e produzir conhecimento.

Em síntese, os últimos desenvolvimentos na física e na biologia, alguns acima mencionados sinteticamente, parecem apontar na direção da unificação do saber e do conhecimento diante da complexidade, entendendo cada vez mais que todas as ciências são sociais. E que a dualidade simétrica, vida x corpo, matéria x espírito, são desprovidas de complexidade.

Assim, os avanços recentes da física e da biologia põem em causa a distinção entre o orgânico e o inorgânico, entre seres vivos e matéria inerte e mesmo entre o humano e o não humano. As características da auto-organização, do metabolismo e da auto-reprodução, antes consideradas específicas dos seres vivos, são hoje atribuídas aos sistemas pré-celulares de moléculas. E, quer num quer noutros, reconhecem-se propriedades e comportamentos antes considerados específicos dos seres humanos e das relações sociais.

Todas as recentes teorias científicas mencionadas introduzem na matéria os conceitos de historicidade, de liberdade, de autodeterminação e até de consciência que antes o homem e a mulher tinham reservado para si.  Isso implica uma nova e ainda mais radical conclusão se o saber e a matéria estão intimamente ligados na complexidade, então, as ciências naturais e as sociais estão também interligadas, assim ,não existe a possibilidade de uma ciência não social e como nos lembra Boaventura de Sousa Santos, na complexidade: todas as ciências são sociais.[22]

Enfim existem paradigmas maiores e paradigmas menores. O paradigma cartesiano vigorou intensamente até 1950. A crise do paradigma cartesiano implica na emergência de um outro: o paradigma da complexidade (que é diferente).

No método 3, Edgar Morin nos fala em crise dos fundamentos seguros do pensamento e da ciência, frente à construção de sistemas firmados - por estes próprios fundamentos de base - que impedem a desconstrução generalizada realizada pelos questionamentos relativizadores sobre todo o conhecimento. Nesta nova e complexa percepção da estruturação sem estrutura, no lugar dos fundamentos agora perdidos o próprio Einstein nos diz: retiraram nosso chão sólido e visível sobre o qual pisamos, a matéria se integrou ao mundo oculto, o chão escorregou. Na complexidade, somos plasmados pelo lodo do oculto do corpúsculo, da partícula e da onda elementar que compõem a unidade inseparável da ordem e da desordem e organização do Universo.

Até 1617, o paradigma astrológico (aristotélico tomista) concebia um universo celeste perfeito. O paradigma cartesiano - começando por Copérnico sistematizado por Descartes e modelado teórica e matematicamente por Newton, sobretudo, pela confirmação da lei da gravitação universal - propunha uma ruptura radical, a unificação do mundo físico terrestre com o mundo cósmico/celeste. Isto implicou em modificação radical também da Universidade medieval, construção de departamentos, disciplinas especializadas de conhecimento, etc. Um novo modo de pensar e instituir o pensamento científico e de estruturar todas as instituições modernas.

O paradigma cartesiano é uma ruptura muito radical com o paradigma astrológico. O mundo passa a vir a ser – flecha ascendente integrando matéria e energia (eletromagnetismo) buscando uma totalidade sistêmica sistêmica – ainda que mecânica e não complexa. O cérebro (mente) é separado do corpo e o sujeito é separado do objeto.

O paradigma da complexidade implica na indissociação do sujeito do objeto, da mente e da matéria, e de uma dimensão sistêmica que integre a flecha descendente com a ascendente. Não se trata de buscar o equilíbrio, nas estruturas dissipativas. O equilíbrio não existe na complexidade, seria a tensão absoluta entre o vir a ser e o não vir a ser. A auto organização é uma preponderância do vir a ser sobre a dissipação. A preponderância absoluta da dissipação é a morte de um sistema, sua destruição total.

Com o paradigma da complexidade podemos reinterpretar os clássicos das ciências sociais e redescobrir novas e ocultas conexões que não estão imediatamente presentes.

A crise dos paradigmas gera também uma crise de poder. Francis Bacon já tinha nos alertado de que a senda que conduz o homem ao poder e a que o conduz à ciência estão muito próximas, sendo quase a mesma. Geordano Bruno que o diga, foi uma vítima do poder da inquisição e queimado vivo, entre outros motivos por que seu sistema explicativo baseado numa filosofia naturalista, que  questionava a supremacia celeste sobre a natureza e apresentava um novo homem capaz de descobrir causas racionais e verificáveis no mundo e que mais tarde veio a se integrar ao paradigma cartesiano.

A ciência cartesiana é fonte de muito poder. A balística serviu a produção de projéteis, a criação dos computadores e a volumosos recursos de financiamento. Na ciência cartesiana, tecnologia e ciência se tornaram inseparável produzindo grandes descobertas e imensos recursos de financiamento de pesquisas.

As nações modernas, França, Espanha, Bélgica e Inglaterra para se independizarem do poder Papal, imprimiram enormes volumes de dinheiros aos cientistas e novos aventureiros do conhecimento moderno. Na Inglaterra temos o exemplo bem visível da Real society que financiou muitos experimentos científicos.

A laiticidade e recusa do sagrado, separação dos poderes são princípios que marcaram profundamente o pensamento ocidental e não apenas a Revolução Francesa, bem como a figura do mecenas que financiavam intelectuais. Como afirmamos antes, no Brasil, este processo é bem diferente. O paradigma cartesiano emerge sobre a influência positivista e a ciência nasce extremamente dependente do Estado.

Em que sentido o paradigma complexo compõem um novo tipo de poder ou um poder científico de novo tipo? Ele – o paradigma complexo - exige integrar a concepção da organização no mundo científico, diferentemente do paradigma cartesiano que se consolidava institucionalmente de modo cartesiano mas não incorporava a organização da ciência no processo de autoconstrução do saber.

O paradigma complexo impõe a integração do caos na organização e uma estrutura dissipativa descentralizada aberta à auto-organização produtiva. Também integra o sujeito ao objeto, o sujeito não está fora do mundo é reverberativo.

Independentemente de nós, o Universo se auto organizou antes de nós mesmo emergirmos como sistema vivo complexo. É necessária organização descentralizada e capaz de enfrentar a expressão mais radical da crise gerada pela pulsão arrasadora da dissipação, o que Edgar Morin chama de “motor selvagem”.

Segundo também Edgar Morin, no seu livro O Método tomo 1, vivemos numa desordem organizada, inclui no entanto a organização no próprio paradigma da ciência. Caminhamos em cima da turbulência da dissipação energética, da improbabilidade, da incerteza.[23]

Não podemos entender a alma sem a sua substância material e nem o corpo como substância própria separada da auto organização da matéria, pensamos ligados ao corpo e a consciência é também  matéria complexa organizada.

O mesmo não podemos entender na complexidade a ideia do sujeito determinando e separado da ideia de objeto.

A complexidade não é um problema novo. O pensamento humano sempre enfrentou a complexidade e tentou, ou bem reduzi-la, ou bem traduzi-la. Os grandes pensadores sempre fizeram urna descoberta de complexidade. Até uma simples lei, como a da gravidade, permite ligar, sem reduzi-los, fenômenos diversos como a queda dos corpos, o fato de a Lua não cair na Terra, o movimento das marés. Toda grande filosofia é uma descoberta de complexidade; depois, ao formar um sistema em torno da complexidade que revelou, ela encerra outras complexidades.

A rigidez da lógica clássica pelo diálogo capaz de conceber noções ao mesmo tempo complementares e antagonistas, e completara o conhecimento da integração das partes em um rodo, pelo reconhecimento da integração do todo no interior das partes.

Ligará a explicação à compreensão, em todos os fenômenos humanos. Vamos repetir aqui a diferença entre explicação e compreensão. Explicar é considerar o objeto de conhecimento apenas como um objeto e aplicar-lhe todos os meios objetivos de elucidação. De modo que há um conhecimento explicativo que é objetivo, isto é, que considera os objetos dos quais é preciso determinar as for­mas, as qualidades, as quantidades, e cujo comportamento conhecemos pela causalidade mecânica e determinista. A explicação, claro, é necessária à compreensão intelectual ou objetiva. Mas é insuficiente para a compreensão humana.

Há um conhecimento que é compreensível e está fundada sobre a comunicação e a empatia — simpatia, mesmo — intersubjetivas. Assim, compreendo as lágrimas, o sorriso, o riso, o medo, a cólera, ao ver o ego alter como alter ego, por minha capacidade de experimentar os mesmos sentimentos que ele. A partir daí, compreender comporta um processo de identificação e de projeção de sujeito a sujeito. Vê-se uma criança em prantos, vou compreendê-la não pela medição do grau de salinidade de suas lágrimas, mas por identificá-la comigo e identificar-me com ela. A compreensão, sempre intersubjetiva, necessita de abertura e generosidade.

O paradigma da moderna ciência em crise insere na ideia de mensuração e, assim, na curiosa história da lógica. Vindo desde a criação da indução por Aristóteles (384-322 a.C.), permaneceu praticamente imutável durante dois milênios. Pensadores como Galileu Bacon, Mill e depois Kant (1724-1804) achavam do ponto de vista essencial, em lógica, depois do grande filósofo grego muito pouco era preciso ser feito além de minuciá-la e desenvolvê-la.

O estudo da lógica e da metodologia restringia-se ao da inferência válida (algumas vezes incluindo também a inferência dita indutiva, não válida, porém possuindo certo caráter verossímil), de um prisma formal. Na inferência válida, de premissas verdadeiras chega-se, sempre, a conclusões verdadeiras. As regras da lógica, devidamente utilizadas, assegurariam isso. Portanto, vimos que a mensuração lógica está amarrada e se sustenta também com um pensamento lógico devotado ao raciocínio formalmente redutor.

Por exemplo, Newton, produziu sua síntese mecanicista extraordinária acreditando que devemos buscar as proposições inferidas por indução geral a partir dos fenômenos, e não por meio de especulações hipotéticas. É enfático seu pronunciamento a esse respeito: ”Non fingo hypotheses”, isto é eu não invento nenhuma dessas causas, que, sem dúvida, podem dar conta dos fenômenos, mas que somente são verossímeis. Newton não admite outra causa senão a que pode ser ‘deduzida dos próprios fenômenos”. [24]

Para Newton, a argumentação indutiva não é uma demonstração de conclusões gerais e está sujeita a exceções reveladas pelos fenômenos constatados, pois tudo que não é deduzido dos fenômenos deve ser chamado uma hipótese; e a hipótese, quer metafísicas ou físicas, quer de qualidades ocultas ou mecânicas, não têm lugar na filosofia experimental. Nessa filosofia, as proposições particulares são inferidas dos fenômenos, e depois tornadas gerais pela indução. [25] 

Assim em vez de presumir hipóteses sem nenhuma comprovação experimental, é preciso consultar a própria natureza, realizar experimentos bem planejados e a partir daí investigar as causas que engendram os efeitos. A indução é, então, o melhor caminho de argumentação que a natureza das coisas admite, e pode ser considerada tanto mais forte quanto mais geral ela for comprovada.

De um modo geral os pensadores sociais não questionavam profundamente essas premissas, divergiam sobre seu emprego mais analítico e dedutivo, mais dialético ou mais compreensivo, porém jamais colocaram em questão ou criaram novas modalidades de mensuração complexa para embasar seus pensamentos e conhecimentos sobre a realidade social.

É claro que os fundacionistas da sociologia não compartilharam das grandes mudanças científicas que vieram a ocorrer sobre esta tradição milenar. Pois somente a partir da segunda metade do século 19 e durante todo o século 20 que isso veio ocorrer e os clássicos da sociologia não puderam ou não conseguiram sofrer os efeitos da assombrosa transformação produzida por intelectuais e cientistas contemporâneos.

Hoje a mensuração lógica simétrica deixou de ser tão somente vinculada à validação das formas válidas de raciocínio, embora a teoria da argumentação ainda pertença ao campo de suas aplicações. No momento, ela versa sobretudo, de determinadas “estruturas abstratas ou reflexivas”, que podemos denominar de sistemas lógicos simétricos e (não ou) assimétricos, indo desde procedimentos lógicos orquestrados com analógicos em espírito e subjetivação integrados radicalmente em estruturas da álgebra reflexiva ou de outros ramos da matemática computacional e da teoria da informação.

A mensuração clássica é praticamente e estritamente lógica pura. O sociólogo pesquisador contemporâneo deve saber tratar de sistemas lógicos diversificados, de inúmeras e contraditórias conformidades de relevância intrínseca e de significados tocantes às aplicações sociais múltiplas em fundamentos condizentes com as teorias da informação.

Além disso, a pesquisa aplicada, não pode se voltar apenas para  aplicações dos sistemas e métodos lógicos em todas as áreas do conhecimento. É certo que existe determinada semelhança entre algoritmos e problematizações sociais e entre informações em associações analógicas e lógicas. Até mesmo em geometria não existe mais quem defenda uma geometria pura, pois se estudam diversas estruturas geométricas: euclidiana, riemaniana, finita etc. e na geometria aplicada volta-se para as estruturas com ênfase em aplicações mais ou menos precisas, como nos casos da geometria do espaço de Minkowski em relatividade restrita ou da geometria de Riemann em relatividade geral.

Vivemos num tempo atônito que ao debruçar-se sobre ele próprio descobrimos que os nossos pés são um cruzamento de sombras, sombras que vêm do passado que ora pensamos já não sermos, ora pensamos não termos ainda deixados de ser, sombras que vêm do futuro que ora pensamos já sermos, ora pensamos nunca virmos a ser. Quando, ao procurarmos analisar a situação presente das ciências no seu conjunto, olhamos para o passado, a primeira imagem é talvez a de que os progressos científicos dos últimos trinta anos são de tal ordem dramáticos que os séculos que nos precederam ‑ desde o século XVI, onde todos nós, cientistas modernos, nascemos, até ao próprio século XIX ‑ não são mais que uma pré‑história longínqua. Mas se fecharmos os olhos e os voltarmos a abrir, verificamos com surpresa que os grandes cientistas que estabeleceram e mapearam o campo teórico em que ainda hoje nos movemos viveram ou trabalharam entre o século XVIII e os primeiros vinte anos do século XX, de Adam Smith e Ricardo a Lavoisier e Darwin, de Marx e Durkheim a Max Weber e Pareto, de Humboldt e Planck a Poincaré e Einstein. E de tal modo é assim que é possível dizer que em termos científicos vivemos ainda no século XIX do que no século XXI.

No entanto, contraditoriamente, a ciência transfigurou-se nos últimos 150 anos frente à complexidade da mensuração em três grandes aspectos: 1) em extraordinário desenvolvimento técnico; 2) aparecimento das chamadas lógicas e procedimentos não-clássicos, que complementam ou se afastam daquela batizada de clássica simétrica, a qual se inspirava em pressupostos da tradição aristotélica compilada e melhorada pela primeira moderna geração da ciência, ou seja, a emergência da complexidade e de novas modalidades operatórias complexas sobre a realidade, inimagináveis até então; 3) a eclosão de variadas e numerosas aplicações da teoria da informação digital em quase todos os domínios do saber.

Um dos maiores desafios da complexidade é romper com o saber disciplinar e violentar as fronteiras dicotômicas que separam as ciências naturais/ciências sociais. O novo paradigma da complexidade implica em emanciparmos dessa falsa dicotomia.

As próprias ciências sociais constituíram-se no século XIX segundo os modelos de racionalidade das ciências naturais clássicas e, assim, a égide das ciências sociais, afirmada sem mais, pode revelar-se ilusória, contudo, que a constituição das ciências sociais teve lugar segundo duas vertentes: uma mais diretamente vinculada à epistemologia e à metodologia positivistas das ciências naturais, e outra, de vocação antipositivista, caldeada numa tradição filosófica complexa, fenomenológica, interacionista, mito-simbólica, hermenêutica, existencialista, pragmática, reivindicando a especificidade do estudo da sociedade mas tendo, para isso, de pressupor uma concepção mecanicista da natureza. A pujança desta segunda vertente nas duas últimas décadas é indicativa de ser o modelo de ciências sociais que, numa época de revolução científica, transporta para a emergência do novo paradigma.[26]  Trata-se, como referi também, de um modelo de transição, uma vez que define a especificidade do humano por contraposição a uma concepção da natureza que as ciências naturais hoje consideram ultrapassada, mas é um modelo em que aquilo que o prende ao passado é menos forte do que aquilo que o prende ao futuro.[27]

Para apreciar o pleno significado do movimento antifundacional nas ciências sociais, é de suma importância às contribuições presentes nas obras de Foucault e de Derrida. Mesmo tendo presente tal importância, este texto deixará de abordar diretamente as temáticas destes autores e seguirá noutra direção.

É de amplo conhecimento nas ciências sociais, seguindo a concepção também positivista do conhecimento científico, tomou posição de que o papel das ciências sociais é reunir “dados objetivos” e submetê-los à análise científica. O humanismo, ao invés, renuncia à procura de dados objetivos e aceita a ”subjetividade” inerente às ciências sociais. À primeira vista parece que os humanistas oferecem uma alternativa clara à abordagem positivista que assenta numa epistemologia totalmente diferente. Uma análise mais profunda mostra que não é assim. Ambos grupos - humanistas e positivistas - partilham uma assunção epistemológica fundamental: a oposição entre sujeito e objeto. A essência da abordagem positivista consiste em acentuar o lado do objeto nesta oposição. Os positivistas pretendem que o fito da investigação científica se constitua pela acumulação de “conhecimento objetivo” livre de qualquer mancha de subjetividade. Os humanistas, por outro lado, salientaram a vertente do sujeito na dicotomia. Na terminologia contemporânea o que os humanistas realizaram foi a “desconstrução” do objeto no processo de conhecimento nas ciências sociais. Defendem que a matéria prima das ciências sociais tem como fonte ações significativas produzidas nas relações intra-humanas, que são inerentemente “subjetivas”. [28]

Em resumo, à medida que as ciências naturais se aproximam das ciências sociais, estas se aproximam das humanidades. A revalorização dos estudos humanísticos acompanha a revalorização da racionalidade estético-expressiva das artes e da literatura que, juntamente com o princípio da comunidade, é uma representação inacabada da modernidade simples A superação da dicotomia ciências naturais/ciências sociais tende assim a revalorizar os “estudos humanísticos”. Mas esta revalorização não ocorrerá sem que as humanidades sejam, elas também, profundamente transformadas. O que há nelas de futuro é terem resistido à separação entre sujeito e objeto e entre natureza e cultura, e terem preferido a compreensão do mundo à manipulação do mundo. [29]

Além disso, quer resistam, quer sucumbam ao modelo cientista, os estudos humanísticos decidiram, de modo geral, ignorar as relações e os processos sociais responsáveis pela auto-atribuição da qualidade de autor, pelos critérios de inclusão na comunidade interpretativa, pela repartição do poder retórico entre diferentes argumentos, em suma, pela distribuição social das boas razões.

Há que recuperar esse núcleo genuíno e pô-lo ao serviço de uma reflexão global sobre o mundo. O texto, sobre que sempre se debruçou a filologia, é uma das analogias matriciais com que se construirá no paradigma emergente o conhecimento sobre a sociedade e a natureza. Como catalisadores da progressiva fusão das ciências naturais e das ciências sociais, os novos estudos humanísticos ajudam-nos a procurar categorias globais de inteligibilidade, conceitos quentes que derretam as fronteiras em que a ciência moderna dividiu e encerrou a realidade. Enfim, todas as ciências são sociais e a nova ciência emergente é uma ciência assumidamente não simétrica e analógica Em síntese, há procedimentos e lógicas variadas como há geometrias distintas. É habitual conceber a criação das geometrias não-euclidianas como uma das grandes transformações de paradigma da ciência, dado que a lógica se mostra mais básica que a geometria na hierarquia do conhecimento, decorre de implicações e mudanças no paradigma na ciência aristotélica.[30]

Esse processo está presente hoje em quase todos os campos do saber: em filosofia, em filosofia da ciência, em lingüística, em matemática (por exemplo, utilização de teoria de modelos em álgebra), em química, em biologia, em direito, em psicologia etc.

Todavia o que mais nos surpreende são as aplicações tecnológicas da teoria da informação digital frente à mensuração científica da realidade. Aplicações, exemplificando, a matemática das redes conhecida como grafos, muito utilizada para simulações complexas e para entendermos as organizações emergentes, a lógica "fuzzy" muito utilizada em engenharia de produção e no controle de tráfego, na notação em robótica e no reconhecimento automático de assinaturas em bancos, e da clássica em computação e programação, em sistemas especialistas para diagnóstico médico, em fabricação de máquinas e na  nova modalidade da teoria da computação flexível e simbólica.

Assim a história da clássica geração moderna da ciência evidencia e comprova, pelo menos em linhas esquemáticas, os limites na mensuração do raciocínio correto e lógico de natureza das próprias noções lógicas, das conexões entre ela e a matemática, caráter eterno ou provisório das suas leis lógicas, da base limitada da cognição marcada pelo realismo nas ciências lógico-matemáticas.

O notável lógico e filósofo inglês A.N. Whitehead (1861-1947) afirmava que a mensuração reflexiva contemporânea estava para o pensamento tradicional assim como a matemática do século passado estava para a aritmética das tribos primitivas. Essa afirmação de Whitehead se mostra, em nossa época, como inteiramente justificável. Porém podemos verificar também que a mensuração lógica foi incorporada sem modificações críticas e operantes de relevância pelos fundacionistas da sociologia e da ciencia moderna na construção do próprio saber e que eles estão para o Século XXI tão próximos quando estão afastados da mutação científica que os procederam.

Para tomarmos consciência da profundidade da crise em que a ciência social se encontra, faz-se necessário integrar sua crise específica com a crise geral que fundou o moderno saber científico somente assim poderemos encontrar pistas para a integração cada vez mais complexa do saber social com o saber da natureza e os novos e pulsantes desafios dessa nova simbiose.

Estamos cada vez mais imersos na emergência de uma nova civilização complexa, a civilização simbiótica. Se os seres humanos tivessem sido feitos para durar mais, seríamos diferentes. A ciência da vida juntamente com a evolução  simbiótica natural cooperativa de nossos corpos com bactérias benignas (quase a totalidade deles no planeta são) e com os vírus que muitos já compõem nosso DNA (25% é retrovírus incorporado), nos deram nas últimas décadas a espécie simbiótica e a conquista da morte pelo envelhecimento.

Agora para vivermos mais tempo e melhor, a simbiogênese social está permitindo co-fabricar um corpo simbiótico distinto dos que a natureza nos desenhou, com seus discos abaulados, ossos frágeis, quadris fraturados, ligamentos rompidos, veias varicosas, catarata, perda da audição, hérnias e hemorroidas: a lista das mazelas corporais que nos afligem à medida que envelhecemos é longa e muito familiar.

Estamos nos dirigindo para a emergência de uma nova espécie simbiótica altamente duradoura, com partículas minúsculas dedicadas totalmente aos bilhões de esforços jeitosos e cooperativos necessários para nos manter intactos e que nos farão experimentar um estranhamento sobre o que conhecemos como existência ou sobre o que é o real movido pela nossa atual singularidade humana.

Se informação não é conhecimento, e se conhecimento não é sinônimo de sabedoria, não é preciso lembrar que essas conquistas geram riscos, desafios éticos e sociais imensos que julgamos não estarmos, ainda, à altura de enfrentá-los.

Temos, cada vez mais, uma compreensão da importância da simbiogênese, não apenas a demonstrada nas nossas interações com os micro-organismos, mas um borramento amplo de fronteiras entre o mundo físico, social e biológico; uma transubstancialização do poder-corpo para o poder-vida.

Com o borramento e amplificação da simbiogênese microfísica com o universo macrofísico de nosso tecido social, construímos nossa hipótese da simbiogênêse social. Acreditamos que estamos – como espécie – borrando uma passagem evolutiva da era simbiótica e não parabiótica. No lugar de transformar o mundo, nós vamos agora mudar o próprio ser em evolução.

Assim, não somos humanos, estamos ainda apenas humanos, mas o futuro duradouro é do simbiótico, e estamos a passos acelerados nessa direção. Caminhamos aceleradamente, com a manipulação molecular, para a saída da era neolítica, em que logramos a tarefa de dominar nosso ambiente, para uma nova era da programação simbiótica. As nossas próximas tarefas serão o domínio de nosso próprio corpo e dos organismos vivos em geral.

Nessa nova era de uma evolução borrada entre os recursos orgânicos e os inorgânicos, em cooperação com a vida, estaremos transferindo para as criaturas vivas e para as máquinas ou para matérias inorgânicas parte das suas propriedades singulares, um borramento de uma nova ecologia simbiótica. Isso já está sendo demonstrado. Por exemplo, o marca-passo tem sido utilizado com sucesso na medicina desde 1958. [31]

Outros dispositivos já foram demonstrados em diferentes experimentos e estão sendo também implantados no corpo humano ao longo dos últimos anos. Por exemplo, eletrodos para fazer conexão elétrica à espinha dorsal, de modo a estimular órgãos paralisados (utilizado em Larry Flynt, o famoso editor da revista pornográfica Hustler, para recuperar sua virilidade, após uma tentativa de assassinato que o deixou paraplégico) e o incrível implante de olhos artificiais (na verdade, câmeras CCD ligadas a processadores de imagens) para os cegos, o projeto desenvolvido pelos oftalmologistas norte-americanos John Wyatt e Joseph Rizzo.

A vida tecnologicamente inteligente está constituindo uma potente beta natureza (seca, inorgânica) e gerando um novo recurso simbiótico com a alfa natureza (úmida e orgânica). São exatamente os recursos da ciência e da tecnologia modelados por uma sociedade do conhecimento que estão nos impelindo para entrar numa nova era da evolução. Estamos iniciando a embarcação de uma nova era simbiótica. [32]

Minha indicação final é que não vivemos apenas uma nova convergência neurodigital ou uma nova emergência do pós-humano, transhumano ou pós-evolutiva, ao contrário, estamos deixando para trás o humano demasiadamente humano e emergindo novos seres simbióticos modelados por uma aceleração envolta de uma evolução simbiótica, uma evolução geradora de seres bióticos mais duradouros, numa nova ecologia simbiótica, mais recursiva, ou seja, com novos e potentes recursos e sentidos para e pro bióticos.

Nos últimos anos, artistas como Stelarc [33] se dedicaram à discussão cultural e política da possibilidade de ultrapassar o humano, através de radicais intervenções cirúrgicas, de interfaces entre a carne e a eletrônica, ou, ainda, de próteses robóticas, para complementar ou expandir as potencialidades do corpo biológico. Mais do que apenas antecipar profundas mudanças em nossa percepção, em nossa concepção de mundo e na reorganização de nossos sistemas sociopolíticos, esses pioneiros anteciparam transformações fundamentais em nossa própria espécie. Essas transformações poderão, inclusive, alterar nosso código genético e reorientar o processo darwiniano de evolução.

No entanto, a simbiogênese enfrenta a visão reducionista da tecnologia inorgânica, em que a evolução é tecnocientífica, é assimbiótica, e, por consequência, o futuro pertence a entidades assimbióticas, sem vida, “andrógenos” ou a seres deuses, como postula outro israelense, Yuval Noal Harari. [34]

Para entender essa atrofia que paralisou a evolução científica, em detrimento da hiperevolução tecnológica nos últimos cinquenta anos, é preciso começar na gênese desse entroncamento e desvio de rota.

Isso permitirá, também, ao leitor entender porque minha tão marginal proposição social da simbiogênese ficou no âmbito de toda minha carreira científica de tornar pública a construção desse caminho frente às denúncias de atrofia das opções acadêmicas, científicas, no universo do poder-saber. Entenderão o quão marginal fiquei diante da capacidade de diálogo com a tecnociência que dominou completamente, principalmente, a partir dos anos 1980, e hegemonizando totalmente o conhecimento científico, a partir dos anos 1990, uma síntese de ciências cognitivas e suas sub-colônias disciplinares.

Tenho uma metáfora para explicar esse fenômeno da invasão da literatura técnico-científica e técnico-empresarial no universo das academias, universidades e no solo fértil da produção científica.

As titãs “ciências cognitivas” são como uma figueira (que aliás são árvores centenárias maravilhosas e muito poderosas, e sou grande admirador). As figueiras – geralmente com sementes trazidas por pássaros – germinam em uma árvore hospedeira e, bem aos poucos, vão se comportando como estranguladoras. Crescem se enroscando no caule da hospedeira, competindo com ela, sugando seus insumos e sua água; quando alcançam o solo, se enraízam, engrossam suas raízes, mostram toda sua força e, por cintamento, vão apertando, apertando, até sufocar e matar suas hospedeiras, dando vazão a seus domínios imperiais e centenários.

Da mesma forma, as ciências cognitivas, (que são muito mais técnico-ciências), facilitadas pelo imenso poder da computabilidade das máquinas cognitivas, foram enroscando e sufocando as ciências de base em todo o universo da produção acadêmica e “científica”, tornando quase a totalidade da ciência e das universidades uma agência da cognição.

Uma hegemonia que chega a ser assustadora. De todos os recursos disponibilizados para a pesquisa científica, em torno de 93% da verba é afunilada para as técnico-ciências cognitivas e suas sub-colônias disciplinares.

Por fim, mas não por final, a civilização simbiótica envolve sociedades que são holísticas; envolve sociedades que também dão respostas pró-bióticas; envolve sociedades que também transbordam em constantes fenômenos emergentes; envolve sociedades que são ecológicas, mas produtivas; envolve sociedades que também são tomadas pela consciência de energias espirituais, não dogmáticas e não reduzidas na matéria; e a civilização simbiótica envolve sociedades que também dialogam profunda e abertamente com a ciência.

Na esperança da cooperação humana: que venha a consciência simbiótica.


[1] Cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neurorreabilitação em diferentes cidades e diferentes países principalmente, europeus. 

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com/

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções e coordenando a Banda Seu Kowalsky e os Nômades de Pedra. Suas músicas e shows vídeos podem ser acessadas no canal do youtube. https://www.youtube.com/c/seukowalskyeosnomadesdepedra

[2] WIGNER, Eugene. Symmetries and Reflections: Scientific Essays. Cambridge: Cambridge University Press,  1970: 7.

[3] Cf. SANTOS, Boaventura de Sousa. A Crítica a Razão Indolente: contra o desperdício da experiência. São Paulo: Cortez, 2000: 70-71.

[4] O impacto dos teoremas de Gõdel na filosofia da ciência tem sido diversamente avaliado. Ver, por exemplo, LADRIÈRE, Jean. Lês limites de la formalisation, in Piaget (org). Paris: Gallmard, 1967: 312 e 55; JONES, Roger. Physics as Metaphor. Nova York: New American Library, 1982: 158; PARAIN-VIAL, Jeanne. Philosophie dês sciences de la nature: tendances nouvelles.  Paris: Klincksieck, 1983: 52 e THOM, René. Parábolas e Catástofres. Lisboa:D. Quixote,1985: 36

[5] SANTOS, 2000: 70.

[6] SANTOS, 2000: 70-71.

[7] WEBER, Renée. Cientistas e Sábios. São Paulo: Cultrix, 1988 224.

[8] EINSTEIN, Albert. ”Preface of Galileo”, in Easlea, Brian. Londres: Liberation and the Aims of Science. Londres: Chatto & Windus: 1973: XIX.

[9] Idem.

[10] GALILEI, Galileu. Diálogo dos Grandes sistemas (primeira jornada). Lisboa: Publicações Gradiva, 1979: 110.

[11] REICHENBACH, Hans. From Copernicus to Einstein. Nova York: Dover Publications, 1970: 68.

[12] WIGNER, Eugene. Symmetries and Reflections: Scientific Essays. Cambridge: 1970: 07. 

[13] Idem.

[14] Idem: 271.

[15] Cf. SANTOS, 2000:69.

[16] Cf. SANTOS, 2000:26.

[17] Cf. SANTOS, 2000:79-80.

[18] Cf. SANTOS, 2000:103-104.

[19] Cf. SANTOS, 2000:26-27.

[20] RICOEUR, Paul. Le Conflit des interprétations. Paris: Seuil, 1969: 148-153.

[21] Cf. SANTOS, 2000: 81.

[22] SANTOS, 2000: 89.

[23] MORIN, Edgar. . O método 1: a natureza da natureza. Portugal : Publicações Europa-América, LDA, 1987.

[24] ANDERY, Maria Amália et al. Para Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ: 1988: 245.

[25] ANDERY, Maria Amália et al. Para Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ: 1988: 245-246.

[26] SANTOS, 2000: 92.

[27] Idem.

[28] KEKEMAN, SJ. Hermêutica e sociologia do conhecimento. Lisboa : Edições 70, 1986:235-236.

[29] Idem

[30] SANTOS, 2000: 89-94.

[31] Para saber mais veja: KEMPF, Hervé. La Révolution Biolithique: Humains Artificiels et Machines Animées. Paris: Albin Michel, 1998.

[32] Para saber mais veja: LIMA, Gilson. Nômades de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, 2005.

[33] http://stelarc.org/projects.php (última visita em: 28 de julho de 2020).

[34] Para saber mais veja: HARARI, Yuval Noah. Homo Deus. São Paulo: Companhia das Letras, 2016.