O PARADIGMA DA
COMPLEXIDADE
Gilson Lima - Kowalsky🎤
O chão escorregou
de nossos pés. Como testar o conhecimento e fazer ciência sobre o que não veem.
(Albert Einstein)
Foi Thomas Kuhn quem popularizou,
em seu famoso livro sobre a Estrutura das
Revoluções Científicas, o conceito de paradigma. Nessa obra, ele nos
apresenta 18 noções de paradigmas. Uma delas é a que aqui nos importa: a ideia
padrão de concepção de mundo.
Assim, por paradigma entendemos um modelo padrão de concepção de mundo
compartilhado por uma determinada comunidade científica. Newton, por exemplo,
consolidou o paradigma cartesiano
pela suas modelações matemáticas e teorias subjacentes, sobretudo, pela lei da
gravitação universal.
No paradigma cartesiano-newtoniano, por exemplo, existem conceitos
fundamentais:
=======================================================
O paradigma da complexidade traz conceitos que permitem explicar a gravitação quântica e a relatividade integrada na historicidade. Usa-se de demonstrações de modelos matemáticos não lineares e das interações nucleares fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria integrada à consciência organizada.
Atratores => forças de atração, relações de atração ascendente = organização óAuto-organização: estruturação sem estrutura ó forças de repulsão (dissipação) => entropia => descendente. Também encontramos a própria historicidade no interior do paradigma, historicidade essa que é rejeitada pelo paradigma cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria matéria se expande e se contrai.
======================================================
Quanto ao paradigma da complexidade, tudo parece ter começado
efetivamente em 1911, com o russo Belouzov,
pouco conhecido, mas que é tido como
o pai, quem inaugurou o novo paradigma
da complexidade. Ele teve apenas duas
páginas publicadas, mas é muito citado hoje pelos cientistas da
complexidade. A ideia de evolução trouxe, junto à temporalidade ausente no paradigma cartesiano, a quebra do universo
mecânico como fenômeno factual e destemporal, tomado por leis universais e
irreversíveis que eram independentes da história e do tempo.
Para o paradigma da complexidade, outros conceitos são fundamentais, por exemplo:
======================================================
O paradigma da complexidade traz conceitos que permitem explicar a
gravitação quântica e a relatividade integrada na historicidade. Usa-se de
demonstrações de modelos matemáticos não lineares e das interações nucleares
fortes e fracas. Inseparabilidade do sujeito objeto, da ideia da matéria
integrada à consciência organizada.
Atratores => forças de atração, relações de atração ascendente =
organização óAuto organização: estruturação sem estrutura ó forças de repulsão (dissipação) =>
entropia => descendente. Também encontramos a própria historicidade no
interior do paradigma, historicidade essa que é rejeitada pelo paradigma
cartesiano-newtoniano, por exemplo, no compartilhamento de que a própria
matéria se expande e se contrai.
======================================================
Assim, na concepção de um paradigma, afirmam-se conceitos fundamentais e
categorias compartilhadas pela comunidade científica em questão. Um paradigma
inclui e exclui categorias e processos que efetivam uma concepção de mundo onde
as suas categorias chaves geram deduções e induções teóricas. Nessa
perspectiva, o referencial teórico está implicado em um paradigma de modo
consciente ou não. As teorias são
deduções de uma proposição paradigmática.
As mudanças de paradigmas na história dizem respeito, também, ao
exercício de poder. A transição de um paradigma para outro
traz junto uma nova concepção de mundo que se afirma e outra
que é deixada de lado. Daí que, em um
período de transição entre paradigmas, é particularmente importante, do
ponto de vista epistemológico, observar o que se passa nessas ciências. Por
exemplo, hoje não basta apenas apontar a tendência para a superação da
disciplinaridade do conhecimento e da ruptura da velha distinção moderna entre
ciências naturais e ciências sociais, é preciso conhecer o sentido e conteúdo
dessa distinção e dessa superação. Precisamente porque, em períodos de transição paradigmática, vivemos mais
intensamente um estado de turbulência, em que as vibrações do novo paradigma
repercutem-se desigualmente nas várias regiões do paradigma dominante e vigente, por isso os sinais do futuro são ambíguos.
Nas fases de transição e de revolução científica, encontramos muita
insegurança em que a nossa reflexão epistemológica torna-se muito mais avançada e
sofisticada do que a nossa prática científica. Hoje, nenhum de nós pode visualizar projetos concretos de investigação que correspondam
inteiramente ao paradigma emergente. É por isso que, precisamente, nos
encontramos em uma fase de transição paradigmática. Duvidamos suficientemente do passado para imaginarmos o futuro, mas
vivemos demasiadamente o presente para podermos realizar nele o futuro. Estamos
divididos, fragmentados entre o velho e o novo.
Sabemo-nos a caminho do novo,
mas não exatamente onde nós estamos na jornada. A condição epistemológica da
ciência repercute-se na condição existencial dos cientistas. Afinal, "se
todo o conhecimento é autoconhecimento, também todo o desconhecimento é
autodesconhecimento". (SANTOS, Boaventura de Souza.
Um Discurso Sobre as Ciências. Portugal:
Afrontamento, 2001: 58).
O mundo não tem mais uma estrutura implícita. É uma estruturação sem
estrutura. É organizado, mas não é dado como organizado, pois está por, também, vir a ser
organizado ascendente como possibilidade e desorganização descendente em
tensão. As leis também se integram a esse vir a ser e deixar de ser, o vir a
ser tem suas leis que dependem, igualmente, do deixar de ser. Tem a flecha ascendente, mas tem, também, a
descendente, temos entropia. Tudo se
organiza e se desorganiza. Podemos, inclusive, chegar ao fim do Universo (pensam
alguns diante da entropia).
Vivemos uma crise de percepção do velho itinerário cartesiano-newtoniano
da mente. Percebe-se, além disso, uma crise atual da
ciência. As facetas desta crise podem ser descritas resumidamente como uma
crise de percepção do mundo.
O paradigma cartesiano emerge com o heliocentrismo; unifica as leis em uma
única totalidade, sobretudo pela gravitação universal de Newton; unifica a
percepção celeste e terrestre e gera uma nova percepção do mundo. Para Descartes, o mundo é estável, tem uma ordem implícita, as causas e os efeitos são produtos
de uma mesma ordem, porém, não tem, no seu paradigma, uma noção de tempo.
Os evolucionistas potencializam a
flecha ascendente, mas ela só vale para os seres vivos, para os sistemas vivos
e não físicos. Mais adiante, um cientista austríaco propõe a entropia, na
explicação científica. É a flecha descendente. Entropia é a desordem, o caos, a
desorganização que pode chegar ao motor da destruição geral (fim do
universo). A complexidade lida com as duas flechas: a ascendente e a descendente.
Mais complexidade. Um vir a ser, e não um ser estável, que, na relação entre vir
a ser e deixar de vir, possibilita um possível vir a ser como possibilidade de
vitória sobre a entropia. Evolução é mais complexa, é a luta da evolução contra
a involução. Aqui temos a noção de tempo, que é simultaneamente relativo. No
universo cartesiano não tem tempo.
Então, a matéria se expande (vir a ser) (tempo da matéria); no mesmo momento, ela se desagrega (tempo de desagregação); e, no mesmo momento, evolui a
consciência civilizadora cultural e social (tempo), é o tempo que organiza e media esta
complexidade orgânica e inorgânica.
A matéria se auto-organiza. É uma nova percepção. Sistemas se
auto-organizam no tempo. No paradigma moderno, a organização está banida da
ciência. A partir dos anos 1950, os cientistas começam a falar sobre a auto-organização, inclusive sobre o mundo físico.
Já Bergson nos diz que a
percepção humana não é uma fotografia da realidade (positiva). A Percepção é a
excitação interativa de nosso mundo interno e externo, de meu espírito eletromagnético integrado na
imersão do fosforescente mundo vivo. Segundo Bergson, percepção é, então, a
captação dos centros de ação do modo pelo qual o universo evolui.
O universo está em movimento
ativo (a matéria se expande), a matéria tem tempo. Teoria das cordas: uma
corda não pode ser menor que um quantum. Isto põe fim ao dualismo cartesiano:
matéria x mente.
Segundo o aspecto da crise do paradigma cartesiano, a explicação racional
não é um diagnóstico fotográfico da realidade. A explicação deve buscar a
gênese (explicação genética, muito presente em Nietzsche: metodologia genealógica, também incorporada por Foucault: genealogia do saber – gênese dos processos
que têm um ou vários resultados).
Por exemplo, a eugenia. Não se trata apenas de uma evolução baseada na flecha
ascendente. A complexidade pergunta como o sistema vai se auto-organizar depois
da intervenção das novas informações genéticas. Não pode ser necessariamente
mal nem deterministicamente bom. Por isso, não devemos ter diagnósticos
fotográficos, mas compreensões interdisciplinares e interações mais complexas
entre subjetivar e objetivar. Como a matéria se torna consciência (auto-organiza)
ela se integra a dois movimentos contraditórios e intrínsecos: uma flecha
ascendente (vir a ser evolução), e uma flecha descendente (desagregadora, não
vir e ser). Desta tensão nasce a
sustentabilidade, cuja auto-organização (nova compreensão da organização da
matéria incorporando a decomposição, inclusive, a entropia complexa) deve ser a
supremacia da flecha descendente sobre a ascendente e leva a morte de uma
estruturação complexa, da vida e até do universo.
O universo, essa estruturação complexa, está em expansão, evolução e
dissipação, e o mesmo deve ser integrado à evolução humana e à cultura civilizadora.
Para isso, se faz necessário ter a compreensão da gênese e não se submeter ao
velho determinismo da casualidade e do destino finalista:
A física quântica desencadeia, por exemplo, o colapso do Universo de Laplace e a queda do dogma
determinista, além do esboroamento de toda ideia de que haveria uma unidade simples
na base do universo e introduz, também, a incerteza no conhecimento científico. Não é mais suficiente, para produzirmos ciência, isolarmos variáveis, sejam elas dependentes ou independentes, nem identificarmos a causa do efeito, a linearidade
do determinismo causal. No paradigma cartesiano a gênese não é discutida, não
tem tempo nem história, pode até ter fatos mas analiticamente isolados do
tempo.
Um terceiro aspecto da crise do paradigma moderno é o questionamento do
princípio da separabilidade proposto na regra cartesiana. A matéria expande,
não linearmente, mas de modo caótico e integrado a duas realidades simultâneas: ordem e desordem. Para o paradigma cartesiano, tanto do positivismo, até mesmo
do racionalismo de Bachelard, de Einstein, de Heisenberg e de Niels Bohr, a ordem
no universo e na natureza era dada.
Agora estamos descobrindo que os sábios antigos do oriente, bem antes da
hegemonia do paradigma cartesiano, estavam muito mais próximos da complexidade
do mundo, pois já tinham a visão de que a natureza é caótica, de que o
universo brota da desordem e que o Universo e a matéria se auto-organizam.
A não separabilidade da visão do esfacelamento do Big Bang intensificou ainda mais a busca de uma divisão inseparável da matéria até o microcósmico do quantum e
da genética. No entanto, a complexidade afirma que, junto à divisão e ao
esfacelamento da grande explosão, tivemos, sobretudo, a auto-organização
produtiva da matéria, que gerou estrelas, planetas, constelações e onde ondas se
integraram, gerando energia, como a energia solar, tão importante para os sistemas
vivos na terra. A relação matéria e energia: a dispersão e auto-organização
tornam-se assim holísticas.
O holismo simbiótico, no paradigma da complexidade, integra natureza com natureza humana e não pode
mais ser visto de modo separado (inseparabilidade: tecnologia, homem, cultura e
natureza) nem como um sistema auto-organizativo com entropia – dispersão, mas sim como um sistema impossível de separarmos e isolarmos, como pretendia o cartesianismo. Não há
variáveis isoladas na complexidade. Como ilustra Wigner em seu exemplo: “a medição da curvatura do espaço causada
por uma partícula não pode ser levada a cabo sem criar novos campos que são
bilhões de vezes maiores que o campo sob investigação”.
Assim, também a própria consciência é matéria transformada em que a noção de
totalidade é menor do que a soma das partes, pois não se reduz em saber e em
conhecer e analisar a matéria e o objeto visual apenas, mas em complexidade de
auto-organização e auto compreensão.
Assim também como nos diz Penroese, a mente não física deve ser
inseparável da mente física para entendermos a consciência e a complexidade.
Nenhuma variável é separada da outra.
Nossos cérebros não são computadores. Nossos biofótons se encontram em
esboroamento de sistemas e não se reduzem a variáveis isoladas. O
pensamento é um sistema complexo de vir a ser, não separado da auto-organização
da matéria e da energia mental elétrica produzida por seus processos
ondulatórios subjacentes. Pensar é exercitar trocas e lutas em auto-organização
produtiva do pensamento também integrado no mundo e na natureza.
As ondas captadas e radiadas pela matéria cerebral permitem interpretar
e auto-organizar a realidade pela consciência, isto implica que o vir a ser da
auto-organização não é separado da matéria cerebral. A linguagem não pode
ser separada das partículas e corpúsculos de ondas e biofótons geradores de
consciência. O cérebro é matéria formada por ondas que, pela complexidade
auto-organizada dessa mesma matéria e espírito, torna-se consciência. O cérebro
permite a matéria se auto-organizar em consciência: é uma gênese complexa do
processo organizacional (sociologia, ecologia, física etc.).
Atualmente falamos em biofótons dentro da nossa circulação sanguínea (matéria
organizada). O pensamento implica na produção intensa de biofótons, cuja auto
produção é intensificada e acelerada (número maior de fótons = mais energia, que
é também mais qualificada); é matéria auto-organizada que se interliga a
proteínas que conduzem os impulsos elétricos dos neurônios, geram micro
voltagens.
No cérebro cartesiano a matéria inexiste. Ele é tomado por um poder
entrópico, é dual: corpo separado da mente. Assim, a micro voltagem do
pensamento não é resultado da matéria.
Um outro aspecto da crise é a crise do sujeito e da posição do sujeito
na observação e explicação do mundo. A explicação sistêmica da matéria, em
termos de atrator (atração) + entropia (dispersão). A energia é continuada e
requer trocas nucleadas até a criação de sistemas complexos (auto-organização
produtiva).
Isto só é possível se não mantivermos o sujeito fora do objeto. O vir a
ser do objeto é também do sujeito integrado emitindo suas micro-ondas
materiais. O sujeito não é uma fabricação subjetiva, por exemplo, hoje insistem
em impor exógenamente o mercado como um sujeito e como uma variável
independente proveniente do mundo físico sobre a vida social.
O próprio Werner Heisenberg demonstrou, com seu significativo
Princípio
da Incerteza, que comentaremos a seguir. Com esse princípio,
portanto, assumimos a existência da interferência estruturante do sujeito no
objeto observado, o que possui implicações de vulto. Há muita coisa a ser discutida no
tocante à evolução da ciência. Salientemos, apenas, que ela, frente à
mensuração, deixou de ser absolutamente vista pela lógica simétrica e sob os ângulos técnico e
matemático restritos e converteu-se em
modalidades novas e reflexivas, às quais criaram e derivaram novas e mais
profundas teorias.
Isso se pode confirmar considerando alguns exemplos interessantes, que
apresentaremos logo a seguir:
1) O princípio da incerteza.
Como já comentamos rapidamente acima, Werner Heisenberg é um dos aspectos mais significativos, pela ilustração do Princípio
da Incerteza: não se podem reduzir simultaneamente os erros da medição da
velocidade e da posição das partículas; o que for feito para reduzir o erro de
uma das medições aumenta o erro da outra.
É como se ele apontasse o dedo da mão direita para baixo indicando o
local de um elétron e, com a outra
mão, ele apontasse o dedo para cima indicando também a onda de seu impulso. O mais
certo é que nós não sabemos e não temos como localizar, a qualquer momento, o
local exato do elétron. O mais seguro para nós é tentarmos localizar o impulso
de um quantum, identificamos apenas sua órbita, mas não temos segurança de seu
local exato. Isso implica o princípio da ideia de que não conhecemos do real
senão o que nele introduzimos, ou
seja, que não conhecemos do real senão a nossa intervenção nele.
Este princípio e, portanto, a demonstração da interferência estrutural
do sujeito no objeto observado, têm implicações de vulto. Por um lado, sendo
estruturalmente limitado o rigor do
nosso conhecimento, só podemos aspirar a resultados aproximados, por isso as
leis da física são tão-só probabilísticas. Por outro
lado, a hipótese do determinismo mecanicista é inviabilizada, uma vez que a
totalidade do real não se reduz à soma das partes em que a dividimos para
observar e medir. Por último, a distinção sujeito/objeto é muito mais complexa
do que à primeira vista pode parecer. A distinção perde os seus contornos
dicotômicos e assume a forma de um continuum.
2) O observador interfere na
realidade em observação. Niels Bohr indicou
a dualidade classificatória da natureza dual e complementar do quantum. Um
quantum é simultaneamente uma onda e uma
partícula, mas qualquer experiência pode medir apenas um aspecto ou outro.
Bohr discutiu também a teoria de que, no Universo da observação, deve-se incluir
um fator importante, para considerarmos os efeitos da sua mensuração ou de qualquer medida do quantum pretendida, ou seja, a influência do observador. Bohr e
Heisenberg discutiram que as predições exatas em mecânicas de quantum não podem ser limitadas às descrições estatísticas exatas do comportamento destes pacotes
de energia. Isto fez o Einstein declarar que ele não poderia acreditar que Deus
joga dados com o Universo.
Assim, Heisenberg e Bohr demonstram que não é possível observar ou medir um objeto sem interferir nele, sem o
alterar, e a tal ponto que o objeto que sai de um processo de medição não é o
mesmo que lá entrou.
3) O dilema da incompletude formal. A demonstração e as indagações da
incompletude formal, pelo teorema de Gödel (1906-78), enquadram-se entre as mais notáveis realizações da história da cultura, com
repercussões em todas as manifestações do saber e mudando os próprios
paradigmas da lógica, da matemática, da teoria da informação e do pensamento
científico em geral.
Com a incompletude formal, o
próprio rigor da medição foi posto
em causa pela mecânica quântica e foi profundamente abalado a partir do
questionamento do veículo formal do próprio rigor
explicativo em que a medição é expressa, ou
seja, o rigor da matemática.
É isso o que sucede com as
investigações de Gödel e seu teorema da incompletude, demonstrando a
impossibilidade de: "em certas
circunstâncias, encontrar dentro de um dado sistema formal a prova da sua
consistência vieram mostrar que, mesmo seguindo à risca as regras da lógica
matemática, é possível formular proposições indecidíveis, proposições que se
não podem demonstrar nem refutar, sendo que uma dessas proposições é
precisamente a que postula o caráter não-contraditório do sistema".
Se as leis da natureza
fundamentam o seu rigor no rigor das formalizações matemáticas em que se
expressam, as investigações de Gödel vêm demonstrar que o rigor da matemática carece ele próprio de
fundamento. A partir daqui é possível não só questionar o rigor da matemática, como também redefini-lo enquanto forma de rigor
que se opõe a outras formas de rigor alternativas, uma forma de rigor cujas condições de êxito na ciência moderna
não podem continuar a ser concebidas como naturais e óbvias. A própria
filosofia da matemática tem vindo a problematizar criativamente estes temas e
reconhece hoje que o rigor
matemático, como qualquer outra
forma de rigor, assenta num critério
de seletividade e que, como tal, tem um lado construtivo e um lado destrutivo.
4) A crise da estrutura simétrica e estática e a constatação da natureza
dissipativa das estruturas. As descobertas e investigações do bioquímico
Ilya Prigogine foram também um
grande choque no paradigma cartesiano-newtoniano. A teoria das estruturas
dissipativas indica o princípio da “ordem através de flutuações” que se
estabelecem em sistemas abertos, ou
seja, em sistemas que operam nas margens da estabilidade. Assim, a evolução se
explica por flutuações de energia que, em determinados momentos, nunca
inteiramente previsíveis, desencadeiam espontaneamente reações que, por via
de mecanismos não lineares, pressionam o sistema para além de um limite máximo
de instabilidade e o conduzem a um novo estado macroscópico.
Esta transformação
irreversível e termodinâmica é o resultado da interação de processos
microscópicos, segundo uma lógica de auto-organização em uma situação de
não equilíbrio. Não existe equilíbrio na complexidade, não existe estrutura em
si, encontramos uma estruturação sem estrutura. A complexidade descarta tanto o acaso determinístico como o
determinismo da objetividade, classificando as mutações como processos
aleatórios estocásticos (não predizíveis, indeterminísticos, criativos e
novos). Nestes termos, os processos envolvidos nos sistemas vivos não resultam
de uma casualidade cega, mas de uma
causalidade criativa que permite aos sistemas vivos se autocriarem e se
automultiplicarem.
A matéria já não é vista como algo estático
— moléculas inertes governadas por puxões e empurrões, ela é vista
como alguma coisa ativa e viva. A situação de
bifurcação, ou seja, o ponto crítico
em que a mínima flutuação de energia pode conduzir a um novo estado, representa
a potencialidade do sistema em ser atraído para um novo estado de menor entropia. Deste modo, a irreversibilidade nos sistemas abertos significa que
estes são produtos da sua história.
A importância desta teoria
está na nova concepção da matéria e da natureza que propõe uma concepção
dificilmente comparável com a que herdamos da física clássica. Como nos diz
Boaventura de Sousa Santos: “Em vez
da eternidade, temos a história; em vez do determinismo, a imprevisibilidade;
em vez do mecanicismo, a interpenetração, a espontaneidade e a
auto-organização; em vez da reversibilidade, a irreversibilidade e a evolução;
em vez da ordem, a desordem; em vez da necessidade, a criatividade e o
acidente”.
Por causa de seus estudos em
bioquímica, o russo Ilya Prigogine recebeu o Prêmio Nobel de 1977 por seu
trabalho relacionado a uma nova visão acerca dos sistemas vivos. O Prêmio Nobel
foi concedido a Prigogine,
sobretudo, por sua teoria dos sistemas vivos como estruturas dissipativas (ou dispersivas), que lançou uma ponte entre os sistemas vivos e os não vivos.
Nas palavras da comissão de premiação do Premio Nobel: “Prigogine
transformou fundamentalmente a
ciência da termodinâmica irreversível, revisando-a; deu-lhe nova relevância,
criando teorias que estreitaram o abismo entre os campos biológico e físico da
pesquisa científica”.
O próprio Prigogine expressa, em poucas palavras, seu pensamento: “Enfatizando a interdependência, podemos mostrar que vida e não-vida não se opõem. E assim
tem de ser porque, de outro modo,
teríamos de um lado um mundo mecânico [mecanicismo] e de outro,
um mundo orgânico [vitalismo].
Muitos críticos de Prigogine
afirmam que ele era um bioquímico em busca de consagração na comunidade
científica ortodoxa. Assim, apesar de suas inovações, ele foi muito mais
cauteloso sobre as implicações de sua teoria sobre a estrutura teórica-clássica. Os críticos afirmam que foi esta postura que o impediu de ser refutado
pela ortodoxia (postura que lhe permitiu ganhar o Prêmio Nobel). Prigogine ensaia uma mudança radical na Biologia clássica,
sua teoria refere-se à capacidade dos sistemas vivos de se autocriarem,
auto-recriarem e auto-evoluírem em esquemas inéditos acionados por variáveis
capazes de desviar todo um sistema de um tipo para um outro tipo novo e
inesperado. Entretanto, Prigogine,
segundo seus críticos, declara-se favorável à entropia e ao evolucionismo e, assim, age como se tentasse justificar e fortalecer tanto a teoria da evolução
quanto a entropia. No entanto, mesmo assim, as ideias de Prigogine, despidas de seu favoritismo pela entropia
e pela evolução, prestam-se maravilhosamente bem para suportar a teoria dos
sistemas vivos como sistemas pulsantes e é de grande significação para vários
campos do conhecimento.
Seus estudos estabeleceram vínculos essenciais entre a Física, a Química, a Biologia e a sociologia, superando a dicotomia clássica entre vida e não vida.
Nesse sentido, a Teoria da Estruturação, do
sociólogo inglês Anthony Giddens, tem uma grande dívida com Prigogine, mesmo sem ser devidamente citado, pois encontramos muitas semelhanças na sua teoria social com a proposição das
estruturações disssipativas propostas por Prigogine,
apesar de Giddens, contraditoriamente, insistir na tese weberiana da
especificidade da sociologia diante das ciências naturais.
Prigogine contestou a visão mecanicista dos sistemas vivos, afirmando
a unidade entre os sistemas vivos e os não vivos e a sua bioquântica, ele classifica-os como: sistemas vivos orgânicos e sistemas vivos inorgânicos. Sua
teoria implica que os Sistemas vivos escapam à entropia devido a uma capacidade
inata de auto-organização; neles, uma ordem superior, não predizível pela
entropia, surge do caos. Assim, os sistemas vivos são sistemas abertos,
complexos organizacionais semi-estáveis (dispersivos ou
dissipativos), estado que lhes assegura uma constante e íntima interação com o
ambiente, com o qual trocam energia, mantendo-se devido a esse infindável fluxo
dinâmico. Ora, se os sistemas vivos e seu habitat são uma unidade essencial, já
podemos antecipar que o planeta Terra em sua inteireza também é um sistema
vivo.
Concluindo, vemos então o entendimento de que os sistemas vivos caminham em
direção contrária à entropia, tendo-se auto-ordenado a partir da matéria
inorgânica e de um estado caótico, um estado de ordem não linear, bem como preservam
seu estado ordenado a despeito da entropia.
O argumento favorável à entropia diz que esta se aplica unicamente a
sistemas fechados, e os sistemas vivos são sistemas abertos, pois continuamente
trocam energia com o ambiente externo. Alguém poderia contra-argumentar em
favor da entropia, imaginando-se um exemplo de sistema fechado perfeito, como
uma esfera hermeticamente fechada e intocável por vibrações, som, luz, campos
magnéticos, raios X, ou qualquer outra forma de transmissão de energia — uma espécie
de corpo negro fechado e imperial. O surpreendente é que no mundo físico e da
vida também não existem sistemas
exclusivamente fechados ou
exclusivamente abertos no universo conhecido. O próprio universo como um
todo é simultaneamente um sistema aberto-e-fechado. A nova Física demonstrou, matemática e experimentalmente, que um fluxo de
partículas, átomos e moléculas está continuamente entrando e saindo do universo
físico. A teoria quântica, a teoria da síntese estelar e a teoria das
estruturas dissipativas demonstram claramente estes fatos. Novos átomos estão
sendo sintetizados nas estrelas à revelia da entropia.
A teoria das estruturas dissipativas demonstrou
que os sistemas vivos são sistemas simultaneamente estáveis e instáveis. Mesmo
individualizados e com formas limitadas e características, que lhes conferem a
aparência de sistemas fechados, sabe-se que eles continuamente trocam energia e
matéria com o meio circundante, o que os caracteriza como sistemas
semi-abertos.
Toda a biosfera, aparentemente constituída de sistemas vivos
individualizados, funciona como um único sistema vivo, simultaneamente aberto e
fechado, conforme demonstrou a
hipótese Gaia, de James Lovelock, a teoria da simbiogênese, de Lynn Margulis, e
como demonstram os estudos ecológicos. Pode-se afirmar o mesmo com relação ao
planeta Terra, ao Sistema Solar e ao universo como um todo. Trata-se da unidade
da diversidade, no dizer de Bohm.
Todos os sistemas do universo são unidades coletivas, níveis de organização
dentro de níveis de organização ad
infinitum. Assim, efetivamente, não existem sistemas exclusivamente abertos
ou exclusivamente fechados no
universo. Todos os subsistemas e o próprio sistema-mor — o universo — são
simultaneamente abertos e fechados. O universo inteiro é um único sistema vivo:
um ser bioquântico relativamente estável, cuja natureza fundamental é o vir-a-ser, como demonstrou Prigogine.
Nós acrescentaríamos: um vir-a-ser contínuo,
cuja estabilidade e perpetuidade são garantidas pelo próprio vir-a-ser, que o renova cíclica e
continuamente. Poder-se-ia comparar a ideia de Biocosmos com uma cascata: é a
contínua renovação de suas águas que lhe confere configuração, identidade e
existência. Como se vê, não existem fundamentos científicos para se encaixar
em um quadro desses o conceito clássico da entropia irreversível, uma vez que sua
validade depende unicamente da existência de sistemas exclusivamente fechados.
De tudo isso, podemos deduzir que a entropia é um conceito inaplicável em nosso
universo: hipoteticamente admissível e aplicável em algum outro universo igualmente hipotético; não no único e
real universo até hoje conhecido — o nosso. Sendo assim, de que nos serviu um
conceito hipotético aplicável a fenômenos hipotéticos de algum universo
hipotético? Serviu de empecilho teórico. Devido à crença na entropia, a
compreensão da natureza do universo e da vida foi enormemente retardada.
5) A relatividade de Einstein.
Albert Einstein sustentou a convicção de que o Universo pode ser descrito
com a unificação de uma equação. Einstein descobriu que a relatividade do tempo e a
relação entre matemática e energia eram, para ele, o tema
primordial da física contemporânea, e ele se dedicou
o resto de sua vida a formular um campo teórico unificado da física. Embora agora nós tenhamos que usar probabilidades para descrever eventos do quantum,
Einstein expressou para o futuro a
esperança de que os cientistas acharão uma ordem escondida atrás da mecânica
quântica.
Tal como em outros períodos de
transição, difíceis de entender e de percorrer, é necessário voltar às coisas
simples, à capacidade de formular perguntas simples, perguntas que, depois de
feitas, são capazes de trazer uma luz nova a nossa perplexidade.
Ao contrário da ciência aristotélica, a ciência moderna desconfia
sistematicamente das evidências da nossa experiência imediata. Tais evidências,
que estão na base do conhecimento vulgar, são ilusórias. Como bem salienta
Einstein no prefácio ao Diálogo sobre os
Grandes Sistemas do Mundo, Galileu esforça-se denodadamente por demonstrar
que a hipótese dos movimentos de rotação e de translação da Terra não é
refutada pelo fato de não observarmos quaisquer efeitos mecânicos desses
movimentos, ou seja, pelo fato de a
Terra nos parecer parada e quieta.
Por outro lado, é total a
separação entre a natureza e o ser humano. A natureza é tão-somente extensão e
movimento; é passiva, eterna e reversível de mecanismo cujos elementos se podem
desmontar e depois relacionar sob a forma de leis; não tem qualquer outra qualidade ou
dignidade que nos impeça de desvendar os seus mistérios, desvendamento que não
é contemplativo, mas antes ativo, já que visa conhecer a natureza para a
dominar e controlar. Como diz Bacon, a ciência fará da pessoa humana o senhor, o possuidor da natureza.
Einstein, como um bom racionalista, ao contrário do que propôs Bacon,
não considerou que a experiência
não dispensa a teoria prévia, o pensamento dedutivo ou
mesmo a especulação, mas forçou qualquer deles a não dispensarem, enquanto
instância de confirmação última, a observação empírica dos fatos. Einstein se
dirigiu mais à dinâmica de conhecimento racionalista de Galileu. Einstein, inclusive, chama a atenção para o
fato de os métodos experimentais de Galileu serem tão imperfeitos que só por
via de especulações ousadas poderia
preencher as lacunas entre os dados empíricos.
Para Galileu, o livro da
natureza está inscrito em caracteres geométricos:
Einstein não pensava de modo
tão diferente. A admiração de Einstein por Galileu
está bem patente no prefácio já citado em que ele escreveu para o Diálogo de Galileu. O modo radical como
Einstein “vê” a natureza matemática da estrutura da matéria explica em parte a
sua longa batalha sobre a interpretação da mecânica quântica (especialmente
contra a interpretação de Copenhague).
Contudo, o próprio Einstein constituiu uma
grande fissura no paradigma da ciência moderna, uma fissura, aliás, mais
importante do que Einstein teve dificuldade de admitir. Um dos
pensamentos mais profundos de Einstein é o da relatividade da simultaneidade.
Einstein distingue entre a "simultaneidade de acontecimentos presentes
no mesmo lugar e a simultaneidade de acontecimentos distantes, em particular de
acontecimentos separados por distâncias astronômicas". Em relação a estes
últimos, o problema lógico a resolver é o seguinte: "como é que o observador estabelece a ordem temporal de acontecimentos
no espaço?" Certamente por medições da velocidade da luz, partindo do
pressuposto, que é fundamental na teoria de Einstein, de que não há na natureza
velocidade superior à da luz.
No entanto, ao medir a
velocidade em uma direção única (de A a B), Einstein defronta-se com um círculo
vicioso: a fim de determinar a simultaneidade dos acontecimentos distantes, é
necessário conhecer a velocidade; mas, para medir a velocidade, é necessário conhecer
a simultaneidade dos acontecimentos. Com um golpe de gênio, Einstein rompe com
este círculo, demonstrando que a simultaneidade de acontecimentos distantes não
pode ser verificada, pode tão-somente ser definida. É, portanto, arbitrária e daí
que, quando fazemos medições, não possa haver contradições nos resultados, uma vez
que estes nos devolverão a simultaneidade que nós introduzimos por definição no
sistema de medição.
Esta teoria veio
revolucionar as nossas concepções de espaço e de tempo. Não havendo simultaneidade
universal, o tempo e o espaço absolutos de Newton deixam de existir. Dois
acontecimentos simultâneos num sistema de referência não são simultâneos em outro sistema de referência. As leis da física e da
geometria baseiam-se em medições locais: Os "instrumentos
de medida, sejam relógios ou metros, não têm magnitudes independentes, ajustam-se ao campo métrico do espaço, cuja
estrutura se manifesta mais claramente nos raios de luz".
O caráter local das medições e, portanto, do rigor
do conhecimento que, com base nelas, se obtém, vai inspirar o surgimento da
segunda condição teórica da crise do paradigma dominante, a mecânica quântica.
Se Einstein relativizou o rigor das leis de Newton no domínio da astrofísica,
a mecânica quântica lê-lo no domínio da microfísica. Heisenberg e Bohr
demonstram que não é possível observar ou
medir um objeto sem interferir nele, sem o alterar, e a tal ponto que o objeto
que sai de um processo de medição não é o mesmo que lá entrou. Como ilustra Wigner, “a medição da curvatura do
espaço causada por uma partícula não pode ser levada a cabo sem criar novos
campos que são bilhões de vezes maiores que o campo sob investigação”.
Todas elas têm uma vocação
não dualista, e algumas são especificamente orientadas para superar as
incompatibilidades entre a mecânica quântica e a teoria da relatividade de
Einstein. É como se nós tivéssemos lançado na aventura de conhecer os objetos
mais distantes e diferentes de nós próprios, para, uma vez aí chegados, nos
descobrirmos refletidos como num espelho, já no princípio da década de
sessenta, e extrapolando a partir da mecânica quântica.
Eugene Wigner
considerava que o inanimado não era uma qualidade diferente, mas apenas um caso
limite, que a distinção corpo/alma deixara de ter sentido e que a física e a
psicologia acabariam por se fundir em uma única ciência.
Hoje é possível ir muito além da mecânica quântica. Enquanto esta introduziu a
consciência no ato do conhecimento, nós temos hoje de a introduzir no próprio
objeto do conhecimento.
6) A teoria do Caos. A luz emerge através de chuvas de
partículas elementares como uma cascata que jorra em cima das borboletas
geradoras de caos. Assim nasce a Teoria do Caos, principalmente, pelo esforço
de um matemático, Benoit Mandelbrot nascido na Polônia, em Varsóvia, em 1924.
Mandelbrot descobriu, em suas pesquisas e observações, uma família de padrões
que se tornou o fundamento da
geometria denominada fractal.
Existem, também, fractais chamados de
não-lineares, nos quais a relação entre as partes e o todo pode mudar
dinamicamente. É o caso do conhecido conjunto
de Mandelbrot, que ficou bem
popular entre artistas por apresentar belas imagens de computação gráfica, cuja
imprevisibilidade aumenta à medida que é ampliado.
Tratam-se de
ligações insuspeitadas entre famílias inteiras de sistemas caóticos, isto
implicou na constituição de uma nova
teoria que relacionaria desde fluidos turbulentos, de circuitos eletrônicos
flutuantes aos ritmos da própria vida. Essas famílias de sistemas físicos, aparentemente fortuitos ou caóticos,
foram sendo reveladas através de novas maneiras de formular equações para
descrevê-los, usando computadores para criar padrões visuais a partir das
equações - padrões que não eram óbvios de nenhum outro
modo.
Enfim, fractais são objetos cujas partes, ao serem ampliadas, reproduzem a
do todo - é a chamada simetria de escala. A descrição desses objetos é feita
por uma moderna teoria matemática conhecida como geometria fractal, que se opõe
à tradicional geometria euclidiana, com seus objetos básicos, como linhas,
curvas e retas. Objetos fractais têm aparências mais recortadas, irregulares,
como as folhas de uma samambaia.
A palavra fractal foi criada pelo já citado matemático Mandelbrot .
Fractal deriva do verbo em latim frangere, traduzido como "quebrar,
fracionar", e do adjetivo fractus, "fragmentado". Formas
fractais também podem ser encontradas na natureza, embora não tenham uma
simetria de escala perfeita. São formas como as irregularidades da costa
marítima de um país ou as fissuras
na crosta terrestre provocadas por um
terremoto, por exemplo.
Segundo o velho Euclides, matemático grego que viveu dois milênios
atrás, existem figuras que não têm dimensão, ou
melhor, têm dimensão 0. É o caso dos pontos, como este ponto final (.). Uma
linha, por sua vez — considerada a distância entre dois pontos quaisquer —, é
algo com uma única dimensão. Já a capa de um livro, por exemplo, de acordo com
a geometria euclidiana, tem duas dimensões, pois, para conhecer qual a sua
área, é necessário multiplicar dois números — o do comprimento pelo da largura.
Do mesmo modo, um bloco possui três dimensões, porque precisamos multiplicar
três números (comprimento, largura e altura) para saber qual o seu volume.
Euclides estava certo, mas não resolveu todo o problema.
Os contornos das montanhas, a superfície dos pulmões humanos, a
trajetória das gotículas de água quando penetram na terra — existe uma infinidade de fenômenos na
natureza que não podem ser descritos por essa geometria toda certinha. É
preciso apelar para complicados cálculos que resultam nas chamadas dimensões
fracionárias — como a dimensão 0,5, por
exemplo, típica de um objeto que é mais do que um simples ponto com dimensão
zero, porém menos do que uma linha com dimensão 1. Só a chamada geometria dos fractais consegue descrevê-lo.
Os fractais não poderiam ter sido revelados de modo minucioso se não
fossem os computadores, mas, na evolução dos computadores, os analógicos
representavam um beco sem saída. Computadores digitais, construídos a partir de
circuitos que podiam ser ligados ou
desligados, zero ou um, sim ou não, davam respostas precisas às perguntas feitas
pelos programadores. Computadores analógicos, por sua própria concepção, eram
muito vagos.
Existia um computador analógico pesada e empoeirado de Santa Cruz, nos
Estados Unidos, com um painel de madeira na fachada, como aqueles usados
antigamente em mesas telefônicas. Programar um computador analógico era questão
de conectar e desconectar fios. Ao conceber diversas combinações de circuitos,
um programador simula sistemas de equações de modo a fazê-los adaptarem-se
perfeitamente a problemas de engenharia.
Um belo dia, um amigo astrofísico, William Burke, entregou a Shaw uma folha de papel com três equações
rabiscadas e pediu-lhe que as colocasse em seu computador. As equações pareciam
simples. Edward Lorenz as havia escolhido como um método despojado para
calcular um processo conhecido em Meteorologia, os movimentos ascendentes e
descendentes do ar ou da água,
chamado convecção. Shaw levou apenas
poucas horas para conectar os fios
adequados e ajustar os botões. Alguns minutos mais tarde, ele viu aparecer na
tela um padrão peculiar, cambiante e infinitamente complicado.
A tela de Shaw proporcionava uma maneira de criar diagramas abstratos de
comportamento dinâmico de longo prazo de qualquer sistema físico — uma bolinha
de gude imóvel no fundo de um buraco, um relógio de pêndulo balançando
monotonamente ou o tumulto
imprevisível do tempo na Terra. Para a bolinha de gude em repouso, o diagrama seria simplesmente um ponto. Para
um sistema periodicamente cíclico como o relógio de pêndulo, o diagrama teria a
forma de uma lançada. Para o sistema enganadoramente simples das três equações
da convecção, o diagrama era algo completamente diferente.
Ao mesmo tempo, o estranho atrator revelava padrões inesperados. Era
sinônimo de desordem e imprevisibilidade, mas, ainda assim, significava um novo
tipo de ordem no tumulto. Dois cientistas franceses, David Roelle e Floris
Takens, mais tarde dariam a esses padrões seu nome provocativo: estranhos
atratores. Shaw conhecia a nova linguagem da geometria fractal. No entanto,
muito tempo havia passado antes que ele, assim como outros
envolvidos em trabalhos do mesmo gênero, reconhecesse que a forma diante de
seus olhos era um fractal, o que significa que revelava novas complexidades em
escalas cada vez menores.
Assim, ele passou várias
noites no laboratório observando o ponto verde do osciloscópio percorrendo a
tela, traçando sem parar seu roteiro caótico e nunca exatamente no mesmo modo.
O percurso da forma permaneceu na retina, oscilante e vibrante, diferente de
qualquer objeto que Shaw conhecera em suas pesquisas. Parecia ter vida própria.
Prendia a mente como uma chama que se move em padrões que nunca se repetem. Isso
era interessante, pois um sistema linear obedece às leis da proporção — quanto
mais depressa se vai, mais longe se chega. A linearidade torna os cálculos
fáceis ou, ao menos, manejáveis.
Infelizmente, a maioria dos sistemas do mundo real não é linear.
A não-linearidade exigia cálculos mais difíceis. Era a mosca na sopa
previsível da Mecânica clássica. Poucos
consideraram a não-linearidade uma força criativa; mas foi a não-linearidade
que criou os padrões misteriosamente
belos dos estranhos atratores. Nesta
época, a palavra “não-linear” era um termo que você só encontrava no final do
livro onde um estudante de física fazia um curso de matemática e o último
capítulo tratava de equações não-lineares. Geralmente essa parte era deixada de
lado.
Shaw e seus colaboradores que foram se aproximando de suas observações
precisavam fazer perguntas que pudessem ser respondidas e que valessem a pena
ser respondidas tentando isolar as qualidades especiais que tornavam os
estranhos atratores tão encantadores. A imprevisibilidade era uma delas — mas
onde encontrar os calibres para medir tal qualidade?
Para isso, Shaw acabou por
ocupar-se de um projeto experimental que iria mantê-lo entretido por anos, adotou um sistema dinâmico tão caseiro quanto algum
físico pudesse imaginar: uma torneira pingando. Como gerador de organização,
uma torneira pingando oferece pouco
para se trabalhar. No entanto, para um investigador iniciante do caos, a torneira
pingando provou ter certas
vantagens. Todo mundo tem dela uma imagem mental. O fluxo de dados é o mais
unidimensional possível: uma batida ritmada de pontos isolados mensuráveis no
tempo.
Na torneira pingando, tudo que existe é a solitária linha de dados. E
não é nem uma variação contínua de velocidade ou
temperatura - apenas uma lista dos tempos de gotejamento. Os pingos podem ser
regulares. Ou, como qualquer um descobre ao ajustar uma torneira, podem
tornar-se irregulares e aparentemente imprevisíveis. Solicitado a organizar um
ataque a um sistema como esse, um físico tradicional começaria por montar um
modelo físico o mais completo possível. Os processos que norteiam a formação e
a ruptura das gotas são compreensíveis, ainda que não sejam tão simples como
possam parecer. Uma variável importante é o ritmo do fluxo (este deve ser
lento, comparado à maioria dos sistemas hidrodinâmicos. Normalmente, Shaw
observou o ritmo de uma a dez gotas
por segundo.) Outras variáveis incluem a viscosidade do fluxo e a tensão de
superfície.
Um físico que tentasse construir um modelo completo do problema da gota,
formulando um conjunto de equações para depois tentar resolvê-las, acabaria
numa encruzilhada sem fim. Uma alternativa seria esquecer a Física e observar
apenas os dados, como se estivessem saindo de uma caixa-preta. Dada uma lista
de números representando intervalos entre as gotas, será que um especialista em
dinâmica caótica encontraria algo útil para dizer?
Na verdade, como foi comprovado mais tarde, podem-se conceber métodos
para organizar esses dados dentro da Física e esses métodos se mostraram decisivos
no que diz respeito à aplicação do caos a problemas do mundo real. Shaw criou
uma espécie de caricatura de um modelo físico completo. Ele fez um resumo
rudimentar da Física das gotas, imaginando um peso que pendesse de uma mola. O
peso aumenta constantemente. A mola estica e o peso desce cada vez mais. A
certa altura, uma porção do peso se rompe. A quantidade que se desprendesse,
Shaw supôs arbitrariamente, dependeria apenas da velocidade da queda do peso
descendente quando atingisse o ponto de ruptura.
Então, naturalmente, o peso restante voltaria para a posição anterior,
como fazem as molas, com oscilações que estudantes aprendem a delinear usando
equações normais. A característica interessante do modelo - a única
característica interessante - era a torção não-linear que possibilita o
comportamento caótico. O tempo preciso de uma gota dependia do ritmo do fluxo,
é claro, mas dependia também de como a elasticidade desse saco de tensão
superficial interagia com o peso que aumentava constantemente. Se uma gota
iniciasse sua vida já em queda, ela se romperia mais cedo. Se acaso se formasse
quando sua superfície inferior estivesse subindo, poderia encher-se com um pouco mais de água antes de romper-se.
Enquanto isso, Shaw fazia suas equações e operava o computador
analógico, produzindo uma torrente de dados imaginários, muito parecidos às
gotas da torneira real. Mas, para ir além, Shaw necessitava de um modo de
colher dados puros de qualquer experiência e trabalhar com equações e estranhos
atratores que pudessem revelar padrões ocultos.
Com um sistema mais complicado, uma variável poderia ser graficamente
relacionada à outra, correlacionando
mudanças na temperatura ou na
velocidade com o passar do tempo. Contudo, a torneira pingando proporcionava apenas
uma série de tempos. Shaw tentou,
então, uma técnica desenvolvida pela equipe de Santa Cruz, que foi talvez sua
contribuição prática mais esperta e duradoura
ao progresso do caos - um método de reconstruir um estranho atrator invisível
que poderia ser aplicado a qualquer série de dados. Para os dados da torneira
pingando, Shaw construiu um gráfico no qual o eixo horizontal representava um
intervalo de tempo entre duas gotas, e o eixo vertical representava o intervalo
de tempo entre as duas seguintes.
Se entre a gota número um e a gota número dois decorressem 150 milésimos
de segundo, e depois 150 milésimos de segundo decorressem entre a gota número
dois e a gota número três, ele marcava um ponto na posição 150-150. Era tudo
que havia a fazer. Se o gotejamento fosse regular, o gráfico seria
apropriadamente inerte. Cada ponto cairia no mesmo lugar. O gráfico seria um
simples ponto, ou quase: na verdade, a primeira diferença entre a torneira
pingando no computador e a torneira real era que esta estava sujeita a distúrbios,
ou "ruído", sendo
extremamente sensível. O barulho significava que, em vez do simples ponto
previsto pela teoria, ele veria uma mancha ligeiramente indistinta.
À medida que o fluxo aumentasse, o sistema passaria por uma mudança
repentina nas suas características. Então as gotas cairiam em pares repetidos. Um
intervalo poderia ser de 150 milésimos de segundo e o próximo, de 80. Assim, o
gráfico mostraria duas manchas indistintas, uma centrada em 150-80 e outra em 80-150 e assim por diante. O verdadeiro
teste ocorreu no momento em que o padrão se tornou
caótico, quando o ritmo do fluxo foi novamente modificado. Se fosse mesmo
fortuito, haveriam pontos dispersos por todo o gráfico. No entanto, se um estranho
atrator estivesse oculto nos dados, poderia se revelar como um padrão vago, mas
perceptível.
O caos já ostentava a fama de ser mencionado a meia voz, mas poucos dos físicos presentes à conferência sabiam do
que se tratava. Shaw começou então
explicando os diferentes tipos de atratores, dos comuns aos estranhos; a
princípio, os estados inertes (quando tudo fica imóvel); depois, ciclos
periódicos (quando tudo oscila); e, por fim, estranhos atratores caóticos (o
restante). Ele demonstrou sua teoria
com gráficos computadorizados em videoteipe. Os meios audiovisuais lhe deram
uma vantagem, podia-se agora hipnotizar os observadores com flashes de luz,
isso permitiu ilustrar o atrator e a torneira que pinga.
Quanto mais se aproximava do mundo real da ciência, mais perto da
separação se encontrava. Assim, muitos cientistas passaram a procurar estranhos
atratores em bandeiras tremulantes e em velocímetros defeituosos, os cientistas
fizeram questão de detectar os sintomas do caos em toda a Física atual.
Peculiaridades outrora desprezadas
como ruído - flutuações surpreendentes, regularidades misturadas a
irregularidades - eram explicadas agora nos termos da nova ciência. Tais
efeitos pipocaram de repente em escritos a respeito de tudo, desde lasers até
circuitos eletrônicos.
Hoje, especialistas em finanças usam as técnicas desenvolvidas pelo grupo
de Santa Cruz para analisar décadas de cotações diárias de bolsas de
valores, buscando padrões que acreditam existir ali. Muitos fisiólogos acreditam
agora que o caos proporciona um modo de prever - e talvez de tratar - ritmos irregulares no processo que governa
a vida, desde a respiração, os batimentos cardíacos e até a função do
cérebro. Em universidades do mundo todo, médicos comparam eletrocardiogramas
humanos com dados de um modelo de computador de contrações cardíacas caóticas,
em uma tentativa de prever, com bastante antecedência, quando o órgão sofrerá um
espasmo fatal.
Ecologistas usam a Matemática do caos para descobrir como, na ausência
de mudanças ambientais fortuitas, populações de espécies podem crescer ou diminuir desordenadamente por conta própria.
Estuda-se a tendência de processos caóticos de criar padrões complexos em
fenômenos como flocos de neve, cujas formas delicadas incorporam uma mistura de
estabilidade e instabilidade que só agora começa a ser compreendida. Utiliza-se
a física dos sistemas dinâmicos para estudar o sistema imunológico humano, com
seus bilhões de componentes e sua capacidade de aprender, memorizar e
reconhecer padrões. Para muitos cientistas, o caos tornou-se
um conjunto de instrumentos capazes de elucidar fatos aparentemente casuais.
Mas o caos é também uma série de atitudes em relação à complexidade —
uma nova maneira de ver. Sente-se que estamos revertendo uma tendência
científica de analisar sistemas em termos de suas partes constituintes — quarks,
cromossomos ou nêutrons. A tendência
científica, particularmente em Física, tem sido pelo reducionismo, uma
constante fragmentação das coisas em minúsculos pedacinhos. O que os cientistas estão finalmente percebendo é que esse
processo é um beco sem saída. Novas perspectivas apontam para um interesse
muito maior na ideia de que o todo pode ser maior que a soma da partes.
Não são poucas
as implicações da teoria do caos para a sociologia. Por exemplo, Boaventura de
Sousa Santos chama atenção de que o que distingue, neste domínio, a sociologia funcionalista de uma sociologia crítica é
o fato de a primeira pretender a ordem da regulação social, e a segunda, a ordem da emancipação social, porém, para ambas, o conhecimento
totalizante é um conhecimento da ordem sobre o caos.
Uma das positividades é a ideia de não-linearidade,
a ideia de que, nos sistemas complexos, as funções não são lineares e, por isso,
ao contrário do que ocorre nas funções lineares, uma pequena causa social pode
produzir um grande efeito. Ora, como os indivíduos e as sociedades não podem produzir consequências senão através de
causas, e como estas, segundo as teorias do caos, não ocorrem na mesma escala
dos seus efeitos, não é possível partir do pressuposto de que o controle das
causas acarreta consigo o controle das consequências. Pelo contrário, a falta
de controle sobre as consequências significa que as ações empreendidas como
causas têm, não apenas as consequências intencionais (lineares) da ação, mas
uma multiplicidade imprevisível (potencialmente infinita) de consequências. O
controle das causas, sendo absoluto, é absolutamente precário.
As teorias do caos contribuem, assim, para elucidar
o modo como a ciência moderna, transformada em recurso tecnológico de sistemas
sociais cada vez mais complexos, levou
ao extremo a discrepância entre a capacidade de ação (controle das causas) e a capacidade de previsão (controle das
consequências). Transformado em máxima
de ação social e política, o caos apela a suspeitar da capacidade de ação e a
pôr em causa a ideia da transparência entre a causa e o efeito. Dito de outro modo, o caos integra-se ao paradigma emergente
que convida-nos a um conhecimento prudente.
A última grande tentativa de produzir uma teoria
crítica moderna coube a Foucault, tomando precisamente como alvo o
conhecimento totalizante da modernidade, a ciência moderna. Foucault representa ao mesmo tempo o clímax e,
paradoxalmente, a derrocada da teoria crítica moderna. Levando às últimas
consequências o poder disciplinar do panóptico construído pela ciência moderna,
Foucault mostra que não há qualquer
saída emancipatória dentro deste “regime da verdade”, já que a própria
resistência se transforma ela própria em um poder disciplinar e, portanto, em uma
opressão consentida porque é interiorizada.
O grande mérito de Foucault
foi ter mostrado as opacidades e os silêncios produzidos pela ciência moderna,
conferindo credibilidade à busca de “regimes da verdade” alternativos, outras formas de conhecer marginalizadas, suprimidas
e desacreditadas pela ciência moderna. Assim, Boaventura conclui que o nosso
lugar é hoje um lugar multicultural, um lugar que exerce uma constante
hermenêutica de suspeição contra supostos universalismos ou
totalidades. lntrigantemente, segundo o autor, a sociologia disciplinar tem
ignorado quase completamente o multiculturalismo, ainda que possamos encontrar
cada vez mais estudos culturais com configurações transdisciplinares em que convergem as diferentes ciências sociais e os estudos literários e onde se tem
produzido conhecimento crítico, feminista, anti-sexista, anti-racista,
pós-colonial.
Depois de dois séculos de utopismo automático da
ciência e da tecnologia, o princípio
da prudência faz-nos uma dupla exigência. Por um lado, exige que, perante os
limites da nossa capacidade de previsão, em comparação com o poder e a
complexidade da práxis tecnológica,
privilegiemos perscrutar as consequências negativas desta, em detrimento das
suas consequências positivas. Não se deve ver nisto uma atitude pessimista e
muito menos uma atitude reacionária. Uma das virtualidades do utopismo
tecnológico é que, hoje, sabemos melhor aquilo que não queremos do que aquilo
que queremos. Se a nossa capacidade de previsão é menos limitada a respeito das
consequências negativas do que das consequências positivas, é de bom
senso concentrarmos o conhecimento emancipatório nas consequências negativas.
Isso implica assumir perante ela - e esta é a segunda exigência - uma certa
“hermenêutica de suspeição”, como Ricoeur chamaria, as consequências
negativas duvidosas, mas possíveis, devem ser tidas como certas.
Segundo Boaventura de Sousa
Santos, a aceitação e a revalorização do caos é uma das estratégias
epistemológicas que tornam possível desequilibrar o conhecimento a favor da
emancipação, revalorizando a solidariedade como forma de saber.
7) A teoria geral da recursão da computação abstrata. A teoria da recursão pode ser encarada de modo geral como a teoria
abstrata das máquinas computacionais (máquinas de Turing operada por
algoritmos), sendo os computadores com os quais estamos acostumados, os
produtos físicos que mais exemplificam a ideia de máquinas teóricas cognitiva
traduzidas em artefatos cognitivos operatórios. Um outro exemplo menos
conhecido é o dos autônomos finitos de Markov. Assim, da teoria geral e
abstrata da recursão podemos derivar vários resultados sobre os computadores
comuns e os artefatos robóticos ou
simuladores simbólicos.
A teoria da recursão se refere a certas estruturas algébricas, mas hoje
foi estendida para abranger os sistemas lógicos e simbólicos complexos (especo
informacional) pelo processo de sintetização digital da realidade. Acreditamos
que com a emergência das maquinas computáveis cognitivas, surgem também quatro
grandes camadas imateriais de amplificação da realidade abstrata. É preciso
primeiramente afirmar de que a informação digital computada incorpora-se a uma
gama de múltiplos saberes envolvidos em simbiose e vinculados a suportes
infra-estruturais sofisticados de redes
comunicantes e interativas que compartilham essas quatro camadas informacionais: a)
primeira camada: A álgebra boolena;
b) segunda camada: A informação como
expressão binária digital; c) terceira
camada: Pensar e construir instruções através de algoritmos e d) quarta camada: A Cultura da interface.
Hoje defendo uma quinta informática que evoluiu em simbiose
ainda mais colaborativa com a vida: as interfaces simbióticas.
A representação e o tratamento da informação em simbiose com as máquinas
cognitivas, incluem e nos conduz hoje a uma imagem unificada em nódulos
informacionais complexos da cognição, inclusive por conexões não-clássicas, e
estabelece novos vínculos entre teoria da informação, matemática e análise
simbólica. Assim, exemplificando, em certas questões mesmo de matemática
qualificada e construtiva, deve-se recorrer a uma lógica divergente da
clássica, ou seja, à chamada lógica
e procedimentos intuicionista; em outros
contextos, muito utilizado na mecânica quântica. Um outro exemplo em áreas mais
duras da ciência, encontra-se tópicos de química e de genética, tem-se apelado
para o cálculo lamba e a lógica combinatória, que não pertencem, propriamente,
à classe das modalidades clássicas em acepção estrita.
8) Por fim, O eletromagnetismo do
quantum. Richard Feynman entre diagramas de partículas virtuais que se
levantam como notas de música da realidade, gerou
uma nova e elegante teoria com também novas equações que eliminavam as
infinidades de possibilidades que tinham que ser previstas na solução da
explicação de sua realidade quântica. Feynman descobriu o eletromagnetismo do
quantum, e um sistema mais prático de resolver problemas do quantum. Esse
trabalho denominado eletrodinâmica quântica deu a Richard Phillips Feynman o
Nobel de 1965. Essa nova teoria explicava um universo tão vasto e complexo
quanto importante para a sociedade moderna. Esse universo inclui nada menos que
a arquitetura interna dos átomos, a ação dos lasers, os fenômenos radioativos,
eletrônicos e químicos, assim como esquisitas transformações das partículas
subatômicas, como o elétron e o próton.
Feynman, no entanto, fez mais do que isso. Recriou
desde o princípio as ideias da antiga teoria quântica — que após quase meio
século de esforço continuavam incompletas e obscura. Ele tomou os conceitos semi-acabados e transformou-os em ferramentas que qualquer físico podia
compreender e usar. A teoria de Feynman é muito prática, especialmente os
“diagramas de Feynman”, hoje indispensáveis. No fundo, os diagramas são simples
tabelas, como uma espécie de gráfico sofisticado, com o qual o mundo dentro dos
átomos não parece tão estranho e fica muito mais fácil calcular a trajetória e
as trocas de energia entre as partículas.
A teoria quântica ganhou
muito de aplicabilidade depois de Feynman. Por exemplo, graças ao microscópio
de efeito túnel, baseado nos princípios da física quântica, os cientistas
conseguem enxergar átomos e manipulá-los um a um. Em uma década, a
nanotecnologia, ciência do infinitamente pequeno, poderá ver os primeiros
resultados práticos da possibilidade de construir moléculas sob medida. Em
longo prazo, em vinte ou trinta
anos, é provável que surjam supercomputadores de bolso e minúsculas sondas para
percorrer o interior do corpo humano.
Em dezembro de 1959, quando Feynman preferiu as visionárias palavras na
palestra "Há muito lugar no fundo" para seus colegas da Sociedade
Americana de Física, os computadores ainda eram geringonças que ocupavam metade
das salas em que eram colocados. Feynman falava em mexer átomos num tempo em
que ninguém sequer tinha visto um deles. Trinta anos depois, o sonho do físico
ganhou forma na ciência do muito
pequeno, a nanotecnologia, assim chamada porque seus objetos de estudo costumam
ser medido em nanômetros — 1 milhão de vezes menor que 1 milímetro.
Richard Feynman (1918-1988), sugeriu, em 1981, criar supercomputadores
que usariam os 36 estados quânticos do elétron como linguagem no lugar do
tradicional idioma binário da Informática.
Assim, ainda no início dos anos 80, os cientistas começaram a alertar
que a evolução dos computadores, da maneira como são construídos hoje, estava com
os dias contados. O motivo era, e ainda é, a incrível transformação dos
circuitos eletrônicos, que nos últimos trinta anos ficaram 3 milhões de vezes
mais rápidos, enquanto os seus componentes básicos, que são os transistores,
encolhiam na mesma proporção. Os primeiros transistores da década de 60 não
eram menores que um grão de feijão, e os atuais já estão cem vezes menores que
o diâmetro de um fio de cabelo.
Só que eles não podem diminuir muito mais. A miniaturização deve dar
mais um salto de cem vezes, nos próximos dez ou
quinze anos. E se em seguida forem divididos novamente por dez, deixam de
existir: vão se desmanchar em uma nuvenzinha de átomos, 1 milhão de vezes menor
que 1 centímetro. Ou seja, os computadores vão ter de virar máquinas atômicas,
já que suas peças essenciais serão átomos soltos, em lugar dos transistores
convencionais.
Por isso, o novo modelo de processar informações está sendo chamado de
computador quântico, em referência à Mecânica Quântica, o ramo da Física que
governa o comportamento dos átomos. Por enquanto, é quase tudo teoria.
Ninguém sabe direito que estrutura a nova máquina vai ter. Mas os especialistas
garantem que, se ela um dia chegar a operar. É que em vez de executar um
cálculo por vez, como os computadores atuais, ela vai raciocinar em bloco,
compondo verdadeiras sinfonias inteligentes. O que vai acontecer com os
circuitos eletrônicos quando suas peças, de tanto diminuir de tamanho, virarem
uma autêntica poeira de átomos? A ideia é produzir uma máquina superior,
estupidamente mais rápida que as atuais.
O que aconteceria se pudéssemos mover átomos? É o que se perguntava
Feynman. Hoje os cientistas que os manipulam respondem: podemos construir
supercomputadores que caibam no bolso, gravar bibliotecas inteiras em
superfícies de centímetros quadrados, colocar micro sondas para fazer testes
sangüíneos dentro do corpo humano. Tudo isso ainda é suposição, previsão,
talvez sonho, no entanto, como Léon Lederman, laureado de Nobel e Diretor
Emeritus de Fermilab, gosta de mostrar, mais
que 25 por cento do total produto nacional da superpotência norte americana é
dependente em tecnologia de um modo ou
outro pelas descobertas dos
fenômenos do quantum.
Por fim, cabe destacar que Feymnam foi um dos participantes importantes
do Projeto Manhattan do lado de Robert Oppenheimer, que chefiou o Projeto que implicou
na criação da bomba atômica. Esta sua participação é uma polêmica até hoje nos
meios acadêmicos e isto só vem a conformar que genialidade sabedoria nem sempre
andam juntas.
Estes são alguns exemplos paradoxais de nosso tempo. Finda a idade
industrial da humanidade mas fica sua herança, suas teorias, seus fantasmas,
suas cidades poluídas e decadentes, subproduto do combustível fóssil, fica
também suas instituições e a mega herança da desigualdade social e da
degradação do ecossistema ao mesmo tempo em que entra em estágio de putrefação
o velho moderno modo de conhecer e produzir conhecimento.
Em síntese, os
últimos desenvolvimentos na física e na biologia, alguns acima mencionados
sinteticamente, parecem apontar na direção da unificação do saber e do
conhecimento diante da complexidade, entendendo cada vez mais que todas as
ciências são sociais. E que a dualidade simétrica, vida x corpo, matéria x
espírito, são desprovidas de complexidade.
Assim, os avanços recentes da física e da biologia
põem em causa a distinção entre o orgânico e
o inorgânico, entre seres vivos e matéria inerte e mesmo entre o humano e o
não humano. As características da auto-organização, do metabolismo e da
auto-reprodução, antes consideradas específicas dos seres vivos, são hoje
atribuídas aos sistemas pré-celulares de moléculas. E, quer num quer noutros, reconhecem-se propriedades e comportamentos
antes considerados específicos dos seres humanos e das relações sociais.
Todas as recentes teorias científicas mencionadas
introduzem na matéria os conceitos de historicidade, de liberdade, de
autodeterminação e até de consciência que antes o homem e a mulher tinham
reservado para si. Isso implica uma nova
e ainda mais radical conclusão se o saber e a matéria estão intimamente ligados
na complexidade, então, as ciências naturais e as sociais estão também
interligadas, assim ,não existe a possibilidade de uma ciência não social e
como nos lembra Boaventura de Sousa
Santos, na complexidade: todas as ciências são sociais.
Enfim existem paradigmas maiores e paradigmas menores. O paradigma
cartesiano vigorou intensamente até
1950. A crise do paradigma cartesiano implica na emergência de um outro: o paradigma
da complexidade (que é diferente).
No método 3, Edgar Morin nos fala em crise dos fundamentos seguros do
pensamento e da ciência, frente à construção de sistemas firmados - por estes
próprios fundamentos de base - que impedem a desconstrução generalizada
realizada pelos questionamentos relativizadores sobre todo o conhecimento.
Nesta nova e complexa percepção da estruturação sem estrutura, no lugar dos
fundamentos agora perdidos o próprio Einstein nos diz: retiraram nosso chão
sólido e visível sobre o qual pisamos, a matéria se integrou ao mundo oculto, o chão escorregou. Na complexidade, somos plasmados pelo lodo do
oculto do corpúsculo, da partícula e da onda elementar que compõem a unidade
inseparável da ordem e da desordem e organização do Universo.
Até 1617, o paradigma astrológico
(aristotélico tomista) concebia um universo celeste perfeito. O paradigma
cartesiano - começando por Copérnico sistematizado por Descartes e modelado
teórica e matematicamente por Newton, sobretudo, pela confirmação da lei da
gravitação universal - propunha uma ruptura radical, a unificação do mundo
físico terrestre com o mundo cósmico/celeste. Isto implicou
em modificação radical também da Universidade medieval, construção de
departamentos, disciplinas especializadas de conhecimento, etc. Um novo modo de
pensar e instituir o pensamento científico e de estruturar todas as
instituições modernas.
O paradigma cartesiano é uma ruptura muito radical com o paradigma
astrológico. O mundo passa a vir a ser – flecha ascendente integrando matéria e
energia (eletromagnetismo) buscando uma totalidade sistêmica sistêmica – ainda
que mecânica e não complexa. O cérebro (mente) é separado do corpo e o sujeito
é separado do objeto.
O paradigma da complexidade implica na indissociação do sujeito do
objeto, da mente e da matéria, e de uma dimensão sistêmica que integre a flecha
descendente com a ascendente. Não se trata de buscar o equilíbrio, nas
estruturas dissipativas. O equilíbrio não existe na complexidade, seria a
tensão absoluta entre o vir a ser e o não vir a ser. A auto organização é uma
preponderância do vir a ser sobre a dissipação. A preponderância absoluta da
dissipação é a morte de um sistema, sua destruição total.
Com o paradigma da complexidade podemos reinterpretar os clássicos das
ciências sociais e redescobrir novas
e ocultas conexões que não estão imediatamente presentes.
A crise dos paradigmas gera também uma crise de poder. Francis Bacon já tinha nos alertado de que a senda que conduz o homem ao poder e a que
o conduz à ciência estão muito próximas, sendo quase a mesma. Geordano Bruno que o diga, foi uma vítima do poder da inquisição e
queimado vivo, entre outros motivos
por que seu sistema explicativo baseado numa filosofia naturalista, que questionava a supremacia celeste sobre a
natureza e apresentava um novo homem capaz de descobrir causas racionais e
verificáveis no mundo e que mais tarde veio a se integrar ao paradigma
cartesiano.
A ciência cartesiana é fonte de muito poder. A balística serviu a
produção de projéteis, a criação dos computadores e a volumosos recursos de
financiamento. Na ciência cartesiana, tecnologia e ciência se tornaram
inseparável produzindo grandes descobertas e imensos recursos de financiamento
de pesquisas.
As nações modernas, França, Espanha, Bélgica e Inglaterra para se
independizarem do poder Papal, imprimiram enormes volumes de dinheiros aos
cientistas e novos aventureiros do conhecimento moderno. Na Inglaterra temos o
exemplo bem visível da Real society que financiou
muitos experimentos científicos.
A laiticidade e recusa do sagrado, separação dos poderes são princípios
que marcaram profundamente o pensamento ocidental e não apenas a Revolução
Francesa, bem como a figura do mecenas que financiavam intelectuais. Como
afirmamos antes, no Brasil, este processo é bem diferente. O paradigma
cartesiano emerge sobre a influência positivista e a ciência nasce extremamente
dependente do Estado.
Em que sentido o paradigma complexo compõem um novo tipo de poder ou um poder científico de novo tipo? Ele – o
paradigma complexo - exige integrar a concepção da organização no mundo
científico, diferentemente do paradigma cartesiano que se consolidava
institucionalmente de modo cartesiano mas não incorporava a organização da
ciência no processo de autoconstrução do saber.
O paradigma complexo impõe a integração do caos na organização e uma
estrutura dissipativa descentralizada aberta à auto-organização produtiva.
Também integra o sujeito ao objeto, o sujeito não está fora do mundo é
reverberativo.
Independentemente de nós, o Universo se auto organizou antes de nós
mesmo emergirmos como sistema vivo complexo. É necessária organização
descentralizada e capaz de enfrentar a expressão mais radical da crise gerada
pela pulsão arrasadora da dissipação, o que Edgar Morin chama de “motor
selvagem”.
Segundo também Edgar Morin, no seu livro O Método tomo 1, vivemos numa
desordem organizada, inclui no entanto a organização no próprio paradigma da
ciência. Caminhamos em cima da turbulência da dissipação energética, da
improbabilidade, da incerteza.
Não podemos entender a alma sem a sua substância material e nem o corpo
como substância própria separada da auto organização da matéria, pensamos
ligados ao corpo e a consciência é também
matéria complexa organizada.
O mesmo não podemos entender na complexidade a ideia do sujeito
determinando e separado da ideia de objeto.
A complexidade não é um problema novo. O pensamento
humano sempre enfrentou a
complexidade e tentou, ou bem reduzi-la, ou
bem traduzi-la. Os grandes pensadores sempre fizeram urna descoberta de
complexidade. Até uma simples lei, como a da gravidade, permite ligar, sem
reduzi-los, fenômenos diversos como a queda dos corpos, o fato de a Lua não
cair na Terra, o movimento das marés. Toda grande filosofia é uma descoberta de
complexidade; depois, ao formar um sistema em torno da complexidade que revelou, ela encerra outras
complexidades.
A rigidez da lógica clássica pelo diálogo capaz de
conceber noções ao mesmo tempo complementares e antagonistas, e completara o
conhecimento da integração das partes em um rodo, pelo reconhecimento da
integração do todo no interior das partes.
Ligará a explicação à compreensão, em todos os
fenômenos humanos. Vamos repetir aqui a diferença entre explicação e
compreensão. Explicar é considerar o objeto de conhecimento apenas como um
objeto e aplicar-lhe todos os meios objetivos de elucidação. De modo que há um
conhecimento explicativo que é objetivo, isto é, que considera os objetos dos
quais é preciso determinar as formas, as qualidades, as quantidades, e cujo
comportamento conhecemos pela causalidade mecânica e determinista. A
explicação, claro, é necessária à compreensão intelectual ou objetiva. Mas é insuficiente para a compreensão
humana.
Há um conhecimento que é compreensível e está
fundada sobre a comunicação e a empatia — simpatia, mesmo — intersubjetivas.
Assim, compreendo as lágrimas, o sorriso, o riso, o medo, a cólera, ao ver o ego alter como alter ego, por minha capacidade de experimentar os mesmos
sentimentos que ele. A partir daí, compreender comporta um processo de
identificação e de projeção de sujeito a sujeito. Vê-se uma criança em prantos,
vou compreendê-la não pela medição
do grau de salinidade de suas lágrimas, mas por identificá-la comigo e
identificar-me com ela. A compreensão, sempre intersubjetiva, necessita de
abertura e generosidade.
O paradigma da moderna ciência em crise insere na ideia de mensuração e,
assim, na curiosa história da lógica. Vindo desde a criação da indução por
Aristóteles (384-322 a.C.), permaneceu praticamente imutável durante dois
milênios. Pensadores como Galileu Bacon, Mill e depois Kant (1724-1804) achavam
do ponto de vista essencial, em lógica, depois do grande filósofo grego muito pouco era preciso ser feito além de minuciá-la e
desenvolvê-la.
O estudo da lógica e da metodologia restringia-se ao da inferência
válida (algumas vezes incluindo também a inferência dita indutiva, não válida,
porém possuindo certo caráter verossímil), de um prisma formal. Na inferência
válida, de premissas verdadeiras chega-se, sempre, a conclusões verdadeiras. As
regras da lógica, devidamente utilizadas, assegurariam isso. Portanto, vimos
que a mensuração lógica está amarrada e se sustenta também com um pensamento
lógico devotado ao raciocínio formalmente redutor.
Por exemplo, Newton, produziu sua síntese
mecanicista extraordinária acreditando que devemos buscar as proposições
inferidas por indução geral a partir dos fenômenos, e não por meio de
especulações hipotéticas. É enfático seu pronunciamento a esse respeito: ”Non fingo hypotheses”, isto é eu não
invento nenhuma dessas causas, que, sem dúvida, podem dar conta dos fenômenos,
mas que somente são verossímeis. Newton não admite outra
causa senão a que pode ser ‘deduzida dos próprios fenômenos”.
Para Newton, a argumentação indutiva não é uma demonstração
de conclusões gerais e está sujeita a exceções reveladas pelos fenômenos
constatados, pois tudo que não é deduzido dos fenômenos deve ser chamado uma
hipótese; e a hipótese, quer metafísicas ou físicas, quer de qualidades ocultas
ou mecânicas, não têm lugar na
filosofia experimental. Nessa filosofia, as proposições particulares são
inferidas dos fenômenos, e depois tornadas gerais pela indução.
Assim em vez de presumir hipóteses sem nenhuma comprovação
experimental, é preciso consultar a própria natureza, realizar experimentos bem
planejados e a partir daí investigar as causas que engendram os efeitos. A
indução é, então, o melhor caminho de argumentação que a natureza das coisas
admite, e pode ser considerada tanto mais forte quanto mais geral ela for
comprovada.
De um modo geral os pensadores sociais não questionavam profundamente
essas premissas, divergiam sobre seu emprego mais analítico e dedutivo, mais
dialético ou mais compreensivo,
porém jamais colocaram em questão ou
criaram novas modalidades de mensuração complexa para embasar seus pensamentos
e conhecimentos sobre a realidade social.
É claro que os fundacionistas da sociologia não compartilharam das
grandes mudanças científicas que vieram a ocorrer sobre esta tradição milenar.
Pois somente a partir da segunda metade do século 19 e durante todo o século 20
que isso veio ocorrer e os clássicos da sociologia não puderam ou não conseguiram sofrer os efeitos da assombrosa
transformação produzida por intelectuais e cientistas contemporâneos.
Hoje a mensuração lógica simétrica deixou
de ser tão somente vinculada à validação das formas válidas de raciocínio,
embora a teoria da argumentação ainda pertença ao campo de suas aplicações. No
momento, ela versa sobretudo, de determinadas “estruturas abstratas ou reflexivas”, que podemos denominar de sistemas
lógicos simétricos e (não ou)
assimétricos, indo desde procedimentos lógicos orquestrados com analógicos em
espírito e subjetivação integrados radicalmente em estruturas da álgebra reflexiva
ou de outros
ramos da matemática computacional e da teoria da informação.
A mensuração clássica é praticamente e estritamente lógica pura. O
sociólogo pesquisador contemporâneo deve saber tratar de sistemas lógicos
diversificados, de inúmeras e contraditórias conformidades de relevância
intrínseca e de significados tocantes às aplicações sociais múltiplas em
fundamentos condizentes com as teorias da informação.
Além disso, a pesquisa aplicada, não pode se voltar apenas para aplicações dos sistemas e métodos lógicos em
todas as áreas do conhecimento. É certo que existe determinada semelhança entre
algoritmos e problematizações sociais e entre informações em associações
analógicas e lógicas. Até mesmo em geometria não existe mais quem defenda uma
geometria pura, pois se estudam diversas estruturas geométricas: euclidiana,
riemaniana, finita etc. e na geometria aplicada volta-se para as estruturas com
ênfase em aplicações mais ou menos
precisas, como nos casos da geometria do espaço de Minkowski em relatividade
restrita ou da geometria de Riemann
em relatividade geral.
Vivemos num tempo atônito que ao debruçar-se sobre
ele próprio descobrimos que os nossos pés são um cruzamento de sombras, sombras
que vêm do passado que ora pensamos já não sermos, ora pensamos não termos
ainda deixados de ser, sombras que vêm do futuro que ora pensamos já sermos,
ora pensamos nunca virmos a ser. Quando, ao procurarmos analisar a situação
presente das ciências no seu conjunto, olhamos para o passado, a primeira
imagem é talvez a de que os progressos científicos dos últimos trinta anos são
de tal ordem dramáticos que os séculos que nos precederam ‑ desde o século XVI,
onde todos nós, cientistas modernos, nascemos, até ao próprio século XIX ‑ não
são mais que uma pré‑história longínqua. Mas se fecharmos os olhos e os
voltarmos a abrir, verificamos com surpresa que os grandes cientistas que
estabeleceram e mapearam o campo teórico em que ainda hoje nos movemos viveram ou trabalharam entre o século XVIII e os primeiros
vinte anos do século XX, de Adam Smith e Ricardo a Lavoisier e Darwin, de Marx
e Durkheim a Max Weber e Pareto, de Humboldt e Planck a Poincaré e Einstein. E
de tal modo é assim que é possível dizer que em termos científicos vivemos
ainda no século XIX do que no século XXI.
No entanto, contraditoriamente, a ciência transfigurou-se nos últimos 150 anos frente à complexidade da
mensuração em três grandes aspectos: 1) em extraordinário desenvolvimento
técnico; 2) aparecimento das chamadas lógicas e procedimentos não-clássicos,
que complementam ou se afastam
daquela batizada de clássica simétrica, a qual se inspirava em pressupostos da
tradição aristotélica compilada e melhorada pela primeira moderna geração da
ciência, ou seja, a emergência da
complexidade e de novas modalidades operatórias complexas sobre a realidade,
inimagináveis até então; 3) a eclosão de variadas e numerosas aplicações da
teoria da informação digital em quase todos os domínios do saber.
Por fim, um dos maiores desafios da complexidade é romper com o saber
disciplinar e violentar as fronteiras dicotômicas que separam as ciências naturais/ciências sociais. O novo
paradigma da complexidade implica em emanciparmos dessa falsa dicotomia.
As próprias ciências sociais constituíram-se no
século XIX segundo os modelos de racionalidade das ciências naturais clássicas
e, assim, a égide das ciências sociais, afirmada sem mais, pode revelar-se
ilusória, contudo, que a constituição das ciências sociais teve lugar segundo
duas vertentes: uma mais diretamente vinculada à epistemologia e à metodologia
positivistas das ciências naturais, e outra,
de vocação antipositivista, caldeada numa tradição filosófica complexa,
fenomenológica, interacionista, mito-simbólica, hermenêutica, existencialista,
pragmática, reivindicando a especificidade do estudo da sociedade mas tendo,
para isso, de pressupor uma concepção mecanicista da natureza. A pujança desta
segunda vertente nas duas últimas décadas é indicativa de ser o modelo de
ciências sociais que, numa época de revolução científica, transporta para a
emergência do novo paradigma. Trata-se, como referi também, de um modelo de
transição, uma vez que define a especificidade do humano por contraposição a
uma concepção da natureza que as ciências
naturais hoje consideram ultrapassada, mas é um modelo em que aquilo que o
prende ao passado é menos forte do que aquilo que o prende ao futuro.
Para apreciar o pleno significado do movimento antifundacional nas
ciências sociais, é de suma importância às contribuições presentes nas obras de
Foucault e de Derrida. Mesmo tendo
presente tal importância, este texto deixará de abordar diretamente as
temáticas destes autores e seguirá noutra
direção.
É de amplo conhecimento nas ciências sociais, seguindo a concepção
também positivista do conhecimento científico, tomou
posição de que o papel das ciências sociais é reunir “dados objetivos” e
submetê-los à análise científica. O humanismo, ao invés, renuncia à procura de
dados objetivos e aceita a ”subjetividade” inerente às ciências sociais. À
primeira vista parece que os humanistas oferecem uma alternativa clara à
abordagem positivista que assenta numa epistemologia totalmente diferente. Uma
análise mais profunda mostra que não é assim. Ambos grupos - humanistas e
positivistas - partilham uma assunção epistemológica fundamental: a oposição
entre sujeito e objeto. A essência da
abordagem positivista consiste em acentuar o lado do objeto nesta oposição. Os
positivistas pretendem que o fito da investigação científica se constitua pela
acumulação de “conhecimento objetivo” livre de qualquer mancha de
subjetividade. Os humanistas, por outro
lado, salientaram a vertente do sujeito na dicotomia. Na terminologia
contemporânea o que os humanistas realizaram foi a “desconstrução” do objeto no
processo de conhecimento nas ciências sociais. Defendem que a matéria prima das
ciências sociais tem como fonte ações significativas produzidas nas relações
intra-humanas, que são inerentemente “subjetivas”.
Em resumo, à medida que as ciências naturais se
aproximam das ciências sociais, estas se aproximam das humanidades. A
revalorização dos estudos humanísticos acompanha a revalorização da
racionalidade estético-expressiva das artes e da literatura que, juntamente com
o princípio da comunidade, é uma representação inacabada da modernidade simples
A superação da dicotomia ciências naturais/ciências sociais tende assim a
revalorizar os “estudos humanísticos”. Mas esta revalorização não ocorrerá sem
que as humanidades sejam, elas
também, profundamente transformadas. O que há nelas de futuro é terem resistido
à separação entre sujeito e objeto e entre natureza e cultura, e terem
preferido a compreensão do mundo à manipulação do mundo.
Além disso, quer resistam, quer sucumbam ao modelo
cientista, os estudos humanísticos decidiram, de modo geral, ignorar as
relações e os processos sociais responsáveis pela auto-atribuição da qualidade
de autor, pelos critérios de inclusão na comunidade interpretativa, pela repartição
do poder retórico entre diferentes argumentos, em suma, pela distribuição
social das boas razões.
Há que recuperar esse núcleo genuíno e pô-lo ao
serviço de uma reflexão global sobre o mundo. O texto, sobre que sempre se
debruçou a filologia, é uma das
analogias matriciais com que se construirá no paradigma emergente o
conhecimento sobre a sociedade e a natureza. Como catalisadores da progressiva
fusão das ciências naturais e das ciências sociais, os novos estudos
humanísticos ajudam-nos a procurar categorias globais de inteligibilidade,
conceitos quentes que derretam as fronteiras em que a ciência moderna dividiu e
encerrou a realidade. Enfim, todas
as ciências são sociais e a nova ciência emergente é uma ciência assumidamente
não simétrica e analógica Em síntese, há procedimentos e lógicas variadas
como há geometrias distintas. É habitual conceber a criação das geometrias
não-euclidianas como uma das grandes transformações de paradigma da ciência,
dado que a lógica se mostra mais básica que a geometria na hierarquia do
conhecimento, decorre de implicações e mudanças no paradigma na ciência
aristotélica.
Esse processo está presente hoje em quase todos os campos do saber: em
filosofia, em filosofia da ciência, em lingüística, em matemática (por exemplo,
utilização de teoria de modelos em álgebra), em química, em biologia, em
direito, em psicologia etc.
Todavia o que mais nos surpreende são as aplicações tecnológicas da
teoria da informação digital frente à mensuração científica da realidade.
Aplicações, exemplificando, a matemática das redes
conhecida como grafos, muito utilizada para simulações complexas e para
entendermos as organizações emergentes, a lógica "fuzzy" muito
utilizada em engenharia de produção e no controle de tráfego, na notação em
robótica e no reconhecimento automático de assinaturas em bancos, e da clássica
em computação e programação, em sistemas especialistas para diagnóstico médico,
em fabricação de máquinas e na nova modalidade
da teoria da computação flexível e simbólica.
Assim a história da clássica geração moderna da ciência evidencia e
comprova, pelo menos em linhas esquemáticas, os limites na mensuração do
raciocínio correto e lógico de natureza das próprias noções lógicas, das
conexões entre ela e a matemática, caráter eterno ou
provisório das suas leis lógicas, da base limitada da cognição marcada pelo
realismo nas ciências lógico-matemáticas.
O notável lógico e filósofo inglês A.N. Whitehead (1861-1947) afirmava
que a mensuração reflexiva contemporânea estava para a tradicional assim como a
matemática do século passado para a aritmética das tribos primitivas. Essa
afirmação de Whitehead se mostra, em nossa época, como inteiramente
justificável. Porém podemos verificar também que a mensuração lógica foi incorporada
sem modificações críticas e operantes de relevância pelos fundacionistas da
sociologia na construção do próprio saber sociológico e que eles estão para o
Século XXI tão próximos quando estão afastados da mutação científica que os
procederam.
Para tomarmos consciência da profundidade da crise em que a ciência
social se encontra, faz-se necessário integrar sua crise específica com a crise
geral que fundou o moderno saber
científico somente assim poderemos encontrar pistas para a integração cada vez mais
complexa do saber social com o saber da natureza e os novos e pulsantes
desafios dessa nova simbiose.
Estamos cada vez mais imersos na emergência de uma nova
civilização complexa, a civilização simbiótica. Se os seres humanos tivessem
sido feitos para durar mais, seríamos diferentes. A ciência da vida
juntamente com a evolução simbiótica
natural cooperativa de nossos corpos com bactérias benignas (quase a totalidade
deles no planeta são) e com os vírus que muitos já compõem nosso DNA (25% é
retrovírus incorporado), nos deram nas últimas décadas a espécie simbiótica e a
conquista da morte pelo envelhecimento.
Agora para vivermos mais tempo e melhor, a simbiogênese social está
permitindo co-fabricar um corpo simbiótico distinto dos que a natureza nos
desenhou, com seus discos abaulados, ossos frágeis, quadris fraturados,
ligamentos rompidos, veias varicosas, catarata, perda da audição, hérnias e
hemorroidas: a lista das mazelas corporais que nos afligem à medida que
envelhecemos é longa e muito familiar.
Estamos nos dirigindo para a emergência de uma nova espécie
simbiótica altamente duradoura, com partículas minúsculas dedicadas totalmente
aos bilhões de esforços jeitosos e cooperativos necessários para nos manter
intactos e que nos farão experimentar um estranhamento sobre o que conhecemos
como existência ou sobre o que é o real movido pela nossa atual singularidade
humana.
Se informação não é conhecimento, e se conhecimento não é sinônimo
de sabedoria, não é preciso lembrar que essas conquistas geram riscos, desafios
éticos e sociais imensos que julgamos não estarmos, ainda, à altura de
enfrentá-los.
Temos, cada vez mais, uma compreensão da importância da
simbiogênese, não apenas a demonstrada nas nossas interações com os
micro-organismos, mas um borramento amplo de fronteiras entre o mundo físico,
social e biológico; uma transubstancialização
do poder-corpo para o poder-vida.
Com o borramento e amplificação da simbiogênese microfísica com o
universo macrofísico de nosso tecido social, construímos nossa hipótese da
simbiogênêse social. Acreditamos que estamos – como espécie – borrando uma
passagem evolutiva da era simbiótica e não parabiótica. No lugar de
transformar o mundo, nós vamos agora mudar o próprio ser em evolução.
Assim, não somos humanos, estamos ainda apenas humanos, mas o
futuro duradouro é do simbiótico, e estamos a passos acelerados nessa direção.
Caminhamos aceleradamente, com a manipulação molecular, para a saída da era
neolítica, em que logramos a tarefa de dominar nosso ambiente, para uma nova
era da programação simbiótica. As nossas próximas tarefas serão o domínio de
nosso próprio corpo e dos organismos vivos em geral.
Nessa nova era de uma evolução borrada entre os recursos orgânicos
e os inorgânicos, em cooperação com a vida, estaremos transferindo para as
criaturas vivas e para as máquinas ou para matérias inorgânicas parte das suas
propriedades singulares, um borramento de uma nova ecologia simbiótica. Isso já
está sendo demonstrado. Por exemplo, o marca-passo tem sido utilizado com
sucesso na medicina desde 1958.
Outros dispositivos já foram demonstrados em diferentes
experimentos e estão sendo também implantados no corpo humano ao longo dos
últimos anos. Por exemplo, eletrodos para fazer conexão elétrica à espinha
dorsal, de modo a estimular órgãos paralisados (utilizado em Larry Flynt, o
famoso editor da revista pornográfica Hustler, para recuperar sua virilidade,
após uma tentativa de assassinato que o deixou paraplégico) e o incrível
implante de olhos artificiais (na verdade, câmeras CCD ligadas a processadores
de imagens) para os cegos, o projeto desenvolvido pelos oftalmologistas
norte-americanos John Wyatt e Joseph Rizzo.
A vida tecnologicamente inteligente está constituindo uma potente
beta natureza (seca, inorgânica) e gerando um novo recurso simbiótico com a
alfa natureza (úmida e orgânica). São exatamente os recursos da ciência e da
tecnologia modelados por uma sociedade do conhecimento que estão nos impelindo
para entrar numa nova era da evolução. Estamos iniciando a embarcação de uma nova era simbiótica.
Minha indicação final é que não
vivemos apenas uma nova convergência neurodigital ou uma nova emergência do
pós-humano, transhumano ou pós-evolutiva, ao contrário, estamos deixando para
trás o humano demasiadamente humano e emergindo novos seres simbióticos
modelados por uma aceleração envolta de uma evolução simbiótica, uma evolução geradora de seres bióticos
mais duradouros, numa nova ecologia simbiótica, mais recursiva, ou seja, com
novos e potentes recursos e sentidos para e pro bióticos.
Nos últimos anos, artistas como Stelarc se dedicaram à discussão
cultural e política da possibilidade de ultrapassar o humano, através de
radicais intervenções cirúrgicas, de interfaces entre a carne e a eletrônica,
ou, ainda, de próteses robóticas, para complementar ou expandir as
potencialidades do corpo biológico. Mais do que apenas antecipar profundas
mudanças em nossa percepção, em nossa concepção de mundo e na reorganização de
nossos sistemas sociopolíticos, esses pioneiros anteciparam transformações
fundamentais em nossa própria espécie. Essas transformações poderão, inclusive,
alterar nosso código genético e reorientar o processo darwiniano de evolução.
No entanto, a simbiogênese enfrenta a visão reducionista da
tecnologia inorgânica, em que a evolução é tecnocientífica, é assimbiótica, e,
por consequência, o futuro pertence a entidades assimbióticas, sem vida,
“andrógenos” ou a seres deuses, como postula outro israelense, Yuval Noal
Harari.
Para entender essa atrofia que paralisou a evolução científica, em
detrimento da hiperevolução tecnológica nos últimos cinquenta anos, é preciso
começar na gênese desse entroncamento e desvio de rota.
Isso permitirá, também, ao leitor entender porque minha tão
marginal proposição social da simbiogênese ficou no âmbito de toda minha
carreira científica de tornar pública a construção desse caminho frente às
denúncias de atrofia das opções acadêmicas, científicas, no universo do
poder-saber. Entenderão o quão marginal fiquei diante da capacidade de diálogo
com a tecnociência que dominou completamente, principalmente, a partir dos anos
1980, e hegemonizando totalmente o conhecimento científico, a partir dos anos
1990, uma síntese de ciências cognitivas e suas sub-colônias disciplinares.
Tenho uma metáfora para explicar esse fenômeno da invasão da
literatura técnico-científica e técnico-empresarial no universo das academias,
universidades e no solo fértil da produção científica.
As titãs “ciências cognitivas” são como uma figueira (que aliás
são árvores centenárias maravilhosas e muito poderosas, e sou grande
admirador). As figueiras – geralmente com sementes trazidas por pássaros –
germinam em uma árvore hospedeira e, bem aos poucos, vão se comportando como
estranguladoras. Crescem se enroscando no caule da hospedeira, competindo com
ela, sugando seus insumos e sua água; quando alcançam o solo, se enraízam,
engrossam suas raízes, mostram toda sua força e, por cintamento, vão apertando,
apertando, até sufocar e matar suas hospedeiras, dando vazão a seus domínios
imperiais e centenários.
Da mesma forma, as ciências cognitivas, (que são muito mais
técnico-ciências), facilitadas pelo imenso poder da computabilidade das
máquinas cognitivas, foram enroscando e sufocando as ciências de base em
todo o universo da produção acadêmica e “científica”, tornando quase a
totalidade da ciência e das universidades uma agência da cognição.
Uma hegemonia que chega a ser assustadora. De todos os recursos
disponibilizados para a pesquisa científica, em torno de 93% da verba é
afunilada para as técnico-ciências cognitivas e suas sub-colônias
disciplinares.
Por fim, mas não por final, a civilização simbiótica
envolve sociedades que são holísticas; envolve sociedades que também dão
respostas pró-bióticas; envolve sociedades que também transbordam em constantes
fenômenos emergentes; envolve sociedades que são ecológicas, mas produtivas;
envolve sociedades que também são tomadas pela consciência de energias
espirituais, não dogmáticas e não reduzidas na matéria; e a civilização
simbiótica envolve sociedades que também dialogam profunda e abertamente com a
ciência.
Na
esperança da cooperação humana: que venha a consciência simbiótica
Cf.
SANTOS, Boaventura de Sousa. A Crítica a Razão Indolente: contra o
desperdício da experiência. São Paulo: Cortez, 2000: 70-71.
O
impacto dos teoremas de Gõdel na filosofia da ciência tem sido diversamente
avaliado. Ver, por exemplo, LADRIÈRE, Jean. Lês
limites de la formalisation, in Piaget (org). Paris: Gallmard, 1967: 312 e
55; JONES, Roger. Physics as Metaphor. Nova York:
New American Library, 1982: 158; PARAIN-VIAL, Jeanne. Philosophie dês sciences de la nature: tendances nouvelles. Paris: Klincksieck, 1983: 52 e THOM, René. Parábolas e Catástofres. Lisboa:D.
Quixote,1985: 36
WEBER,
Renée. Cientistas e Sábios. São
Paulo: Cultrix, 1988 224.
Cf.
SANTOS, 2000:103-104.
RICOEUR,
Paul. Le Conflit des interprétations. Paris:
Seuil, 1969: 148-153.
MORIN, Edgar. . O método 1: a
natureza da natureza. Portugal :
Publicações Europa-América, LDA, 1987.
ANDERY, Maria Amália et al. Para
Compreender a Ciência. Rio de Janeiro: Espaço e Tempo; São Paulo: Educ:
1988: 245-246.
KEKEMAN, SJ. Hermêutica e sociologia do conhecimento. Lisboa : Edições 70, 1986:235-236.
Para
saber mais veja: KEMPF,
Hervé. La Révolution Biolithique:
Humains Artificiels et Machines Animées. Paris: Albin Michel, 1998.
Para
saber mais veja: LIMA, Gilson. Nômades
de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre:
Escritos, 2005.
Para
saber mais veja: HARARI, Yuval Noah. Homo
Deus. São Paulo: Companhia das Letras, 2016.