sexta-feira, 20 de outubro de 2023

UM ENCONTRO QUE MUDOU MINHA VIDA: Lynn Margulis

      Gilson Lima[i]

 Sabem aqueles encontros que são como dobras da realidade. Você muda a direção e não tem mais volta. Meu encontro com Lynn Margulis mudou minha vida de cientista e meus caminhos.  A simbiogênese chegou para mim numa das minhas buscar de referências para minha hipótese principal de minha tese de doutorado, no finalzinho dos anos 90 e início dos anos 2000. Daí tudo que buscava para a refundação de um nova teoria social começou a fazer mais sentido.    


                                            Lynn Margulis
     
    No meu doutorado tinha como hipótese principal algo que me incomodava muito à inadequação da visão do cérebro humano pelos cientistas fundadores da informática (fundacionistas). Para mim esse equívoco levava a uma série de vieses que teria muitas consequências em todo processo de popularização e a industrialização de aceso de massa das máquinas computáveis por empresas, instituições e escolas.

Para contrapor o modelo de memória e inteligência dos informaticistas entendia que era necessário conhecer sobre as implicações entre esses conceitos e a vida, já que estávamos falando de coisas sem vida.

Entre metodologias informacionais de um lado e pesquisa sobre a vida de outro me deparei com uma cientista evolucionista norte americana maravilhosa Lynn Margulis uma micro bióloga, que para mim é quem mais avançou em decifrar o que é vida na ciência. Diga-se de passagem que a ciência conhece muito pouco sobre a vida. Sabemos muito mais quando a vida se interrompe a morte e como tentar impedi-la em alguns momentos e ou alonga-la para além de sua programação natural, mas sobre vida em si, essa energia misteriosa que apossou de um tipo específico de matéria orgânica (molhada) sabemos muito pouco.


Em resumo, simbiogênese trata-se de um conceito proveniente da genética molecular, mais precisamente proposto por Lynn Margulis. A teoria da simbiogênese implica uma mudança radical de percepção no pensamento evolutivo. Enquanto a teoria convencional concebe o desdobramento da vida como um processo no qual as espécies apenas divergem umas da outras, Lynn Margulis alega que a formação de novas entidades compostas por meio da simbiose de organismos, antes independentes, tem sido a mais poderosa e mais importante das forças da evolução. Essa nova visão tem forçado biólogos a reconhecer a importância vital da cooperação no processo evolutivo.

 


Lynn Margulis indagou-se à cerca do modo de evolução das formas superiores de vida. A própria autora respondeu a essa pergunta, ao descobrir um caminho, totalmente inesperado de evolução, que traz implicações profundas para todos os ramos da Biologia e da ciência em geral.

Mergulhei com intensidade nessa problemática buscando entender como era reproduzido pelos primeiros cientistas da computação a sua ideia de estarem construindo uma máquina que era um: “modelo reduzido do cérebro humano”. Então era necessário entender o que eles pensavam ser o cérebro humano visto que até hoje o conhecimento do cérebro humano é muito limitado, mas na época – nos anos 50 - tudo que se sabia sobre o cérebro humano era muito e muito mais limitado.

Darwin publicou sua teoria em 1859, na sua obra monumental On the Origin of Species e a completou doze anos mais tarde com The Descent of Man. Darwin baseou sua teoria em duas ideias fundamentais: variações casuais, que foi posteriormente denominada de mutação aleatória, e a seleção natural.

A teoria da simbiogênese elaborada por Margulis implicou numa mudança radical de percepção no pensamento evolutivo. Enquanto a teoria convencional concebe o desdobramento da vida como um processo, no qual as espécies apenas divergem umas da outras, Lynn Margulis alega que a formação de novas entidades compostas por meio da simbiose de organismos, antes considerados independentes, tem sido a mais poderosa e mais importante das forças da evolução.


Foi a partir daí que dei andamento para a construção de uma teoria social da simbiogênerse, muito mais ampla do que suas aplicações à microbiologia. A implicação metodológica para a ciência dessa complexidade da vida acontecendo em tempo real e que denomino de “symbius” (um fazer junto sempre ou o que acontece junto) num mundo em história permanente é imensa. [2]. Por exemplo, temos que dar um adeus tardio à pretensão simplificadora de traçados racionais em busca de exatidão congelada no tempo. Há um tempo então não racionalizável nos quadrantes dessa geometria.

Tentativas de mensurações reducionistas de uma matemática universal, dada como acesso ao universo de uma ordem dada e objetiva (sem valoração subjetiva, sem intencionalidade,...) diante de uma realidade geométrica dotada de uma ordem dada a ser medida se esfumam diante de uma natureza que fica ali, parada, sem tempo; a nosso dispor e pronta para ser medida, mensurada ou descrita em espelhada exatidão.[3]

O universo e o mundo natural não sendo dados mais como organizados, capazes de serem capturados por essas representações mecanicistas e ou construções reducionistas da realidade em porções cada vez menores ou maiores, divididas em incontáveis parcelamentos e funções para reduzir a matéria a poucos atributos, não ajudam a entender a complexidade do real.[4]

Voltando a simbiogênese, em 1982Lynn Margulis depois de muitas pesquisas, lançou a ideia de que as mitocôndrias descendiam de bactérias especializadas em conversão de energia que eram parasitas de bactérias maiores e, com o tempo, passaram a fazer parte dessas bactérias. A conclusão óbvia é que houve um estágio na evolução da vida em que havia pelo menos dois códigos genéticos diferentes numa mesma complexidade organizada, ressaltando a importância do parasitismo mutuamente benéfico (conhecido pelo nome de simbiose) como forma de um organismo adquirir novas funções.

Os microbiologistas têm sabido, desde há algum tempo, que a divisão mais fundamental entre todas as formas de vida não é aquela entre plantas e animais, como a maioria das pessoas presume, mas entre dois tipos de células — células com e células sem um núcleo. [5]

Margulis ficou intrigada com o fato de que, nem todos os genes numa célula nucleada, encontravam-se dentro do núcleo celular.

Fomos todos ensinados que os genes se encontravam no núcleo e que o núcleo é o controle central da célula. No começo dos meus estudos de genética, tornei-me ciente de que existem outros sistemas genéticos, com diferentes padrões de herança. Desde o princípio, ficou curiosa a respeito desses genes indisciplinados que não estavam nos núcleos.

À medida que estudava minuciosamente esse fenômeno, Margulis descobriu que quase todos os genes indisciplinados” derivavam de bactérias e, aos poucos, ela compreendeu que eles pertenciam a diferentes organismos vivos, pequenas células vivas que residem dentro de grandes células vivas.

Enquanto a teoria convencional concebe o desdobramento da vida como um processo no qual as espécies apenas divergem umas da outras, Lynn Margulis compreendeu que a formação de novas entidades compostas por meio da simbiose de organismos, antes independentes, tem sido a mais poderosa e mais importante das forças da evolução.

A simbiose – tendência de diferentes organismos para viver em estreita associação uns com os outros e, com frequência, dentro uns dos outros (como as bactérias dos nossos intestinos) –, é um fenômeno difundido e bem conhecido. Margulis, no entanto, deu um passo além e propôs a hipótese de que simbioses de longa duração, envolvendo bactérias e outros micro-organismos que vivem dentro de células maiores, levaram, e continuam a levar, a novas formas de vida.

Margulis já tinha indicado - ainda de modo pouco consolidada - sua hipótese revolucionária no mestrado nem zoologia e genética pela Universidade de Wisconsin na cidade de Madison, em 1960, no seu doutorado em 1965 na Universidade da Califórnia em Berkeley e ao longo dos anos, criou uma teoria madura: a “simbiogênese”, que vê a criação de novas formas de vida por meio de arranjos simbióticos permanentes como o principal caminho de evolução para todos os organismos superiores.[6] Nessa época, sua tese teve pouco impacto, dado que essa constatação contrariaria um dos pilares básicos do entendimento da evolução até então vigente.

A descoberta revolucionária de Margulis dá um nó na teoria da evolução. Do conflito e da competição a mola mestra da evolução de longo prazo das espécies se deslocam para a cooperação (MARGULIS, 2002; MARGULIS, Lynn; SAGAN, 2002b; MARGULIS, Lynn; SAGAN, 2002c).[7]

Margulis demonstrou correta a teoria da endossimbiose em experimentos controlados e consolidados onde as mitocôndrias identificadas a priore como entidades separadas formaram-se, na verdade, em simbiose cooperativa de longo prazo com as próprias células eucarióticas.

Essa descoberta é tão revolucionária que até hoje quase toda a ciência médica e grande parte das práticas clínicas complexas e da grande parcela da indústria farmacêutica não entenderam ainda seu grande significado.

Um dos problemas é romper com a visão equivocada que os micro-organismos são nossos inimigos mortais. Se fossem – pelo menos a maioria deles – nós não existiríamos. Qual a grande implicação dessa descoberta? Nosso genoma “humano” – cada vez mais barato de ser escaneado e decifrado individualmente – não passa apenas de uma parte importante e minoritária do genoma de nossa espécie duradoura. Apenas no nosso sistema digestivo a relação é de 1/150. Para uma ideia da significância dessa rede, a totalidade do genoma humano que se encontra entre 20 a 25 mil genes efetivamente é muito insignificante se o vermos apenas separado e isolado. [8]

Em maio de 2000, semanas antes do anúncio do primeiro esboço do genoma humano, um caderno começou a circular entre alguns cientistas: sentados no bar em frente ao Laboratório Cold Spring Harbor, no estado de Nova York. Todos estavam muito entusiasmados com a próxima fase do Projeto Genoma Humano, em que a sequência de DNA seria dividida em suas partes funcionais: os genes. O caderno continha uma aposta em bolão os palpites do grupo mais bem informado no planeta sobre uma questão intrigante: de quantos genes se constitui o ser humano?

A cientista veterana Lee Rowen, que liderava um grupo trabalhando na decodificação dos cromossomos 14 e 15, bebericava sua cerveja enquanto refletia sobre a questão. Os genes produzem proteínas, os “tijolos da vida”, a mera complexidade do ser humano tornava provável que o número fosse alto. Maior que o do camundongo, com certeza, que possui 23 mil genes. Provavelmente também maior que o do trigo, que tem 26 mil genes. E, ser: dúvida, bem maior que o do verme C. elegans, uma das espécies favorita dos biólogos de laboratório, com seus 20.500 genes.

Os palpites em média superavam os 55 mil genes e chegavam a 150 mil, mas os conhecimentos de Rowen a levaram a um palpite mais modesto. Ela apostou em 41.440 genes naquele ano e, no seguinte, arriscou que teríamos 25.947 genes. Em 2003, com a divulgação do número real de genes e a conclusão do sequenciamento do genoma humano, Rowen ganhou o bolão. Seu palpite fora o mais baixo dentre todas as 165 apostas, e a contagem de genes era inferior ao que qualquer cientista havia previsto.

Com quase 20 mil genes, 0 genoma humano nem chega a superar o do verme C. elegans. Tem metade dos genes de um pé de arroz, e até a humilde pulga-d’agua ultrapassa esse número, com 31.000 genes. Você pode pensar, assim como os cientistas que participaram do bolão, que o ser humano deveria ter muito mais genes que gramíneas, vermes e pulgas. Nenhuma dessas espécies e capaz de falar, criar ou ter pensamentos inteligentes. Afinal genes constroem proteínas, e proteínas constroem corpos? Com certeza um corpo tão complexo e sofisticado quanto o humano precisaria de mais proteína e, portanto, de mais genes do que um verme.

Mas esses 20.000 genes não controlam nosso corpo sozinhos. Não estamos sós, uma coletividade de espécies. Cada pessoa é um superorganismo, uma coletividade de espécies vivendo lado a lado, em cooperação, para controlar o corpo que nos sustenta. Nossas células, embora bem maiores em volume e peso, são superadas à razão de dez para uma pelas células dos micróbios que moram dentro da gente e sobre nosso corpo. Esses 100 trilhões de micro-organismos - conhecidos como a microbiota - são predominantemente compostos por bactérias: seres microscópicos constituídos de uma só célula. Junto com elas, há outros: vírus, fungos e arqueias. Os vírus são tão pequenos e simples que colocam em xeque o conceito do que seria necessário para constituir "vida", pois dependem das células de outras criaturas para se replicarem. Os fungos que vivem em nós em geral são levedos, organismos mais complexos do que bactérias, mas ainda assim unicelulares. As arqueias formam um grupo semelhante às bactérias, mas suas diferenças, em termos evolutivos, são tão significativas quanto as que separam as plantas dos animais. Juntos, os micro-organismos vivendo no corpo humano somam 4,4 milhões de genes - esse é o microbioma simbiótico: o genoma coletivo de nossa microbiota. Esses genes cumprem seu papel no controle de nosso corpo junto com nossos 20 mil genes humanos. Segundo esses números, você é apenas 0,5% humano.

Agora já sabemos que o genoma humano deve sua complexidade não somente ao número de genes que contém, mas também às muitas combinações de proteínas que esses genes são capazes de produzir. No caso dos humanos e de algumas outras espécies, eles são capazes de desempenhar mais funções do que poderíamos pensar à primeira vista. Além disso, os genes de nossos micróbios acrescentam ainda mais complexidade a essa mistura, oferecendo com maior facilidade ao corpo humano serviços que evoluíram rapidamente. Até recentemente, para estudar esses micro-organismos, tínhamos que cultivá-los em placas de Petri cheias de componentes sanguíneos, tutano ósseo ou açúcares, suspensos em geleia. Só que essa era uma tarefa difícil, pois já vimos que a maioria das espécies que moram no intestino humano morre quando é exposta ao oxigênio.

A evidência mais notável para a evolução por meio de simbiose é encontrada nas assim chamadas mitocôndrias em uma espécie de casas de força internas à maioria das suas células nucleadas. Essas partes vitais das células animais e vegetais, responsáveis pela respiração celular, contêm seus próprios materiais genéticos, reproduzindo-se de maneira independente e em tempos diferentes com relação ao restante da célula. Segundo Margulis, as mitocôndrias poderiam ter sido, originalmente, bactérias que flutuariam livremente e que, em antigos tempos, teriam invadido outros microrganismos e estabelecido residência permanente dentro deles: “Os organismos mesclados iriam se desenvolver em formas de vida mais complexas, que respiram oxigênio [...] Aqui, portanto, havia um mecanismo evolutivo mais inesperado do que a mutação: uma aliança simbiótica que se tornou permanente”. [9]

Ao me deparar com a simbiogênse minha sintonia foi imadiata consolidando muitas de minhas intuições da vida social. Não demorou muito para deduzir que as derivações da simbiogênse para a vida social são múltiplas. Entendi então como necessário integrar a simbiogênse com a complexidade que borra as fronteiras disciplinares para compor uma nova teoria social evolutiva.

Já compartilhando um novo paradigma da complexidade da realidade e muito pouco considerado onde realidades físicas (no plural) micro e macro implicam em diferentes regiões onde cada uma possui sua singularidade e que esse conhecimento encontravam desligado por disciplinas independentes uma das outras e assimbióticas que precisariam serem ligadas com um conhecimento que borrasse suas fronteiras.

Uma palavra sobre isso tendo por base um artigo publicado em 2006 no Programa de  Pós-graduação de Sociologia da Universidade do Estado do Rio Grande do Sul em Porto Alegre.[10]

Então. Minhas intuições sobre as dobras dimensionais da realidade se fortaleceram quando me deparei com Werner Heinsenberg num conceito de “nível de realidade”. Algo inimaginável para o paradigma da física moderna que até hoje busca uma teoria coerente unificação da realidade quântica e newtoniana.

  Werner Heinsenberg me ajudou a fortalecer a compreensão do equívoco da unificação realizada pela ciência moderna de Galileu a Newton, de uma realidade natural unificada num mesmo plano físico/material, mesmo em escalas diferentes: seja realidade nanométrica, microfísica, realidade macrofísica social ou macrocósmica. A unificação num plano único da realidade é a base do paradigma da física cartesiana-newtoniana e que busca encontrar regras unificadas por esse único plano de realidade,  de modo que as regras que valessem para uma dimensão ou regiaõ da realidade, valeria para outra, etc. A realidade seria contínua e não descontínua.

Werner Heinsenberg em um texto muito pouco conhecido “Manuscript of the year”, de 1942 (que foi publicado somente em 1989) introduziu a ideia de três “regiões de realidade”, capaz de dar acesso ao próprio conceito de “realidades múltiplas”. As regras ou leis que as vezes valem para a física quântica não valem para a macro realidade física. 

No entanto, já com Einstein entendia que essas realidades múltiplas  era relativas  a sua singularidades e ocorriam ao mesmo tempo e em simultaneidade. Por ser simultâneas nunca teríamos como abarcar pelo conhecimento humano toda a complexidade da realidade múltipla, mas poderíamos borrar suas fronteiras e assim reduzir nossa simplificação quando acontecermos no mundo pensando no e sobre esse mesmo mundo que acontecemos.

No caso, por ser simultâneo, ocorrer ao mesmo tempo os diferentes níveis de realidade nunca conseguiríamos abarcar a totalidade da complexidade. Ao acessarmos pelo conhecimento uma dimensão (quântica – por exemplo) com suas regras e leis singulares e ao mesmo tempo operar essa dimensão da realidade com as regras da região macro física newtoniana (por exemplo)  – não funcionará, já que as regras e leis de cada um desses níveis de realidade não são operadas de modo único ou universal. Ao contrário, muitas regras e leis de um nível da realidade quântica, nega as regras do outro nível da realidade macro física (como por exemplo dois corpos ocuparem o mesmo espaço ao mesmo tempo). Isso não ocorre aqui no nosso nível de realidade visível, mas ocorre no nível de realidade quântica.  O mesmo ocorre com a realidade macrofísica newtoniana onde muitas regras e leis que funcionam nesse nível negam as leis e regras da física quântica. Acontece que nesse caso 2 + 2 não é = 4. O mais impressionante é ambas mesmo se negando estão certas e são corretas, sendo ambas verdadeiras.

Por que não conseguimos então abarcar a complexidade das duas realidades juntas e ao mesmo tempo. Porque elas ocorrem em simultaneidade e também ao mesmo tempo. Quando realizamos um experimento quântico precisamos aplicar as regras do nível quântico e vice versa. Por isso nunca conseguiremos ter o acesso pelo conhecimento a todas as dimensões da realidade múltipla. O que podemos fazer? Borrar suas fronteiras. Para isso é fundamental ao borrar os níveis, entender suas singularidades, mas que efetivamente ligar modo que possam operar em simultaneidade evocando assim, novas abordagens paradigmáticas.

Assim, que vislumbrei a ampliação da teoria da simbiogênese com a criação de uma teoria social da simbiogênese. Borrando os níveis micro e macro físico e considerando que cada nível tem suas dimensões sociais singulares (por exemplo, uma comunidade ou sociedade determinada de bactérias) e uma comunidade e sociedade de humanos num aglomerado de cidades em 2% de todo o território do Planeta.

É preciso ter claro que para a simbiogênese a base mínima para a vida é a célula. As bactérias são células vivas. Diferente de vírus que não são células, mas micro fragmentos orgânicos assimbióticos, incompletos (na maioria das vezes partículas venenosas e tóxicas para a vida. Ao contrário existem muito mais bactérias – células soltas - no mundo do que humanos que são uma determinada rede biótica. A quase totalidade das bactérias no ,mundo (mais de 99%),  são amigáveis, são nossas amigas). Existem as inimigas que querem destruir nossa rede biótica e as piores encontram-se em hospitais.

 Tinha a convicção de  que era preciso aproximar o que acontece lá embaixo com o que acontece aqui em cima de modo simultâneo. Assim, não conquistaríamos a totalidade da complexidade da realidade múltipla, mas reduziríamos a nossa simplificação sobre elas operando em symbius (um fazer juntos sempre).

Entendi que  ciências clássicas modernas não conseguem fazer isso e geraram uma brutal ruptura entre observador (indivíduo conhecedor) e realidade. Entre o natural e o humano. Entre o real e o virtual e assim essa ruptura de dimensões desligadas – (acessadas de modo fragmentado por disciplinas funcionais localizadas, específicas e desligadas), em termos de ciência, reinou absoluta até o final do século XIX, e reinou de modo menos absoluto até o final do Século XX. Uma das máximas de Descartes afirmava era que havendo apenas uma verdade em cada coisa, quem quer que a encontre saberá dela tudo o que se pode saber.

Em meu artigo de 2006 [11] dei como exemplo o problema da complexidade informacional integrada em múltiplos planos de escala. Vou sintetizar aqui o que demonstrar nesse artigo.

Vamos começar imaginando a menor dimensão concebível na física atual, pegando um metro, multiplicando por 10 e reduzindo ao máximo, teremos então: 1 0-35 metros (trinta e cinco zeros negativos). Segundo especulações da física teórica, aqui não existiria nenhuma possibilidade de matéria, seja de onda, seja de partícula, seria como o fim absoluto da matéria. Considerando que a física clássica considera energia também como matéria. Depois, pensemos na outra extremidade, a máxima escala cósmica possível e vislumbramos hoje, o que os físicos especulam como se fosse o possível tamanho máximo do Universo: ? 1026 metros (vinte e seis zeros positivos) medidos em distância de milhões de anos-luz (300 000 quilômetros por segundo).

Temos, na realidade macrofísica e social, limitadas sentidos básicos corporais a escala dos metros, quilômetros, centímetros e milímetros, ainda visível pelos olhos humanos, por exemplo. Mais abaixo temos a realidade da informação mícron. Seria como se dividíssemos um metro em um milhão de partes iguais e na mesma escala teríamos: 10-6 metros (seis zeros negativos). Foi aqui que se procedeu, nos anois cinquenta do Século passado com o surgimento da computação eletrônica, gerando a grande aceleração tecnológica proveniente da microinformação digital e da microinformação genética. A microeletrônica computacional e a genética operam apenas na escala do mícron e, mesmo assim, enfrentam atualmente novos dilemas complexos que ainda nos deixam meio atordoados, diante das suas implicações no mundo organizacional em nossas sociedades.

Foi no domínio desse território dimensional da realidade que damos início e vivenciarmos - até bem recentemente - a corrida do ouro pela microinformação digital e a microinformação genética (projeto Genoma), que nos deixou a ideia perturbadora de que quase tudo o que achamos pequeno e invisível poderia ser reduzido à escala da microfísica do poder e do espectro do poder simbólico, vivemos, atualmente, a nova corrida do ouro, a nanoinformação.[12]

Agora, dividiremos o metro em um bilhão de partes iguais e, na mesma escala teremos: 10-9 metros (nove zeros negativos). Na escala do nanômetro, um fio de cabelo tem um diâmetro em torno de oitenta mil nanômetros, ou nanoinformações. Um nanotubo de carbono tem dez nanos. Uma molécula de DNA é imensa na escala nano. Tem cem nanômetros e é um pouco menor que um vírus. Uma célula vermelha de sangue (hemácia) é extravagante na escala nanométrica. Encontra-se na ordem de dez microns ou de dez mil nanoinformações.

Agora sabemos que a verdade sobre uma coisa não é tão simples de encontrar. Cada um dos planos da realidade tem suas especificidades. Caminhamos num consenso de que toda a manipulação acima de dez nanômetros deve ser monitorada diante dos possíveis e prováveis riscos à vida humana e ao meio ambiente. No entanto, os sociólogos e ambientalistas estão em choque com os nanotecnólogos, que já estão produzindo novos produtos com novas nanopartículas reestruturadas e que nunca existiram na macro-realidade social e ambiental. Exigem-se testes, mas testes que venham a se tornar realidade na escala nano, não apenas na escala macro, por causa dos diferentes efeitos quânticos nas diferentes escalas de realidade informacional, como por exemplo, o alumínio. Na macro-escala física, o alumínio é inofensivo, nós o usamos até na boca, como aparelho ortodôntico. Já, na escala nano, o alumínio é explosivo, como demonstraram as pesquisas militares.

A nanoinformação coloca desafios imensos, para uma nanodemocracia informacional e seus efeitos sobre substituições de materiais, de energia. Trata-se de uma reinvenção do mundo, e teremos um impacto muito mais profundo e muito mais rápido do que aquele que tivemos na escala da informação micro. A microinformação digital precisou de apenas cinquenta anos para gerar profundos impactos na macroescala social e ambiental. A genética necessitou em torno de quarenta anos e, no ritmo que se está realizando a corrida da nanoinformação (cujo ciclo tecnológico recém estamos iniciando), seu impacto macrosocial deve realizar-se em apenas quinze anos. A nossa macrodemocracia nem sequer se acomodou com a microdemocracia organizacional da informação, e já temos que enfrentar a nanodemocracia organizacional. Na complexidade informacional, trata-se, então, de percebermos que existem simultaneamente múltiplos planos de realidade e múltiplos e diferenciados efeitos quânticos diante dos diferenciados e múltiplos planos existentes.

Os padrões auto-organizados surgem de instabilidades intrínsecas do sistema, que é aberto para ingredientes básicos como massa e energia, mas não para conduzir toda a informação e a organização, pois é um processo que também se auto-organiza, e nenhum plano de descrição da realidade tem precedência ontológica sobre qualquer outro.

Enfim, temos ainda outras abordagens menores de paradigmas: os microparadigmas. São técnicas, procedimentos ou especializações convertidas em micropadrões, cuja mudança qualitativa não altera ou coloca em cheque o macroparadigma dominante de uma época. É o que acontece, por exemplo, quando nos referimos apenas a subparadigmas econômicos na sociedade, tipo sociedades agrárias (materialidade da terra), sociedades industriais (materialidade das mercadorias e produtos industrializados) e sociedades de informação (imaterialidade das ideias, dos símbolos, dos ícones, da informação-imagem, da estética e do conhecimento).

Vivemos no mundo da ciência e do conhecimento, imersos numa transição macroparadigmática, migramos a passos largos do paradigma cartesiano-newtoniano para o paradigma da complexidade.

A mudança de paradigmas na História também diz respeito ao exercício de poder. A transição de um paradigma para outro traz junto uma nova concepção de mundo que se afirma e outra que é deixada de lado. Daí que, num período de transição entre paradigmas, é particularmente importante, do ponto de vista epistemológico, observar o que se passa com estas ciências. Por exemplo, hoje não basta apenas apontar a tendência para a superação da disciplinaridade do conhecimento e da ruptura da distinção moderna entre ciências naturais e ciências sociais. É preciso conhecer o sentido e conteúdo dessa distinção e dessa superação, e uma nova modulação, também complexa, para o próprio conhecimento e o fazer científico. Falamos em transdisciplinaridade, em complexidade, mas mantemos ainda intacta a estruturação disciplinar do velho paradigma em nossas universidades e centros de pesquisas.

O advento do paradigma e da epistemologia da complexidade, de Edgar Morin, tem desafiado a enfrentarmos novas possibilidades de modulagens (procedimentos) também complexos.[13]

A teoria da complexidade avançou bem mais intensamente que sua modelação. Modelar de modo complexo é um dos desafios que o novo paradigma proposto por Edgar Morin trouxe aos inquietos espíritos científicos. Neste sentido, pensamos que a complexidade diz respeito, sobretudo, ao tratamento do conhecimento numa integração de múltiplos e simultâneos planos da realidade: o plano macro, o plano físico, o plano micro-físico e, atualmente, o plano nanofísico.

Vivemos períodos de transição paradigmática quando nos encontramos mais intensamente em estados de turbulências. O novo paradigma é o paradigma da complexidade e repercute desigualmente nas várias regiões do paradigma dominante e vigente e, por isso, os sinais do futuro tornam-se ambíguos.

A palavra complexus significa "o que está ligado, o que está tecido". É esse tecido que precisamos conceber. O adjetivo complexo (do latin plecto, plexi, complector, plexus: tecido, trançado, enroscado, mas também cingido, enlaçado, apreendido pelo pensamento). Em seu uso trivial complexo, torna-se sinônimo de complicado (plico, are, dobrar), algo embrulhado à espera de simplificação. A noção do complexo enriqueceu-se nos últimos tempos, desde que a importância dos elos e das propriedades específicas dos conjuntos foram redescobertas e realçadas pelas novas mobilizações epistemológicas mais contemporâneas para ações de cingir, entrelaçar, envolver e apreender o mundo, os dados da realidade por uma organização do pensamento mais amplo, por ações articuladas e articulantes, religantes dos elementos e dados segmentados permitindo a emergência também da heterogeneidade, na qual os significados de origem devem permanecer com suas especificidades, como pretendia Pascal, que afirmou ser a parte tão inseparável do todo quanto o todo inseparável da parte. (ARDOINO, 2004: 548-549).  O princípio da separação não morreu, mas é insuficiente. É preciso separar, distinguir, mas também é necessário reunir e juntar. O princípio da ordem não morreu, é preciso integrá-lo na dialógica ordem-desordem-organização. O princípio da simplificação e da redução, certamente se encontra morto, porque jamais chegaremos ao conhecimento de um todo a partir do conhecimento dos elementos de base[14].

Nas fases de transição e de revolução científica, encontramos muita insegurança quando a nossa reflexão epistemológica se torna mais avançada e sofisticada do que a nossa prática científica. Hoje nenhum de nós pode visualizar de modo seguro, projetos concretos de investigação que correspondam inteiramente ao paradigma emergente. Ainda experimentamos muitas defasagens operacionais quando temos que formular nossos projetos de pesquisas em modelizações disciplinares fragmentadas pelas metodologias cartesianas integradas em lógicas reducionistas e mecanicistas (problemas, hipóteses, operacionalização de hipóteses interligadas em teorias desconexas, de baixa densidade e complexidade em metodologias informacionais, etc.). Ainda estamos tateando experimentalmente novas modalidades operatórias, informacionais e procedimentais mais complexas, especialmente quando pesquisamos os fenômenos novos e cada vez mais emergentes na macro realidade social contemporânea.

É por isso que, mesmo estando muito presente, o paradigma da complexidade ainda está precisamente numa fase de transição paradigmática. Sabemos, porém, que estamos no caminho do novo, mas não exatamente onde estamos na jornada. A condição epistemológica da ciência repercute na condição existencial dos cientistas. Afinal, se todo conhecimento é autoconhecimento, então, todo desconhecimento é autodesconhecimento.[15]

Não são poucos os que insistem em que nada de novo existe para inaugurarmos uma nova era paradigmática. Pessoas ilustres e pensadores respeitáveis, como Habermas, Hobsbawn e, até mesmo Einstein - que deu uma imensa contribuição para derrubar o edifício mecanicista newtoniano - não viram nada de novo em termos paradigmáticos.

Também os positivistas, os neopositivistas, os naturalistas ou os tecnólogos (mais conservadores), mesmo os mais experimentalistas ou os mais racionalistas, não cansam de afirmar que vivemos atualmente nada mais, nada menos, do que a radicalização da própria modernidade. As perturbantes teorias de Einstein sobre a relatividade, ainda sofrem resistências, mesmo que, quase todas elas já tenham sido encontradas, demonstradas e validadas experimentalmente. A física teórica ainda sofre muitas críticas dos experimentalistas, por revelar abordagens ilusórias e obscuras.

Uma premissa aqui sobre paradigma, como nos ensinou Khun [16], é uma crença histórica comum compartilhada de como opera o conhecimento. O paradigma pode durar, ter tempo, ter uma história definida, valores e princípios precisamente adquiridos e compartilhados. Acreditamos que é possível detectar esses valores e também como esses valores podem ser conhecidos e compartilhados numa época histórica, verificar rupturas e necessariamente identificar a emergência de um renascimento, de novas modelagens de saber, de conhecer, de socializar o conhecimento, ou seja, do novo lugar do conhecimento no mundo macrossocial.

Darwin publicou sua teoria em 1859, na sua obra monumental On the Origin of Species e a completou doze anos mais tarde com The Descent of Man. Darwin baseou sua teoria em duas ideias fundamentais: variações casuais, que foi posteriormente denominada de mutação aleatória, e a seleção natural.

A teoria da simbiogênese elaborada por Margulis implicou numa mudança radical de percepção no pensamento evolutivo. Enquanto a teoria convencional concebe o desdobramento da vida como um processo, no qual as espécies apenas divergem umas da outras, Lynn Margulis alega que a formação de novas entidades compostas por meio da simbiose de organismos, antes considerados independentes, tem sido a mais poderosa e mais importante das forças da evolução.

Essa nova visão tem forçado biólogos e deterministas tecnológicos a reconhecerem a importância vital da cooperação no processo evolutivo. Os darwinistas sociais do século XIX viam somente competição na natureza, de uma natureza, vermelha em dentes e em garras – como expressou o poeta Tennyson —, mas agora estamos começando a reconhecer a cooperação contínua e a dependência mútua entre todas as formas de vida como aspectos centrais da evolução. A vida não se apossa do globo pelo combate, mas, sim, pela formação de redes simbióticas.  [17]

Então houve uma época, até muito recentemente, que a ciência acreditava que a vida era uma ilha fisiológica de funções internas dos humanos, verdadeiramente humanos. Isso começou a mudar significativamente no início dos anos 60 do Século passado com Margulis.

Imagime uma evolucionista confrontar com o gênio e considerado o pai do próprio evolucionismo. Margulis, não se intimidou e enfrentou a premissa da evolução baseada na luta e no conflito de DARWIN. Darwin estava errado nisso: não é o mais forte que vence o mais fraco. Certa vez Darwin resumiu a seleção natural em poucas e precisas palavras: “multiplicar, variar, que o mais forte sobreviva, que o mais fraco morra. [18] Isso não condiz com a evolução da rede biótica num longo agora. 

Você já ouviu falar numa medicina simbiótica ensoinada nas Universidades? Ainda não, mas logo logo verá!



[i] Gilson Lima. cientista, inventor de várias tecnologias, softwares e protocolos clínicos, escritor, músico.



[2]LIMA, Gilson. Biodiversidade e Simbiogênese: não somos tão humanos quanto pensávamos. In; Artificial Intelligences: Essays on inorganic and nanbiological systems. Ord. AlexandreQuaresma. GlobalKnoledge, 2018:34.

[3] Para saber mais veja: LIMA, Gilson. Sociology in Complexity. Sociologias – V 1. PPGS/UFRGS, 2007.

[4] LIMA, Gilson. Biodiversidade e Simbiogênese: não somos tão humanos quanto pensávamos. In; Artificial Intelligences: Essays on inorganic and nanbiological systems. Ord. AlexandreQuaresma. GlobalKnoledge, 2018: 1’’.

[5] LIMA, Gilson. Nômades de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, 2005: 152.

[6] Para saber mais veja: LIMA, Gilson. Nômades de pedra: teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, 2005

[7] MARGULIS, Lynn. Microcosmo. São Paulo: Cultrix, 2002. MARGULIS, Lynn; SAGAN, Dorion; O que é Vida. Rio de Janeiro: Editora Jorge Zahar, 2002b; MARGULIS, Lynn; SAGAN, Dorion. O que é Sexo. Rio de Janeiro: Editora Jorge Zahar, 2002c.

[8] LIMA, Gilson. Biodiversidade e Simbiogênese: não somos tão humanos quanto pensávamos. In; Artificial Intelligences: Essays on inorganic and nanbiological systems. Ord. AlexandreQuaresma. GlobalKnoledge, 2018:207-208.

[9] Para saber mais veja: MARGULIS, Lynn. Microcosmo. São Paulo: Cultrix, 2002:17.

[10] [10] LIMA Gilson. A sociologia na Complexidade. Revista Sociologias. Número 15.  Porto Alegre: UFRGS, 2006,

[11] LIMA Gilson. A sociologia na Complexidade. Sociologias. Número 15.  Porto Alegre: UFRGS, 2006:255-261. 

[12] Atualmente vivenciamos uma nova corrida do ouro, sem precedentes ante a sua intensidade e velocidade na história, por parte das grandes corporações em investimentos em nanotecnologias. O investimento anual em nanotecnologia, em 2004, tanto no setor privado, como no estatal, foi estimado em US$ 8,6 bilhões. Praticamente todas as quinhentas companhias Fortune estão investindo em pesquisa e desenvolvimento de produtos e processos nanométricos. Somente nos Estados Unidos, o nível de gastos governamentais em nanotecnologia tem passado da casa do bilhão de dólares por ano. Bem maior do que o montante destinado ao Projeto Genoma, tornando-se a maior aventura científica financiada com dinheiro público, desde o lançamento da Apollo à lua. A nanotecnologia promete reinventar o mundo físico, gerando múltiplas consequências na escala macrossocial.

[13] Para saber mais veja: MORIN, Edgar. Ciência com Consciência. Rio de Janeiro: Bertrand Brasil, 2000.

[14] Para saber mais veja:  MORIN, Edgar. A Religação dos Saberes: o desafio do Século XXI. Rio de Janeiro: Bertrand Brasil, 2004.

[15] Para saber mais veja: SANTOS, Boaventura de Souza. Um Discurso Sobre as Ciências. Portugal: Afrontamento, 2001.

[16] Para saber mais veja: KHUN, Thomas. A Estrutura das Revoluções Científicas. São Paulo: Perspectiva, 1988. Edição original Norte Americana, 1962.

[17] MARGULIS, Lynn; SAGAN, Dorion. O que é vida? Rio de Janeiro: Jorge Zahar, 2002:245.

[18] WRIGTH, Robert. O Animal Moral: porque somos como somos: a nova ciência da psicologia evolutiva. Rio de Janeiro: Campus, 1996:07.


==========================
Gilson Lima. É cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neuroreabilitação em diferentes cidades e diferentes países principalmente, europeus.

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções com o codinome Seu Kowalsky . Suas músicas e shows podem ser acessados no canal do youtube @seukowalsky ou direto no https://www.youtube.com/@seukowalsky

quinta-feira, 12 de outubro de 2023

UMA REVELAÇÃO ESTONTEANTE: a comunicação magnética simbiótica

 

Gilson Lima[i]

 

Quando terminei meu doutorado no início dos anos 2.000 em metodologias informacionais na sociologia, deixei uma marca aberta para a continuidade da relação entre informática e uma sociobiologia simbiótica. Deixei aberto uma crítica a ser mais profundamente verificada sobre as questões relativas a informática e o cérebro. 

Os cientistas fundacionistas da informáticas acreditavam, ao seu modo, que com a cibernética computável estavam replicando um modelo reduzido de cérebro humano, mas eles estavam cercados de confusões e limitações frente as recentes descobertas sobre o cérebro. No entanto, as crenças dos fundacionistas continuavam até hoje a exercer seu poder de verdade como diz Foucault. Queria enfrentar isso com pesquisas de bancada dentro dos moldes dos padrões de verificabilidade que a ciência moderna tanto enfatiza.

Então fui, no pós-doutorado, estudar e realizar pesquisas clínicas com pacientes com lesões neurais severas e informática para demonstrar as incompletudes da gênese das crenças dos cientistas fundacionistas da informática.

Comecei selecionando com uma equipe múltipla de profissionais desde a engenharia de hard e softwares até neurocientista e profissionais da reabilitação envolvendo pacientes pediátricos, jovens com lesões nas regiões próximas a fissura de rolando, mais especificamente próximas do sulco lateral (também chamado de fissura de Sylvius), que é uma das mais proeminentes estruturas do cérebro humano, que separa o lobo frontal e o lobo parietal do lobo temporal.

O sulco é uma fenda no topo do cérebro de mamíferos superiores, incluindo seres humanos. Toda e qualquer manifestação clínica decorrente de lesão ou malformação que comprometa a região da fissura de Sylvius é conhecida por Síndrome Perisylviana.

Me foquei nessa região encefálica porque estava interessado no estudo da localização do comando na execução mecânica da linguagem e sua relação com a compreensão da linguagem.

Pesquisa que coordenei envolvendo neurorreabilitação em bases simbiogênicas com display em fala assistida

Imagens do protótipo para execução simbiótica  assistida da fala

A primeira pergunta importante que precisa ser feita para se entender a relação entre o ato de fala e a compreensão da linguagem é: Qual a diferença na herança civilizatória entre essas duas: a filogenética e a ontogenética? Descobri que os educadores com as crianças com lesão cerebral severa nas áreas encefálicas responsável pela execução mecânica da fala não faziam essa distinção.

A filogenética é o que vem de fábrica, nasce com a gente é um processo de acúmulo civilizatório assimilado na nossa espécie. Está lá gravado ao núcleo de nosso DNA de modo a não necessitar interação social de aprendizagem para ser replicada. O disparo do processo constitutivo ocorre muito facilmente de dentro para fora e de fora para dentro quando acontecemos no mundo.

A ontogenética não. Mesmo estando lá gravada, necessitamos de atividade social e de interações sociais junto ao mundo onde acontecemos para disparar seu processo de consolidação. É praticamente uma atividade exógena e de fora para dentro.

A filogenética não necessita passar por um processo obrigatório e antecipado de aprendizagem disciplinar e treinamento social e de interação no mundo onde acontecemos.

É o caso de um cavalo. Vem de fábrica que ele é um ser de quadrúpede. Ele tem no seu DNA gravado que ele tem que ficar de pé em quatro patas. Assim, logo que ele nasce, em alguns instantes e quase magicamente, lá está o filhote se levantando sem necessidade da mãe ou pai dele ensinar como fazer isso.

Falar para nós vem de fábrica. Não precisaremos entrar na escola para aprender. Não será imediato como ficar de pé, mas está lá gravado.

Então, falar logicamente e regras de ato de fala integrado numa cultura social de linguagem oral é um processo mais complexo e exige uma interação social com uma determinada cultura que compartilha esses códigos e para interiorizá-los. Mas todo o processo de execução da fala está lá pronto, só precisa ser apreendido comunitariamente.

Grunhir, emitir os sons está tudo ali.

A oralidade vem junto no programa do nosso núcleo. Não precisamos nem ir para a escola aprender a falar as línguas. Tem toda uma área fisiológica pronta para ela ser executada. Não requer - sequer - plasticidade neural.

Uma criança, inclusive, está apta a aprender todas as línguas faladas no planeta sem sotaque até os cinco anos de idade. Nem precisaria ir para a escola para isso. Só conviver com quem fala e permitir que suas interações orais ocorram.

Vamos para um exemplo mais fisiológico: a visão. Temos dois olhos. Não nascemos enxergando uma imagem única compartilhada com os dois  olhos. Teremos que aprender a fazer isso. Nosso núcleo do DNA tem lá essa informação. Mas nascemos olhando com cada olho a mesma coisa. Ou seja, cada olho vê a mesma coisa. Nossa visão é embasada e duplicada até aprendermos rapidamente fazer com que os dois olhos atuarem em parceria para formar uma única imagem. Agora, na verdade, nosso olho não enxerga nada. Ele apenas é um acesso inicial de sinais de luz e as imagens são efetivamente formadas no córtex visual que fica na parte de trás do cérebro.

Mas é isso. A razão, a lógica é uma criação de uma tecnologia social. Não é natural dos humanos. Mas sua execução oral foi absorvida na codificação de nossas redes moleculares e de modo muito intuitivo, inato.

Tudo isso são exemplos, para mostrar a complexidade e a importância do processo cerebral para nosso corpo e nossa vida. Mas isso não se reduz ao cérebro.

Então o mesmo podemos dizer sobre o ato de falar logicamente em códigos orais é uma tecnologia que rapidamente pode ser apreendida em situações normais se permitirem que tenhamos acesso à iniciação diária a elas numa determinado período para isso. 

Já podemos encontrar nos postulados da filosofia da linguagem essas considerações. Dois dos mais eminentes filósofos da linguagem John Langshaw Aunstin e Ludwig Joseph Wittgenstein, já se colocaram contrários à tese de que a função da linguagem seja única ou essencialmente descrever o mundo. Chama-se essa ideia de "falácia descritiva" (descriptive fallacy).

Wittgenstein, no início das suas investigações filosóficas, ca­racteriza sua  teoria com as seguintes palavras: "As palavras da linguagem dão nome aos objetos; as proposições são combinações des­ses nomes". Porém no aprofundamento de seus estudos emerge junto o conceito de jogo de linguagem, que segundo ele próprio, os atos de fala envolvem uma "prodigiosa diversidade" de jo­gos de linguagem. 

Outra questão que Wittgenstein, levanta é a de um vínculo estreito entre falar e agir. Os jogos de linguagem, como quaisquer outros jogos, são para ele atividades guiadas por regras e existem tipos bem diferentes de regras que vão de regras técnicas (como as regras de culinária para cozinhar), os atos de fala envolvem regras sintáticas (regras de declinação, por exemplo).

O filósofo constata que para obedecermos uma regra, co­municar algo regrado, dar uma ordem, jogar uma partida de xadrez são antes de mais nada, expressões costu­mes (usos, instituições).   Isso aproximou Wittgenstein muito uma estreita relação entre o con­ceito de regra e o conceito de erro. Por um lado, erros só podem ocorrer quando houver uma regra que diferencie entre o comportamento correto e o incorreto.

Isso tem implicações para um universo não lógico da linguagem, pois ela liga intimamente o conceito de jogo de linguagem ao con­ceito de  modo de vida. Por Wittgenstein assim, as práticas comuns da vida diária que subjazem a diversos jogos de linguagem, foram moldadas por certas convicções e regras fundamentais oriundas de modo de vida que envolvem de modo mais amplo uma "representação do mundo".  

As representações do mundo e as formas de vida não são nem cer­tas nem erradas, mas compõe um campo de razões, racionalizades compartilhadas, uma teia lógica como crenças compartilhadas.  Quem quiser induzir alguma outra pessoa a aceitar uma delas, apenas pode fazê-lo por persuasão, mas não necessariamente mediante uma funda­mentação, pois somente há razões dentro de uma forma de vida ou de uma representação do mundo.

Então já nos postuladores da filosofia da linguagem, o uso descritivo e explicativo da linguagem é apenas um entre muitos possíveis e, portanto, não deve ser visto como o uso autêntico ou essencial da linguagem. Não há, assim, nenhum motivo para reduzir, mesmo logicamente, a linguagem normativa à linguagem descritiva ou para considerar o processo anterior do ato de fala  menos importante ou de menor valor do que a linguagem lógica. 

Assim, a ló­gica (no sentido mais amplo de Wittgenstein) embututida nos jogos de linguagem só pode ser entendida mediante a consideração do comportamento não-verbal e outras circunstâncias fáticas.

Por exemplo, contra então a possibilidade de que todos os pressupostos sejam discutíveis pode-se objetar que, na dis­cussão de pressupostos, devem-se estabelecer, algo pré-lógico, até mesmo dentro do conceito de pressupostos, que não é concebível não tê-los numa situação de vida onde tudo precisa ser fundamentado por raciocínios.

Isso tem uma enorme implicação para que o próprio Austin integre na sua teoria da linguagem o conceito inseparável da linguagem ao dizer, ao ato de fala. Os atos de fala  são assim, ações apenas que se realizam por estarmos dizendo algo. Por exemplo, quem diz: "prometo que virei amanhã" ou "eu lhe asseguro que vi um cachorro" não está apenas dizendo algo, mas está também fazendo algo: no primeiro caso, está fazendo uma promessa, no segundo, afirmando que viu algo.

Na sua teoria, Austin ainda distinguia expressões que constatam algo três tipos de atos diferentes: o ato locucionário (locutionary), o ilocucionário (illocutionary) e o perlocucionário (perlocutionary).

O ato locucionário consiste na expressão de um enunciado com um significado determinado. Por sua vez, ele pode ser subdividido em três atos: fonético (phonetic), fático (phatic) e rético (rhetic). O ato fonéti­co é a expressão de certos sons; o ato fático, a expressão de palavras se­gundo uma determinada gramática; o ato rético, o uso de palavras para dizer algo determinado (sense) sobre algum tema ou algo determinado (reference). O ato rético determina o que é tradicionalmente chamado de "significado" (meaning). Por isso, Austin fala de um sentido locucio­nário (locutionary meaning) do ato do discurso.

A parte muito original da teoria de Austin é o conceito do ato ilocucionário).  O ato ilocucionário é o que se faz dizendo algo. O que se faz dizendo algo precisa ser distinguido do que se faz por dizer algo: O primeiro depende de convenções, o último, de efeitos práticos em dada situação.

Ao dizer a alguém: "prometo ajudá-lo na sua mudan­ça", estou fazendo uma promessa e ao fazer isso também posso surpreen­der, agradar ou assustar a pessoa a quem estou prometendo ajuda. A pro­dução de tais efeitos mediante expressões é o que Austin chama de ato perlocucionário.

No entanto, o cerne da teoria de Austin está o ato de fala como ato ilocucionário, ou seja, como ação convencional. O fato de que os atos de fala sejam ações convencionais significa que não são possíveis na ausência das regras so­bre as quais são baseados. O conceito de ato de fala, como o de jogo de linguagem, aponta assim para o conceito de regra. Austin não tenta formular essas regras explicitamente. Em vez disso, elabora uma classificação dos possíveis defeitos dos atos de fala. Nessa doutrina de erros (doctrine of the infelicities) são descritos os mo­dos pelos quais os atos de fala podem falhar ou ser bem-sucedidos como ações.

Quando acontece um ato de fala mal sucedido é porque então alguém afirma algo sem crer no que diz. Quem afirma algo, dá a entender que acredita naquilo. Não se pode dizer: "O gato está deitado no tapete, mas eu não acredito nisso", ainda que essa frase não tenha defeitos lógicos nem gramaticais. Torna-se claro com isso que há outras regras que servem de base à linguagem como ação além das regras da lógica e da gramática. Um dos méritos da teoria dos atos de fala é ter tornado clara a importância dessas regras que se podem designar como "regras pragmáticas".

Então um ato de fala pode ser defeituoso não somente porque o que foi dito é falso ou incorreto, mas também pode ser, como diz Austin, "in­feliz" ou malsucedido (unhappy) como ação.

Segundo Austin, em How to do things with words, "verdadeiro" e "falso" não expressam uma simples relação nem uma simples qualidade nem qualquer coisa simples, mas que tais palavras apontam para "uma dimensão geral de crítica que admite a possibilidade de sustentar que, em dadas circunstâncias, em relação a um auditório determinado, para certos fins e com certas intenções, o que se disse foi próprio ou correto como coisa oposta a algo incorreto". Uma tal fundamentação deve ocorrer tanto quando se trata de verificar se um conselho é bom ou se um veredito é justo, como também quando se discute sobre a verdade de uma pro­posição. Em todos esses casos, o importante é se o ato de fala foi expresso adequadamente, tendo em conta os fatos, os propósitos do falante e a si­tuação em seu conjunto.

A teoria dos atos de fala de Austin contém (1) uma precisão do que significa dizer que falar uma língua é uma atividade governada por re­gras; porque deixa claro que (2) o uso da linguagem normativa não se diferencia, em alguns pontos importantes, da linguagem descritiva; porque oferece (3) um sistema de conceitos básicos cuja utilidade se tornará evidente.

O mesmo acontece com as técnicas sociais da Inteligência cognitiva. Descobri que a área do raciocínio matemático ou da linguagem só era possível quando se pensava pela consciência dos símbolos e palavras. signos e processos de significação dos simbólica.  Os humanos foram entrando numa estrada da evolução que reduzia a linguagem e moldaram uma composição de uma inteligência não inata.

O interessante é que ela não se realizava no mesmo local da execução mecânica da fala no encéfalo. Por exemplo, podemos falar só pensando e ser executada sem necessariamente falarmos oralmente e isso envolvia uma fisiologia independente. Chamam a isso de compreensão, mas é mais complexa que isso, mas indica que para compreendermos uma linguagem não necessitamos necessariamente ter que falá-la ou executar o seu som, realizar os processos mecânicos no corpo da oralidade social e sonora de qualquer das linguagens que conhecemos.

Acessamos, interagimos numa estrada sináptica da linguagem, mas a inteligência está em tudo e em todo o lugar. Uma inteligência inata corporal. Ela está em todo o lugar de nosso corpo e simultaneamente, ao mesmo tempo.

Você respira, bate o coração, libera hormônios, caminha sem tropeçar e não nota nada disso. É que nosso fluxo de consciência é serial e não paralelo é fractal e não sistêmico. É analógico e não lógico. É descentralizada e não localizada num lugar determinado e sedentário.

Sempre dou um exemplo. Você está dirigindo um automóvel numa rodovia simples de duas faixas únicas. Decide ultrapassar um caminhão quando se posiciona ao lado dele se dá conta que vem um veículo rapidamente na sua direção e você em contramão terá que tomar muitas decisões para não se chocar. Sua inteligência inata apaga o sistema imune e te bombardeia de adrenalina e cortisol. Tudo terá que ser decido quase instantaneamente. 

O cérebro e suas lógicas atrapalharão. É muito lento para te salvar. Tudo é realizado de modo “inconsciente”. Por que conscientemente só prestamos atenção em uma coisa ou pouca coisa de cada vez, mesmo que várias estejam acontecendo simultaneamente. 

A nossa vozinha interior seja uma parte importante desse holofote interno, que ilumina um foco de atenção e ignora os demais. Ela teria evoluído porque é uma maneira eficaz de organizar pensamentos complexos e guiar nossas ações. Um fio que une a mente dispersa.

No caso do domínio de uma língua mãe, verificamosnas pesquisas que a partir de sua consolidação no encéfalo outras sonoridades linguísticas são desconsideradas ou descartadas até os seis, sete anos. Isso vai condicionando uma trilha dominante que vai se abrindo na claridade da floresta neural e ai mesmo tempo, eliminando outras possibilidades de trilhas de acesso desse processo de aprender facilmente e sem sotaque outras línguas. 

É como se toda aquela floresta apta a aprender todas as línguas fosse se reduzindo a uma trilha ampla, larga de uma língua mãe nativa e as outras possibilidades de trilhas vão sendo descartadas e eliminadas. Nosso cérebro vai reduzindo seu o potencial de conexões. O cérebro funciona assim: o que usa ele mantém e potencializa, reforça e o que não usa ele descarta.

As questões da linguagem se perderam de complexidade ainda mais com a emergência da falácia cognitivista da inteligência substituindo cada vez mais o conceito de razão.  O conceito de cognição emergiu no final do Século XIX e foi se imperando frente ao campo da comunicação e linguagem do que já era deveramente reducionista no universo do racionalismo.

Vamos à história. Sempre ajuda. Se buscarmos quando de fato começa a aparecer na literatura o termo cognição veremos que o "conceito" de cognição emerge praticamente junto a lógica booleana no final do Século XIX. Cada vez mais associando-se e se fundindo ao significado de conhecimento. Cognição = conhecimento. Uma redução bárbara. Uma redução muito maior do que a redução realizada pelo conceito de razão dos gregos ao conhecimento, uma redução que a ciência moderna adotou focando mais no genômetra. Ou seja, que mesmo com as emoções e o inconsciente ficavam de fora da inteligência, era um entendimento bem mais amplo na antiguidade.

A palavra cognição (Kognition, Kognitiv) só aparece na literatura psicológica apenas na era moderna..., mas já efetivamente com as tentativas da redução lógica para decodificar o pensamento.[1]

Primeiro cientistas, filósofos e matemáticos analíticos no final de Século XIX e início do Século XX, queriam identificar de que é feito o pensamento e a função da materialização psico mentais da consciência no final de Século XIX e início do Século XX.

Ainda no Século XIX, entretanto, George Boole, um matemático autodidata inglês, escreveu um livro com o título: Investigação das leis do pensamento (An Investigation of the Laws of Thought), publicado em 1854, que foi muito apreciado. Meio século mais tarde, o matemático e filósofo Bertrand Russell satirizou Boole como o descobridor da “matemática pura”. Boole perguntava-se se realmente existiam leis que regiam o pensamento. No livro “An investigation of the laws of thought”, [2] 

Boole responde a essa pergunta reduzindo a lógica do pensamento humano à operações matemáticas. Embora Boole não tenha explicado o pensamento humano, ele demonstrou o poder e a generalidade surpreendentes de uns poucos tipos, porém simples, de operações lógicas. 

Ele inventou um “protocolo” para descrever e manipular proposições lógicas e determinar se elas eram verdadeiras ou não. Essa que mais tarde foi qualificada como uma “linguagem” binária hoje foi denominada de álgebra booleana. 

No século XIX, George Boole deu à lógica de Aristóteles uma base matemática com um sistema de lógica algébrica.

Boole queria provar que as leis do pensamento humano podiam ser expressas por equações algébricas. Essas equações ele imaginou que seriam usadas para descrever relações lógicas e, ao resolver as equações, qualquer um poderia chegar à solução correta para o problema.

A redução ao pensar a lógica booleana se intensificou quando demos o SALTO BINÁRIO PARA O ELÉTRON: a lógica agora se tornou energia maquínica.

O que detonou a aceleração desse processo foi um outro matemático já no Século XX Claude Shannon, que defendeu a aplicação da álgebra simbólica de Boole aos circuitos de comutação elétrica. Assim, em sua tese,  em 1929, a lógica booleana ganhou uma nova camada:. a sua integração ao circuito elétrico. Isso foi inicialmente  realizado brilhantemente então pelo matemático Claude Shanonn[3].

Shannon além de integrar a lógica binária no circuito elétrico forneceu uma medida de quantidade de dados, cuja unidade seria  o bit (Bynary Digit, um termo introduzido pelo próprio Shannon). 

Agora além de materializar o pensamento, Shanonn determinou uma medida ao bit. Agora podemos até quantificar o processo do sinal cognitivo no circuito elétrico e quase em quilo.

O bit, se tornou uma medida quantitativa de representação descontínua (lógica discreta), já em 1948 antes mesmo da invenção do computador. Considerada agora a menor unidade de um impulso magnético isolado a ser enviado através de um circuito. 

Visto isoladamente, o bit não forneceeia nenhuma informação que um ser humano possa considerar significativa, entretanto, em grupos de oito (quando são chamados de bytes), representam todos os tipos de dados processados ou armazenados nos computadores, inclusive as letras do alfabeto e os dígitos de 0 a 9. Convencionou-se então chamar o processamento e armazenamento de dados em bit, de digital.

A lógica binária, se integrou definitivamente a energia. A energia dos elétrons. A lógica deixou de ser realizada apenas por processos mentais ou registros físicos em papéis e tintas.

Isso gerou uma das mais profundas alterações depois de milênios no texto linear do pagus latino[4] (a página linear, direcional, homogênea, sucessiva, sequencial), indutor da rigidez da casualidade hierárquica, mas ainda gerador de uma hermenêutica de leitura em profundidade. 

A leitura do texto em pagus, tem perdido sua potencia de influência formadora e novos leitores de telas emergem e é uma das maiores implicações do pensamento cognitivo: a perda da influência da hermenêutica de profundidade que vai sendo substituída mais ativamente a partir da emergência do hipertexto em ampla escala no Planeta. 

A hermenêutica de profundidade, desde o final do Século XX, vai sendo substituída por uma cognição de navegação em links rápidos, muito mais relacionais do que profundos, muito mais  fuídos e dinâmicos do que a leitura linear e muito menos sequencial, mas com baixíssima profundidade hermenêutica e altamente veloz. 

O que conta na cognição integrada ao circuito elétrico é mais a interatividade, as audiências das interações do  que a compreenção.

É óbvio que a linguagem oral, a lógica escrita linear é uma ferramenta sofisticada para pensar. Até mesmo a busca da precisão pela codificação cognitivista, computacional da linguagem, também, mas é também óbvio que não é a única e nem pior, nem é a mais complexa conunicacão.  E o óbvio no mundo atual das certezas cognitivas, precisa cada vez ser mais explicitado.

Vimos que pensamos de muitas formas além o próprio discurso. No entanto, os testes de QI ainda são repletos de tarefas que envolvem, por exemplo, a rotação de formas geométricas no nosso teatro mental. Se reduzirmos a inteligência aos processos cognitivos da maquinismo altamente veloz na estrada do circuito elétrico, ficaremos presos a eles e seremos extremamente reducionistas frente a idéia de existir inteligência fora da vida, uma inteligência abiótica.

Nunca fomos bons no maquinismo lógico executado pelo encéfalo, muito menos na cognição computável. A memória computável, maquínica e inteligência viva são processos muito distintos. Podemos agora ampliar nosso córtex vivo em cooperação com as máquinas cognitivas embutidas no circuito elétrico.  Somos muito mais hábeis em esquecer do que em lembrar. Isso torna a vida inteligente  e permite a vida ser complexa do que a matéria computável.    

Agora que criamos máquinas muito mais precisa e velozes para isso, deveríamos libertar a vida em cooperação simbiótica e retomar ainda mais a complexidade dos processos mentais analógicos e não maquínicos.

Aliás nosso cérebro é muito ruim de da cognição e deveríamos estar mais liberados pela o exercício da ineligência inata agora que transferimos as atividades  cognitivas (maquinicas, mas mentais) para máquinas muito mais velozes e efcientes para realizá-las.

Sempre fomos ruins para andar com os pés, nem voar como são tão bons os pássaros, mas nossas máquinas velozes de vôos alçam lugares impensáveis para a vida dos pássaros e nossos veículos motorizados da terra e água,  são muito mais capazes de fazer isso mais rápido que nossos pés e braços.  Mas isso não os tornan máquinas inteligêntes. Podem acoplar em uma cooperacão simbiótica evolutiva ou não, mas nunca serão dotadas de vida em sí. Muito menos máquinas que fazem tantos estragos antibióticos a vida no Planeta quando operam suas atividades em plenitude podem ser consideradas de possibilidades simbióticas plenas.

Não que as habilidades disciplinares não naturais e adquiridas não sejam importantes. A lógica, a capacidade de raciocinar da consciência sináptica, fazermos cálculos e de memorizar dados e nomes são tarefas importantes e úteis. Mas o nível da complexidade da inteligência inata é incomparável aos limites dessas habilidades quando executadas  no cérebro. 

Nem mesmo nossa mente é boa na cognição e na lógica racional e nem é feita para codificar coisas e processos lógicos que podemos ver ou nomear. O esforço de explicar o que se passa na nossa cabeça – e não conseguir – é um velho conhecido da civilização. Se livros, e músicas continuam sendo escritos, compostos e pintados, é porque cada um de nós sabe que não existe uma sequência de palavras, sons ou imagens capaz de descrever exatamente o que sentimos. 

O mistério do que acontece dentro das nossas mentes é desconfortável para a ciência de militância da verificação – mas também a força por trás das coisas mais bonitas que fazemos está longe do que ainda entendemos.

Para a ciência cognitivista hegemônica, desde então, confunde o pensar com cognição e só se vincula a computabilidade ao universo da consciência. Aqui é preciso lembrar-se da maravilhosa descoberta do poder do insciente freudiano que faz tanto sentido. Para os freudianos só 1% dos processos mentais de pensamento são conscientes e 99% são processos mentais são inconscientes. Repito, dos processos mentais.

Vimos que pensar como um ser racional é algo muito lento, imaginem imaginar com códigos linguísticos.

Por isso o modo humano sapiens, moderno de pensar não é natural. Mas mesmo ele tão antinatural é um processo vivo e, sobretudo, em bases de um campo inato analógico.

Mas a psicanálise é moderna e iluminista, ainda tenta ampliar o poder da consciência racional para dominar o vazio do universo inconsciente em busca de dominar um nada que nos domina e que existe sem sabermos. Ainda está presa no dilema consciência sináptica ou a inexistência dela, o inconsciente.

É diferente de se dar conta que consciência é um tipo singular de pensar e acontecer no mundo. Sequer podemos reduzir o pensar ao raciocinar, que é uma tecnologia ainda mais redutora ou de pensar racionalmente,  ou pior ainda de reduzir o pensar como sinônimo de cognição e a cognição a de conhecer.

Na linguagem e em alguns aprendizados temos um tempo certo para isso acorrer. Chamamos de Janela de Aprendizado. Quando a janela fecha, ela praticamente não abre mais. Na verdade é como as trilhas neurais não usadas fossem sendo descartadas pelo xixi.

É o que acontece em tudo quase tudo quando recém nascemos. Diferente do cavalo, no exemplo anterior, nós não nascemos tão prontos. Quanto menos complexos, mais pronto se nasce essa é a regra para a vida na matéria orgânica. Quanto mais complexo mais frágil. Num caracol, a vida que se auto move é a parte mais frágil. Para se auto mover temos que ser moles e conduzir eletricidade lenta e muito, mas muito e muito mais lenta que numa matéria inorgânica como o silício. Nós que somos muito complexos seremos muito mais dependentes de cuidado social para se consolidar. Se sozinhos ficamos ao nascermos, sucumbiremos. Nossa filogenética é social. Somos simbioticamente dependentes de um cuidado do outro quando nascemos. Na verdade, assim seremos por toda a vida. Mas quando nascemos temos muito que atuar no ambiente para moldar como nosso corpo será na sua potência de complexidade.

De imediato, estudando o cérebro humano, percebi rapidamente que a oralidade em línguas comunitárias e a escrita cada uma mesmo dentro de suas diferentes características filogenéticas e ontogenéticas, são subprodutos do desenvolvimento de uma tecnologia da inteligência viva presa ao universo da lógica computável, mas possível de ser replicada maquinamente.

Vamos para algumas descobertas que obtive nas minhas pesquisas de bancada e pesquisas clínicas com pacientes.


Pilotagem de telas com micro ritmos corporais e neurorreabilitação


Então iniciei minhas descobertas simbióticas e mergulhei por mais de 15 anos na criação de produtos, processos e criação de protocolos clínicos de neurorreabilitação magnética com displays e microrrítimos corporais.


Gilson Lima em atividades de pesquisa clínica de terapia magnética com resultados e revelações surpreendentes

Fotos de pesquisa em neurorreabilitação simbiótica que coordenei numa escola pública em Porto Alegre

Minhas primeiras descobertas:

O cérebro não só se comunica fisicamente pelas sinapses

 

Você certamente já ouviu falar de neurônios e sinapses e como essas conexões fazem nosso cérebro funcionar.

Mas essa provavelmente não é a história toda. Os neurônios apresentam um comportamento coordenado mesmo quando não estão fisicamente conectados entre si por sinapses. O mais interessante é que mesmo quando eles realizam as sinapses eles não se tocam.

O interessante, nessa questão é que, sem querer, utilizando displays de telas digitais, para acelerar o processo de aprendizagem das crianças com lesão cerebral descobri que existe um campo magnético de uma energia informacional onde acontecem as interações simbióticas entre as células e das células com o ambiente no cérebro.

 É uma ruptura imensa saber que no próprio cérebro, as células não só se comunicam fisicamente pelas sinapses.

Está demonstrado. Ondas magnéticas, sonoras e de luz interagem com esse campo continuamente. Recebemos esses sinais externos e eles invadem nosso organismo e tem implicações na interação com as células do corpo todo.

 

Pesquisas clínicas de neuro aprendizagem que coordenei vidando através da interação com telas e displays acelerar o processo de aprendizagem das crianças com lesão encefálica na fissura de Sylvius

O cérebro, estejamos acordados ou dormindo, está mergulhado em uma constante atividade magnética - uma atividade que não se limita às conexões entre neurônios se comunicando uns com os outros.

Na verdade, o cérebro está envolvido em inúmeras camadas sobrepostas de campos magnéticos, gerados pelos circuitos neurais de inúmeros neurônios que se comunicam continuamente.

Até alguns anos atrás esses campos ou não eram vistos ou vistos como uma espécie de 'bug' cerebral (espécie de erros cerebrais, não insetos rasteiros no cérebro[5]), que ocorrem durante a comunicação neural.

Os campos elétricos do cérebro fazem muito mais e podem, de fato, representar uma forma adicional de comunicação neural, um comunicação a distância, sem conexões diretas. Um tipo de neurônios de comunicação sem fios, neurônios wireless.

Assim enquanto os neurônios ativos dão origem aos campos elétricos extracelulares, os mesmos campos retroalimentam os neurônios e alteram seu comportamento, mesmo que os neurônios não estejam conectados fisicamente - um fenômeno conhecido como conexão ou acoplamento efático.

O velho paradigma da ciência acreditava que a comunicação neural se localizasse apenas nas sinapses. Porém, já identificamos um meio adicional de comunicação neural através do espaço extracelular, independente das sinapses.

Está demonstrado que os campos magnéticos extracelulares existem em todo o corpo, embora no cérebro sejam particularmente fortes e robustos em algumas regiões específicas, como no hipocampo, que está envolvido na formação da memória, e no neocórtex.

É uma ruptura imensa saber que no próprio cérebro, as células não só se comunicam fisicamente pelas sinapses.

As flutuações contínuas desses domínios extracelulares são a marca registrada de um cérebro vivo e funcionando em todos os organismos, e sua ausência é um forte indicador de um cérebro em coma profundo, ou mesmo morto.

Anteriormente, os neurobiólogos assumiam que esses campos eram capazes de afetar, e mesmo controlar, a atividade neural, somente durante condições patológicas graves, como convulsões epilépticas, as quais induzem campos muito fortes.

Poucos estudos, entretanto, tinham efetivamente avaliado o impacto dos campos não epilépticos, muito mais fracos, mas muito mais comuns.

É muito difícil conduzir um experimento in vivo na ausência de campos extracelulares para observar o que muda quando os campos não estão presentes.

Isso já foi registrado experimentos realizados em cérebros de ratos, focando alguns campos oscilantes, chamados potenciais de campo local, que surgem a partir de poucos neurônios.

Campos elétricos então afetam o cérebro. É um achado mais inesperado e surpreendente, que minhas pesquisas em neurorreabilitação indicavam de que mesmo esses domínios extracelulares extremamente fracos são capazes de alterar a atividade neural e a plasticidade celular.

É o que fiz em pesquisas de neurorreabilitação envolvendo interação com displays. 


Pesquisa que coordenei envolvendo neurorreabilitação magnética em plasticidade encefálica utilizando displays e micro ritmos corporais sem todo físico nas telas

No cérebro dos mamíferos, nós sabemos que os campos extracelulares podem facilmente ultrapassar 2 ou 3 milivolts por milímetro. Nossos resultados sugerem que, sob tais condições, o efeito se torna significativo.

Se um campo magnético imposto externamente vai impactar o cérebro também depende de qual área do cérebro o campo é dirigido. Depende dos protocolos.

Durante as crises epilépticas, que são anomalias patológicas no campo podem atingir até 100 milivolts por milímetro - esses campos interferem fortemente nos disparos neurais e dão origem a estados super-sincronizados.

A atividade de um campo magnético - mesmo de campos elétricos externos - sobre certas áreas do cérebro, durante estados cerebrais específicos, pode ter fortes efeitos cognitivos e comportamentais. Isso já está demonstrado. Basta ir adiante. Isso que demonstrei com meus pacientes de pesquisas. É uma área imensa a explorar. 

Então, tinha a intuição da oralidade ter um berço analógico e de complexidade de emergência em contexto gerador não programável, modo que se fixou na filogenética. Isso é totalmente diferente da escrita. A escrita, é uma tecnologia mais recente e não é filogenética, não se fixou na herança inata da espécie humana. É uma tecnologia social ontogenética. 

Em síntese, a partir do aprimoramento da teoria social da simbiogênese (biosociologia) aplicada a neurorreabilitação, criei e coordenei diversos projetos envolendo tamvém a criação de uma tecnologia de interação simbiótica para pilotagem de telas com micro ritmos corporais, sem o toque físico nas atividades entre as máquinas cognitivas computáveis, tendo apenas a luz do ambiente como o oceano do espaço interacional entre corpo e comunicação com telas envolvidas e que mostraram muita eficácia reabilitadora com o processo de interação magnética não invasiva com o cérebro até mesmo para implementar plasticidade funcionais entre elas. 

Os protocolos clínicos e de atendimentos foram se aprimorando e (com atividades individuais e em grupos), levando sempre em consideração as singularidades das lesões de cada um baseadas em analises precisas dos locais das lesões encefálicas e características cxlinicas pessoas atraves de diagnoses amplamente interdisciplinartes e cooperativas da clínica, da educação, da família, das engenharias de softwares, hardwares criados e integrados aos protocolos, até a consideração dos ambientes onde a vida dos pacientes aconteciam, nas escolas, nas famílias, nas amizades e nas redes sociais.  Claro que a idade dos pacientes e a complexidade das lesões geraram diferentes respostas, mas os resultados sempre foram surpreendentes.  

Se um campo magnético imposto externamente vai impactar simbióticamente ou não o cérebro e o corpo dos pacientes, não necessatará apenas de impulsos físicos, nem apenas de consideraros os momentos dos atendimentos, mas também as atividades que envolvem o campo social de interação onde o paciente acontece no mundo. Porém, os resultados e análises precisam e dependerão sempre da localização das lesões para o aciobnamento das interfaces simbióticas e de protocolos corretos para a pilotagem de tela sem toque físico na interação.

Descrição de caso de pesquisa com resultados impressionantes com uma jovem de 22 anos.




[1] Ver verbete: "Kognition, Kognitiv". Dicionário Histórico da Filosofia. PRINZ, W. Kognition, Kognitiv. In: Joachim Ritter e Karlfried Gründer. Histisches Wörterbuch der Philosophie. Vol. 4. Darmstadt: Wisseschaftliche Buchgesellschaft, 1976, cols 866-877

[2] BOOLE, George. An investigation of the laws of thought. New York: Dover, 1958.

[3] SHANNON, Claude. A Teoria matemática da comunicação. São Paulo: Difel, 1975.

[4] O textos pagus latino gera uma leitura subordinada por registros à delimitação de página estática do pagus (em latim, campo ou local onde o camponês pisava). O texto pagus tem as seguintes características: 1) É um texto escrito em páginas estáticas, demarcadas fisicamente por um plano reto, do tipo tábua; 2) Tem um ciclo próprio (um início, um desenvolvimento e um fim). É uma unidade isolada - um texto, um livro é uno, ou seja, uma unidade em si mesma; 3) A organização da sua narrativa é linear, como se seguíssemos uma linha, como se, cada vez mais, acumulássemos conhecimento numa seqüência progressiva enquanto caminhamos na imaginante linha da leitura.

[5] A história da palavra inglesa bug disseminada na Internet demonstra bem o universo de decodificação global das linguagens provenientes da cultura oral e escrita anteriores a era das máquinas cognitivas (computacionais). Veja, em inglês falado, ates das máquinas da computação significava inseto rasteiro, mas o inglês net das redes transformou o entendimento dessa palavra com erro de programa no computador. De onde veio isso? Durante alguns das os tecnólogos que trabalham com Harvard Mark 1, nos anos 40, não conseguiam entender porque a máquina estava emperrada. Faziam e refaziam os programasse nada. Grace Murray Hopper, uma oficial da marinha americana, matemática e pioneira da programação, que era conhecida por ter uma grande capacidade de solucionar situações difíceis de trabalhar ela encontrou o problema e documentou. Tratava-se de um “bug” verdadeiro (um inseto rasteiro), que estava preso em um dos milhares de relés eletromecânicos dentro da máquina paralisando o trabalho.

A partir daí, toda a vez que as máquinas travavam alguém gritava para ver se tinha um bug preso nos mecanismos delas, encontrar ou não um bug virou um comportamento que generalizou a ideia de erro para os programadores. Assim nasce várias palavras do inglês net que se universalizou, como por exemplo: mouse e tantas outras que rompe as fronteiras dos territórios das línguas faladas e se generalizam por todo o Planeta onde reina os programadores da cognição maquínica e suas culturas informacionais. Lembram-se do pânico dos programadores na virada do milênio: gritavam desesperados que estávamos caminhando para o fim do mundo: o bug do milênio. Eu gozava muito desse pânico dizendo que poderíamos enfrentar uma invasão de insetos rasteiros mais tranquilamente do que o pânico generalizado pelos cognitivistas.



[i] Gilson Lima. cientista, inventor de várias tecnologias, softwares e protocolos clínicos, escritor, músico.

Desde o início dos anos 90, quando concluiu sua tese de mestrado, envolveu em sociobiologia que permitiu a elaboração da sua Teoria Social da Simbiogênese, tendo por referência de base as pesquisas em micro biologia celular de Lynn Margulis.

Ao mesmo tempo em que foi criando e processando a sua teoria simbiótica, realizou múltiplas pesquisas de bancadas com invenções de produtos e processos.

Iniciou suas pesquisas na complexidade em metodologias informacionais e criticando a abordagem cognitivista computacional do cérebro e mente, foi migrando para coordenar por quase duas décadas pesquisas clínicas de pacientes com lesões neurais severas envolvendo interfaces simbióticas entre micro ritmos corporais e displays (terapia magnética).

Na perspectiva da Teoria Social da Simbiogênese, a sociedade é vista como um sistema complexo e dinâmico de interdependências, onde os “indivíduos” e grupos estão constantemente se influenciando e transformando uns aos outros.

A Teoria Social da Simbiogênese propõe ainda uma visão mais integradora das diversas ciências sociais, incluindo a sociologia, a antropologia, a psicologia e a biologia,... Segundo Lima, cada uma das diferentes disciplinas tem uma perspectiva única e importante para compreender as relações sociais, mas é necessário integrar essas perspectivas para ter uma compreensão mais complexta do paradigma e mais abrangente da sociedade.

A teoria da simbiogênese sugere que a evolução dos seres vivos não ocorre apenas por meio da seleção natural, mas também pela integração de novos elementos em suas redes bióticas. A partir da incorporação de novas bactérias que se beneficiam mutuamente, os simbióticos podem evoluir e se adaptar às suas condições de vida de forma mais eficiente.

A teoria da simbiogênese pressupõe que as espécies em um ecossistema são interdependentes e se beneficiam mutuamente em uma relação simbiótica. Essa interdependência não se limita apenas aos organismos vivos, mas também inclui o meio ambiente físico. Nesse contexto, a integração de novas bactérias na rede biótica pode levar a uma nova espécie em evolução: os simbióticos.

Os seres humanos são exemplos mais de simbióticos evoluídos na rede celular, pois contêm em seus corpos uma grande quantidade de bactérias que desempenham funções vitais em seu organismo, como a digestão e a produção de vitaminas, retardo do envelhecimento, etc. Essa relação simbiótica entre os seres humanos e as bactérias que os habitam é fundamental para a saúde e o bem-estar de toda a rede simbiótica.

Em seu último livro: Inteligência Inata,  defendeu que a partir da ampla incorporação evolutiva de novas bactérias na sua rede biótica de longo agora que se beneficiam mutuamente, os novos simbióticos podem ainda evoluir e se adaptar às suas condições de vida de forma mais eficiente e mais longeva. 

Para Lima, a emergência dos simbióticos altamente evoluídos e de amplo potencial de inteligência inata, ocorreu muito mais aceleradamente com os humanos nas últimas décadas, ainda que a evolução de sua rede simbiótica em dinâmica cooperativa e fractal com a inteligência inata encontra-se ainda em transição dominada pela velha consciência sináptica humanista, racionalizadora, linear, centralista e ainda dominantemente predadora com o ambiente onde os simbióticos evoluídos acontecem no mundo.     

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções  o codinome Seu Kowalsky. Suas músicas, shows, vídeos podem ser acessados no canal do youtube. 

https://www.youtube.com/c/seukowalskyeosnomadesdepedra

Webpage: http://www.seukowalsly.com.br

 Último Livro: 

https://www.google.com.br/books/edition/Intelig%C3%AAncia_inata_o_caminho_da_intelig/RwZhEAAAQBAJ?hl=pt-BR&gbpv=1&printsec=frontcover

==========================

quinta-feira, 5 de outubro de 2023

Demonstrado os biofótons => como afirmei na teoria simbiótica todos os sistemas vivos são seres de luz!


 

Gilson Lima[i]


 "Os Sistemas Vivos emitem biofótons, os quais são atraídos por processos de estruturação de ativos em outro lugar e a fonte dos biofótons é o DNA. As moléculas de DNA pulsam ritmicamente, contraindo-se quando absorvem fótons e expandindo-se quando os irradiam funcionando como um laser que controla o campo magnético dos biofotons e, consequentemente, o metabolismo celular".

-------------------
A ciência amanhecerá um dia  e  entenderá os organismos vivos como campos energéticos.
-----_--------------------
Não tem como mais negar. Os Sistemas Vivos emitem biofótons, os quais são atraídos por processos de estruturação de ativos em outro lugar e a fonte dos biofótons é o DNA. 
As moléculas de DNA pulsam ritmicamente, contraindo-se quando absorvem fótons e expandindo-se quando os irradiam funcionando como um laser que controla o campo magnético dos biofotons e, consequentemente, o metabolismo celular".

Os sistemas vivos, orgânicos, tem uma natureza pulsante. Isso é indiscutível até mesmo para o mais tradicional dos atuais cientistas cognitivos.

Para tentar debater sobre essa natureza pulsante, biólogos, químicos, bioquímicos e biofísicos do mundo inteiro reuniram-se em 1986 num Congresso de Essen, na Alemanha.

A ideia era estudar e debater com as Bases Científicas até então da “Medicina Naturalista’’.

O Congresso foi Organizado pelo Centro de Documentação da Naturopatia em Essen, fundado pelo Dr. Fritz A. Popp.  

Dr. Fritz A. Popp é PhD em física teórica na Universidade de Mainz e possui uma cátedra na Universidade de Marburg. Ele conduziu uma pesquisa inédita que confirmou a existência de BIOFÓTONS. Por isso, tornou-se o criador da TEORIA BIOFOTÔNICA.

É um ramo da que eu chamo da simbiótica (mesmo não sendo assim chamado) que lida com interações entre fótons singulares e matéria biológica, a fim de compreender o funcionamento interno de células e tecidos em organismos vivos.

No Congresso, entre os participantes estava o prêmio Nobel Ilya Prigogine.

O tema do congresso se estendeu para o estudo da natureza da vida. A pergunta básica é “O que e vida?", mas partindo da Física quântica. O Congresso chegou a uma definição de vida que transcendeu o mero aspecto material e fisiológico.


Foi o início de um amplo esforço de cientistas renomados para um entendimento a ser centrado na noção de em base de uma nova ciência do que é vivo e integrando a dinâmica bioquântica em seus esforços.

A Simbiótica é uma teoria da vida não exclusivamente baseada nos fenômenos biológicos (no sentido clássico), mas fundamentada num novo paradigma de ciências compartilhado entre a física, a biologia, a psicologia, a sociologia, entre outras... auxiliadas pela matemática. Com efeito desse compartilhamento surgiu a bioquímica, a sociobiologia, a biomatemática, etc... múltiplos campos em rede que tem a vida no seu centro de atividades.   Eu chamaria que tudo isso é a emergência da simbiótica e deixar pra traz o cognitivismo .

No Congresso de Essen, os Sistemas Vivos foram definidos como algo mais do que um monte de átomos (mínimo da matéria). Eles não podem ser entendidos estudando-se suas partes separadamente – como moléculas, células e órgãos isolados – como o paradigma moderno da ciência o fez até aquele momento, pelo menos, isolava-os e juntava-se, esses organismos individualizados, como partes apenas somadas e integradas num outro organismo individualizado. Não era o que acontecia. O todo vivo era mais do que a soma das suas partes.

A biologia clássica, influenciada pela visão mecanicista e unidimensional da física clássica, restringiu-se aos aspectos materiais e aos processos fisiológicos dos sistemas vivos dividindo a-simbióticamente a natureza entre: sistemas inanimados e seres vivos.
 A ciências em base simbiótica, tem sua perspectiva biológica fundamentada   nas novas e recentes descobertas da bioenergia.

Sabemos hoje que a  junção e atuação das partes surge algo novo que não se presta a análise ou a compreensão a partir de suas unidades. Um campo energético com atributos ainda pouco conhecido, mas que já foi fotografado (os eflúvios de Kirlian) e possui efetiva relação com os estados emocionais e os processos vitais dos sistemas vivos.

Foi em 1886, que o alemão Karl von Reichenbach descreveu os eflúvios energéticos que ele denominou sendo das personalidade humanas (energias consciênciais). Em 1897, o francês Hippolyte Baraduc publicava fotografias da iconografia do invisível fluídico, os mesmos eflúvios, inclusive dos dedos das mãos. Mas foi em 1939, o russo Semyon D. Kirlian reapresenta o “fato novo” das irradiações, então nomeadas kirliangrafias ou eletrografias, e que permanecem controvertidas, portanto, já estamos mais de 1 século fotografando os eflúvios.

O biofísico alemão Dr. Fritz A. Popp, apresentou suas experiências no Congresso de Essen, demonstrando que as células de todos os sistemas orgânicos vivos irradiam luz e outras radiações eletromagnéticas, como o micro-ondas e como as estrelas o fazem.  Ele chamou essas radiações de BIOFÓTONS.

Descobriu ainda que, apesar de fracas (como a luminosidade da chama de uma vela a 20 km), as radiações dos biofótons eram extremamente compactas e capazes de servir como portadoras de sinais e provocar reações comportamentais nas células. Os biofótons nunca são iguais, mas “respiram como folhas numa leve brisa”.

Popp estuda os biofotons há muitos anos e que mais atualmente receberam confirmação completa. Os biofótons para Popp, são  com “a linguagem da vida”, mas para mim, não é uma linguagem linear como cognição e textos informacionais de dados. A ideia de linguagem nesse caso é tão infeliz como a de  inteligência computável, uma inteligência maquínica, inorgânica das máquinas cognitivas. A ideia de inteligência aqui é muito infeliz, mesmo que seja ainda acrescentada do adjetivo “artificial" dessas máquinas de replicação da cognição mental. Penso o mesmo da associação dos biofótons a noção de linguagem, que é derivada da habilidade oral da lógica linear e mais recentemente das máquinas cognitivas.

Mas compartilho, pela simbiogênese, a mesma noção dos biofótons serem os impulsos que espirram das vibrações pulsantes das células e que geram a comunicação celular entre, órgãos e organismos vivos e sua simbiose no ambiente, incluindo aqui a Terra como um macro organismo simbiótico pulsante e dancante.

Esse impulso magnético é comunicacional e tem um valor – ainda não possível de medição – mas que é capaz de também gerar efeitos vibratórios, regulatórios sobre os sistemas vivos quando estamos acontecendo no mundo. Os biofótons são impulso de mensagens magnéticas “não lineares” que são transportadas na rede biótica e geram seus efeitos comportamentais nos receptores e emissores da rede biótica. Já se sabe hoje que cada célula emite cerca de 100 MIL REAÇÕES QUÍMICAS e que ocorrem em cada célula por segundo. Isso começou a ser mais precisamente detectado já em 1945, pelo falecido bioquímico Americano  Albert Lester Lehninger, que foi  também um dos pioneiros no campo de estudos da bioenergia.

Durante os anos seguintes a 1945, Lehninger realizou melhorias nos processos de separação de componentes celulares por centrifugação e conseguiu atribuir uma localização intracelular de cada um dos processos metabólicos mais importantes.

Lehninger foi quem estabeleceu a existência de uma ligação entre o ciclo dos ácidos tricarboxílicos e o catabolismo de ácidos graxos na célula. Também junto com Morris Friedkin mostrou a existência de ligação entre diversas vias metabólicas pela coenzima NADH[3] e o papel do NADH como fonte de elétrons na redução do oxigênio molecular na respiração celular.  (Lane, M. D., Talalay, P. (1986). «Albert Lester Lehninger» (PDF). Journal of Membrane Biology. 91 (3): 193–197).

Voltando ao Congresso de Essen, Popp demonstrou que os biofótons constroem um campo regulamentador que abrange todo o organismo. Esse corpo energético pulsante, constituído de luz, dirige todos os fenômenos bioquímicos.

Então, os biofótons geram um campo magnético e é  bioenergia de natureza vibratória e holográfica que pode ATIVAR, MODIFICAR E INIBIR PROCESSOS BIOQUÍMICOS, organizar a matéria e muito mais. As interações entre fótons e reações químicas são constantes nas células e nos organismos. Nos sistemas biológicos existe uma espécie de matrimônio INSEPARÁVEL entre o campo fotônico e a matéria bioquímica. Um é necessário para entender o comportamento do outro, pois é impossível separá-los para entendê-los é o que em minha teoria denominei SYMBIOS (um fazer sempre juntos). Se levarmos em conta somente uma das partes, cometeremos muitos erros. Ficou provado que todos os organismos vivos, incluindo as células, SE COMUNICAM ATRAVÉS DE CAMPOS MAGNÉTICOS, emitindo fótons de luz. Todos os sistemas vivos SÃO SERES DE LUZ.

Baseado nessas descobertas, Popp diz que e preciso repensar a influência das substâncias químicas da água, do ar e dos alimentos nos organismos, pois algumas alergias são provocadas pela hipersensibilidade a determinadas substancias. Do mesmo modo, certas pessoas são hipersensíveis a estímulos eletromagnéticos específicos, os quais provocam reações alérgicas. A medicina naturalista e a homeopatia utilizam-se comumente destes fatos em sua prática. Do mesmo modo que as substâncias químicas e os estímulos eletromagnéticos, as cores e os sons influenciam os organismos (afinal, são apenas diferentes formas de vibrações magnéticas).

Popp fala ainda sobre o papel especial da agua no processo do restabelecimento funcional dos organismos. Como os biofótons, a água é hipersensível as influencias ambientais, alterando sua estrutura na menor alteração no ambiente. A água é líquida e cristalina a um tempo, vibrando continuamente entre dois estados: O líquido e o cristalizado (estado no qual as moléculas se arranjam sob a forma de um cristal). O professor Mashra da Índia, um dos mais renomados especialistas em biofísica dos sistemas vivos, já em 1968 descrevia os seres humanos - os Sistemas Vivos – como cristais líquidos pulsantes. Os sistemas vivos são estruturas dissipativas como as reações químicas: estruturas que por meio de flutuações contínuas entre dois estados auto organizam-se e mantem-se.

Com o aprofundamento dessa perspectiva acerca dos sistemas vivos, o bioquimico Ilya Prigogine ganhou o Premio Nobel com sua teoria das estruturas dissipativas. O professor Lefevre, colaborador de Prigogine, declarou que todos os sistemas vivos são supersensíveis a todas as mudanças ambientais, podendo inclusive reagir a impulsos ainda não captados pelos instrumentos atuais de medição.

Todos os participantes do Congresso de Essen concordaram já na época com essas novas perspectivas acerca dos sistemas vivos. Na ocasião, Popp afirmou que, durante o processo de demolição, os Sistemas Vivos emitem biofótons, os quais são atraídos por processos de estruturação de ativos em outro lugar.

O transporte ativo é um tipo de transporte de substâncias através da membrana plasmática que se caracteriza pelo gasto de energia pela célula. Nele, diferentemente do transporte passivo, observa-se uma movimentação dos solutos contra os seus gradientes de concentração.

Popp também demonstrou, que a fonte dos biofótons é o DNA. Como se sabe, a molécula do DNA é uma hélice dupla e espiralada existente nos núcleos celulares. As moléculas de DNA pulsam ritmicamente, contraindo-se quando absorvem fótons e expandindo-se quando os irradiam funcionando como um laser que controla o campo magnético dos biofotons e, consequentemente, o metabolismo celular.

Desse modo, as conclusões do Congresso de Essen ratificam a natureza biofísica, bioquímica, biopsíquica e biomatemática dos sistemas vivos. Ali, centenas de eminentes cientistas do mundo inteiro definiram os sistemas vivos como sistemas vibratórios - pulsantes - essencialmente constituídos por comunicação magnética. Foi um desses grandes momentos da entrada na era simbiótica da velha humanidade.


Tal conclusão soma-se com as evidências da pulsação magnética da Terra e as pulsações do universo vivo. Bem vindos a simbiótica.

[i] Gilson Lima. cientista, inventor de várias tecnologias, softwares e protocolos clínicos, escritor, músico.

Desde o início dos anos 90, quando concluiu sua tese de mestrado, envolveu em sociobiologia que permitiu a elaboração da sua Teoria Social da Simbiogênese, tendo por referência de base as pesquisas em micro biologia celular de Lynn Margulis.

Ao mesmo tempo em que foi criando e processando a sua teoria simbiótica, realizou múltiplas pesquisas de bancadas com invenções de produtos e processos.

Iniciou suas pesquisas na complexidade em metodologias informacionais e criticando a abordagem cognitivista computacional do cérebro e mente, foi migrando para coordenar por quase duas décadas pesquisas clínicas de pacientes com lesões neurais severas envolvendo interfaces simbióticas entre micro ritmos corporais e displays (terapia magnética).

Na perspectiva da Teoria Social da Simbiogênese, a sociedade é vista como um sistema complexo e dinâmico de interdependências, onde os “indivíduos” e grupos estão constantemente se influenciando e transformando uns aos outros.

A Teoria Social da Simbiogênese propõe ainda uma visão mais integradora das diversas ciências sociais, incluindo a sociologia, a antropologia, a psicologia e a biologia,... Segundo Lima, cada uma das diferentes disciplinas tem uma perspectiva única e importante para compreender as relações sociais, mas é necessário integrar essas perspectivas para ter uma compreensão mais complexta do paradigma e mais abrangente da sociedade.

A teoria da simbiogênese sugere que a evolução dos seres vivos não ocorre apenas por meio da seleção natural, mas também pela integração de novos elementos em suas redes bióticas. A partir da incorporação de novas bactérias que se beneficiam mutuamente, os simbióticos podem evoluir e se adaptar às suas condições de vida de forma mais eficiente.

A teoria da simbiogênese pressupõe que as espécies em um ecossistema são interdependentes e se beneficiam mutuamente em uma relação simbiótica. Essa interdependência não se limita apenas aos organismos vivos, mas também inclui o meio ambiente físico. Nesse contexto, a integração de novas bactérias na rede biótica pode levar a uma nova espécie em evolução: os simbióticos.

Os seres humanos são exemplos mais de simbióticos evoluídos na rede celular, pois contêm em seus corpos uma grande quantidade de bactérias que desempenham funções vitais em seu organismo, como a digestão e a produção de vitaminas, retardo do envelhecimento, etc. Essa relação simbiótica entre os seres humanos e as bactérias que os habitam é fundamental para a saúde e o bem-estar de toda a rede simbiótica.

Em seu último livro: Inteligência Inata,  defendeu que a partir da ampla incorporação evolutiva de novas bactérias na sua rede biótica de longo agora que se beneficiam mutuamente, os novos simbióticos podem ainda evoluir e se adaptar às suas condições de vida de forma mais eficiente e mais longeva. 

Para Lima, a emergência dos simbióticos altamente evoluídos e de amplo potencial de inteligência inata, ocorreu muito mais aceleradamente com os humanos nas últimas décadas, ainda que a evolução de sua rede simbiótica em dinâmica cooperativa e fractal com a inteligência inata encontra-se ainda em transição dominada pela velha consciência sináptica humanista não cooperativa, racionalizadora, linear, centralista e ainda dominantemente predadora com o ambiente onde os simbióticos evoluídos acontecem no mundo.     

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções e coordenando a Banda Seu Kowalsky e os Nômades de Pedra. Suas músicas, shows, vídeos podem ser acessados no canal do youtube. 

https://www.youtube.com/c/seukowalskyeosnomadesdepedra

Webpage: http://www.seukowalsly.com.br

Último Livro: 

https://www.google.com.br/books/edition/Intelig%C3%AAncia_inata_o_caminho_da_intelig/RwZhEAAAQBAJ?hl=pt-BR&gbpv=1&printsec=frontcover

https://www.amazon.com.br/Intelig%C3%AAncia-inata-intelig%C3%AAncia-artificial-simbiog%C3%AAnese-ebook/dp/B09TC9YJF5  


==========================
Gilson Lima. É cientista aposentado depois de décadas de atuação independente sobre múltiplos campos da vida e da tecnologia na complexidade. Criou a teoria não natural da simbiogênese cooperativa na evolução cérebro, máquinas, corpos e sociedade. Foi por vários anos pesquisador acadêmico e industrial coordenando bancadas de pesquisas de ciência de ponta, tecnologia e protocolos de neuroreabilitação em diferentes cidades e diferentes países principalmente, europeus.

Tem formação original humanística e foi voltando seus estudos e pesquisas desde o início dos anos 90 para a abordagem da complexidade nas metodologias informacionais, depois na nanotecnologia e nos últimos 15 anos de carreira focou na neuroaprendizagem e reabilitação envolvendo a simbiogênese e interfaces colaborativas entre cérebro, corpos e displays.

Inventor de várias tecnologias, softwares e protocolos clínicos.

Escritor. Muitas de suas atividades e textos estão disponíveis no blog: http://glolima.blogspot.com

Atualmente retomou sua atividade como músico compositor, cantor que atuava na adolescência produzindo atualmente suas canções. Suas músicas e shows podem ser acessados no canal do youtube @seukowalsky ou direto no https://www.youtube.com/@seukowalsky