domingo, 5 de agosto de 2012

Visionário => Entrevista com Gilson Lima - publicada em 1999 pelo Jornal Jornal NH da RBS em 1999

Segue longa entrevista de Gilson Lima publicada pelo  Jornal Jornal NH da RBS em 1999. 

É o texto bruto encaminhado a equipe de jornalistas da época. Vejam que há tempo defendo as mesmas coisas que infelizmente ainda não foram totalmente entendidas pelos meus colegas das ciências humanas até hoje.

O material fazia parte de um complemento sobre a vida no próximo milênio. Nesse período era colunista do Jornal Adunisos e professor de sociologia e política do Centro de Ciências Humanas da Universidade do Vale do Rio dos Sinos (UNISINOS). Nesse período já desenvolvia, também, nesta mesma universidade, um trabalho sobre o impacto do computador na sociedade e na empresa no Centro de Ciências Exatas e Tecnológicas no curso de informática. 

1. No Brasil, passamos pela colônia, pela monarquia, pelo presidencialismo e um curto espaço de tempo pelo parlamentarismo. Qual a tendência para o Brasil? Seguir no presidencialismo? 

O brasileiro tem um pensamento mágico. As pesquisas de opinião no Brasil sempre são carregadas de problemas analíticos na sua interpretação. O brasileiro em geral possui um senso comum movido pelo pensamento mágico. Estamos sempre a procura de salvações milagrosas, heróis, dramalhões. Na política, isso implica uma forte tendência de pessoalização, assim penso que o presidencialismo, apesar de ser um sistema mais simplificado e primário deve permanecer por um bom período na nossa engenharia institucional estatal. De qualquer forma, o próprio Estado não será mais o único ator da esfera pública. O processo de uma esfera pública não terá apenas o Estado-Nação como o proprietário e dono, a esfera pública se tornará complexa e será cada vez mais compartilhada por múltiplos agentes e atores. 

2  - O Brasil já atingiu a plena democracia? Se não, o que falta para atingi-la?

Sua pergunta é muito complicada. A concepção de democracia representativa é extremamente limitada, está em crise no mundo todo, assim, como o moderno Estado Nação com seus vínculos tecnológicos defasados numa sociedade disciplinada para um mundo do trabalho inalterado desde o século XIX.

3 - A cidadania brasileira já é uma conquista plena? O que falta para sermos verdadeiros cidadãos?

Nós temos um problema que é histórico. Vejamos. Cidadania deriva da ideia de cidade. A moderna cidade comercial européia eram provenientes de feiras com muito comércio. O servo que conseguisse ao fugir de um feudo ligado a um Senhor e permanecesse nessas cidades por um ano e um dia ganharia a liberdade de ali permanecer independente da vontade de seu senhor. Temos aí a noção de que a cidade liberta. É a mesma idéia que motivou os enormes fluxos migratórios provenientes do êxodo rural. A cidade lembra progresso, prosperidade. No Brasil, a fazenda do coronel sempre teve uma autonomia praticamente absoluta em relação as cidades. Elas assumiram muito mais um aspecto administrativo (Prefeituras, Igrejas, Praças, Delegacia, etc..). A fazenda era auto-suficiente. As cidades industrializadas, excetuando São Paulo e algumas outras exceções, só ganharam força pela indulgência e proteção do Estado. As cidades, na sua maioria, já nasceram sob a dependência do Estado. Nossa experiência de cidadania é atrofiada. Falta muito para um exercício maduro da cidadania, entretanto temos dados passos bem largos de consolidação da democracia representativa, talvez os mais sólidos que até hoje já demos. Passamos por crises institucionais bem graves, passamos pela experiência raríssima de um não permitirmos um Presidente eleito continuar a exercer seu mandato, etc. entretanto, a cultura política da representação vive uma crise sem precedentes não só nos países como o Brasil, mas em todo o mundo ocidentalizado, nós certamente vamos ter que fazer um grande esforço para superar os limites da democracia representativa sem retroceder sobre suas frágeis conquistas.  

5 - Como a cidadania vem se expressando no Brasil? Como os cidadãos tem se organizado?

No Brasil, a sociedade civil vive uma ressaca da intensa participação dos anos 80 e início dos anos 90. Isto implica num certo recuo diante da crença pelas mudanças através de grandes eventos massivos. Revela também uma certa decepção quanto a capacidade de implementar rápidas e profundas transformações pela política. O espaço da engenharia institucional é extremente tomado por encruzilhadas e becos sem saídas. Um grupo de velhas raposas já conhece muito bem as armadilhas. A exigência por mudanças se dá num território público, nas ruas,  nas praças, nas diversas entidades não governamentais. Entretanto a execução das mudanças exigidas se dão num palco num território inacessível aos agentes sociais mobilizados. É aqui que entra as defesas, os freios os desvios e nossa elite é muito hábil e muito inteligente em produzir transformismos, ou seja, transformações sem transformações, revoluções sem revoluções. Essa impotência, essa ineficácia, esse hiato entre o enorme esforço de se movimentar-se em prol de lutas sociais e suas demandas e o balanço extremamente tímido de suas conquistas, certamente é a matéria prima mais importante do desencanto atual com a política, dessa expressão de apatia política do final dos anos 90.

6 - Que grupos existem que revelam a luta pela cidadania?

Numa sociedade cada vez mais em rede, a participação assume uma ruptura cada vez mais visível com as lentas abordagens representativas oriundos de instituições políticas ou sociais originárias da moderna sociedade industrial. É cada vez mais visível o surgimento de interações, de interfaces comunicacionais, estejam ou não ligadas à centros de pesquisa e de produção de conhecimento complexo. O território da cidadania física passa a conviver com a cidadania virtualizada que é formatada por uma estruturação dialogal através de uma cultura imaterial, moldada por conexões que envolvem moldes, telefones, computadores, websites, satélites, ... Um vez disse um pensador espanhol Ortega y Gasset: "Eu sou eu e minhas circunstâncias", hoje, eu diria: "Eu sou eu e minhas conexões", de conteúdos com mensagens extra-comunicantes, que podem ser ao mesmo tempo compartilhadas e modificadas em ambiente em rede. O papel, as fotos tratadas quimicamente, os muros das cidades, etc. deixam lugar para menus eletrônicos, para corrida de pontos luminosos em formato de pixels multidirecionais, para os sinais sonoros digitalizados, ou seja, o mundo se fixa nas telas dos tubos catódicos (agora com imensos display de Led), enfim, somos produtos e produtores de um mundo de fluxos elétricos que formam ondas de significação simbólicas e cada vez mais em tempo real.

A sociedade em rede produz uma radical ruptura com a era moderna. As imagens são cada vez menos resultantes do olhar, da interação do suor testa a testa, da reação direta de comportamentos ambientes desconectados somos capturados por máquinas (câmaras) que capturam e prolongam a observação em inscrições de cálculos matemáticos que dialogam em tempo real com o as máquinas computacionais e  provocam uma nova gama de comportamentos e geração de toxinas emocionais recontextualizadas pelas novas redes midiáticas. Aqui fiz apenas pequenas atualizações de datasimagens  e sons analógicos são integradas ao ambiente digital através de escaneamento tornando-se um tecido de pontos organizados que podem ser manipulados infinitamente.

No espaço das redes a política passará a ser tratada como evento comunicacional que possibilita trocas de informações, sobretudo, através de encontros e interações à distância. A política se centrará cada vez mais nas redes telemáticas onde pensamentos, conceitos serão cada vez mais modulados e trocados por outros conceitos em fluxos hipertextuais, não interessando mais as noções de ideologias de base, ou de demarcações físicas de territórios partidários. A própria representação tenderá ser substituída por uma ideia de fluxo permanente. As comunicações em rede demandam um pensamento incompleto, associativo, não linear, explorado por estruturas manipuláveis através de links, o corpo assume a capacidade de circular no planeta, entrando em intimidades privadas e invadindo os restritos espaços públicos representativos dos cafés e praças modernas. 
Na política interativa em rede, a sua base será a metamorfose. Para que a troca dialogal seja possível é necessário uma assistência tecnológica através de máquinas, sensores, capacetes, luvas, mouses, teclados, etc. São dispositivos responsáveis por registrar, traduzir, transmitir o nosso comportamento, nossas ideias e até sentimentos. São dispositivos que possibilitam uma interface com as redes numéricas.
 O conceito de interface, é diferente e diverso do sur-face (francês e inglês = surface, ou superfície) ou sobre a face. Quando falamos em interface na rede, temos que pensar em contatos de superfícies diferentes que se conectam de alguma forma fazendo corpos diferentes partilharem de uma mesma decisão. As interações são inter-relações ou interdecisões operadas em tempo real por elétrons, moléculas e corpos diferentes. 
Acreditamos que o poder político deixará de ser tão facilmente delimitado, deixará de ter dono. O político deixará de ser atividades representadas pela autoria - ainda que delegada - de uma só pessoa (o político profissional), o partido deixará de possuir o monopólio da moderna representação do poder público. Na sociedade em rede, o exercício da política passa a ser intensamente comunicacional, ou seja, será delimitado por fronteiras compartilhadas por uma multidão de autores com seus efetivos participantes num processo intenso de fluxos comunicacionais. Assim, a política pode deixar de ser subserviente às elites dominantes ou legitimada por uma elite social ou econômica. A política em rede não estará submetida as hierarquias. Existe a grande possibilidade de uma reconciliação da política com a vida cotidiana.

7 - Politicamente falando, para o próximo século e milênio que se iniciam, quais os sistemas de governo que sobreviverão? Qual a tendência mundial?

É difícil saber, sabemos apenas que os atuais sistemas não dão mais conta da complexidade social. Se eles vão ou não conviver com as novas dinâmicas societais do futuro e como se dará esta convivência é uma questão que não temos respostas precisas ainda. Entretanto essa pergunta nos coloca diante de dois termos chaves. O primeiro é o de sistema e o segundo é o de governo.
A ideia de sistema na política esteve durante muito tempo ligado a uma abordagem mecaniscista. A sociedade era vista como parte de um grande mecanismo do qual era necessário organizar peças fundamentais num mecanismo (um sistema) capaz de dar ordem e precisão ao seu funcionamento, ou seja, ao funcionamento da sociedade. A ideia de sistema visava então dar conta do processo da gestão política da sociedade. Durante muito tempo por influência ocidental e do iluminismo, E por consequência da razão moderna, pensamos que a engenharia institucional seria suficiente para enfrentarmos os desafios da vida em sociedade. 
A ideia de governo, também pela influência  do pensamento euro-ocidental e, sobretudo, do iluminismo esteve muito voltada ao âmbito da governabilidade das ações do Estado. Política, público, principalmente no Brasil, era praticamente sinônimo de Estado. A ideia de governabilidade era praticamente restrita ao Estado enquanto agente condutor e dirigente da gestão pública, ou seja, o público era o próprio Estado, principalmente no Brasil, fundiu-se no Estado.
Do ponto de vista da política a questão do poder estará voltado cada vez menos para a matéria ou para as regulamentações jurídicas e sim mais para o controle da informação e do conhecimento complexo, ou seja, estará girando  em torno dos problemas e soluções macro societais diante dos impactos da aceleração tecnológica. A Informação digital migrará cada vez mais para uma interação com a informação genética. A política estará a volta sobre o controle da informação orgânica e sua interação com os múltiplos meios inorgânicos que serão decisivos para a vida na sociedade. Também o poder político estará a volta diante de problemas e soluções diante do impacto do envelhecimento populacional. Muito provavelmente em 2050 a população acima de 50 anos será superior a de menos de 50 anos. Seremos um planeta de vovôs e vovós sem netos ou netas. Essa é uma novidade que a civilização humana ainda não experimentou. Também o poder político estará a volta com a questão de:  "como inventar uma sociedade para além do trabalho-renda, ou da renda-trabalho". Cada vez viveremos mais e trabalharemos menos. Hoje a população mundial atual é 12 vezes maior que na época do gênio Isaac Newton. Segundo o cientista social Italiano o professor De Masi, a nossa média de vida hoje de 700.000 horas  é seis vezes mais longa de que o homem de Neanderthal  (EUROPA) e mais que o dobro dos nossos avós (300.000 horas). Segundo De Mais, eles – nossos avós – trabalhavam 120.000 horas no curso de suas vidas, enquanto nós trabalhamos 80.000. Os nossos filhos, por sua vez, viverão em média 900.000 horas e trabalharão não mais do que 50.000 horas.
São questões que os sistemas modernos não tem como responder, teremos de reinventarmos a vida em sociedade. Sofremos muito a influência euro-centrista e pensamos condicionados por uma ideia de história linear, encadeada e condicionada em direção a um tempo evolutivo em ritmo de repetição e melhoria (idéia de progresso). Durante muito tempo acreditamos numa racionalidade universal, na emancipação humana diante das conquistas da investigação científica e das teoria jurídicas da cidadania. Hoje vivemos, ao contrário, o paradoxo de estarmos diante de conquistas tecnológicas que desabrocham em ritmo alucinante a aso mesmo tempo sofremos com uma crise profunda da sociedade ocidental, da incapacidade da razão dar conta de todas suas promessas emancipatórias. Encontramos, ao contrário, regimes corruptos, gastos excessivos com militares, incompetência burocrática, protecionismo à interesses pessoais, falta de proteção jurídica, fundamentalismo religioso e outros diversos obstáculos ao comércio existentes em muitos países da América Central, Oriente Médio e África ao sul do Saara. É a antítese da moderna sociedade industrial.

A questão é que vivemos num mundo de aceleração tecnológica, a tecnologia condicona múltiplas manifestações culturais (religiosas como por exemplo: Padres Marcelos, cultos neo-evangélicos, etc..., manifestações artísticas tecnoestéticas, integrações econômicas e desterritorialização da renda financeira, novos usos e novas dinâmicas educacionais, ou seja, somos hoje filhos da ''civilização da imagem”, mas ainda somos ainda filhos carentes de uma pedagogia da imaginação, etc.). 

Alguns estudiosos imaginam utopicamente um mundo coberto por empresas multinacionais hipereficientes que competem entre si e levando melhores produtos a consumidores cada vez mais exigentes em todos os  cantos desse mesmo mundo. Neste mesmo mundo os governos se tornariam praticamente invisíveis. Em se tratando de uma pessoa bem intencionada, essa perspectiva, é no mínimo uma visão de quem está em surto.

Hoje as regiões pobres, que reúnem a maioria da espécie humana no planeta, são carentes e pobres, elas precisam de enormes investimentos em melhorias sociais e não de assimilarem efeitos liberadores da teoria econômica. A África, por exemplo, tem no seu interior países predominantemente agrários que duplicam a população a cada 25 anos. Carecem muito mais de planejamento familiar, proteção ambiental, assistência a saúde, educação e infra-estrutura básica. As multinacionais terão interesse em financiar este projeto?

Chegamos ao final deste milênio com uma cultura civilizatória complexa e que nunca foi tão rica, mas que também nunca foi tão desigual. Por exemplo: A concentração do patrimônio conjunto dos raros 447 bilionários existentes no planeta eqüivale a renda somada da metade mais pobre da população mundial, ou seja, 447 famílias tem o mesmo que 2,8 bilhões de pessoas. Em 1960 os ricos ganhavam 30 vezes mais que os pobres, a concentração da renda mundial mais do que dobrou. Em 1994, os 20% mais ricos abocanharam 86% de tudo o que foi produzido no mundo. Sua renda era 78 vezes superior à dos 20% mais pobres. Segundo a ONU com a intensificação do atual e dominante projeto planetário, somente os africanos podem perder 1,2 bilhão ao ano com sua implantação. Em 34 anos, o quinhão dos excluídos na economia global minguou de 2,3% para apenas 1,1%. Os países mais pobres concentram 10% da população planetária e detém apenas 0,3% do comércio mundial, a metade do que detinham há 20 anos. 

Por fim, as tarifas alfandegárias caíram muito mais no terceiro mundo do que no primeiro, que continuam a subsidiar setores como agricultura, impondo perdas para os países em  graves dificuldades sociais.

8 - A manter essa tendência qual ou quais as perspectivas para o próximo milênio? tecnológica?

Veremos a existência de uma minoria da população, no máximo 20% vivendo em alguns bolsões tecnológicos. Uma espécie de aristocracia geneticamente melhorada, com seus corpos contendo além de informação genética qualificada, integrações de artefatos inorgânicos com orgânicos potencializando suas atividades vitais e estendendo qualificadamente suas jornadas de vidas
 a um fundamentalismo religioso, negando os valores ocidentais (em especial o consumismo ostensivo); outros diante da falência da razão buscariam intensificar a recuperação do pensamento mágico, ou seja, salvações milagrosas, do tipo: literaturas esotéricas,  etc. 

O certo é que novas tecnologias principalmente a biotecnologia e a robótica ao manter a mesma concepção societal, podem prejudicar mais ainda as modernas sociedades, tanto na agricultura, na indústria como nos serviços. A aceleração tecnológica baseia-se em avançados processos de gestão que eliminam significativamente atividade humana no mundo do trabalho. Isto tem uma implicação global, inclusive nos países chamados de “desenvolvidos”. Por Exemplo: especialistas calculam que a tecnologia ameaça quase ¾ dos empregos somente nos Estados Unidos.

O Cientista social italiano chamado De Masi afirmou que em quatro décadas fizemos mais progresso que nos 40.000 anos precedentes. E, diante de uma produção tecnológica tão rica e tumultuada ( computadores, fax, laser, satélites, robôs, fibras óticas, novos remédios, máquinas interativas), de novo como no tempo de Aristóteles, há os que esperam que este ritmo permaneça uniformemente acelerado e os que, ao contrário, começam a sentir a sensação de que já foi descoberto tudo o que havia para descobrir, e, portanto, só nos resta a missão de difundir as vantagens da nova era e nos dedicar novamente, como no tempo dos gregos e romanos, ao progresso intelectual. Uma fibra ótica, por exemplo, com espessura de um fio de cabelo pode transmitir 500 canais de TV simultaneamente, também, a fibra ótica, a “Enciclopédia Britânica”- a mais conhecida do mundo - seja processada em apenas 13 segundos. Vivemos num planeta com cerca de 800 milhões de aparelhos de TV e de 1 bilhão e 500 milhões de receptores de rádios. Vivemos a teleparticipação planetária (diariamente nos tubos catódicos como: dramas e melodramas, incidentes, guerras, etc.). Vivemos a ascensão da publicidade global. 



Entretanto, apesar de todos os avanços tecnológicos, a comunicação global, entretanto, não foi democratizada: A África tem menos de uma linha telefônica para cada 100 habitantes, enquanto na América do Norte, Oceania e Europa a taxa supera 25 para cada 100 habitantes. 

Podemos dizer que inciamos um processo de ascenção de uma nova classe dirigente mundial, para além da elite industrial. Eles possuem uma alta capacidade de exercício do poder e de dominação, sobretudo, diante doi uso e da interação com as novas tecnologias. São conhecidos como analistas simbólicos (cientistas, tecnólogos, biotecnologistas, projetistas de software, editores, etc..., ou seja, pessoas capazes de produzirem insights de alta qualidade e de produzirem  idéias com grande valor agregado ).

Ao aproximar-se o século XXI, portanto, os novos povos da Terra parecem estar descobrindo que suas vidas estão sendo cada vez mais afetadas por forças que são, no sentido pleno da palavra, irresponsáveis. Do ponto de vista societal são elites que estão dispertando para o mundo, como crianças são egoncêntricas, destroem o presente, não querem administrar as heranças do passado (as decadentes cidades industriais, o Estado Nacional e suas burocracias, etc.), mas, entretanto, não colocam uma outra sociedade no lugar.

9 - O mundo viveu grande parte deste século dividido entre o comunismo e o capitalismo. Qual a tendência para o século XXI? A Terceira Via proposta pelo ministro Tony Blair tem futuro?

Compartilho uma visão com alguns cientistas sociais, infelizmente ainda poucos, sobre o conflito dual entre capitalismo e comunismo. Nesta visão numa perspectiva macro societal não vemos de modo tão antagônicos o comunismo e o capitalismo. O comunismo moderno - não as utopias comunistas pré-modernas - e o chamado capitalismo são na verdade produtos de um único paradigma societal: o de uma moderna sociedade industrial. Um evoluiu por uma perspectiva de conflitos de mercados (sociedade fordista, distribuições diretas e indiretas do produto industrial); o outro evoluiu a partir de uma via revolucionária, pela indução da coerção estatal. Um queria e implementou de modo mais planejado a distribuição dos ganhos da produção societal, o outro pela via do mercado empresarial com menos enfoque distribitivista. Um acredita num papel mais dinâmico da sociedade civil, o outro da sociedade estatal, entretanto, os dois são produtos de um mesmo paradigma: o da moderna sociedade industrial.

A derrota do modelo soviético, não elimina a crise do modelo industrial diante das novas e complexas exigências societais. Diríamos que houve uma derrota mas não temos nenhum ganhador.

Quanto a questão de se a Terceira Via proposta pelo ministro Tony Blair tem futuro, eu diria que, a curto prazo sim, mas a médio prazo não. No Brasil quem está tentando encabeçar a proposta da Terceira Via é o candidatável Ciro Gomes. Acredito como estratégia eleitoral para a próximas eleições ela pode ser até bem eficaz. Do ponto de vista mais científico, a Terceira Via ainda está presa às heranças da moderna sociedade industrial, essa proposta não consegue dar uma resposta complexa para os desafios de uma vida em uma sociedade pós industrial, uma sociedade movida por uma economia do conhecimento em rede. 

Na verdade o conflito do poder não está mais concentrado nas fábricas, no Estado. Vivemos uma sociedade onde a dinâmica é marcada pelo acesso às informações diferentes que fazem a diferença e ao conhecimento complexo. Foi-se o tempo do monopólio da representação política dos partidos. Veja que hoje podemos ir a Lua em cinco dias e delegamos decisões importantes da vida em sociedade para mandatos de 4 ou 5 anos. Dominamos tecnologias para uma sociedade que pode gerir-se em tempo real sobre quase tudo, mas continuamos reproduzindo modelos institucionais do iluminismo moderno. 

Entretanto, a explosão da informação em rede é indicadora de um dilema complexo. O tecnopoder acelera a conquista de uma civilização capaz de experimentar o clímax de sua existência evolutiva. A sociedade do conhecimento nos projeta para um cotidiano de um córtex que anseia cada vez mais intensamente por informação, mas não consegue nem contê-la, nem mais processá-la criativamente. Como darmos conta de infinitos pixels que circulam em nanosegundos? Como não conseguimos dar conta recorremos a especialização. 
Assim, a especialização que no passado foi uma manobra para coletar informações e processos metódicos visando a agilizarmos procedimentos funcionais, é agora, uma manifestação de nossa incapacidade de gerirmos informações e conhecimentos complexos na sobrecarca informacional de uma sociedade estruturada em rede. A pressão planetária significativa não é mais a da clássica gravidade, descoberta por Newton. A pressão planetária mais significativa atualmente é a do impulso de informações diferentes que fazem a diferença. Certamente o corpo deverá irromper seus limites biológicos, culturais e planetários para dar conta desta nova pressão. Para isso o poder político que quer se fazer contemporâneo no presente deve estar atento e oferecer propostas e alternativas.

Hoje no planeta, já vivemos numa sociedade dominada por uma economia cada vez mais desmaterializada, cada vez mais, desterritorializada, reina cada vez mais a hegemonia, ou seja, o domínio do tecnopoder. Neste sentido,  precisamos encontrar uma alternativa de longo prazo para suas miopias. 
Podemos datar, ainda que simbolicamente, o  nascimento e a emergência fulminante do domínio do tecnopoder no mundo com um projeto que a partir de agosto de 1942 passou a se denominar DSM-PROJECT (Development of Substitute Materials) ou mais popularmente chamado de Projeto Manhattan.
A partir da emergência do tecnopoder, a ciência, torna-se uma adversária do saber fazer. É considerada um campo do conhecimento meramente abstrato e passa a ser desconsiderada. O mais interessante que foi o mesmo processo que se procedeu com a ciência européia quando do seu nascimento, ou seja, a ruptura moderna com o saber presente na era medieval. A ciência, neste período, distanciou-se da filosofia por considerá-la abstrata e da teologia por considerá-la dogmática e tradicional.

A partir do Projeto Manhattan, tendo-o como um acontecimento histórico, a tecnologia conquista um estatuto autônomo do saber, que passa a ser sinônimo de um saber fazer mais, de um saber fazer melhor e de uma saber fazer ao mesmo tempo cada vez mais barato. Esse saber instrumental cresceu em proporções tão grande que gerou uma simbiose  homem-máquina, uma dependência cada vez mais intensa, entre homens e máquinas. Esse processo é tão intenso que uma vez ouvi do presidente de uma mega empresa - uma das maiores concorrentes do Bill Gates - que: se reunisse-mos as dez maiores e mais conhecido cérebros ligados a arquitetura computacional (que mais entendem de construir computadores) eles não conseguiriam fazer sozinhos nem uma modesta máquinas computacionais das atuais que hoje produzimos, ele precisariam contar com a ajuda de outras máquinas e até mesmo alguns robôs. 

11- Quais as implicações do domínio do tecnopoder? 

São várias as implicações do tecnopoder, por exemplo, um dos impactos mais violentos do tecnopoder na esfera societal é a de que quanto maior for o envolvimento da tecnologia no mundo do trabalho menos emprego e atividade humana teremos. Este saber fazer tem gerado, ainda que de modo incipiente um mal estar produzindo  uma crise no saber pensar mais complexo na esfera societal diante dos impactos de suas inovações concretas. Tem produzido novos desafios sociais e políticos a partir do molduramente de suas novas práticas de pesquisas complexas submetidas às realizações ainda, quase na sua totalidade motivadas por incentivos mercantis dos megalaboratórios de pesquisas assistidas que oferecem ambientes tecnológicos de ponta para produção de conhecimento complexo. Esses mega laboratórios apesar de suas amplas capacidades de financiamento estão presos à vinculações restritas das regras das empresas globais ou de empreendimentos militares, sobretudo, das forças armadas norte americana. Hoje, já começamos a vislumbrar uma crise dessa hegemonia do tecnosaber.

12 - Para finalizar, como se pode constituir uma contrahegemonia que possa dar conta dessa complexidade que o futuro nos indica?  

Precisamos de uma alternativa que não seja mais um modismo pós-moderno. Pensamos que essa alternativa de poder está muito próxima a um insigth muito criativo obtido por um cientista social francês um pouco antes de sua morte, esse cientista se chamava Michael Foucault. Ele vislumbrou de modo genial naquele período, algo que apenas estamos dando conta agora. Trata-se da importância dos cientistas sociais enfrentarem uma biopolítica que contraponha a hegemonia do tecnosaber, que implica na ascendência de um biopoder.
Foulcaul, vislumbrou apontamentos da superação do tecnosaber, ainda que  de modo embrionário. Ele apontou suas fraquezas, ou seja, sua incapacidade de produzir um saber pensar complexo, alertou para a crise da hegemonia do saber fazer, da hegemonia do tecnopoder. Ele apontou para uma retomada do saber complexo da vida diante das implicações e dos limites do saber tecnológico.

Vivemos a desterritorialização da física matéria, dos objetos, novas implicações de relatividade de tempo e espaço, emerge cada vez mais uma sociedade em rede e em tempo real, que nos distanciam das respostas do poder hierárquico das físicas e estáticas instituições que visam disciplinar o homem-corpo da sociedade industrial, até mesmo, das físicas instituições móveis de contestações (os modernos movimentos sociais). 
Assim, o biopoder está claramente comprometido com o saber pensar da complexidade. Entretanto ele se opera, se concretiza e também possui implicações propositivas que apontam os limites da hegemonia do tecnopoder.

Foucaul nos lembra, já neste período, de que foi na teoria clássica da soberania que o direito de vida e de morte se torna um de seus atributos fundamentais. Paradoxalmente, com isso, é o próprio Foucault que nos dá uma dica para uma contrahegemonia do tecnopoder, o terreno da biopolítica e o surgimento do biopoder.
Em certo sentido, dizer que o soberano tem direito de vida e de morte significa, no fundo, que ele pode fazer morrer e deixar viver; em todo caso, que a vida e a morte deixa de ter o monopólio de expressão de fenômenos naturais, imediatos, e modo original passa a se localizar no campo do poder político.
A sociedade industrial moderna manteve e alargou as características desta concepção de poder sobre a vida. No plano dos mecanismos, das técnicas, das tecnologias de poder nos séculos XVII e século XVIII elas se tornaram essencialmente centradas no corpo, no corpo individual. Disso se deduzia todos os procedimentos pelos quais se assegurava a distribuição espacial dos corpos individuais (sua separação, seu alinhamento, sua colocação em série e em vigilância  e organização...
Eram também as técnicas pelas quais se incumbiam desses corpos, tentavam aumentar-lhes a força útil através do exercício, do treinamento etc. Eram igualmente técnicas de racionalização e de economia estrita de um poder que devia se exercer, da maneira menos onerosa possível, mediante todo um sistema de vigilância, de hierarquias, de inspeções, de escriturações, de relatórios: toda essa tecnologia, que podemos chamar de tecnologia disciplinar do trabalho. Segundo Foucault toda esta tecnologia disciplinar do trabalho já se encontrava presente,  sobretudo na Europa, ainda que não expandida, já no final do século XVII e no decorrer do século XVIII.

O que Foulcault não poderia vislumbrar é que hoje as tecnologias genéticas nos dirigem para a possibilidade do paradoxo do pós-biológico, ou seja, da vida biologicamente pura. Ao que essa nova técnica de poder não disciplinar se aplica é diferentemente da disciplina e que se dirige ao corpo, não mais ao homemcorpo, mas ao homem vivo, ao ser vivo; ao homem-espécie. Essa política sobre o corpo humano, é algo que já não é uma anátomo-política do corpo humano, mas de uma "biopolítica", a emergência, ainda que embrionária, de um “biopoder”.

Vamos dar uma exemplo, daqui a praticamente 9 anos, em 12 de fevereiro de 2009, o mundo comemorará 200 anos do nascimento de um dos mais famosos cientista da vida o pai do evolucionismo, o inglês Charles Robert Darwin, autor do famoso livro: “A origem das espécies” que ele iniciou a escrever em 1856 e que foi publicado pela primeira vez em 1859.
Segundo os evolucionistas cósmicos a primeira fase do universo foi a radiação. Durante a Era da Radiação uma quantidade caótica de energia viajava pelo espaço sem que pudesse alí se formar átomos nem moléculas. Ao expandir por suas próprias forças a radiação foi coagulando-se em átomos, surge a matéria. Foi segundo a cosmologia um evento incomparável até então, inaugura-se a Era da Matéria. A matéria desde então começou a dominar a radiação, formando sucessivamente as galáxias, as estrelas, os planetas e posteriormente, o mais extraordinário dos eventos cósmicos, a vida. De todos os agregados da matéria as formas vivas certamente são as mais fascinantes, e entre elas, se destaca uma: as das agregações de vida capazes de criarem civilizações tecnologicamente inteligentes. As formas de vida tecnologicamente inteligentes diferem fundalmentalmente de outras formas de vida e de outros blocos de matéria dissiminados no Universo, não apenas por serem capazes de manipular a matéria, mas, sobretudo, por poderem alterar o curso natural da evolução. Com a conquista cada vez maior de tecnologias que permitem controlar a matéria, alterar seu curso natural e diminuir cada vez mais a dependência da vida em relação a matéria, o corpo, inaugura-se um novo tempo, uma nova era: A Era da Vida. O domínio das tecnologias inteligentes permitem que a vida cada vez mais possa controlar a matéria iniciando a mesma transição que ocorreu quando do divórcio da matéria frente a radiação há mais de dez bilhões de anos atrás. A matéria tende a perder cada vez mais seu poderoso e absoluto império de poder sobre a vida. Os cosmologistas evolucionistas não acreditam que esta transição será instantânia. Assim como se levou muito tempo para que a matéria viesse a dominar a radiação serão necessárias longas durações para que isso ocorra. Alguns cosmologistas, mesmo evolucionistas, acreditam, inclusive, que isso jamais irá acontecer definitivamente. Embora não se possa mensurar completamente o ciclo desse processo, uma coisa é certa: A Era da Vida começou, e a matéria começa lentamente demonstrar sua fragilidade, já vivemos a transição de uma aurora (cósmica) inteiramente nova . 

Essa é uma questão significativa para o biopoder. Recentemente foi lançado um filme chamado “Matrix” que pode ser uma referência didática sobre questões relevantes que o biopoder tem que enfrentar. Antes de descrever alguns comentários sobre o filme Matri vamos abrir um parêntese, um parêntese precisando um pouco alguns termos a idéia de cyborg e sua antítese o andróide. Em primeiro lugar entendemos por cyborg um mecanismo cibernético híbrido (máquina e organismo); uma criatura ligada não só a realidade social mas como a ficção.

A ficção é povoada de cyborgs. Um dos exemplos mais conhecidos foi a famosa série do homem de seis milhões de Dólares. No cinema tivemos, também uma famosa antítese do cyborg no famoso filme Blade Runner que se passa em 2009 e que socializou o termo andróide. Os andróides eram replicantes criados por uma poderosa empresa de tecnologia a Tyrell Corporation. Os replicantes no filme não são robôs, mas simulacros com vida artifical programados para uma duração muito rápida. Os replicantres se revoltaram contra a mísera destinação de apenas quatro anos para eles. Suas queixas eram simples: queriam que seus perío55444dos de vida equiparassem ao da vida humana. É aqui que entra em cena o principal personagem: Deckard, um caçador de andróides que tem a tarefa de eliminar os rebeldes andróides.

A medicina atual está também povoada de cyborgs. Encontramos cada vez mais um versadeiro acasalamento entre organismos vivos e máquinas. Não falamos de transplantes orgânicos, de órgãos que são retirados de um corpo humano ou de um outro animal para outro. Muito menos de manipulação da reprodução da vida sem relação presencial. Falamos de próteses artificial, chips que ampliam a visão ou até mesmo eliminam a cegueira, marcapassos, órgãos sintéticos, próteses colocadas em ógãos sexuais masculinos a fim de eliminar a impotência (neste caso uma relação sexual com esta pessoa não deixa de ser uma relação com um cyborg).

Neste sentido, o andróide é um replicante ligado a uma constante síndrome científica que em outro momento caracterizei como: “Sindrome de Frankeinsteim”, ou seja, a de uma busca e de uma realização perfeita de uma replica da vida humana num organismo totalmente artificial que, entretanto, supere nossos limites físicos, intelctuais e, até mesmo, morais. Os cyborg ao contrário, ainda que preso ao mesmo determinismo tecnológico abre novas possibilidades na relação da máquina com os organismos. Em vez de finalizar a separação definitiva entre o homem e os artefatos artificais ligados a atividades de simulação da vida humana, ao contrário, são de uma maneira perturbadora, simbioses que aprimoram uma estrita ligação entre o orgânico e o inorgânico.

Fechando este parênteses, voltamos ao filme Matrix, nele encontramos máquinas criadas por humanos e totalmente artificais que acabaram por por dominar a dinâmica do espaço e do tempo e entendiam que os humanos (biologicos) eram uma praga do tipo gafanhoto que tinha que ser eliminada. Os humanos só tinham uma possibilidade de enfrentá-los, ou seja, era através da emergência de uma nova espécie de vida, uma mescla entre máquina e organismo humano. 

Isso me remeteu a um livro fascinante de Joël de Rosnay, chamado: “O Homem Simbiótico”. Segundo este cientista, estamos nosa dirigindo para uma outra forma de vida terrestre. Esta forma de vida não pode ser mais considerada como produto da evolução biológica, mas de um processo ainda muito mais complexo produzido pela simbiose entre a ecoesfera, as sociedades humanas e seus “artifícios naturais” (máquinas, organizações, sistemas, redes, cidades). Para este autor a Internet é um dos maiores exemplos de ambiente propício para a emergência da espécie simbiótica. A Internet permitirá realizarmos conecções desta simbiose orgânica e inorgânica a nível planetário.

Os corpos habitam ambientes estranhos e escondem processos que tornam o corpo biológico obsoleto. Os cientistas perguntam, um corpo bípede, que respira, com visão binocular e com um cérebro de 1.400 cm3 é uma forma biológica adequada? O tecnopoder pretende realizar e já está simulando uma montagem de sistemas híbridos de homem-máquina, pretende reprojetar os seres humanos afim de torná-los mais compatíveis com suas máquinas. Os tecnológos vêem o corpo biológico como uma estrutura não muito eficiente nem muito durável, querem mudar sua performance para além de uma performance de idade. Um corpo biológico pode sobreviver somente algumas semanas sem comida, dias sem água e minutos sem oxigênio. Os tecnólogos pretendem vencer o nascimento e a morte, ou seja, produzir vidas sem nascimento e sem morte, tornar a vida imortal, pós-biológica. 

Para finalizar, a biopolítica, tembém, tem que se preparar para dar respostas aos problemas complexos que surgirão quando da integração da informação digital com a informação genética. Como já sabemos, as tecnologias da informação digital está imersa no dilema de uma lei. Trata-se da famosa Lei de Moore, elaborada por Gordon Moore, um dos co-fundadores da empresda Intel, uma mega indústria de chips e processadores digitais. Ele observou em 1964 que o número de transistores que cabia num chip de silício duplicava a cada ano e meio. Isso permite a minuiaturização, rapidez no processamento e, principalmente, o barateamento dos artefatos digitais. Esta observação tem se comprovado até então e segundo uma projeção desta lei em 2012 chegaremos ao limite físico do silício. Assim as pesquisas de substituição do silício estão se dividindo em dois grandes grupos:


1. O primeiro busca uma alternativa inorgânica, ou seja outros materiais químicos como gases nobres por exemplo. Ou através de raios X ou óticos buscando alternativas para um novo limite físico bem superior ao que o abundante silício pode suportar.

2. O segundo busca uma alternativa orgânica de substituição do silício. Numa mescla cada vez maior entre bioquímica e informáticas esses pesquisadores buscam a criação de chips orgânicos. Por exemplo um grupo de cientistas do Laboratório de Informática do Massachusetts Institute of Tecnology (MIT), dividiram a bactéria do cólera, de tal modo que este fragmento possa agir como um circúito orgânico, por onde trafegam rotas de acesso a dados. As células só trabalhariam apenas enquanto fossem mantidas vivas. Também neste mesmo Instituto existem projetos de computadores baseados em DNA vinculados a instruções via algorítmos genéticos.

Estas experiências quando se tornarem societais e não apenas laboratoriais, vão deflagrar uma verdadeira revolução no processamento das informações e na sociedade em geral, onde será cada vez mais difícil distinguirmos a prótese no humano e a parte carne da máquina, a corrente sanguínea da vida biológica, da corrente eletromagnéticas dos artefatos sensoriais inorgânicos. Pensamos que é através do biopoder e não das abordagens da moderna engenharia institucional que certamente encontraremos respostas mais condizentes aos desafios de defesa da vida, se não encontrarmos respostas, pelo menos, teremos cérebros que estão preocupados em responder propositivamente as exigências da vida numa sociedade dominada pela complexidade do conhecimento.    


GILSON LIMA.
"O que em mim sente está pensando" (Fernando pessoa)
Dr. Pesquisador - CNPQ - Porto Alegre.E-mail: gilima@gmail.com

BLOG http://glolima.blogspot.com/
Msn: glolima
Orkut: Gilson Lima
Skype: gilsonlima_poa
Tweets: http://twitter.com/#!/glolima
Web pages:
Sociologia e informática: http://www6.ufrgs.br/cedcis/arquivos_ladcis/informatica-sociedade/.index.htm
Complexidade: http://complexidade.ning.com/profile/GilsonLimaFacebook: http://www.facebook.com/profile.php?v=wall&ref=nur&id=100000714691501
Curriculum Lattes: http://buscatextual.cnpq.br/buscatextual/visualizacv.jsp?id=K4797676U0

terça-feira, 24 de julho de 2012

Pílulas de neuroaprendizagem 02: por que o Joãozinho não sabia codificar?


Grupo: Educação
Tipo: Artigo
Título: Porque Joãozinho não pode decodificar
Autor: LYON,G. Reid.
Tradução: GOMES, Pedro Lourenço.
Fonte: Washington Post de 27.10.96

Sinopse: Este artigo aponta um estudo sobre a leitura e o porque algumas crianças têm dificuldade em aprender a ler. Na verdade concluiu-se que tanto meninos, como meninas apresentam dificuldades na leitura, o que pode ocasionar baixa auto-estima e falta de motivação para a vida escolar, quando isso é perceptível pelos colegas. O que acontece é que antes de ler para aprender deve-se aprender a ler, afinal a leitura é a interpretação das palavras, e que fique bem claro, que a não habilidade para a leitura nada tem a ver com inteligência, pelo contrário. Confira o estudo, com o problema, as causas, a genética e como se pode ajudar neste caso.

PORQUE JOÃOZINHO NÃO PODE DECODIFICAR
G. Reid Lyon, no Washington Post de 27.10.96 (antigo mas ainda muito interessante).

leituraElizabeth McPike, da American Federation of Teachers (Federação Americana de Professores), escreveu que se você não aprende a aprender a ler, você simplesmente não se dá bem na vida. A pesquisa que conduzimos e financiamos no NICHD - National Institute of Child Health and Human Development (Instituto Nacional da Saúde Infantil e do Desenvolvimento Humano), dos NIHs (National Institutes of Health (Institutos Nacionais de Saúde, o equivalente ao Ministério da Saúde no Brasil), deixa isto bem claro. Diversos estudos longitudinais de longo prazo feitos por cientistas financiados pelo NICHD demonstraram que aproximadamente 17 a 20% de nossas crianças têm substanciais dificuldades em aprender a ler.
Em contraste com o que antes era convencional, descobrimos que tanto meninas quanto meninos manifestam dificuldades de leitura. Os meninos parecem ser identificados mais prontamente pelo sistema de escolas públicas com relação a dificuldades de leitura porque tendem a ser um pouco mais ativos e barulhentos do que suas colegas de mesma idade. Já que tipicamente é o comportamento da criança, mais do que suas dificuldades escolares, que leva os professores a encaminhar os jovens aos serviços de educação especial, as dificuldades que as meninas têm na leitura são freqüentemente menosprezadas porque em geral elas são mais bem comportadas e socialmente adaptadas.
Ainda assim, à medida em que vemos estes garotos e garotas crescerem, os efeitos negativos de suas dificuldades de leitura aparecem com abundância e clareza. Durante os primeiros anos de escola, quando devem estar aprendendo a ler, suas dificuldades são bastante embaraçosas para eles. Esta humilhação precoce leva a uma predizível diminuição em sua auto-estima e em sua motivação para a vida escolar. Através dos anos tenho me entristecido crescentemente com o fato de que estas crianças não são tão flexíveis como eu pensava que fossem. São ternos indivíduos, que se frustram e se envergonham facilmente por causa de suas deficiências em habilidades de leitura assim que notam que muitos de seus colegas lêem tão fluentemente. Durante os anos posteriores, quando os jovens param de aprender a ler e começam a ler para aprender, seu conhecimento e interesse em áreas como literatura, ciência, matemática e história são inibidos simplesmente porque não podem adquirir os conceitos através do texto impresso.

Mas as conseqüências do fracasso na leitura vão bem além destes resultados escolares. Entre 10-15 % das crianças com dificuldades de leitura largam a escola antes do segundo grau. Dos que chegam lá, menos de 2 % fazem quatro anos de faculdade, apesar de muitos terem inteligência acima da média. Uma pesquisa rápida com adolescentes e jovens adultos com história de conduta delinqüente ou criminosa indica que metade deles têm dificuldades de leitura, e taxas similares de fracasso na leitura são vistas entre jovens com problemas de drogas. Sem dúvida, a independência e o sucesso ocupacional e vocacional estão comprometidos. Assim, as dificuldades de leitura não são apenas um problema educacional, mas também um grande problema de saúde pública e um desafio econômico. Foi por estas razões que o NICHD tentou agressivamente procurar entender melhor as dificuldades de leitura - descobrir o que as causa, quanto tempo duram, e o que podemos fazer para prevení-las e remediá-las. Nos últimos 20 anos aprendemos muito, mas claramente precisamos aprender mais.
O Problema
Em essência, podem-se ver quase todas as dificuldades de leitura quando uma pessoa tenta ler as palavras de um texto impresso. Os sinais são: uma elaborada abordagem na decodificação ou "sonorização" de palavras desconhecidas, e repetidas identificações erradas de palavras conhecidas. A leitura é hesitante e caracterizada por freqüentes pausas e recomeços, e múltiplos erros de pronúncia. Se indagado a respeito daquilo que acabou de ser lido, o indivíduo quase sempre tem pouco a dizer. Não porque ele ou ela não seja inteligente o bastante; de fato, muitas pessoas com dificuldades de leitura são muito inteligentes. Em geral, sua pouca compreensão existe porque levam muito tempo para ler as palavras, o que deixa pouca energia para a lembrança e compreensão do que leram. Posto de maneira simples, sua leitura das palavras é arrastada e imprecisa, e não automática e fluente.
Mesmo indivíduos com dificuldades relativamente "leves" de leitura dirão que não lêem por prazer. Por que ? Porque dá muito trabalho até se transformar num prazer, e a leitura simplesmente demora muito tempo, impedindo que o leitor se interesse pelo material.
Infelizmente não há nenhuma maneira de se contornar o estágio de decodificar e reconhecer a palavra na leitura. Uma deficiência nestas aptidões não pode ser compensada apreciavelmente com o uso do contexto para se adivinhar o significado das palavras mal lidas, particularmente se a velocidade de leitura for pequena e os erros abundantes. Em essência, à medida que o propósito de aprender a ler é tirar significado do texto impresso, a chave para a compreensão do que é lido se inicia com a leitura imediata e precisa das palavras.
As dificuldades na decodificação e identificação das palavras, ainda que sejam o âmago da maioria das dificuldades, não são o único tipo de inaptidão de leitura que se pode observar. Certamente algumas crianças podem computar as palavras de modo muito rápido, mas ainda assim têm dificuldades em compreender o que leram. Este tipo de disfunção da compreensão da leitura está sendo estudado hoje por diversos cientistas financiados pelo NICHD, e estamos começando a entender como melhor identificar e abordar o problema.
Tentando entender o problema:
Se a capacidade de tirar significado do texto impresso depende de uma decodificação e identificação precisa e automática das palavras, que tipo de coisas estorvam a aquisição destas habilidades básicas de leitura? Sem dúvida, crianças pequenas que tenham exposição limitada tanto à linguagem falada como ao texto impresso antes de entrar para a escola estão em risco de fracassar na leitura. Mas muitas crianças cuja inexperiência linguística inicial torna o aprendizado da leitura difícil podem ser levadas a níveis apropriados de leitura com uma instrução intensiva e científica no jardim de infância e na primeira e segunda séries.
O mais intrigante são as dificuldades de leitura observadas em crianças que têm inteligência entre média e acima da média, uma robusta experiência oral em linguagem e frequente interação com livros - crianças frequentemente chamadas de incapazes de aprender ou disléxicas. Muitas crianças examinadas nos estudos financiados pelo NICHD ouviam histórias que lhes eram lidas regularmente desde a tenra infância. Seu vocabulário de fala é bem desenvolvido, e quando se lê para elas, rapidamente entendem e discutem o conteúdo com ricos detalhes. Entretanto, quando se lhes pede que leiam algo apropriado para sua idade, atrapalham-se.
Nesta última década começamos a entender porque. O inglês é uma língua alfabética, o que significa que para ser lido devem-se desvendar as relações entre sons e letras. Assim, um bom leitor conhece as conexões entre os mais ou menos 40 sons da língua e as 26 letras de nosso alfabeto. Nossa pesquisa no NICHD nos ensinou que para que um leitor iniciante aprenda a mapear ou traduzir símbolos impressos (letras e padrões de letras) em sons, ele deve intuitivamente entender que a fala pode ser segmentada e que as unidades segmentadas da fala podem ser representadas de forma impressa. Esta compreensão é chamada de "consciência fonológica", e é um pré-requisito na decodificação e no reconhecimento das palavras, o que, por sua vez, são passos essenciais da compreensão da leitura.
Por que a consciência fonológica é tão importante? Porque se as crianças não puderem perceber os sons das palavras faladas - por exemplo, se não puderem "ouvir" o som at em fat e cat e perceber que a diferença entre estes segmentos sonoros está no primeiro som - terão significativas dificuldades em decodificar as palavras com precisão e fluência. Esta consciência da estrutura sonora de nossa língua parece tão simples e comum que presumimos que todos os jovens devem desenvolvê-la. Mas muitos não fazem isso, e por algumas interessantes razões. Diferentemente da escrita, nossa fala não consiste de sons separados em palavras. Por exemplo, enquanto uma palavra escrita como cat tem três unidades letra-som, o ouvido percebe apenas um som, não três, quando a palavra é dita. Esta mistura e superposição de sons num feixe de fala torna a comunicação oral muito mais eficiente. Pense como demoraria para se conversar se cada palavra que disséssemos fosse retalhada em seus segmentos sonoros. Temos hoje fortes evidências comprovadas de que não é o ouvido que ajuda a criança a entender que uma palavra falada como cat se divide em três sons e que estes sons podem ser traduzidos como as letras c-a-t, é o cérebro. E em muitos indivíduos o cérebro não está processando este tipo de informação fonológica linguística de maneira eficiente.
Em essência, as pesquisas em curso nos ensinam que as dificuldades de leitura ocorrem com mais frequência do que se supôs inicialmente, e que a maioria destas dificuldades reflete uma disfunção específica de linguagem que torna difícil para algumas crianças entender que as palavras faladas são compostas de unidades sonoras que podem ser traduzidas em letras e padrões de letras de modo que elas possam "desvendar" palavras que nunca tenham lido antes. Sem a consciência fonológica e a capacidade de rapidamente rotular padrões de texto impresso com os sons apropriados, as crianças não podem desenvolver um conhecimento letra-som útil e continuarão a adivinhar, mais do que decodificar e reconhecer as palavras da página.
O Elo Genético

GENETICOQuando crianças apresentam dificuldades de leitura baseadas na linguagem, começa-se a pensar na origem de tais dificuldades. Se os déficits de leitura não puderem ser explicados por uma falta de exposição a padrões de linguagem e a materiais voltados para alfabetização durante os anos pré-escolares, uma questão que surge com frequência é se a genética está envolvida. Isto é, as dificuldades são herdadas? Além disso, as dificuldades estão associadas ao modo de funcionamento do cérebro? A resposta é um comprovado sim para as duas perguntas, mas não em relação a todos os leitores com dificuldades. Nos últimos 20 anos os dados obtidos em estudos com famílias, gêmeos e padrões cromossômicos, financiados pelo NICHD, fornecem fortes evidências de que a dificuldade de leitura se multiplica nas famílias, pode ser herdada, e bastante provavelmente é causada porque um ou mais genes têm um importante efeito sobre o desenvolvimento neural. Os dados sugerem que estes efeitos genéticos influenciam a transmissão de déficits fonológicos que produzem as dificuldades de decodificação, de reconhecimento de palavras e de leitura descritas anteriormente.
Os mecanismos específicos através dos quais os fatores genéticos predispõe alguém a dificuldades de leitura não estão bem esclarecidos. Uma possibilidade é que as alterações genéticas influenciam a natureza e a qualidade do desenvolvimento do cérebro nos sistemas neurais que são responsáveis pela identificação dos sons das palavras. Diversos estudos recentes financiados pelo NICHD descobriram que os déficits de consciência fonológica estão associados a um funcionamento atípico de regiões cerebrais específicas. É claro que estas informações das pesquisas, por enquanto, só podem ser vistas como sugestões. Ainda assim, a recente explosão tecnológica no desenvolvimento de métodos de neuroimagem que podem ser utilizados com segurança em crianças indica favoravelmente a compreensão científica dos fundamentos neurobiológicos do desenvolvimento e das dificuldades da leitura.
Estas Crianças Podem Ser Ajudadas?
Na verdade podem. Diversos estudos sobre intervenções na leitura financiados pelo NICHD descobriram que muitos jovens podem aprender a ler bastante bem se uma instrução apropriada for ministrada bem cedo. Nestes estudos longitudinais descobrimos que a intervenção tanto precoce como bem informada é crítica. Por que precoce? Porque parece que a menos que as crianças sejam identificadas e a intervenção apropriada seja feita, lá pela segunda ou terceira séries, suas chances de não ficar para trás com relação à leitura são reduzidas dramaticamente. Isto não quer dizer que não dará certo com estudantes mais velhos. Dará, mas o custo em tempo e dinheiro, essencialmente, triplica.
lucas sem ortesefazendo ortese lucas 3
Diversos estudos do NICHD que estão sendo efetuados em muitos locais de pesquisa registraram que um programa de instrução equilibrado, composto de instrução direta em consciência fonológica, elementos fonéticos e leitura contextual, é necessário para que haja ganhos em habilidades de leitura. Para além de qualquer dúvida, descobrimos que os métodos de ensino que se baseiam em uma só filosofia, como a "abordagem da linguagem total" ou o "método fônico", são contraproducentes para crianças que tenham dificuldades de leitura. Mesmo que a criança seja inteligente e o material de leitura seja interessante, a criança não aprenderá a ler a menos que entenda como o texto impresso se traduz em sons. Do mesmo modo, independentemente da consciência fonológica e do conhecimento dos elementos fonéticos que a criança tenha, ela não desejará dedicar-se à leitura e à escrita a menos que estas sejam significativas e interessantes, e ensinadas de maneira excitante e vibrante.
===========================================
COMENTANDO:
caricatura gilson2Gilson Lima – Pesquisador do CNPQ. Pesquisador do Centro de Microgravidade da PUCRS. Proprietário da NITAS – inovação & Tecnologia LTDA. Professor da UNISC-RS. Pesquisador do Research Committee Logic & Methodology and at the Research Committee of the Clinical Sociology Association International Sociological (ISA).E-mail: gilima@gmail.com Blog: http://glolima.blogspot.com/

Realizamos pesquisas com estudantes do ensino superior a fim de identificar a performance de velocidade e de qualidade (compreensão) de um leitor de artigo científico qualificado internacionalmente em língua portuguesa.
Tínhamos como referência inicial a informação de que um leitor muito eficiente está apto a ler em torno de 240 palavras por minuto, conforme indicações conhecidas de Yara Liberato e Lúcia Fulgêncio. De acordo com elas, um exímio leitor tem a capacidade de processar, na maior velocidade possível segundo mapeamento de sinais pela consciência, no máximo 4 palavras por segundo ou 240 palavras por minuto, isso se tomarmos a palavra e não cada letra como unidade perceptual. Considerando, por outro lado, o caractere como unidade perceptual teremos, assim, 1.296 caracteres por minuto ou 21,6 caracteres por segundo (LIBERATO, Y. & FULGÊNCIO, L., 2007: 19). Nossa pesquisa com estudantes de ensino superior permitiu verificar que isso muito raramente ocorre.
Propusemos um teste que denominei de “teste dos 10 minutos” a fim de verificar a possibilidade de um cérebro com uma excelente performance de velocidade de leitura em língua portuguesa envolto em um fluxo contínuo de compreensão semântica consciente e também dentro de uma temática razoavelmente conhecida e em língua falada pelos alunos. Diversas aplicações do teste foram realizados com estudantes do ensino superior, todos do quinto semestre de graduação em diferentes áreas de conhecimento (exatas, humanas e educação).
Nesse teste os alunos foram submetidos a um procedimento individual de leitura em um ambiente silencioso e por exatos 10 minutos. Trata-se de um tempo suficiente para não desgastar as conexões neuronais e nem diminuir a pressão sobre a atenção do texto e, portanto, não produzir moléculas de adenosinas[i] suficientes para diminuir a pressão da atenção sobre o fluxo da leitura do texto.
Vamos rapidamente descrever o teste dos 10 minutos. Para um melhor padrão de comparação os textos foram sempre artigos científicos qualificados internacionalmente pelo Qualis da Capes, mas sempre na língua nativa do leitor (português) e com temática sobre a área que o estudante-leitor está estudando e sobre a qual está, de algum modo, habituado a refletir. Em suma, a introdução de assunto em texto seguiu a máxima de partir de informações já conhecidas em aula pelo leitor(a) (mesmo deslocando-se focalmente do tópico discursivo), facilitando a leitura. A dificuldade de identificar um tópico novo em um texto pode comprometer o desempenho da legibilidade da leitura. Também levamos em consideração a sinalização da narrativa, pois uma má sinalização ou representação inadequada de tópicos pode também comprometer o desempenho ou reduzir a legibilidade da leitura.
Para um leitor atual, a leitura dos caracteres, das palavras e sentenças transmuta de modo muito veloz sinais visuais que, selecionados e capturados, são enviados ao cérebro. As pesquisas mostraram que o tempo de percebermos uma informação visual dura em torno de 50 a 80 milésimos de segundo; mas o cérebro leva mais tempo para processar essa informação: cerca de ¼ de segundo (ou 250 milissegundos). O cérebro requer tempo para tomar suas decisões e interpretar o que foi visto.
É um evento notável, pois falar e compreender a linguagem é o processo de transporte on-line mais rápido e quantitativamente mais intensivo que existe nas áreas perceptivas e motoras. A diferença temporal do som d e q, k e l, tal como a e c, é de cerca de 20 metros por segundo – muito pouco tempo para a programação dos movimentos da língua, maxilar e lábios, por um lado, e o mesmo tempo exigido para a análise acústica, por outro lado.
Resolvemos também testar o nível de compreensão dos significados lidos, ou seja, agregamos ao texto de velocidade um teste de qualidade, mas se verificou um razoável déficit de compreensão semântica, com muito pouca perspectiva de personalidade na narrativa, isto é, todos os leitores testados foram muito descritivos no quesito compreensão qualitativa da leitura. Alguns descreveram sua narrativa perpassando de um modo próximo o tópico central dos textos. Outros apenas realizaram uma descrição muito sintética, indicando uma grande dificuldade de integralizar fragmentos de ideias.
Algo de interessante ocorreu. Alguns alunos que tiveram performance muito boa no quesito velocidade (quantidade em menor tempo de leitura) ao mesmo tempo obtiveram uma performance muito fraca no quesito compreensão qualitativa. De qualquer modo, tudo indica que nossos leitores de texto de diferentes áreas (mais exigidos ou menos exigidos) são até relativamente velozes no teste dos 10 minutos, mas lêem muito mais a imagem do que significado, ou seja, possuem um razoável déficit de significação conceitual, que é menos descritiva nas leituras científicas.
Ainda que se trate de uma pesquisa inicial, com uma amostra pequena para grande generalizações, pensamos que ela já é indicativa de alguns dilemas que podem ser verificados em uma pesquisa maior. O que podemos deduzir para a aprendizagem e a educação da leitura sistemática?
Uma primeira dedução é a de que existem, junto aos estudantes contemporâneos, dois tipos de déficits.
1.Um de patologia neurobiológica proveniente de perturbações nas microrrelações neuronais e outro proveniente dos déficits de aprendizagem social
2. Um déficit de escassez da utilização da leitura oriunda da geração da TV, leitora de imagens em movimento, ou seja, um déficit de hermenêutica de profundidade.[ii]
Do ponto de vista das perturbações de microrrelações neuronais calcula-se que entre 5% e 8% das crianças sofrem de déficits de compreensão da linguagem de tipo acústico que, na continuidade do desenvolvimento infantil, muitas vezes se evidenciam em dificuldades de leitura e mesmo em dislexia. Do ponto de vista do déficit de hermenêutica de profundidade – escassez do hábito de leitura de textos, esse índice não é ainda conhecido, mas acreditamos que seja uma patologia que envolva mais da metade de nossos estudantes provenientes da geração da TV.
Uma segunda dedução é que o cérebro vê muito mais do que os olhos percebem. Por exemplo, palavras com forte significado emocional, captadas de forma subliminar, fixam-se na memória inconsciente com o conteúdo relacionado a elas mesmo sem terem sido processadas pelos olhos. Grande parte das imagens captadas pela visão periférica, ou seja, fora da fóvea, região da retina usada para focalizar objetos, é processada de modo subliminar. O processamento desses estímulos ocupa preferencialmente o lado direito do cérebro, mais ligado às emoções, e o armazenamento ocorre de forma paralela ao dos estímulos supraliminares. A diferença é que não temos consciência disso. Por isso, uma revisão ortográfica e detalhada de um texto deve ser realizada como se estivéssemos usando uma régua em cada uma das sílabas registradas (alguns revisores utilizam mesmo uma régua), pois o que importa não é o processo de significação imediata, o processo do pensamento, mas a precisão da escrita dentro das regras de uma língua em que o texto está sendo produzido.
Como focamos a atenção em um conjunto de estímulos, haverá outros que serão percebidos de forma subliminar. Em uma cultura com dados abundantes oferecidos em uma velocidade crescente, as mensagens passam para o inconsciente de forma inadvertida e, quanto mais conhecemos o tema e o assunto sobre o qual estamos lendo, maior se torna a compreensão daquilo que não é percebido conscientemente.
Uma terceira dedução decorre de nossa verificação: quanto maior o acúmulo de experiência de leitura, quanto maior o domínio léxico de uma língua, maior será a redução dos prazos relacionados às decisões que o cérebro deve tomar em um processo imediato de leitura. Descobrimos que muito da leitura não é necessariamente visual. Quando lemos, nossos olhos se movimentam. Esse movimento na leitura não é linear e contínuo, como se estivesse escaneando um papel impresso palavra por palavra. Precisamos nos concentrar, mas também precisamos suspender, ao mesmo tempo, o exercício mecânico em direção a uma performance imaginativa nos processos de significação.
Em uma leitura rápida e qualificada de compreensão ocorre também, muito provavelmente, uma mudança na localização dos processamentos neuronais para as áreas não visuais e superiores do córtex neofrontal, em uma similitude que envolve os hemisférios esquerdo e direito em um jogo crescente entre processo abstrato de significação por raciocínio e processo abstrato por intuição. Dependendo de cada foco de leitura existirá, certamente, um maior envolvimento em processos de significação por raciocínio do que intuição ou em processos de significação de intuição do que de raciocínio. Muito da leitura é não visual, é adivinhação envolvida em complexos processos de mentitude que abrangem sinais lidos e não lidos.
[i] Estudos recentes têm demonstrado que a fadiga mental está bioquimicamente associada ao acúmulo de uma pequena molécula, adenosina, que é liberada por células cerebrais chamadas glias. No final desse artigo abordaremos mais sobre a fadiga mental.
[ii] Uma questão muito importante é a diferença fundamental do percepto inicial de ler imagens (signos miméticos: que imitam a realidade) e um texto. A diferença consiste principalmente no processo inicial da percepção e da concentração, em que a imagem se apresenta por inteiro; a leitura de um texto, ao contrário, necessita de um foco intenso de atenção e concentração nos seus fragmentos (signos) para mergulharmos na narrativa e conquistarmos sua significação, ou seja, para nos apropriamos de seus significados. Não compreendemos de imediato o conjunto do conteúdo de um texto, não relacionamos imediatamente este texto a outros textos e nem a outros fragmentos escritos (LIMA, 2005: 78).

========================================================
Considerações: ler e escrever no pagus
Thomas Astle escreveu e imprimiu esse clássico intitulado A origem e o progresso da escrita [The Origin and Progress of Writing], obra com 235 páginas, publicada em Londres em 1784; nela o autor apresenta a escrita desde o hieroglífico elementar, com ilustrações de gravuras lavadas de mármores, manuscritos e escrituras, antigas e modernas. Essa primeira edição inclui alguns desenhos coloridos à mão. Na seção de história esse autor apresenta a clássica teoria de que a impressão teve origem na China. Para Astle, “A mais nobre aquisição da humanidade é a fala, e a arte mais útil é a escrita. A primeira distingue eminentemente o homem da criatura bruta; a segunda, dos selvagens sem civilização” (OLSON, 1997: 17).
Gutenberg fez-nos leitores de livros; a máquina de reprografia fez-nos editores e a eletrônica e os computadores em rede faz-nos co-autores nesse hipertexto planetário da Web. É de conhecimento comum que a escrita não se confunde com o pensamento (isso reforça a afirmação de que uma nova cultura de reconstrução da realidade – a cultura oral x escrita impressa em átomos e x cultura digital – com multicamadas, dos elétrons à interface – não extingue as demais).
O processo de implantação da escrita na história da civilização foi muito longo. No início, escrever significava aprender dezenas ou até centenas de sinais, o que não estava ao alcance de todos. A escrita em átomos utilizou-se de vários suportes: escrevia-se em pedras, em argila, em rolos vegetais, feitos a partir do caule de uma planta (papiro) e, mais tarde, em pergaminhos, livros, etc. O suporte da informação e da comunicação é, talvez, o que “menos” se vê e o que mais interfere na simbiose da produção e da comunicação social do conhecimento. Foi assim até chegarmos ao alfabeto e ao texto pagus.
O que seria um texto pagus? Trata-se de registros de signos impressos e delimitados por uma página estática. Pagus, do latim, quer dizer campo ou local onde o camponês pisava.
Um texto pagus tem as seguintes características:
1) É um texto escrito em páginas estáticas, demarcadas fisicamente por um plano reto, do tipo tábua (largura, altura precisamente definida e plana).
2) Tem um ciclo próprio (um início, um desenvolvimento e um fim). Por exemplo, o texto pagus produz uma unidade isolada de início, meio e fim de significações e significados. Assim, um texto, um livro é uno, um parágrafo, um capítulo são sempre uma unidade em si mesma.
3) A organização de seus registros é linear, sequencial e envolta em um ordenamento delimitado e consecutivo, como se seguíssemos uma linha após outra, desenvolvendo assim, cada vez mais, uma crescente em perspectiva de acumulação de signos e significados, ou seja, uma sequência progressiva e imaginante de significação determinada pelas linhas delimitadas da leitura.
Talvez a metáfora mais pertinente para imaginarmos esse processo seja a metáfora do trem da história, que segue suas duas e seguras linhas paralelas. Ela pode ajudar a entendermos as implicações da leitura do pagus. O diagrama mostra a noção moderna de ordenação dos signos que representam a realidade, envoltos em uma temporalidade desenvolvimentista proveniente da abordagem do tempo flecha – o tempo recortado na sequencialidade de uma sucessão de um passado, um presente e um futuro.
Vejamos abaixo, na figura 04, um diagrama que sintetiza as implicações de um aprendizado da cultura da escrita no pagus.
Imaginemos um leitor que se dirige a uma estação de leitura e compra a passagem para uma viajem de trem para cada um dos processos de significação que embarcarão na viagem da compreensão. As letras, as palavras e sentenças se estruturam em linhas ordenadas em sequências paralelas e hierárquicas. Cada signo quer ter seu lugar num dos vagões que farão a viagem da leitura do “trem” da compreensão, mas não existe passagem para todos os signos-caracteres. Os signos-caracteres vão se acumulando em fila e pisando uns nos pés dos outros, muito próximos, mas no final eles se agrupam e se integram de tal modo que irão se converter em significados, desaparecendo como signos de caracteres. Todos os significados agora vão adquirindo na estação da leitura linear a sua passagem para estação do trem da compreensão dos significados, todos eles agora têm seus lugares devidamente garantidos na viagem.
A leitura de um texto pagus implica também em mecanismos sofisticados de decodificação, relacionados aos limites que nossos cérebros possuem na estruturação mimética das decodificações. Ou seja, implica no tamanho e na extensão das unidades significativas que destacamos das bases textuais que estão sendo lidas, pois lemos por fatias, o que Miller chamou de chunc em 1956, quando tratou de alguns limites de nossa capacidade de processar informação (LIBERATO & FULGÊNCIO, 2007: 21).
Ler toma tempo. Quem lê, diariamente, cerca de 5 páginas, em 10 anos terá percepcionado cerca de 50 mil milhões de letras. Estas letras são de fato produtos artificiais, porque fazem parte dos nossos objetos perceptivos mais frequentes, e têm há pelo menos 500 anos uma vida própria.
Para ler primeiro precisamos fatiar letras, depois aprendemos com o tempo a fatiar as palavras e as sentenças. São procedimentos performáticos acumulativos cujas habilidades de velocidade e precisão dependem de muito exercício. Ler não é uma atividade natural. Domar e conquistar uma compreensão conceitual não é tarefa apenas resolvida pelos genes. É preciso praticar. A própria capacidade de relacionamento da memória de curto prazo com a de longo prazo precisa ser exercitada.
Assim, ao olharmos para um texto escrito e impresso em papel, para que possamos lê-lo teremos de mergulhar nele e verificar a existência de palavras e pedaços de frases que, de imediato, não ouvimos, e de símbolos que não emitem sons, por isso lemos conversando com nós mesmos.
As palavras impressas são, antes de tudo, formas simbólicas, gravadas em um fundo não impresso. Certamente, pela velocidade de nosso olhar, não compreendemos que é pela natureza contrastante de um fundo não impresso que garantimos a existência da significação alfabética impressa.
Para dominá-lo, nós mapeamos suas macro-referências: o seu título, suas notas de rodapé, seus capítulos, enfim, itens diversos, e dirigimo-nos a sua bibliografia. Podemos dizer o mesmo quando escutamos um texto. Ao emitirmos sons da fala, provenientes da leitura em voz alta de um texto qualquer, eles perfuram o vácuo, ocupando espaços que só podem ser compreendidos, de forma lógica, através de nossa concentração sensível aos seus ruídos e pela negligência de nossa atenção focal com relação a outros sons existentes no contexto gerador desta determinada leitura. Os outros sons no entorno contextual são, pela nossa concentração sensível, desfocalizados e tomados apenas como ruídos ambientais.
Como vimos, ler um texto não é natural. Ler aciona uma rede complexa de centros cerebrais – vários níveis de abstração –; são escolhidos, ativados e sincronizados entre si diversos programas de movimento. O resultado é um texto lido em voz alta, que praticamente parece ter sido produzido espontaneamente. O conjunto é um processamento de informação neuronal, conduzido ao mais alto nível, que, para nós, é tão adequado quanto um trator para uma corrida de fórmula 1, e para cuja afinação dispomos apenas de duas horas antes do início da corrida 
(SPITZER, 2007: 215).
O trator pode fazer, muito melhor, mais coisas do que um carro de corrida. E o nosso cérebro pode fazer mais do que apenas ler e, de fato, pode fazer muito mais e muito melhor. 
Ler um texto sobre algo que não conhecemos é ainda muito mais difícil. Dependemos do conjunto de léxicos, palavras conhecidas para determinar nossa performance de velocidade e precisão da leitura. Ler um texto em um léxico que não dominamos, em uma língua que não falamos é ainda mais difícil. Dependemos de dicionários, mas as palavras têm seus contextos narrativos, temos ainda a cultura, um modo de pensar que não é apenas um processo de codificação automática; se assim o fosse, os programas computacionais de conversão automática de voz em texto ou mesmo meramente de tradução de textos dariam conta do recado facilmente.
Uma das grandes dificuldades dos programas de conversão automática de voz em texto é que, infelizmente, somos seres simbólicos e fabricamos diferentes significados em diferentes contextos e até mesmo em contextos muito parecidos. É muito comum, inclusive, utilizarmos significados diferentes para um mesmo léxico ou uma mesma palavra.
Os contextos léxicos comunicacionais envolvem intencionalidade e um enorme colorido emocional. Por exemplo, um casal que esteja acostumado a tratar um ou outro não pelo nome, mas pelo léxico: amor. Às vezes a tonalidade, um colorido emocional no contexto do enunciado demonstra aproximação, ternura, às vezes um xingamento chamando o outro de AMOR (aos gritos). Nesse caso, um sensor indicando a intensidade do tom e definindo a altura da expressão poderia resolver muitos dos problemas de uma interpretação automática, mas não apenas seres simbólicos, somos também criativos, inventamos significados, alteramos representações, desculpamos, aprendemos, mudamos de comportamento.
Até hoje alguns cientistas e educadores ainda pensam que nós transferimos e deslocamos para o cérebro, mecanicamente, por meio da leitura, o estoque de informações que estavam impressas nos documentos. Achavam que era assim que nos tornávamos inteligentes. Hoje sabemos que esta é uma maneira muito primitiva da inteligência, conhecida como memória primária de curta duração.[iii]
Assim, ler não é fácil e o culpado é o cérebro, que vai ficando cansado. Ainda não se entende completamente o que é a fadiga mental em termos neuronais, mas alguns de seus processos químicos já são conhecidos. A fadiga mental está bioquimicamente associada ao acúmulo de uma pequena molécula, a adenosina, que é liberada pelas inúmeras células cerebrais (glia) nos locais de grande atividade sináptica neuronal.
A liberação química de adenosina pela glia acontece como resposta aos neurotransmissores, as substâncias usadas pelos neurônios para passar informação adiante entre si. Por isso, quanto mais intensa for a atividade sináptica em uma região cerebral, mais adenosina será liberada pela glia (PASCUAL, 2005: 113-116).
Toda essa adenosina se acumula ao redor das células e age sobre os neurônios, impedindo que eles fiquem excessivamente ativos – o que também coloca um "teto" em sua capacidade de processamento de informação. Por isso não adianta praticar muitas horas seguidas, e não é possível para manter o desempenho trabalhando muito tempo em uma mesma tarefa.
Ao menos a fadiga é específica: ela é limitada aos circuitos que trabalharam demais. Se você mudar de assunto, levantar e esticar os braços, dar uma volta ou mudar de atividade em vez de fazer contas ou buscar significados entre letras mentais, seus movimentos são acionando imediatamente e se retornar alguns minutos depois a atividade mental sua performance retorna ao normal sem problemas. Por isso o currículo escolar, com a divisão do período de aulas em blocos de cerca de 40 minutos, acerta ao não manter ninguém tempo demais pensando no mesmo assunto. E quando todos os circuitos cerebrais tiverem se esgotado, o cérebro possui o seu próprio remédio para a fadiga: dormir (HERCULANO-HOUZEL, 2007: 68).
Ler cansa, por que ler não é apenas transferir registros de um lugar para outro, exige energia, foco, atenção e concentração. Se o pensamento não se confunde com a linguagem, a leitura não se confunde com a linguagem escrita e com muita abstração. A escrita impressa em átomos em uma folha de papel é produto de uma conquista histórica, ocorrida muito depois da formação de nosso sistema nervoso.
O cérebro humano possui quase um trilhão de células gliais, cerca de nove células gliais para cada neurônio. Durante décadas, fisiologistas consideravam os neurônios os principais comunicadores do cérebro. Achava-se que as células gliais tinham somente papel de manutenção: levar nutrientes dos vasos sanguíneos para os neurônios, manter um equilíbrio saudável de íons no cérebro e afugentar patógenos que tivessem escapado do sistema imunológico. Nos últimos anos, técnicas mais sensíveis de imagem mostraram que neurônios e células gliais dialogam entre si, do desenvolvimento embrionário até a velhice. As células gliais influenciam a formação de sinapses e ajudam a determinar as conexões neurais que se fortalecerão com o tempo. Essas alterações são essenciais para o aprendizado e o armazenamento de memórias duradouras. Trabalhos mais recentes mostram que as células gliais também se comunicam entre si em uma rede independente, mas paralela à neural, influenciando o desempenho do cérebro. Os neurologistas ainda estão cautelosos e evitam atribuir rápido demais importância à glia. Apesar disso, estão entusiasmados com a perspectiva de que mais da metade do cérebro permanece inexplorado e pode representar uma mina de ouro em informações sobre o funcionamento da mente.
Verificando, na pesquisa que realizamos, os estudantes que tiveram uma performance superior de leitura e compreensão, fizemos uma descoberta interessante. Para ler, ler bem e compreender de modo rápido, não necessitamos apenas focar nossas retinas em um texto, ao contrário, ler rapidamente e ler bem pode significar muito mais a capacidade de não transferir registros de sinais gráficos mecanicamente e muito mais de não lê-los. Assim, uma boa prática de leitura é mais do que exercitar o foco central exigido por nossas retinas em um texto.
Na verdade, a velocidade não é uma determinante absoluta para a qualidade da leitura, mas indica uma performance associada à compreensão, que pode contribuir para entendermos e melhorarmos o desempenho da aquisição de conhecimento através da leitura. Um texto em uma língua, em um léxico que não dominamos, chinês, japonês ou mesmo uma língua como o inglês, pode ser capturado pelos olhos, mas não imediatamente compreendido. Não faltará apenas a informação visual, mas também a informação não-visual necessária para a nossa compreensão. A informação não-visual que utilizamos na leitura compreende tanto o conhecimento da língua como do assunto do texto, e ainda nossa bagagem lexical acumulada e nossos conhecimentos acerca do que compõe a teoria do mundo.
Em nossos testes vimos que a velocidade de leitura depende do exercício acumulado, ou seja, da própria prática de ler, do desenvolvimento da disciplina e da concentração focal, mas depende também, sobretudo, do envolvimento emocional do leitor com a temática, o que é determinante para a conquista da qualidade interpretativa presente nos próprios estímulos do que está sendo capturado pela visão. Ler com prazer é muito mais eficaz.
Assim, um outro efeito líquido para a educação sistemática é que a leitura de um texto pagus é um processo que envolve um estado de mentitude muito complexo. Ler não é fácil e envolve tempo e dedicação. A dominância do pagus sobre o pensamento implicou em duas grandes metodologias de reconstrução simbólica da realidade. A primeira é aquela que se subordinou à ideia de tempo, de precisão linear, presa ao conhecido cronos (tempo cronológico), ou seja, uma representação temporal do tempo, como uma flecha que se dirige permanentemente em uma direção progressiva e nunca mais reencontrará o seu início. A segunda é que isto acabou por levar-nos a um entendimento muito equivocado de inteligência e memória humana.
Por isso pensar e ler cansa. Depois de algumas horas estudando, lendo ou traduzindo um texto ou realizando uma tarefa mental repetidamente, sem descanso, nosso desempenho acaba se deteriorando em vez de melhorar, e é preciso parar antes que os erros fiquem maiores do que gostaríamos.
Como acontece esta transformação de elementos gráficos em simbólicos, de letras em significados, de palavras escritas em sons falados? Como se enquadra a compreensão da linguagem na percepção, para garantir uma rápida captação da informação linguística através de canais não construídos para este efeito? O fato de a leitura parecer, para a maioria das pessoas, tão isenta de dificuldades, resulta de milhares de horas de exercícios e mostra, mais uma vez, como o cérebro humano é flexível. Pode aprender atividades que, no seu caso, não foram instaladas no início. Deduzimos por fim que as antigas atividades de leituras dirigidas e práticas de leituras e de oficinas de leituras coletivas e individuais de texto pagus em salas de aula do ensino básico e médio não estão sendo realizadas e, infelizmente, essas práticas estão sendo abandonadas na formação de base de nossos estudantes atuais. Isso pode comprometer seriamente a complexidade da compreensão de hermenêuticas de profundidade e da complexa conquista do conceito.
Referências Bibliográficas
ASTLE, Thomas. The origin and progress of writing. Londres: Edição do autor, 1784.
BRUCE, V. Recognizing Faces. Londres: Lawrence Erlbaum Ltd., 1988.
CAPRA, Fritjof. A Teia da Vida. São Paulo: Cultrix, 1998. p. 183.
HERCULANO-HOUZEL, Suzana. Por que o bocejo é contagioso? e outras curiosidades no cotidiano. Rio de Janeiro: Jorge Zahar, 2007.
LENT, Roberto (Org.). Neurociência da Mente e do Comportamento. Rio de Janeiro: Guanabara Koogan, 2008.
LIBERATO, Y. & FULGÊNCIO, L. É Possível facilitar a leitura: um guia para escrever claro. São Paulo: Contexto, 2007.
LIMA, Gilson. Nômades de Pedra: Teoria da sociedade simbiogênica contada em prosas. Porto Alegre: Escritos, 2005.
___________. Redescoberta da mente na educação: a expansão do aprender e a conquista do conhecimento complexo. Edu. Soc. Campinas v. 30 n. 106. Jan/abr, 2009: 151-174.
OLSON, David. O mundo no papel: implicações conceituais e cognitivas da leitura e da escrita. São Paulo: Ática, 1997.
PASCUAL, O. et al. Astrocytic Purinergic Signaling Coordinates Synaptic Networks. Science Magazine. Washington: American Association for the Advancement of Science (AAAS). V. 310, n. 5745, p. 113 – 116, Out. 2005.
ROTTA, Newra Tellechhea et al. Transtorno da Aprendizagem: abordagem neurobiológica e multidisciplinar. Porto Alegre: Artmed, 2006.
SIGMAN, Mariano. Breve lapso entre o ovo e a galinha. São Paulo: Perspectiva, 2007.
SPITZER, Manfred. Aprendizagem. Lisboa: Climepsi Editores, 2007
___________. Anotações esparsas de palestra proferida em Porto Alegre, outubro 2007, s/p.
==============================================
[iii] Existem diferentes tipos de memórias declarativas e não declarativas. As memórias declarativas são diferentes das não declarativas, principalmente por envolver alguma imaginação simbólica reconstrutiva a ser declarada na evocação de sua lembrança (eventos, nomes, conceitos,...). Tentemos recordar um nome de um amigo, de uma escola, de um conhecido. Trazer à tona o rosto dessa pessoa, sua voz, sua maneira de falar e suas lembranças conectadas a eventos significativos, tudo isso, envolve, de algum modo, na sua evocação, alguma imaginação e uma efetiva reconstrução de cenas ou eventos que ocorreram. Quanto mais longínquo for o tempo que ocorreu a lembrança, certamente maior será o grau de significância e intensidade emocional que depositamos nela. Pensamos agora em três tipos de memórias declarativas: as memórias de trabalho, que utilizamos para entender a realidade que nos rodeia e que são também importantes para formarem as outras memórias declarativas; as memórias de curta duração ou de curto prazo, que duram segundos, minutos, no máximo horas; e as memórias de longa duração ou longo prazo, também chamadas de memória remota e que duram dias, anos ou décadas.