quarta-feira, 27 de março de 2013

A METÁFORA COMPUTACIONAL DO CÉREBRO => a Síndrome de Frankenstein => criamos máquinas cognitivas e não máquinas inteligentes


Dr. Gilson Lima
Sociólogo e cientista em reabilitação

gilima@gmail.com 

Os elementos guardados na mente não possuem nomes e não são ordenados em pastas. Eles são acessados não por um nome, mas pelo conteúdo. Você pode “ver” tudo que está em sua mente sob o ponto de vista do passado, do presente e do futuro. Na moderna ciência da computação, existe um conceito chamado lifestream, que consiste em organizar as informações de forma parecida com a da mente humana. David Gelernter (“guru” da elite digital).

Quando os computadores folheiam as Web Pages, não sabem a que (elas) se referem. Os computadores estão apenas transmitindo bits, que, no que lhe diz respeito, não precisam ter necessariamente um significado. Estão apenas atuando como um grande sistema telefônico.
Cliff Stoll (Astrofísico considerado um cético pelos membros da elite digital).


Extraído do livro: Nômades de Pedra: Teoria da sociedade simbiogênica. 


Prosa A metáfora computacional e a Síndrome de Frankenstein: criamos máquinas cognitivas e não máquinas inteligentes   ppgs 203-216.
Dr. Gilson Lima 
Prefácio feito por Domênico de Masi no Livro: Nômades de pedra. Autor: ©Gilson Lima, 2005.
Capa e projeto gráfico Bureau Escritos
Revisão: Lúcia Regina Lucas da Rosa
Revisão Final: Iara Linei Romero


Dados Internacionais de Catalogação na Publicação (CIP)

L832n       Lima, Gilson Luiz de Oliveira
                      Nômades de pedra: teoria da simbiogênese contada em
                 forma de prosas / Gilson Lima ; Prefácio: Domênico De Masi. Tradutora do prefácio Flávia
                  Movizzo Smith. ¾  Porto Alegre: Escritos, 2005
                      306 p. ; il.

                     ISBN: 85-98-33422-4

         1. Sociologia Contemporânea. 2. Prosa Sociológica. 3. Estu-
     dos de Tecnologia e Sociedade. 4. Sociologia das Ciências.
     5. Cultura e Sociologia. 6. Literatura e Sociologia. I. Smith,
     Flávia Movizzo. II. Título.

                                                                  CDD  301
                                                                            301.2
Bibliotecária Responsável: Ginamara Lima Jacques Pinto CRB 10/1204

Todos os direitos desta edição reservados ao autor: Gilson Lima.
gilima@gmail.com

Escritos editora
Porto Alegre –RS
www.escritos.com.br
escritos@escritos.com.br
Brasil/2005


Os fundacionistas (fundadores) da moderna informação computacional (cientistas e matemáticos), sonhavam em construir um modelo reduzido do cérebro humano. Esse modelo se materializaria em máquinas, que seriam autônomas o suficiente, para criar e solucionar problemas abstratos. Teriam capacidade de manipular, simultaneamente, uma enorme quantidade de dados. Acreditava-se que, num futuro bem próximo, seriam criados artefatos pensantes superiores aos homens.
Nesse sentido, divergimos claramente dos enfoques históricos muito presentes entre os tecnólogos e na vasta literatura editorial destinada ao moderno mercado empresarial. Esse enfoque resulta da demasiada primazia atribuída ao papel dos componentes eletrônicos na classificação das temporalidades históricas da Informática. Suas periodizações transformam-se ironicamente em gerações. Assim, vemos freqüentemente classificações do tipo: máquinas de primeira geração (a válvula), de segunda geração (transistorizadas), de terceira geração e assim por diante. Essa classificação é totalmente operatória e visa identificar o ritmo histórico da moderna informação numérica, como se esse ritmo fosse apenas determinado pela evolução dos componentes desses artefatos eletrônicos construídos pela Engenharia instrumental. Essa abordagem cria uma armadilha, fazendo-nos crer que, a cada conquista de um novo componente eletrônico, teremos um novo impacto cultural. Defenderemos que essa abordagem sofre de uma síndrome a qual denominamos Síndrome de Frankenstein.
O sonho da criação de um modelo reduzido de cérebro humano por parte dos fundacionistas da moderna informação computacional não se concretizou até hoje. Uma boa dose de confusão é causada pelo fato de os informaticistas usarem termos como “inteligência”, “memória” e “linguagem” para descreverem os recursos computacionais. Uma vez que essas expressões referem-se aos fenômenos humanos, tal nomenclatura pode induzir os cientistas a graves equívocos. A significância da inteligência consiste na operação de se agir de maneira adequada quando um problema não é claramente definido e as soluções não são evidentes. Nessas situações, o comportamento humano inteligente baseia-se em práticas e reflexões existenciais acumuladas por meio de múltiplas experiências. A inexistência da capacidade de abstração, e as limitações intrínsecas às operações formais dos artefatos digitais os tornam impossibilitados de serem dotados de inteligência.  

A fixação na “Síndrome de Frankenstein” dividiu os informaticistas modernos. Alguns cientistas e pesquisadores pensaram em instituir uma “ciência total da informação” a fim de produzirem artefatos dotados de inteligência autônoma, seja ela menor, igual, ou para alguns, superior à inteligência humana (“inteligência artificial”). Assim, eles investiram todas as suas energias na construção de máquinas pensantes e programas numéricos “inteligentes”. 
Desde os primeiros dias da Inteligência Artificial, um dos maiores desafios tem sido o de programar um computador para entender a linguagem humana. Apesar de gerarem múltiplos ganhos para a automação industrial e, sobretudo para a robótica, esses esforços traduziu-se em conquistas muito tímidas, se comparadas às ambições dos cientistas. Após várias décadas de trabalhos frustrantes sobre esse problema, pesquisadores em Inteligência Artificial estão começando a entender que os seus esforços estão fadados a continuarem inúteis, pois o computador e a sua arquitetura digital, não podem entender a linguagem humana num sentido significativo. A questão é: a linguagem humana está embutida numa teia de convenções sociais e culturais, a qual fornece um contexto de significados não-expressos em palavras. Os seres humanos entendem esse contexto, porque faz parte de um “senso comum”, mas um computador não pode ser programado e/ou dotado desse “senso comum”. Portanto, ele não entende a linguagem.  

Nesse sentido, muito se tem feito para que os programas digitais e as máquinas cognitivas entendam, de modo automático, a linguagem humana. Tais programas interagem com o comando de voz, dispositivo simbiótico muito importante e que envolve, não apenas o processamento lógico, mas o emocional da comunicação oral humana. Apesar das dificuldades implícitas, as pesquisas já estão obtendo resultados significativos. Hoje, através de uma página Web com mineração sintática que, com grande eficácia transforma caracteres em voz, podemos encontrar cegos ouvindo a leitura de um jornal. Não podemos deixar de levar em consideração que, apesar dos feitos grandiosos, a mineração sintática permite-nos, desde uma simples localização de termos até a identificação de hipóteses em grandes bases textuais. Na simbiose com a comunicação humana, ela apenas reduz o fosso entre a formalização sistêmica da oralidade e a sua modulação lógica em contextos interpretativos. 

No entanto, o problema de que um computador não possa entender a linguagem humana em níveis simbióticos mais profundos, não significa, como já vimos, que ele não possa ser programado para reconhecer e para manipular estruturas lingüísticas simples e compartilhar processos conectivos com nossa mente biológica.
Outros cientistas e pesquisadores, insatisfeitos com os resultados alcançados na busca de replicação do cérebro humano, abandonaram o princípio da substituição parcial ou total da inteligência humana, por um ser artificial dotado de potência pensante. Abandonaram, também, a pretensão de criarem uma ciência que possua o monopólio disciplinar do objeto informação. Assim, passaram a empenhar-se na produção de uma infinidade de artefatos eletrônicos a fim de dar suporte aos múltiplos campos do conhecimento humano. 

Foi a partir daí que esses informaticistas provocaram dois significativos impactos sociais. O primeiro foi uma crescente eliminação, numa velocidade exponencial, de múltiplas atividades humanas no mundo do trabalho e de muitos processos cognitivos na produção do conhecimento que se realizava através do monopólio da mente humana. O segundo foi a possibilidade de quase todos os campos sociais do conhecimento humano, compartilharem e manipularem diferentes artefatos e recursos digitais que constituíam meios físicos (hard) ou imateriais, que eram programas numéricos (soft), nos diferentes processos e atividades do mundo do saber/fazer. Esse compartilhamento está intensamente integrado em médias e grandes redes numéricas, está permitindo progressivamente que um vasto acervo de registros e informações esteja sendo estocado por quase todos os diversos campos do saber, dotando-os de significativa precisão, bem como de alta qualificação operacional.

Num momento determinado, diante da crise decorrente da inadequação entre suas ambições e os resultados alcançados, esse grupo dividiu-se em dois subgrupos: o daqueles que decidiram continuar a manter seus esforços no caminho da construção da inteligência artificial e do modelo computacional da mente, com suas abordagens, entre outras do conexionismo (redes “neurais”) e o outro, ao contrário, incorporou-se a uma perspectiva transdisciplinar, simbiótica, dos saberes e dotou e está dotando múltiplos campos do conhecimento de um processamento informacional mais preciso, qualitativo e muito mais compartilhado com a inteligência humana.

É certo que os artefatos digitais desempenham funções indisponíveis em outros recursos automáticos, como o armazenamento de dados, textos, imagens, sons e hipertextos, podendo ainda se “comunicar” entre si. Isso nos permite, cada vez mais, compartilharmos conhecimentos por meio de uma ou diversas e vastas redes digitais com seus permanentes fluxos de recuperação primária e de interação ambiental e simulações. Entretanto, as idéias, as soluções criativas, só podem ser obtidas por meio do pensamento e não pelo computador. O culto ao computador deixa a impressão mágica de que um “progresso” está em curso sem a sua participação.* Não devemos esquecer que a própria arquitetura do computador é histórica e está sendo ultrapassada para dar conta de simbioses mais profundas com a vida humana. Ou seja, já estamos entrando numa época que vivenciamos o fim do computador, ou pelo menos o fim do seu monopólio de acessarmos as redes em nossas interações simbióticas. 


Arquiteturas semióticas mais profundas das máquinas cognitivas também estão sendo testadas, como as que integram, de modo mais intenso, na própria engenharia maquínica, componentes inorgânicos e orgânicos, com arquiteturas baseadas em DNA e com presença de chips orgânicos vivos que juntamente com a nanotecnologia fará desaparecer de nossos olhos o velho, feio e desajeitado computador de silício. Depois da introdução do computador ser um dos principais responsáveis pela eliminação da força viva no trabalho industrial, está chegando a vez de ser ele ultrapassado pela revolução mais intensamente simbiótica do que a computacional, tal como a conhecemos hoje.

Um parêntese nessa questão. É certo que uma tecnologia boa é também uma tecnologia bela. Se dermos importância a excelência em tecnologia, seremos muito reducionistas se não considerarmos também sua estética, sua elegância, seu conforto e sua beleza. Os jovens engenheiros e cientistas, construtores de computadores, parece que esqueceram disso. Um pouco disso seria evitado se eles estudassem em seus cursos universitários desenho, história da arte e design. É claro que educação artística não é uma poção mágica, contudo, poderia tornar a coisa menos pior nesse sentido. 

O que conhecemos como computador, ainda hoje, é o padrão da arquitetura do computador pessoal, projetado pela, na época gigante, IBM (IBM-PC em 1981), e que, convenhamos, é muito feio, um absurdo estético e que também desconsidera o mínimo do conforto necessário aos seus usuários. Encontramos esse tipo de máquina em quase todos os escritórios do mundo e em milhares e milhares de casas por esse planeta afora. Não estou sozinho nessa crítica, vejam o que diz um dos mais respeitados gurus da informática, David Gelernter: 

“Somos centralizados e obrigados a consumir uma versão eletrônica de um fusquinha, uma configuração fácil de ser montada, um santuário permanente da primeira solução que veio a cabeça. E todos eles são iguais. Essa mesmice absoluta tem suas virtudes, mas outros materiais, por exemplo, também têm. Há milhões de tipos de plásticos – opaco ou transparente, fosco ou brilhante, marmorizado, com bolinhas, listrado -, mas quase todos os computadores que encontramos têm o mesmo acabamento liso e fosco e têm quase a mesma cor. Quando bebem e ficam alucinados, os projetistas de computadores sonham com cores tão extravagantes como cinza-claro desbotado e branco-ovo neutro e, após tamanho afã criativo, desmaiam”. 

Se o design é tedioso, eles praticamente ignoram o conforto para o usuário.  Aquele monitor quadrado tem que ficar a 30 centímetros ou mais de nossos rostos, e os nossos dedos devem estar sempre, bem próximos, ao teclado. Precisamos de muito espaço quando estamos trabalhando, por exemplo, gostamos de tomar café, mas os computadores determinam nossos espaços e acabam por colonizar nossos hábitos. É preciso, por justiça, fazer uma tímida exceção aos computadores da Apple, que sempre tiveram mais preocupação com essa questão, pelo menos da estética. Porém, mesmo os computadores pessoais Machintosch e seu software operacional, não são a última palavra em elegância. O Machintosch, lançado há mais de uma década, passou todo esse tempo sem uma grande mudança, sequer nessa questão. Somente nesses últimos dois anos é que ele recebeu alguma mudança, mas que não enfrentou significativamente o marasmo da estagnação estética e muito menos a simbiose qualificada com os usuários em matéria de conforto e de praticidade em si, como certamente todos gostaríamos que ocorresse. Aqui, junto com Gelernter, termina nosso parêntese.

A informação analógica tem como suporte um sinal contínuo, uma oscilação, que se propaga por um fio elétrico, ao passo que, na informação digital, os registros são tratados, uns após os outros, na unidade lógica. O computador, assim, é concebido como uma máquina de estados discretos. Uma informação digital é lógica e expressa uma codificação de forma simbólica, por algoritmos decimais ou, mais geralmente, por unidades binárias. Um computador processa informações, ou seja, manipula símbolos com base em certas regras. 

Por sua vez, os símbolos são elementos distintos da matéria física existente no interior do computador, precisando ser introduzidos de fora, seja através da direta interação humana, seja através de sua captura por múltiplos sensores. É certo que os computadores em rede não apenas absorvem injeções externas de símbolos introduzidos passo a passo por interação humanas, como compartilham protocolos simbólicos em rede sem exigir a presença humana na interação e, compartilham, também, protocolos simbólicos entre as próprias máquinas e artefatos, automaticamente. No entrando, eles não compreendem significativamente essas interações durante seus processamentos, nem sequer têm consciência delas, não ocorre sequer uma mudança física na máquina, ou seja, a estrutura do computador é fixa, determinada pela engenharia de sua construção atual. 

A realidade não é discreta, nem é contínua e nem é lógica. É, sim, muito mais que os neopositivistas admitem: analógica. O bit está no mundo, mas o mundo não é o bit, sequer feito de bit, muito menos só de silício, esse abundante elemento que a natureza de nosso planeta nos brindou e que integra os microchips. Nós somos uma complexa unidade de carbono com sistema nervoso e consciência, não somos apenas um produto funcional como uma unidade de silício. Somos simbioticamente integrados numa complexa energia chamada vida. Tudo isso parece óbvio, mas não custa nada dizer, até por que, muitas vezes, é necessário que o óbvio seja dito.

A cognição humana envolve linguagem e pensamento abstratos. Portanto, símbolos e representações mentais. Porém, o pensamento abstrato constitui apenas uma pequena parcela da cognição humana, não sendo, geralmente, a base para as nossas decisões e ações. As decisões humanas nunca são completamente racionais, estão sempre coloridas por emoções, e o pensamento humano está sempre encaixado nas situações e nos processos corporais que contribuem para o pleno espectro da cognição. Acontece que o pensamento racional filtra a maior parte desse espectro cognitivo e, ao fazê-lo, cria uma “cegueira de abstração”. Num programa de computador, ao contrário, diversos processos, comandos e tarefas são inseridas sob a forma de uma coleção limitada de objetos, de propriedades e de operações, coleções essa que incorpora a “cegueira” que surge com as abstrações na criação do programa.  

No entanto, há restritos domínios de tarefas nos quais essa cegueira não impede um comportamento que se mostra inteligente. Por exemplo, muitos jogos são acessíveis a uma aplicação de técnicas capazes de produzir um programa que derrota os oponentes humanos. [...] São áreas nas quais a identificação das características relevantes é direta e a natureza das soluções é clara. 

A Síndrome de Frankenstein também está presente nas pretensões de alguns cientistas e pensadores, como a do otimista francês Pierre Levy, que comemora o surgimento da Internet ou da rede mundial Web, como um “matrix da inteligência coletiva”, No entanto, apenas do ponto de vista tecnológico, o processo de comunicação entre máquinas ainda é muito primário. A World Wide Web (www), essa enorme página eletrônica do mundo, facilitou, e muito, o acesso do usuário à Internet, transformando-a nessa enorme malha mundial de fluxos e links, por tratar-se de uma linguagem com interface gráfica, que permite conexões entre imagens, textos, sons etc. A www permitiu a expansão da Internet, numa enorme velocidade, entretanto, pelo seu padrão de comunicação, ela não permite que as máquinas computacionais elaborem seus próprios raciocínios e pensamentos. Estamos ainda muito longe da comunicação inteligente entre máquinas. Quando os computadores folheiam as diversas páginas da WEB - através de interface humana - eles não entendem o que essas páginas significam, apenas executam a transferência de conteúdos binários. Estão atuando como se fosse um grande sistema telefônico. 

Nosso misterioso cérebro, ao contrário, não armazena a memória sob a forma de fotografias fac-similares de objetos, de acontecimentos, de palavras ou de frases. Como indicam as novas e revolucionárias descobertas na área da Neurologia, o cérebro não “arquiva” a realidade como se ele fosse uma máquina de fotografia polaroid que registra pessoas, paisagens, caracteres ou objetos, assim como não armazena a realidade em fitas magnéticas sonoras de ruídos, de músicas ou falas, ou filmes de cenas da vida ou de contextos existenciais. Em resumo, as novas descobertas da Neurologia demonstraram que não parece existir imagem que sejam retidas no cérebro, mesmo em miniatura, em microfichas ou outro tipo de cópias. Em face da enorme quantidade de conhecimento que adquirimos, qualquer processo de armazenamento fac-similar colocaria problemas insuperáveis de capacidade; nossa cabeça, por exemplo, deveria ser, então, do tamanho de Júpiter. É bom lembrarmos de que Júpiter é o maior planeta do sistema solar e que graças a sua “incompetência” em não tornar-se uma estrela é que a fina película da vida reina na Terra.

Ao contrário, as novas concepções da Neurologia apontam na direção de que possuímos, de fato, uma memória reconstrutiva. Assim, as nossas sensações existenciais compartilhadas, ao serem evocadas, brotam de nossos sentidos e provocam na mente, surgimento de imagens, tentativas de réplicas de padrões mentais que um dia já foram experimentados afetivamente.  

O bit (binary digit) é uma unidade elementar de medida, que contém a informação concebida como grandeza física, não medindo nada diverso das transmissões de sinais. Quando transportamos informações para fora da órbita dos sinais, o bit desaparece, idéia mítica que pode nos levar a uma compreensão simplificada de que é a informação que mede a organização. Ainda que encontremos essa abordagem em inúmeras publicações editoriais destinadas ao mercado empresarial, ela reduz o conhecimento apenas ao enfoque físico e material da informação, contudo, a informação jamais poderá traduzir-se totalmente em termos de informação física. 

A informação computacional é numérica e digital, dependendo atualmente, para tudo, do cálculo binário. Não podemos, assim, reduzir a informação, apenas ao seu aspecto digital. A moderna informação da rede numérica limita-se a ser a superfície de um iceberg profundo do conhecimento, logo, uma verdadeira teoria da informação não pode deixar de ser metainformacional, isto é, só pode realizar-se quando integrada, articulada e “ultrapassada” no seio de uma teoria complexa da organização.  

Não existe apenas a palavra “código” para se exprimir à natureza da informação, nem apenas a palavra “programa” para se exprimir a sua generalidade. Tal afirmação não implica rejeitarmos esses termos, mas relaciona-se à necessidade de não nos encerrar dentro deles. A informação não é o mito e nem o bit. Ao contrário, a visão complexa da informação leva-nos a uma sociedade da comunicação, a uma sociedade que opera para a comunicação e não ao contrário, onde a comunicação tenha de se tornar serva de um único processo de transmissão, armazenamento e recuperação de informação, ou seja, onde todos nos tornemos escravos da moderna informação numérica.




A genialidade da metáfora borgeana pode nos ser muito útil para que se possa entender este dilema entre memória e conhecimento. Num criativo conto de Jorge Luis Borges intitulado Funes, o Memorioso,  o narrador descreve o personagem de nome Irineu Funes como alguém cronométrico, que sempre sabia, como ninguém, a hora exata, como se fosse um relógio. Certa vez, Funes passou a relatar ao narrador, casos de memórias prodigiosas encontradas no clássico livro escrito em latim, Naturalis Historia, de Plínio. Conforme essa obra, Ciro, rei dos persas, sabia o nome de todos os soldados de seus exércitos. Mitridates Eupator administrava a justiça expressando-se nos vinte e dois idiomas de seu império; Simônides inventara a mnemotécnica e Metrodoro professava a arte de repetir com fidelidade o que houvesse escutado uma só vez. De acordo com o autor do conto, o político iluminista Locke, “no final do século XVII, postulou (e reprovou) um idioma impossível, no qual cada coisa individual, cada pedra, cada pássaro e cada ramo tivessem um nome próprio”.   Funes projetou um idioma análogo, “mas o rejeitou por parecer-lhe demasiado geral e demasiado ambíguo”.  Com efeito, Funes não recordava somente cada folha de cada árvore de cada monte, como também cada uma das vezes que a tinha percebido ou imaginado” . Segundo o narrador, além do espanhol, sua língua nativa, Funes aprendera “sem esforço o inglês, o francês, o português e o latim”.  Também armazenava minuciosamente eventos e movimentos, relacionando-os a cada fração de tempo, discernindo “continuamente os tranqüilos avanços da corrupção, das cáries e da fadiga. Notava os progressos da morte, da umidade. Era solitário e lúcido espectador de um mundo multiforme e instantâneo e quase intoleravelmente, exato”.  Era-lhe muito difícil dormir, pois isso o distraía do mundo: “Funes, de costas no catre, na sombra, configurava cada fenda e cada moldura das casas que o rodeava”.  Apesar de Funes estar integrado ao imenso e inútil catálogo de lembranças, era quase incapaz de ter idéias geniais, de pensar de modo complexo, pois “Pensar é esquecer diferenças, é generalizar, abstrair. No abarrotado mundo de Funes não havia senão pormenores, quase imediatos”.   

O homem moderno é como Funes, pois, segundo Nietzsche, “[...] acaba por arrastar consigo, por toda a parte, uma quantidade descomunal de pedras indigestas de saber, que ainda, ocasionalmente, roncam na barriga [...]” . Imagine estarmos mergulhados num cotidiano existencial em que, como se não bastasse, lembrarmos de tudo o que lembramos, mas lembrarmos também de todos os momentos em que já nos lembramos sobre o que lembramos. Assim, realmente nos damos conta de que o tipo ideal de mente moderna assemelha-se à de Funes, que carregava o peso das lembranças da vida, acreditando que conhecer é memorizar, é acumular fisicamente dados e informações. Infelizmente, ao contrário do que se pensa, o acúmulo de conhecimentos em links, em fluxos apenas conecta, cruza, escorrega, navega, mas não permite que nos preocupemos em acumular de modo complexo o conhecimento. Para isso, é necessário que coloquemos no jogo simbiótico, uma dimensão muito mais complexa que a navegação em links nos permite, e que, somente a experiência, e muita experiência, nos permite adquirir.

No mundo da aceleração tecnológica, circulam teorias apocalípticas que vêem um grande perigo no homem ramificado e cercado por máquinas sedutoras. As tecnologias são vistas como drogas, que possuem um caráter alucinógeno e alucinatório que, como qualquer droga, aprisionam o homem em existências virtuais de alta sofisticação. A exemplo do que ocorre ao viciado em drogas, o homem acabará por perder o controle sobre as máquinas, tornando-se incapaz de manter um comportamento sadio diante da interação com elas. Assim, infelizmente, o mundo dos que pesquisam os efeitos da aceleração tecnológica dividiu-se entre o dos apocalípticos e o dos integrados.

Acredito que a simbiogênese caminha entre esses dois extremos (entre os apocalípticos e os integrados) sem deixar-se levar pelos fantasmas adrenalizantes e superficiais. Porém, não podemos esquecer que criamos outros fantasmas conservadores. Acredito que, mesmo sendo assustadores, nossos fantasmas não devem nos imobilizar pelo terror ou pela veneração alucinógena, pois somos “entes simbióticos” mais reflexivos e muito complexos. Por exemplo, temos uma mente tão complexa, não apenas no seu nível bio-eletro-químico funcional, que seria necessário mudarmos completamente as nossas limitações de pensarmos sobre o mundo e a vida para simplesmente entendermos sua energia invisível, velocidade, potência, a sua “alma”.


Infelizmente, há uma notável dissonância entre as conquistas aceleradas da indústria computacional, motivadas quase que exclusivamente por fortes interesses comerciais e as pretensões mais sérias da inteligência produtora do otimismo científico e tecnológico da informação computada. Nos laboratórios de pesquisas mais avançadas do mundo digital, cada vez mais privadas, começa a crescer o entendimento de que o computador, assim como o conhecemos hoje, deixará de existir em pouco tempo. As pastilhas de silício – os chips – estão deixando de ser de uso exclusivo de um computador e encontra-se em toda parte. Também com o surgimento das TVs e vídeos digitais acoplados ao comando de voz, certamente tanto o acesso à rede digital como o próprio processamento dos conteúdos no seu interior, sofrerá mudanças significativas.


Através de novos domínios da informação digital podemos e poderemos acessar, receber, transmitir e manipular interativamente conteúdos, textos ou imagens estáticas ou em movimento, presencial e a distância através de broches, canetas, periféricos diversos, chips integrados ao corpo ou a objetos como paredes, lâmpadas, plantas.


Isso não implica em reconhecer a restrita compreensão da inteligência da indústria computacional e nem de desmerecer a invenção do computador que permitiu que se inaugurasse uma nova forma de comunicar, de guardar e manipular informações. Trata-se da emergência da moderna informação digital que, como vimos, passa a ter os seus registros encapsulados de modo organizado por máquinas e artefatos cognitivos que computam processamentos numéricos binários. 

É certo que os velhos e novos artefatos digitais têm capacidades que outros recursos automáticos não possuem (como armazenar dados, textos, imagens, sons, hipertextos e fazer uma recuperação primária desses). Esses artefatos podem, ainda, transferir dados, textos, sons e imagens entre si. Cada vez mais compartilhamos. O conhecimento nutre-se de uma ou de diversas e vastas redes digitais com seus permanentes fluxos de recuperação primária e de interação ambiental e simulações. Isso já é muito e os impactos sociais e societários são imensos para que nos preocupemos, o que não significa que devemos compartilhar da Síndrome de Frankenstein produzida pelos deterministas tecnológicos.

Nenhum comentário: