segunda-feira, 23 de dezembro de 2019

segunda-feira, 16 de dezembro de 2019

PÍLULAS DA SIMBIOGÊNESE => A INTELIGÊNCIA ARTIFICIAL É INTELIGENTE?



Estou criando uma série de vídeos rápidos  de até 5 minutos (de minhas palestras, atividades de pesquisa) => PÍLULAS DA SIMBIOGÊNESE para difundir a Teoria social que tenho trabalhado por mais de uma década.

Essa primeira pílula é sobre a minha polêmica relação com a falácia da Inteligência Artificial. 

quarta-feira, 11 de dezembro de 2019

PONTOS DE INFLEXÃO CLIMÁTICA - muito arriscado para apostar


A crescente ameaça de mudanças climáticas abruptas e irreversíveis deve obrigar a ação política e econômica sobre emissões.



Um avião sobrevoando um rio de água derretida na geleira no Alasca

Um avião sobrevoa uma geleira no Parque Nacional Wrangell St Elias, no Alasca. Crédito: Frans Lanting / Nat Geo Image Collection

Políticos, economistas e até alguns cientistas naturais tendem a supor que os pontos de inflexão 
1 no sistema terrestre - como a perda da floresta amazônica ou a camada de gelo da Antártica Ocidental - são de baixa probabilidade e pouco compreendidos. No entanto, há evidências de que esses eventos podem ser mais prováveis ​​do que se pensava, têm altos impactos e estão interconectados por diferentes sistemas biofísicos, comprometendo potencialmente o mundo a mudanças irreversíveis a longo prazo.
Aqui, resumimos as evidências sobre a ameaça de ultrapassar pontos críticos, identificamos lacunas de conhecimento e sugerimos como elas devem ser eliminadas. Exploramos os efeitos de tais mudanças em larga escala, a rapidez com que elas podem ocorrer e se ainda temos controle sobre elas.
Em nossa opinião, a consideração de pontos críticos ajuda a definir que estamos em uma situação de emergência climática e fortalece o coro de pedidos deste ano para ações climáticas urgentes - de crianças em idade escolar a cientistas, cidades e países.
O Painel Intergovernamental de Mudanças Climáticas (IPCC) introduziu a idéia de pontos de inflexão duas décadas atrás. Naquela época, essas 'descontinuidades em larga escala' no sistema climático eram consideradas prováveis ​​apenas se o aquecimento global exceder 5 ° C acima dos níveis pré-industriais. As informações resumidas nos dois Relatórios Especiais do IPCC mais recentes (publicados em 2018 e em setembro deste ano) 2 , 3 sugerem que os pontos de inflexão podem ser excedidos mesmo entre 1 e 2 ° C de aquecimento (consulte 'Muito perto para o conforto').


Fonte: IPCC

Se as atuais promessas nacionais de reduzir as emissões de gases de efeito estufa forem implementadas - e esse é um grande "se" -, provavelmente resultarão em pelo menos 3 ° C de aquecimento global. Isso apesar do objetivo do acordo de Paris de 2015 de limitar o aquecimento a bem abaixo de 2 ° C. Alguns economistas, assumindo que os pontos críticos do clima têm uma probabilidade muito baixa (mesmo que sejam catastróficos), sugeriram que o aquecimento a 3 ° C é ideal do ponto de vista de custo-benefício. No entanto, se os pontos de inflexão parecem mais prováveis, a recomendação da "política ideal" para os modelos simples de economia climática de custo-benefício 4 está alinhada com a do recente relatório do IPCC 2 . Em outras palavras, o aquecimento deve ser limitado a 1,5 ° C. Isso requer uma resposta de emergência.

Colapso do gelo

Acreditamos que vários pontos críticos da criosfera estão perigosamente próximos, mas a mitigação das emissões de gases de efeito estufa ainda pode desacelerar o inevitável acúmulo de impactos e nos ajudar a nos adaptar.
Pesquisas realizadas na década passada mostraram que o carregamento do mar de Amundsen na Antártida Ocidental pode ter passado de um ponto de inflexão 3 : a 'linha de aterramento' onde o gelo, o oceano e a rocha se encontram está recuando irreversivelmente. Um estudo-modelo mostra 5 que, quando esse setor entra em colapso, ele pode desestabilizar o restante do manto de gelo da Antártica Ocidental, como derrubar dominós - levando a um aumento de cerca de 3 metros no nível do mar em uma escala de tempo de séculos a milênios. Evidências de Paleo mostram que esse colapso generalizado da camada de gelo da Antártica Ocidental ocorreu repetidamente no passado.
Os dados mais recentes mostram que parte da camada de gelo da Antártica Oriental - a Bacia de Wilkes - pode ser igualmente instável 3 . O trabalho de modelagem sugere que ele poderia adicionar outros 3 a 4 m ao nível do mar em escalas de tempo além de um século.
A camada de gelo da Groenlândia está derretendo a uma taxa acelerada 3 . Poderia adicionar mais 7 m ao nível do mar ao longo de milhares de anos se ultrapassasse um determinado limiar. Além disso, à medida que a elevação da camada de gelo diminui, ela derrete ainda mais, expondo a superfície ao ar sempre mais quente. Os modelos sugerem que o manto de gelo da Groenlândia poderia estar condenado a 1,5 ° C do aquecimento 3 , o que poderia acontecer a partir de 2030.
Assim, poderíamos já ter comprometido as gerações futuras a viver com aumentos do nível do mar de cerca de 10 m ao longo de milhares de anos 3 . Mas essa escala de tempo ainda está sob nosso controle. A taxa de fusão depende da magnitude do aquecimento acima do ponto de inflexão. A 1,5 ° C, pode levar 10.000 anos para desdobrar 3 ; acima de 2 ° C, pode levar menos de 1.000 anos 6 . Os pesquisadores precisam de mais dados observacionais para estabelecer se as calotas de gelo estão atingindo um ponto de inflexão e exigem melhores modelos restringidos por dados passados ​​e presentes para resolver com que rapidez e rapidez as calotas de gelo podem entrar em colapso.
O que quer que esses dados mostrem, é necessário tomar medidas para diminuir a subida do nível do mar. Isso ajudará na adaptação, incluindo o eventual reassentamento de grandes centros populacionais baixos.
Um outro impulso importante para limitar o aquecimento a 1,5 ° C é que outros pontos de inflexão podem ser acionados em baixos níveis de aquecimento global. Os últimos modelos do IPCC projetaram um conjunto de mudanças bruscas 7 entre 1,5 ° C e 2 ° C, várias das quais envolvem gelo marinho. Esse gelo já está encolhendo rapidamente no Ártico, indicando que, a 2 ° C de aquecimento, a região tem 10-35% de chance 3 de ficar praticamente sem gelo no verão.

Limites da biosfera

As mudanças climáticas e outras atividades humanas correm o risco de desencadear pontos de inflexão da biosfera em uma variedade de ecossistemas e escalas (consulte 'Alarme').


Fonte: TM Lenton et al .

As ondas de calor do oceano levaram ao branqueamento em massa de corais e à perda de metade dos corais de águas rasas na Grande Barreira de Corais da Austrália. Um escalonamento 99% de corais tropicais são projectadas 2 para ser perdido se a temperatura média global sobe de 2 ° C, devido a interacções entre o aquecimento, a acidificação do oceano e poluição. Isso representaria uma profunda perda de biodiversidade marinha e meios de subsistência humanos.
Além de prejudicar nosso sistema de suporte à vida, os pontos de inflexão da biosfera podem provocar a liberação abrupta de carbono de volta à atmosfera. Isso pode ampliar as mudanças climáticas e reduzir os orçamentos de emissão restantes.
O desmatamento e as mudanças climáticas estão desestabilizando a Amazônia - a maior floresta tropical do mundo, que abriga uma em cada dez espécies conhecidas. As estimativas de onde pode estar um ponto de inflexão na Amazônia variam de 40% de desmatamento a apenas 20% de perda de cobertura florestal 8 . Cerca de 17% foram perdidos desde 1970. A taxa de desmatamento varia com as mudanças nas políticas. Encontrar o ponto de inflexão requer modelos que incluam o desmatamento e as mudanças climáticas como fatores de interação e que incorporem feedbacks de fogo e clima como mecanismos de interferência entre as escalas.
Com o aquecimento do Ártico pelo menos duas vezes mais rápido que a média global, a floresta boreal no subártico fica cada vez mais vulnerável. O aquecimento já provocou distúrbios em larga escala de insetos e um aumento de incêndios que levaram à morte das florestas boreais da América do Norte, potencialmente transformando algumas regiões de um sumidouro de carbono para uma fonte de carbono 9 . Permafrio através do Árctico está começando a dióxido de carbono irreversivelmente degelo e libertação e metano - um gás com efeito de estufa que é cerca de 30 vezes mais potente do que o CO 2 durante um período de 100 anos.
Os pesquisadores precisam melhorar sua compreensão dessas mudanças observadas nos principais ecossistemas, bem como onde estão os pontos de inflexão futuros. As reservas de carbono existentes e as possíveis liberações de CO 2 e metano precisam de uma melhor quantificação.
O orçamento de emissões remanescente do mundo, com uma chance de 50:50 de permanecer a 1,5 ° C do aquecimento, é de apenas 500 gigatoneladas (Gt) de CO 2 . As emissões de permafrost podem tirar cerca de 20% (100 Gt CO 2 ) deste orçamento 10 , e isso sem incluir o metano do permafrost profundo ou dos hidratos submarinos. Se as florestas estiverem próximas dos pontos de inflexão, o desmatamento da Amazônia poderá liberar outras 90 Gt CO 2 e as florestas boreais mais 110 Gt CO 11 . Com CO total mundial 2 emissões ainda em mais de 40 Gt por ano, o orçamento restante poderia ser tudo, mas já apagado.

Um mergulhador observa um grande clareamento nos recifes de coral das Ilhas da Sociedade, na Polinésia Francesa.
Corais branqueados em um recife perto da ilha de Moorea, na Polinésia Francesa, no Pacífico Sul. Crédito: Alexis Rosenfeld / Getty

Cascata global

Em nossa opinião, a emergência mais clara seria se estivéssemos nos aproximando de uma cascata global de pontos de inflexão que levassem a um novo estado climático de 'estufa' menos habitável 11 . As interações podem ocorrer através da circulação oceânica e atmosférica ou através de feedbacks que aumentam os níveis de gases de efeito estufa e a temperatura global. Como alternativa, feedbacks fortes da nuvem podem causar um ponto de inflexão global 12 , 13 .
Argumentamos que efeitos em cascata podem ser comuns. Pesquisas realizadas no ano passado 14 analisaram 30 tipos de mudança de regime que abrangem o clima físico e os sistemas ecológicos, desde o colapso da camada de gelo da Antártida Ocidental até a mudança da floresta tropical para a savana. Isso indica que exceder os pontos de inflexão em um sistema pode aumentar o risco de cruzá-los em outros. Tais links foram encontrados para 45% das possíveis interações 14 .
Em nossa opinião, exemplos estão começando a ser observados. Por exemplo, a perda de gelo no mar do Ártico está ampliando o aquecimento regional, e o aquecimento do Ártico e o derretimento da Groenlândia estão levando um influxo de água fresca ao Atlântico Norte. Isso poderia ter contribuído para uma desaceleração de 15% 15 desde meados do século XX da Circulação Meridional de Viragem do Atlântico (AMOC), uma parte essencial do transporte global de calor e sal pelo oceano 3 . O rápido derretimento da camada de gelo da Groenlândia e a desaceleração do AMOC poderiam desestabilizar as monções da África Ocidental, desencadeando a seca na região do Sahel na África. Uma desaceleração no AMOC também pode secar a Amazônia, atrapalhar as monções do leste asiático e causar o aumento de calor no Oceano Antártico, o que poderia acelerar a perda de gelo na Antártica.
O registro paleo mostra tombamento global, como a entrada nos ciclos da era do gelo há 2,6 milhões de anos e sua troca de amplitude e frequência em torno de um milhão de anos atrás, cujos modelos são apenas capazes de simular. As gorjetas regionais ocorreram repetidamente dentro e no final da última era glacial, entre 80.000 e 10.000 anos atrás (os eventos Dansgaard – Oeschger e Heinrich). Embora isso não seja diretamente aplicável ao atual período interglacial, ele destaca que o sistema da Terra era instável em várias escalas de tempo antes, sob forçamento relativamente fraco causado por mudanças na órbita da Terra. Agora estamos forçando fortemente o sistema, com a concentração atmosférica de CO 2 e a temperatura global aumentando a taxas de ordem de magnitude superior às da desglaciação mais recente.
O CO 2 atmosférico já está nos níveis vistos pela última vez há cerca de quatro milhões de anos, na época do Plioceno. Ele está caminhando rapidamente para níveis vistos pela última vez há cerca de 50 milhões de anos - no Eoceno - quando as temperaturas eram até 14 ° C mais altas do que nos tempos pré-industriais. É um desafio para os modelos climáticos simular esses estados terrestres do tipo 'estufa'. Uma possível explicação é a falta de um ponto de inflexão nos modelos: um modelo de resolução de nuvens publicado este ano sugere que o rompimento abrupto da nuvem de estratocúmulos acima de cerca de 1.200 partes por milhão de CO 2 poderia ter resultado em aproximadamente 8 ° C do aquecimento global 12 .
Alguns dos primeiros resultados dos mais recentes modelos climáticos - correm para relatório de avaliação sexto do IPCC, devido em 2021 - indicam uma sensibilidade climática muito maior (definida como a resposta de temperatura para a duplicação de CO atmosférico 2 ) do que nos modelos anteriores. Muito mais resultados estão pendentes e mais investigações são necessárias, mas para nós, esses resultados preliminares sugerem que um ponto de inflexão global é possível.
Para resolver esses problemas, precisamos de modelos que capturem um conjunto mais rico de acoplamentos e feedbacks no sistema Terra, e precisamos de mais dados - presentes e passados ​​- e melhores maneiras de usá-los. Melhorar a capacidade dos modelos de capturar mudanças climáticas abruptas no passado conhecido e estados climáticos de 'estufa' deve aumentar a confiança em sua capacidade de prever essas mudanças.
Alguns cientistas afirmam que a possibilidade de tombamento global permanece altamente especulativa. É nossa opinião que, dado seu enorme impacto e natureza irreversível, qualquer avaliação séria de risco deve considerar as evidências, por mais limitado que nosso entendimento ainda seja. Errar do lado do perigo não é uma opção responsável.
Se podem ocorrer cascatas de tombamento prejudiciais e um ponto de tombamento global não pode ser descartado, essa é uma ameaça existencial para a civilização. Nenhuma quantidade de análise de custo-benefício econômico nos ajudará. Precisamos mudar nossa abordagem para o problema climático.

aja agora

Em nossa opinião, apenas as evidências dos pontos de inflexão sugerem que estamos em um estado de emergência planetária: tanto o risco quanto a urgência da situação são agudos (consulte 'Emergência: faça as contas').

EMERGÊNCIA: FAÇA AS CONTAS

Definimos emergência ( E ) como o produto de risco e urgência. Risco ( R ) é definido pelas seguradoras como probabilidade ( p ) multiplicada por dano ( D ). Urgência ( U ) é definida em situações de emergência como tempo de reação a um alerta ( τ ) dividido pelo tempo de intervenção restante para evitar um resultado ruim ( T ). Portanto:
E = R × U = p × D × τ / T
A situação é uma emergência se o risco e a urgência forem altos. Se o tempo de reação for maior que o tempo de intervenção restante ( τ  /  T  > 1), perdemos o controle.
Argumentamos que o tempo de intervenção restante para evitar o tombamento já poderia ter encolhido em direção a zero, enquanto o tempo de reação para atingir as emissões líquidas zero é de 30 anos, no máximo. Portanto, talvez já tenhamos perdido o controle sobre se as gorjetas acontecem. Uma graça salvadora é que a taxa na qual os danos se acumulam ao tombar - e, portanto, o risco - ainda pode estar sob nosso controle até certo ponto.
A estabilidade e a resiliência do nosso planeta estão em perigo. A ação internacional - não apenas as palavras - deve refletir isso.
Nature 575 , 592-595 (2019)
doi: 10.1038 / d41586-019-03595-0

Referências
1) Lenton, TM et al. Proc. Natl Acad. Sci. USA 105 , 1786–1793 (2008).
2)IPCC. Aquecimento global de 1,5 ° C (IPCC, 2018).
3)IPCC. Relatório especial do IPCC sobre o oceano e a criosfera em um clima em mudança (IPCC, 2019).
4)Cai, Y., Lenton, TM e Lontzek, TS Nature Clim. Alteração 6 , 520–525 (2016).
5) Levermann, A. Proc. Natl Acad. Sci. USA 112 , 14191-14196 (2015).
6) Aschwanden, A. et al. Sci. Adv. 5 , eaav9396 (2019).
7) Drijfhout, S. et al. Proc. Natl Acad. Sci. EUA 112 , E5777 – E5786 (2015).
8) Lovejoy, TE & Nobre, C. Sei. Adv. 4 , eaat2340 (2018).
9) Walker, X. J. et al. Nature 572, 520–523 (2019).
10) Rogelj, J., Forster, P. M., Kriegler, E., Smith, C. J. & Séférian, R. Nature 571, 335–342 (2019).
11)  Steffen, W. et al. Proc. Natl Acad. Sci. USA 115, 8252–8259 (2018).
12) Schneider, T., Kaul, C. M. & Pressel, K. G. Nature Geosci12, 163–167 (2019).
13) Tan, I., Storelvmo, T. & Zelinka, M. D. Science 352, 224–227 (2016).
14) Rocha, J. C., Peterson, G., Bodin, Ö. & Levin, S. Science 362, 1379–1383 (2018).
15) Caesar, L., Rahmstorf, S., Robinson, A., Feulner, G. e Saba, V. Nature 556 , 191-196 (2018).

quinta-feira, 31 de outubro de 2019

A ALIANÇA DA INTELIGÊNCIA COM A MORTE: do computador aos satélites


Gilson Lima 
Em 2004 escrevi esse texto inspirado pelo momento da Guerra do Iraque - Chamada  de "Operação Liberdade Iraquiana", que começou em 20 de março de 2003.   
Nesses tempos onde a ideia de "armas" primárias são tidas ainda como talismã de segurança, decidi compartilhá-lho. Sempre é bom lembrar o lado obscuro dos poderosos.

Veremos de que no mundo das tecnologias informacionais nada se compara ao poder de fogo dos satélites militares. Os satélites Sigint (Signal Intelligence), por exemplo, são destinados a interpretar as comunicações em rádio e celulares, foram redirecionados, assim como os satélites-espiões capazes de obter imagens de alta resolução.
A história registra, em todos os grandes conflitos, o aparecimento de engenhosidades e tecnologias traduzidas em armas ou engenhos realizados por mentes brilhantes que desempenham um papel importante no curso das operações militares. Por exemplo, na Guerra Franco-Prussiana, de 1870, os franceses inauguraram, com grandes esperanças, o fuzil Chassepot, que tinha um alcance superior ao do fuzil alemão; sua derrota mostrou-lhes os perigos de uma falsa avaliação. A grande novidade dessa guerra, entretanto, não foi um armamento, mas a ampla utilização da rede ferroviária pelo Exército de Bismarck, mobilizando e concentrando rapidamente milhões de homens na fronteira, como nunca antes ocorrera.[1]
Porém, o Século XX foi de longe o mais assassino na história registrada. Na Primeira Guerra Mundial (1914-1918), o carro de combate e o avião como apoios para a infantaria tiveram sua estréia, ainda tímida. A Segunda Guerra (1939-1945), foi reveladora de invenções e engenhos como o submarino, tanques terrestres de longo alcance, potentes metralhadoras portáteis. Porém, nada foi tão impactante na Segunda Guerra quanto o aparecimento da bomba atômica que suplantou todas as expectativas em relação a armas de destruição. Também, a Guerra do Golfo (1991), maletas móveis que se conectavam em satélites inaugurou a guerra como espetáculo televisivo e os mísseis de direção eletrônica e teleguiados, deram uma amostra das inovações produzidas pela alta tecnologia militar.
Muito deste massacre destrutivo devemos a ciência e o que de melhor dispomos de inteligência humana no planeta em aliança com a industria da morte. O número total de mortes causadas por ou associadas a guerras no século passado foi estimado em 187 milhões, o equivalente a mais de 10% da população mundial em 1913.[2]
Sem desconsiderar a crueza do choque realizado pelos ataques ao World Trade Center e ao Pentágono em 11 de setembro, eles foram apenas um cisco no olho desta barbárie mortífera. O que queremos destacar aqui é que os sonhos mais das mais “avançadas mentes” e dos melhores cientistas provenientes de algumas universidades, sobretudo a partir da segunda grande guerra mundial, mesclaram-se com as mais amplas possibilidades de financiamento e experiências oferecidas por um exército de um país altamente industrializado: Os Estados Unidos. Desta articulação de interesses nasceu uma mortífera aliança destrutiva.
Ao longo do século, isto implicou um ônus da guerra ainda maior para os civis, que não eram apenas suas vítimas, mas cada vez mais o objeto de operações militares ou de ações militares-políticas. O contraste entre a Primeira Guerra Mundial e a Segunda é dramático: apenas 5% dos que morreram na Primeira Guerra eram civis; na Segunda Guerra esse número subiu para 66%. É geralmente suposto que de 80% a 90% daqueles afetados por guerras hoje sejam civis. A proporção aumentou desde o fim da Guerra Fria porque a maioria das operações militares desde então tem sido conduzida não por Exércitos conscritos, mas por grupos bem pequenos de tropas regulares ou irregulares, em muitos casos operando armas de alta tecnologia, oferecendo grande proteção contra a possibilidade de receber baixas.
Para ilustrar esta aliança da inteligência com a destruição e a morte, vejamos três exemplos singulares:

1º) na segunda grande guerra mundial envolvendo a criação do computador;
2º) um outro envolvendo a guerra de informações de satélites na guerra do Afeganistão;
 3º) por último o que a nova guerra dos Estados Unidos e da Inglaterra contra o Iraque podem estar para nos revelar neste sentido.


1 . A criação do computador

Comecemos então com o conhecido exemplo, da aliança na segunda grande guerra entre grandes mentes que se integraram às amplas possibilidades de financiamento de destruição, originando dessa conjunção a invenção e o nascimento do computador.
No final da segunda grande guerra, os estrategistas da moderna guerra destrutiva, já tinham se convencido que quem ganharia o grande conflito não seria quem detivesse a maior e mais qualificada infantaria e sua pesada artilharia terrestre. A guerra seria decidida pelo domínio da tecnologia de projétil à distância. Até aqui tudo bem, o problema é que este domínio implicava numa grande demanda por inúmeros cálculos rápidos. Regular ângulos do tiro a distância exigia mensuração de diversos como: vento, temperatura, etc...() Era preciso calcular entre 2.000 a 4.000 trajetórias possíveis. Cada trajetória exigia 750 multiplicações de 10 algoritmos. Neste sentido, para acelerar as necessidades de implantar mais rapidamente os cálculos das tabelas de balística, foi criado nos Estados Unidos em 1938 o BRL - Ballistic Research Laboratory . A demanda da guerra era 40 tabelas semanais e o BRL produzia apenas 15. A produção destas 15 tabelas inicialmente se dava através de “calculadoras humanas”, geralmente mulheres parentas de militares que lutavam na guerra e que tinham domínio das operações matemáticas simples.
O primeiro passo para se aproximar do desafio de calcular todas as variáveis de um projétil desde o seu lançamento até e, sobretudo, antes dele atingir o alvo começou a ser conquistado com um projeto secreto envolvendo as Forças Armadas Norte Americana e alguns cientistas da Moore Scholl: como o analisador diferencial de Vannevar BUSCH (foto ao lado). Este analisador, acelerava os cálculos e executava operações complexas com muita rapidez e anunciava que a era do sonhado computador estava próxima. Por exemplo, uma tabela completa demandaria 3 Séculos para ser completada com um ser humano trabalhando sozinho, de modo manual em 8 horas diárias. Com as mesmas oito horas diárias, um ser humano com uma máquina de calcular levaria 12 anos para executar esta mesma tabela completa. Porém, com o analisador diferencial, nesta mesma jornada, um ser humano levaria apenas um mês.
Alguns anos mais tarde, um projeto envolvendo renomados cientistas e matemáticos sob a coordenação militar criaram pela primeira vez uma máquina que realizaria a tão sonhada façanha de calcular todas as tabelas completas antes mesmo do alvo ser atingido por um míssil. O nome desta super calculadora, muito próxima da idéia dos modernos computadores era: ENIAC - Electronic Numerical And Calculator. Ela pesava 30 toneladas, ocupava mais de 100 metros quadrados, empregava cerca de 18.000 válvulas e 5 milhões de pontos de solda. Ela efetuava 4.500 cálculos por segundo, um assombro para época. Porém, esta supercalculadora tinha um poder de processamento não superior a uma mísera calculadora que qualquer estudante civil usa num bolso. (Veja foto acima  e abaixo).
O ENIAC não tinha monitor, teclado ou disco e interface com o usuário se limitava a algumas dezenas de interruptores, através do qual ligava-se e desligavam-se os bits na memória principal, e outras tantas lâmpadas que informavam o resultado obtido. O processo de alterar suas instruções necessitava ser ajustado a milhares de chaves e conectar centenas de cabos. 
O BRL contratou os melhores cientistas para que eles desenvolvessem uma supercalculadora chamada de ENIAC. Entre estes cientistas se destacava o matemático Von Neumann. No entanto, durante o projeto ENIAC, apesar da sua grande capacidade de cálculo, alguns cientistas deste projeto se deram conta de que o futuro não pertenceria às calculadoras. Não demorou muitos anos para que o exército americano e o inglês financiassem o primeiro computador em operação, realizando o sonho de muitos cientistas, ou seja, a conquista de construírem um modelo reduzido de cérebro humano. Hoje todos os mais complexos super computadores, projetos de computação quântica, etc. com seus poderosos poderes de processamento se encontram apenas sob domínio de poucas potências militares ou com projetos sob supervisão militar, e quase todos, têm como finalidade servir à guerra.

2. A guerra de informações de satélites na guerra do Afeganistão

O segundo exemplo foi à disputa pela informação, mais precisamente as disputas pela divulgação ou não de imagens de satélites entre as agências civis de notícias e as forças armadas dos Estados Unidos, na guerra no Afeganistão.
Por mais que seja verdade que o armamento de alta tecnologia tenha tornado possível em alguns casos restabelecer uma distinção entre alvos civis e militares e, portanto, entre combatentes e não-combatentes, não há razão para duvidar de que as principais vítimas da guerra continuarão a ser civil. E, mais, o sofrimento de civis não é proporcional à escala ou à intensidade das operações militares.
As Convenções de Haia de 1899 e 1907 codificavam as regras da guerra. Conflitos deveriam acontecer primariamente entre Estados soberanos ou, se ocorressem dentro do território de um Estado em particular, entre partidos suficientemente organizados para que fosse aceito o status de beligerância por parte de outros Estados soberanos. A guerra deveria ser agudamente distinta da paz, por uma declaração de guerra em uma ponta e um tratado de paz na outra.
Assim, as operações militares deveriam distinguir claramente entre combatentes -identificados pelos uniformes que usassem ou por outros sinais que indicassem pertencer a uma força armada organizada e civis não-combatentes. A guerra deveria ser entre combatentes. Não-combatentes deveriam, tanto quanto possível, ser protegidos em época de guerra. Sempre se entendeu que essas convenções não cobriam todos os conflitos armados civis e internacionais, e notadamente não cobriam aqueles que surgiam da expansão imperial de Estados ocidentais em regiões que não se encontrassem sob a jurisdição de Estados soberanos internacionalmente reconhecidos, ainda que alguns desses (mas de maneira nenhuma todos) conflitos fossem conhecidos como "guerras". As Convenções de Haia serviu como guias na Primeira Guerra Mundial, mas ao longo do tempo ela foi sendo desconsideradas.
É de conhecimento geral de que a tecnologia de satélites envolve muito elevado conhecimento e alta tecnologia e são poucos os países que dominam a tecnologia de sua construção e é ainda muito menor o clube de países que possuem autonomia de colocar um satélite no espaço. O Brasil, por exemplo, já constrói alguns tipos de satélites, mas precisa dos Estados Unidos para colocá-los no espaço. Ao fazerem isso, quase sempre, os países dependentes assinam termos de submissão, onde por exemplo, em caso de guerra as informações capturadas por estes satélites podem ser interceptadas ou redirecionadas pelos americanos, e só a eles cabe a decisão da divulgação de suas fotos e informações capturadas. 
No mundo da sociedade informacional isso é muito PODER. Atualmente, em lugar de usar o seu poder legal do controle de obstruir, o Pentágono está dotando outra estratégia: comparar com exclusividade todas as   imagens da região, mas impedindo que as informações sejam antes da censura realizada confrontadas pela mídia e outras empresas vencedoras de licitações espaciais. A ação que levou – muitas vezes - o Pentágono a recorrer a compra com exclusividade dos direitos sobre todas as imagens “perigosas” pode ser vista apenas como uma precaução militar, mas é pode ser utilizada também como censura. Qual a fronteira sadia e democrática entre estratégia militar e censura no espaço?
A questão é que os satélites comerciais são muito inferiores em potencia e precisão informacional que os militares espiões. Por exemplo: O Keyhole foi colocado com auxílio do foguete lançado na base da Força Aérea de Vandenberg na Califónia no espaço (dezembro de 1976). Este satélite é equipado com uma câmara digital Keyhole (buraco de fechadura), capaz de registrar com alta resolução objetos de cerca de 10 cm de comprimento na superfície terrestre. Outros satélites também foram utilizados no conflito contra o Afeganistão: O Orbimage-4, colocado em órbita um pouco antes da guerra (2001) é um satélite de sensoriamento remoto, que possui uma câmara capaz de capturar imagens da superfície terrestre em 200 diferentes regiões do espectro. Também, o Quickbird (lançado em outubro de 2001), operado pela Digitalglobe, foi colocado também rapidamente em órbita antes do conflito afegão tem uma capacidade limitada, entretanto, ele é capaz de observar detalhes superiores a 1 m.
Na época do conflito com o Afeganistão, o EUA “comprou compulsoriamente” os direitos de todas as imagens do Afeganistão e das áreas vizinhas tomadas pelo satélite de alta resolução, inclusive o Ikonos, operado por uma empresa privada. Na verdade, essa aquisição era totalmente desnecessária, pois pelas leis americanas, em caso de guerra o Departamento da Defesa tem poderes legais para exercer o "controle de obturação" sobre os satélites civis lançados dos EUA, mas para evitar conflitos com as operadoras privadas, as fotos foram apenas adquiridas.
Convém salientar, que o satélite Ikonos (lançado em setembro de 1999 - o primeiro de resolução de 1 a 4 metros por pixel), tem uma tecnologia já considerada ultrapassada por cerca de dois anos. Ele fornece imagens em preto e branco capazes de visualização de objetos de 1 m de comprimento. Ele também pode tomar imagens em cores com uma resolução menor, da ordem de 4 m.
Os detalhes nas imagens do Ikonos tinham mostrado uma linha de treinamento da rede de AI-Qaeda em marcha entre os campos de Jalalabad. Segundo diversos relatos, a decisão de obstruir o acesso às imagens dos satélites civis foi adotada pelo governo um pouco antes do início da guerra, após a divulgação na mídia de pesadas perdas civis próximo a Jalalabad.
O Pentágono assim procedeu com o objetivo de impedir que as informações fossem confrontadas pela mídia, que procura colher dados sobre perdas civis nas imagens do Ikonos e das outras empresas vendedoras de imagens espaciais. A ação que levou o Pentágono a recorrer à compra com exclusividade dos direitos sobre todas as imagens do Ikonos, por exemplo, foi vista como uma precaução e clara expressão de uma nova modalidade tecnológica de guerra centrada no controle das informações e sua divulgação.


3. A nova guerra dos Estados Unidos e da Inglaterra contra o Iraque

Por últimos vejamos o exemplo do que poderá nos revelar a guerra do Iraque na aliança da inteligência para a destruição. Hoje, existe uma enorme curiosidade sobre as novas armas e engenhos que a tecnologia bélica norte-americana e de seus aliados apresentará nesta tão anunciada guerra contra o Iraque. Em que pese o clima de segredo tentado pelo Pentágono, algumas informações têm vazado pelos técnicos e chegado ao conhecimento de revistas especializadas.[3]
Ao que tudo indica, a principal nova arma deve ser um engenho eletromagnético que exige muita inteligência e tecnologia. Ele é lançado por mísseis aéreos, que despeja microondas sobre a região-alvo. Essas microondas provocam o colapso total das ligações elétricas ou eletrônicas da área atingida. A defesa e a atividade urbana ficam imobilizadas -silenciam-se todos os telefones, rádios, aparelhos de fax e computadores. A defesa militar fica completamente bloqueada. Não há como transmitir uma ordem, acionar um míssil ou fazer um avião levantar voo. Nesse cenário, é provável que a população civil entre em crise de estupefação e confusão.
Isto nos faz lembrar a Internet. Ela surgiu também como um projeto militar.  A Internet é filha da Guerra Fria e a rede começa a nascer na década de 60, quando o Departamento de Defesa Norte Americano imaginou uma maneira de proteger o sistema de comunicações em caso de ataque nuclear, pois as estações de rádio, de televisão e telefônicas são os primeiros alvos de um bombardeio. Os militares achavam que os Estados Unidos eram muito vulneráveis a um ataque nuclear soviético. Os laboratórios militares americanos também sentiam a necessidade de compartilhar de forma segura informações sigilosas, armazenadas em computadores espalhados pelo país.
Assim, dirigiram seus esforços para um projeto que, sem o controle centralizado do poder público, pudesse em caso de uma catástrofe nuclear, reorganizar as comunicações no país. Em 1964, um pesquisador chamado Paul Baran com recursos militares, projetou uma rede de computadores, que é à base da Internet até hoje. Ela não tinha uma central de controle de informações. A rede continuaria funcionando mesmo se algumas de suas partes fossem atingidas. Outra questão fundamental na sua concepção era a de que as mensagens eram divididas em pacotes e enviadas em partes, para aumentar a segurança. Paul Baran concebeu uma rede de computadores na qual cada máquina seria capaz de orientar o trabalho das outras, independentemente.
Essa ideia de dividir as mensagens trata-se de uma técnica engenhosa. Os pacotes tomariam rotas diferentes para chegar ao mesmo destino. Se um trecho fosse destruído, os pacotes pegariam outra rota. Diferentemente da invenção da Televisão, onde o usuário é um telespectador sem acesso a modulação da informação recebida, na Rede imaginada por Baran todos os pacotinhos devem se encontrar com o destinatário, onde seriam reunidos na ordem certa. Este é o conceito básico que faz a Internet ser o sucesso que é até hoje.
Hoje (2003) a Internet interliga residências, universidades, empresas e o comércio mundial em mais de 150 países. São milhões e milhões de computadores que se ligam à Rede Numérica Mundial a cada mês. Ela cresce numa cifra pessimista de cerca de 30% ao ano. Já em 2003 (na época desse artigo) a cada dia cerca de 130.000 novos usuários pulam para dentro da rede. Nenhuma outra forma de comunicação na humanidade cresceu tão rápida. Por exemplo, em julho de 1995, o tráfego da Internet no Brasil era movimentado apenas por 50.000 usuários espalhados entre algumas universidades e institutos de pesquisa. Hoje somos o quinto país em número de internautas - navegadores linkados - nesta nessa imensa teia digital chega quase à casa dos 10 milhões e cresce diariamente.
Porém, com a nova tecnologia a ser testada, a Internet deixa de ser uma estratégia militar de reconstrução. Pois não são os pontos físicos de transmissão de informações que são destruídos é o próprio espaço informacional.
Algumas pesquisas e experiências com essa bomba de microondas já foram realizadas há três anos, nos laboratórios da base aérea de Kirtland, nos EUA, e só recentemente os técnicos conseguiram ajustar o sistema avião-míssil-bomba.[4]
As “expectativas” de especialistas do Pentágono são que as novas armas de microondas vão revolucionar os conceitos de guerra, principalmente porque visam inutilizar equipamentos, sem vitimar os homens.
ImagemSimulação da conectividade mundial na Internet/Web. A maior rede de informações até o presente da história humana.

A defesa militar do Iraque dispõe de elevado efetivo terrestre - cerca de 3 milhões de homens mobilizados, dos quais 1 milhão está instruído e armado. Quanto às forças aérea e naval e aos modernos engenhos eletrônicos, a inferioridade é tão grande que nem merece comparação. A vontade férrea de resistir revelada por Saddam Hussein não terá condições de suportar esses ataques gigantescos, apoiados pela mais alta tecnologia - a não ser que ele possua e empregue as supostas armas de destruição em massa.
É por isso que os EUA (na época desse artigo - 2003) tinha cerca de 150 mil soldados espalhados por territórios próximos das fronteiras iraquianas, no Kuait (maior efetivo), no Qatar, na Turquia e na região habitada pelos curdos. Se junta a esses efetivos alguns milhares de ingleses e australianos.
É claro que um engenho convencional (não-nuclear), por mais surpresa que cause, não pode decidir a sorte de uma guerra. Também, massificação de minas terrestres e explosões suicidas como a de refinarias de petróleo comandadas por Saddan tornando-as inoperantes por anos sua operação pode ser fatais à reconstrução pretendida pelos vitoriosos. Porém armas como a bomba de microondas são sinais suficientes que apontam para a superioridade do mundo atual, dos que cada vez mais detém a imaterialidade complexa do conhecimento e sua operacionalização tecnológica diante da velha matéria realizada por uma disciplinada infantaria aparelhada. Enfim, novamente um conflito desta proporção estará nas mãos da aliança entre inteligência e indústria da morte. Para quem não acredita que a ciência só emancipa, temos aqui uma questão social e ética relevante.




[1] MATTOS, Carlos de Meira. Folha de São Paulo: Caderno Mais. São Paulo: Quarta-feira, 12 de fevereiro de 2003.
[2] HOBSBAWM, Eric. Folha de São Paulo: Caderno Mais. São Paulo, domingo, 14 de abril de 2002.
[3] TIME. Edição de 21. Janeiro de 2003.
[4] Time - edição de 21 Janeiro de  2003.