Um pouco do velho Rock Pop Nacional para alegrar. Ao vivo
BANDA SEU KOWALSKY E OS NÔMADES DE PEDRA
Para quem gosta de ler e quer conhecer minhas aventuras pela pesquisa, invenções tecnológicas e conhecimento sobre o cérebro humano e a simbiótica.
segunda-feira, 23 de dezembro de 2019
segunda-feira, 16 de dezembro de 2019
PÍLULAS DA SIMBIOGÊNESE => A INTELIGÊNCIA ARTIFICIAL É INTELIGENTE?
Estou criando uma série de vídeos rápidos de até 5 minutos (de minhas palestras, atividades de pesquisa) => PÍLULAS DA SIMBIOGÊNESE para difundir a Teoria social que tenho trabalhado por mais de uma década.
Essa primeira pílula é sobre a minha polêmica relação com a falácia da Inteligência Artificial.
quarta-feira, 11 de dezembro de 2019
PONTOS DE INFLEXÃO CLIMÁTICA - muito arriscado para apostar
A crescente ameaça de mudanças climáticas abruptas e irreversíveis deve obrigar a ação política e econômica sobre emissões.
Políticos, economistas e até alguns cientistas naturais tendem a supor que os pontos de inflexão 1 no sistema terrestre - como a perda da floresta amazônica ou a camada de gelo da Antártica Ocidental - são de baixa probabilidade e pouco compreendidos. No entanto, há evidências de que esses eventos podem ser mais prováveis do que se pensava, têm altos impactos e estão interconectados por diferentes sistemas biofísicos, comprometendo potencialmente o mundo a mudanças irreversíveis a longo prazo.
Aqui, resumimos as evidências sobre a ameaça de ultrapassar pontos críticos, identificamos lacunas de conhecimento e sugerimos como elas devem ser eliminadas. Exploramos os efeitos de tais mudanças em larga escala, a rapidez com que elas podem ocorrer e se ainda temos controle sobre elas.
Em nossa opinião, a consideração de pontos críticos ajuda a definir que estamos em uma situação de emergência climática e fortalece o coro de pedidos deste ano para ações climáticas urgentes - de crianças em idade escolar a cientistas, cidades e países.
O Painel Intergovernamental de Mudanças Climáticas (IPCC) introduziu a idéia de pontos de inflexão duas décadas atrás. Naquela época, essas 'descontinuidades em larga escala' no sistema climático eram consideradas prováveis apenas se o aquecimento global exceder 5 ° C acima dos níveis pré-industriais. As informações resumidas nos dois Relatórios Especiais do IPCC mais recentes (publicados em 2018 e em setembro deste ano) 2 , 3 sugerem que os pontos de inflexão podem ser excedidos mesmo entre 1 e 2 ° C de aquecimento (consulte 'Muito perto para o conforto').
Se as atuais promessas nacionais de reduzir as emissões de gases de efeito estufa forem implementadas - e esse é um grande "se" -, provavelmente resultarão em pelo menos 3 ° C de aquecimento global. Isso apesar do objetivo do acordo de Paris de 2015 de limitar o aquecimento a bem abaixo de 2 ° C. Alguns economistas, assumindo que os pontos críticos do clima têm uma probabilidade muito baixa (mesmo que sejam catastróficos), sugeriram que o aquecimento a 3 ° C é ideal do ponto de vista de custo-benefício. No entanto, se os pontos de inflexão parecem mais prováveis, a recomendação da "política ideal" para os modelos simples de economia climática de custo-benefício 4 está alinhada com a do recente relatório do IPCC 2 . Em outras palavras, o aquecimento deve ser limitado a 1,5 ° C. Isso requer uma resposta de emergência.
Colapso do gelo
Acreditamos que vários pontos críticos da criosfera estão perigosamente próximos, mas a mitigação das emissões de gases de efeito estufa ainda pode desacelerar o inevitável acúmulo de impactos e nos ajudar a nos adaptar.
Pesquisas realizadas na década passada mostraram que o carregamento do mar de Amundsen na Antártida Ocidental pode ter passado de um ponto de inflexão 3 : a 'linha de aterramento' onde o gelo, o oceano e a rocha se encontram está recuando irreversivelmente. Um estudo-modelo mostra 5 que, quando esse setor entra em colapso, ele pode desestabilizar o restante do manto de gelo da Antártica Ocidental, como derrubar dominós - levando a um aumento de cerca de 3 metros no nível do mar em uma escala de tempo de séculos a milênios. Evidências de Paleo mostram que esse colapso generalizado da camada de gelo da Antártica Ocidental ocorreu repetidamente no passado.
Os dados mais recentes mostram que parte da camada de gelo da Antártica Oriental - a Bacia de Wilkes - pode ser igualmente instável 3 . O trabalho de modelagem sugere que ele poderia adicionar outros 3 a 4 m ao nível do mar em escalas de tempo além de um século.
A camada de gelo da Groenlândia está derretendo a uma taxa acelerada 3 . Poderia adicionar mais 7 m ao nível do mar ao longo de milhares de anos se ultrapassasse um determinado limiar. Além disso, à medida que a elevação da camada de gelo diminui, ela derrete ainda mais, expondo a superfície ao ar sempre mais quente. Os modelos sugerem que o manto de gelo da Groenlândia poderia estar condenado a 1,5 ° C do aquecimento 3 , o que poderia acontecer a partir de 2030.
Assim, poderíamos já ter comprometido as gerações futuras a viver com aumentos do nível do mar de cerca de 10 m ao longo de milhares de anos 3 . Mas essa escala de tempo ainda está sob nosso controle. A taxa de fusão depende da magnitude do aquecimento acima do ponto de inflexão. A 1,5 ° C, pode levar 10.000 anos para desdobrar 3 ; acima de 2 ° C, pode levar menos de 1.000 anos 6 . Os pesquisadores precisam de mais dados observacionais para estabelecer se as calotas de gelo estão atingindo um ponto de inflexão e exigem melhores modelos restringidos por dados passados e presentes para resolver com que rapidez e rapidez as calotas de gelo podem entrar em colapso.
O que quer que esses dados mostrem, é necessário tomar medidas para diminuir a subida do nível do mar. Isso ajudará na adaptação, incluindo o eventual reassentamento de grandes centros populacionais baixos.
Um outro impulso importante para limitar o aquecimento a 1,5 ° C é que outros pontos de inflexão podem ser acionados em baixos níveis de aquecimento global. Os últimos modelos do IPCC projetaram um conjunto de mudanças bruscas 7 entre 1,5 ° C e 2 ° C, várias das quais envolvem gelo marinho. Esse gelo já está encolhendo rapidamente no Ártico, indicando que, a 2 ° C de aquecimento, a região tem 10-35% de chance 3 de ficar praticamente sem gelo no verão.
Limites da biosfera
As mudanças climáticas e outras atividades humanas correm o risco de desencadear pontos de inflexão da biosfera em uma variedade de ecossistemas e escalas (consulte 'Alarme').
As ondas de calor do oceano levaram ao branqueamento em massa de corais e à perda de metade dos corais de águas rasas na Grande Barreira de Corais da Austrália. Um escalonamento 99% de corais tropicais são projectadas 2 para ser perdido se a temperatura média global sobe de 2 ° C, devido a interacções entre o aquecimento, a acidificação do oceano e poluição. Isso representaria uma profunda perda de biodiversidade marinha e meios de subsistência humanos.
Além de prejudicar nosso sistema de suporte à vida, os pontos de inflexão da biosfera podem provocar a liberação abrupta de carbono de volta à atmosfera. Isso pode ampliar as mudanças climáticas e reduzir os orçamentos de emissão restantes.
O desmatamento e as mudanças climáticas estão desestabilizando a Amazônia - a maior floresta tropical do mundo, que abriga uma em cada dez espécies conhecidas. As estimativas de onde pode estar um ponto de inflexão na Amazônia variam de 40% de desmatamento a apenas 20% de perda de cobertura florestal 8 . Cerca de 17% foram perdidos desde 1970. A taxa de desmatamento varia com as mudanças nas políticas. Encontrar o ponto de inflexão requer modelos que incluam o desmatamento e as mudanças climáticas como fatores de interação e que incorporem feedbacks de fogo e clima como mecanismos de interferência entre as escalas.
Com o aquecimento do Ártico pelo menos duas vezes mais rápido que a média global, a floresta boreal no subártico fica cada vez mais vulnerável. O aquecimento já provocou distúrbios em larga escala de insetos e um aumento de incêndios que levaram à morte das florestas boreais da América do Norte, potencialmente transformando algumas regiões de um sumidouro de carbono para uma fonte de carbono 9 . Permafrio através do Árctico está começando a dióxido de carbono irreversivelmente degelo e libertação e metano - um gás com efeito de estufa que é cerca de 30 vezes mais potente do que o CO 2 durante um período de 100 anos.
Os pesquisadores precisam melhorar sua compreensão dessas mudanças observadas nos principais ecossistemas, bem como onde estão os pontos de inflexão futuros. As reservas de carbono existentes e as possíveis liberações de CO 2 e metano precisam de uma melhor quantificação.
O orçamento de emissões remanescente do mundo, com uma chance de 50:50 de permanecer a 1,5 ° C do aquecimento, é de apenas 500 gigatoneladas (Gt) de CO 2 . As emissões de permafrost podem tirar cerca de 20% (100 Gt CO 2 ) deste orçamento 10 , e isso sem incluir o metano do permafrost profundo ou dos hidratos submarinos. Se as florestas estiverem próximas dos pontos de inflexão, o desmatamento da Amazônia poderá liberar outras 90 Gt CO 2 e as florestas boreais mais 110 Gt CO 2 11 . Com CO total mundial 2 emissões ainda em mais de 40 Gt por ano, o orçamento restante poderia ser tudo, mas já apagado.
Cascata global
Em nossa opinião, a emergência mais clara seria se estivéssemos nos aproximando de uma cascata global de pontos de inflexão que levassem a um novo estado climático de 'estufa' menos habitável 11 . As interações podem ocorrer através da circulação oceânica e atmosférica ou através de feedbacks que aumentam os níveis de gases de efeito estufa e a temperatura global. Como alternativa, feedbacks fortes da nuvem podem causar um ponto de inflexão global 12 , 13 .
Argumentamos que efeitos em cascata podem ser comuns. Pesquisas realizadas no ano passado 14 analisaram 30 tipos de mudança de regime que abrangem o clima físico e os sistemas ecológicos, desde o colapso da camada de gelo da Antártida Ocidental até a mudança da floresta tropical para a savana. Isso indica que exceder os pontos de inflexão em um sistema pode aumentar o risco de cruzá-los em outros. Tais links foram encontrados para 45% das possíveis interações 14 .
Em nossa opinião, exemplos estão começando a ser observados. Por exemplo, a perda de gelo no mar do Ártico está ampliando o aquecimento regional, e o aquecimento do Ártico e o derretimento da Groenlândia estão levando um influxo de água fresca ao Atlântico Norte. Isso poderia ter contribuído para uma desaceleração de 15% 15 desde meados do século XX da Circulação Meridional de Viragem do Atlântico (AMOC), uma parte essencial do transporte global de calor e sal pelo oceano 3 . O rápido derretimento da camada de gelo da Groenlândia e a desaceleração do AMOC poderiam desestabilizar as monções da África Ocidental, desencadeando a seca na região do Sahel na África. Uma desaceleração no AMOC também pode secar a Amazônia, atrapalhar as monções do leste asiático e causar o aumento de calor no Oceano Antártico, o que poderia acelerar a perda de gelo na Antártica.
O registro paleo mostra tombamento global, como a entrada nos ciclos da era do gelo há 2,6 milhões de anos e sua troca de amplitude e frequência em torno de um milhão de anos atrás, cujos modelos são apenas capazes de simular. As gorjetas regionais ocorreram repetidamente dentro e no final da última era glacial, entre 80.000 e 10.000 anos atrás (os eventos Dansgaard – Oeschger e Heinrich). Embora isso não seja diretamente aplicável ao atual período interglacial, ele destaca que o sistema da Terra era instável em várias escalas de tempo antes, sob forçamento relativamente fraco causado por mudanças na órbita da Terra. Agora estamos forçando fortemente o sistema, com a concentração atmosférica de CO 2 e a temperatura global aumentando a taxas de ordem de magnitude superior às da desglaciação mais recente.
O CO 2 atmosférico já está nos níveis vistos pela última vez há cerca de quatro milhões de anos, na época do Plioceno. Ele está caminhando rapidamente para níveis vistos pela última vez há cerca de 50 milhões de anos - no Eoceno - quando as temperaturas eram até 14 ° C mais altas do que nos tempos pré-industriais. É um desafio para os modelos climáticos simular esses estados terrestres do tipo 'estufa'. Uma possível explicação é a falta de um ponto de inflexão nos modelos: um modelo de resolução de nuvens publicado este ano sugere que o rompimento abrupto da nuvem de estratocúmulos acima de cerca de 1.200 partes por milhão de CO 2 poderia ter resultado em aproximadamente 8 ° C do aquecimento global 12 .
Alguns dos primeiros resultados dos mais recentes modelos climáticos - correm para relatório de avaliação sexto do IPCC, devido em 2021 - indicam uma sensibilidade climática muito maior (definida como a resposta de temperatura para a duplicação de CO atmosférico 2 ) do que nos modelos anteriores. Muito mais resultados estão pendentes e mais investigações são necessárias, mas para nós, esses resultados preliminares sugerem que um ponto de inflexão global é possível.
Para resolver esses problemas, precisamos de modelos que capturem um conjunto mais rico de acoplamentos e feedbacks no sistema Terra, e precisamos de mais dados - presentes e passados - e melhores maneiras de usá-los. Melhorar a capacidade dos modelos de capturar mudanças climáticas abruptas no passado conhecido e estados climáticos de 'estufa' deve aumentar a confiança em sua capacidade de prever essas mudanças.
Alguns cientistas afirmam que a possibilidade de tombamento global permanece altamente especulativa. É nossa opinião que, dado seu enorme impacto e natureza irreversível, qualquer avaliação séria de risco deve considerar as evidências, por mais limitado que nosso entendimento ainda seja. Errar do lado do perigo não é uma opção responsável.
Se podem ocorrer cascatas de tombamento prejudiciais e um ponto de tombamento global não pode ser descartado, essa é uma ameaça existencial para a civilização. Nenhuma quantidade de análise de custo-benefício econômico nos ajudará. Precisamos mudar nossa abordagem para o problema climático.
aja agora
Em nossa opinião, apenas as evidências dos pontos de inflexão sugerem que estamos em um estado de emergência planetária: tanto o risco quanto a urgência da situação são agudos (consulte 'Emergência: faça as contas').
EMERGÊNCIA: FAÇA AS CONTAS
Definimos emergência ( E ) como o produto de risco e urgência. Risco ( R ) é definido pelas seguradoras como probabilidade ( p ) multiplicada por dano ( D ). Urgência ( U ) é definida em situações de emergência como tempo de reação a um alerta ( τ ) dividido pelo tempo de intervenção restante para evitar um resultado ruim ( T ). Portanto:
E = R × U = p × D × τ / T
A situação é uma emergência se o risco e a urgência forem altos. Se o tempo de reação for maior que o tempo de intervenção restante ( τ / T > 1), perdemos o controle.
Argumentamos que o tempo de intervenção restante para evitar o tombamento já poderia ter encolhido em direção a zero, enquanto o tempo de reação para atingir as emissões líquidas zero é de 30 anos, no máximo. Portanto, talvez já tenhamos perdido o controle sobre se as gorjetas acontecem. Uma graça salvadora é que a taxa na qual os danos se acumulam ao tombar - e, portanto, o risco - ainda pode estar sob nosso controle até certo ponto.
A estabilidade e a resiliência do nosso planeta estão em perigo. A ação internacional - não apenas as palavras - deve refletir isso.
Nature 575 , 592-595 (2019)
doi: 10.1038 / d41586-019-03595-0
Referências
1) Lenton, TM et al. Proc. Natl Acad. Sci. USA 105 , 1786–1793 (2008).
2)IPCC. Aquecimento global de 1,5 ° C (IPCC, 2018).
3)IPCC. Relatório especial do IPCC sobre o oceano e a criosfera em um clima em mudança (IPCC, 2019).
4)Cai, Y., Lenton, TM e Lontzek, TS Nature Clim. Alteração 6 , 520–525 (2016).
5) Levermann, A. Proc. Natl Acad. Sci. USA 112 , 14191-14196 (2015).
6) Aschwanden, A. et al. Sci. Adv. 5 , eaav9396 (2019).
7) Drijfhout, S. et al. Proc. Natl Acad. Sci. EUA 112 , E5777 – E5786 (2015).
8) Lovejoy, TE & Nobre, C. Sei. Adv. 4 , eaat2340 (2018).
9) Walker, X. J. et al. Nature 572, 520–523 (2019).
10) Rogelj, J., Forster, P. M., Kriegler, E., Smith, C. J. & Séférian, R. Nature 571, 335–342 (2019).
11) Steffen, W. et al. Proc. Natl Acad. Sci. USA 115, 8252–8259 (2018).
12) Schneider, T., Kaul, C. M. & Pressel, K. G. Nature Geosci. 12, 163–167 (2019).
13) Tan, I., Storelvmo, T. & Zelinka, M. D. Science 352, 224–227 (2016).
14) Rocha, J. C., Peterson, G., Bodin, Ö. & Levin, S. Science 362, 1379–1383 (2018).
15) Caesar, L., Rahmstorf, S., Robinson, A., Feulner, G. e Saba, V. Nature 556 , 191-196 (2018).
quinta-feira, 31 de outubro de 2019
A ALIANÇA DA INTELIGÊNCIA COM A MORTE: do computador aos satélites
Veremos de que no
mundo das tecnologias informacionais nada se compara ao poder de fogo dos
satélites militares. Os satélites Sigint (Signal Intelligence), por
exemplo, são destinados a interpretar as comunicações em rádio e celulares,
foram redirecionados, assim como os satélites-espiões capazes de obter imagens
de alta resolução.
A história
registra, em todos os grandes conflitos, o aparecimento de engenhosidades e
tecnologias traduzidas em armas ou
engenhos realizados por mentes brilhantes que desempenham um papel importante
no curso das operações militares. Por exemplo, na Guerra Franco-Prussiana, de
1870, os franceses inauguraram, com grandes esperanças, o fuzil Chassepot, que
tinha um alcance superior ao do fuzil alemão; sua derrota mostrou -lhes os perigo s
de uma falsa avaliação. A grande novidade dessa guerra, entretanto, não foi um
armamento, mas a ampla utilização da rede
ferroviária pelo Exército de Bismarck, mobilizando e concentrando rapidamente
milhões de homens na fronteira, como nunca antes ocorrera.[1]
Porém,
o Século XX foi de longe o mais assassino na história registrada. Na Primeira Guerra
Mundial (1914-1918), o carro de combate e o avião como apoios para a infantaria
tiveram sua estréia, ainda tímida. A Segunda Guerra (1939-1945), foi reveladora
de invenções e engenhos como o submarino, tanques terrestres de longo alcance,
potentes metralhadoras portáteis. Porém, nada foi tão impactante na Segunda
Guerra quanto o aparecimento da bomba atômica que suplantou
todas as expectativas em relação a armas de destruição. Também, a Guerra do
Golfo (1991), maletas móveis que se conectavam em satélites inaugurou a guerra como espetáculo televisivo e os mísseis
de direção eletrônica e teleguiados, deram uma amostra das inovações produzidas
pela alta tecnologia militar.
Muito
deste massacre destrutivo devemos a ciência e o que de melhor dispomos de
inteligência humana no planeta em aliança com a industria da morte. O número
total de mortes causadas por ou
associadas a guerras no século passado foi estimado em 187 milhões, o
equivalente a mais de 10% da população mundial em 1913.[2]
Sem
desconsiderar a crueza do choque realizado pelos ataques ao World Trade Center
e ao Pentágono em 11 de setembro, eles foram apenas um cisco no olho desta
barbárie mortífera. O que queremos destacar aqui é que os sonhos mais das mais
“avançadas mentes” e dos melhores cientistas provenientes de algumas
universidades, sobretudo a partir da segunda grande guerra mundial,
mesclaram-se com as mais amplas possibilidades de financiamento e experiências
oferecidas por um exército de um país altamente industrializado: Os Estados
Unidos. Desta articulação de
interesses nasceu uma mortífera aliança destrutiva.
Ao longo
do século, isto implicou um ônus da
guerra ainda maior para os civis, que não eram apenas suas vítimas, mas cada
vez mais o objeto de operações militares ou
de ações militares-políticas. O contraste entre a Primeira Guerra Mundial e a
Segunda é dramático: apenas 5% dos que morreram na Primeira Guerra eram civis;
na Segunda Guerra esse número subiu para 66%. É geralmente suposto que de 80% a
90% daqueles afetados por guerras hoje sejam civis. A proporção aumentou desde o fim da Guerra Fria porque a maioria das
operações militares desde então tem sido conduzida não por Exércitos
conscritos, mas por grupos bem pequenos de tropas regulares ou irregulares, em muitos casos operando armas de
alta tecnologia, oferecendo grande proteção contra a possibilidade de receber
baixas.
Para
ilustrar esta aliança da inteligência com a destruição e a morte, vejamos três
exemplos singulares:
1º) na
segunda grande guerra mundial envolvendo a criação do computador;
2º) um ou tro envolvendo a guerra de informações de
satélites na guerra do Afeganistão;
3º) por último o que a nova guerra dos
Estados Unidos e da Inglaterra contra o Iraque podem estar para nos revelar
neste sentido.
1 . A criação do computador
Comecemos
então com o conhecido exemplo, da aliança na segunda grande guerra entre
grandes mentes que se integraram às amplas possibilidades de financiamento de
destruição, originando dessa conjunção a invenção e o nascimento do computador.
No final da segunda grande guerra, os estrategistas da
moderna guerra destrutiva, já tinham se convencido que quem ganharia o grande
conflito não seria quem detivesse a maior e mais qualificada infantaria e sua
pesada artilharia terrestre. A guerra seria decidida pelo domínio da tecnologia
de projétil à distância. Até aqui tudo bem, o problema é que este domínio
implicava numa grande demanda por inúmeros cálculos rápidos. Regular
ângulos do tiro a distância exigia mensuração de diversos como: vento,
temperatura, etc...() Era preciso calcular entre 2.000 a 4.000 trajetórias
possíveis. Cada trajetória exigia 750 multiplicações de 10 algoritmos. Neste
sentido, para acelerar as necessidades de implantar mais rapidamente os
cálculos das tabelas de balística, foi criado nos Estados Unidos em 1938 o BRL
- Ballistic Research Laboratory . A demanda da guerra era 40 tabelas semanais e
o BRL produzia apenas 15. A produção destas 15 tabelas inicialmente se dava
através de “calculadoras humanas”, geralmente mulheres parentas de
militares que lutavam na guerra e que tinham domínio das operações matemáticas
simples.
O primeiro passo para se
aproximar do desafio de calcular todas as variáveis de um projétil desde o seu
lançamento até e, sobretudo, antes dele atingir o alvo começou a ser conquistado com um projeto secreto
envolvendo as Forças Armadas Norte Americana e alguns cientistas da Moore
Scholl: como o analisador diferencial
de Vannevar BUSCH (foto ao lado). Este analisador, acelerava os
cálculos e executava operações complexas com muita rapidez e anunciava que a
era do sonhado computador estava próxima. Por exemplo, uma tabela completa
demandaria 3 Séculos para ser completada com um ser humano trabalhando
sozinho, de modo manual em 8 horas diárias. Com as mesmas oito horas diárias,
um ser humano com uma máquina de calcular levaria 12 anos para executar
esta mesma tabela completa. Porém, com o analisador diferencial, nesta mesma
jornada, um ser humano levaria apenas um mês.
Alguns
anos mais tarde, um projeto envolvendo renomados cientistas e matemáticos sob a
coordenação militar criaram pela primeira vez uma máquina que realizaria a tão
sonhada façanha de calcular todas as tabelas completas antes mesmo do alvo ser
atingido por um míssil. O nome desta super calculadora, muito próxima da idéia
dos modernos computadores era: ENIAC - Electronic Numerical And Calculator. Ela pesava 30 toneladas, ocupava mais de 100
metros quadrados, empregava cerca de 18.000 válvulas e 5 milhões de pontos de
solda. Ela efetuava 4.500 cálculos por segundo, um assombro para época. Porém,
esta supercalculadora tinha um poder de processamento não superior a uma mísera
calculadora que qualquer estudante civil usa num bolso. (Veja foto acima e abaixo).
O ENIAC não tinha monitor,
teclado ou disco e interface com o
usuário se limitava a algumas dezenas de interruptores, através do qual
ligava-se e desligavam-se os bits na memória principal, e ou tras tantas lâmpadas que informavam o resultado
obtido. O processo de alterar suas
instruções necessitava ser ajustado a milhares de chaves e conectar centenas de
cabos.
O BRL contratou os melhores cientistas para que eles
desenvolvessem uma supercalculadora chamada de ENIAC. Entre estes
cientistas se destacava o matemático Von Neumann. No entanto, durante o projeto ENIAC, apesar da sua grande capacidade de
cálculo, alguns cientistas deste projeto se deram conta de que o futuro não pertenceria às calculadoras. Não
demorou muitos anos para que o
exército americano e o inglês financiassem o primeiro computador em operação,
realizando o sonho de muitos cientistas, ou
seja, a conquista de construírem um modelo reduzido de cérebro humano.
Hoje todos os mais complexos super computadores, projetos de computação
quântica, etc. com seus poderosos poderes de processamento se encontram apenas
sob domínio de pou cas potências
militares ou com projetos sob
supervisão militar, e quase todos, têm como finalidade servir à guerra.
2. A guerra de informações de satélites na guerra do
Afeganistão
O
segundo exemplo foi à disputa pela informação, mais precisamente as disputas
pela divulgação ou não de imagens de
satélites entre as agências civis de notícias e as forças armadas dos Estados
Unidos, na guerra no Afeganistão.
Por
mais que seja verdade que o armamento de alta tecnologia tenha tornado possível
em alguns casos restabelecer uma distinção entre alvos civis e militares e,
portanto, entre combatentes e não-combatentes, não há razão para duvidar de que
as principais vítimas da guerra continuarão a ser civil. E, mais, o sofrimento
de civis não é proporcional à escala ou
à intensidade das operações militares.
As
Convenções de Haia de 1899 e 1907 codificavam as regras da guerra. Conflitos
deveriam acontecer primariamente entre Estados soberanos ou ,
se ocorressem dentro do território de um Estado em particular, entre partidos
suficientemente organizados para que fosse aceito o status de beligerância por
parte de ou tros Estados soberanos. A
guerra deveria ser agudamente distinta da paz, por uma declaração de guerra em
uma ponta e um tratado de paz na ou tra.
Assim,
as operações militares deveriam distinguir claramente entre combatentes
-identificados pelos uniformes que usassem ou
por ou tros sinais que indicassem
pertencer a uma força armada organizada e civis não-combatentes. A guerra
deveria ser entre combatentes. Não-combatentes deveriam, tanto quanto possível,
ser protegidos em época de guerra. Sempre se entendeu que essas convenções não
cobriam todos os conflitos armados civis e internacionais, e notadamente não
cobriam aqueles que surgiam da expansão imperial de Estados ocidentais em
regiões que não se encontrassem sob a jurisdição de Estados soberanos
internacionalmente reconhecidos, ainda que alguns desses (mas de maneira
nenhuma todos) conflitos fossem conhecidos como "guerras". As
Convenções de Haia serviu como guias na Primeira Guerra Mundial, mas ao longo
do tempo ela foi sendo desconsideradas.
É de
conhecimento geral de que a tecnologia de satélites envolve muito elevado
conhecimento e alta tecnologia e são pou cos
os países que dominam a tecnologia de sua construção e é ainda muito menor o
clube de países que possuem autonomia de colocar um satélite no espaço. O
Brasil, por exemplo, já constrói alguns tipos de satélites, mas precisa dos
Estados Unidos para colocá-los no espaço. Ao fazerem isso, quase sempre, os
países dependentes assinam termos de submissão, onde por exemplo, em caso de
guerra as informações capturadas por estes satélites podem ser interceptadas ou redirecionadas pelos americanos, e só a eles cabe
a decisão da divulgação de suas fotos e informações capturadas.
A questão é que os satélites
comerciais são muito inferiores em potencia e precisão informacional que os
militares espiões. Por exemplo: O Keyhole foi colocado com auxílio do foguete
lançado na base da Força Aérea de Vandenberg na Califónia no espaço (dezembro de 1976). Este
satélite é equipado com uma câmara digital Keyhole (buraco de fechadura), capaz
de registrar com alta resolução objetos de cerca de 10 cm de comprimento na
superfície terrestre. Outros satélites também foram utilizados no conflito
contra o Afeganistão: O Orbimage-4, colocado em órbita um pou co antes da guerra (2001) é um satélite de sensoriamento
remoto, que possui uma câmara capaz de capturar imagens da superfície terrestre
em 200 diferentes regiões do espectro. Também, o Quickbird (lançado em outubro de 2001), operado pela
Digitalglobe, foi colocado também rapidamente em órbita antes do conflito
afegão tem uma capacidade limitada, entretanto, ele é capaz de observar
detalhes superiores a 1 m.
Na época do conflito com o
Afeganistão, o EUA “comprou
compulsoriamente” os direitos de todas as imagens do Afeganistão e das áreas
vizinhas tomadas pelo satélite de alta resolução, inclusive o Ikonos, operado
por uma empresa privada. Na verdade, essa aquisição era totalmente
desnecessária, pois pelas leis americanas, em caso de guerra o Departamento da
Defesa tem poderes legais para exercer o "controle de obturação"
sobre os satélites civis lançados dos EUA, mas para evitar conflitos com as
operadoras privadas, as fotos foram apenas adquiridas.
Convém
salientar, que o satélite Ikonos (lançado em setembro de 1999 - o primeiro de resolução de 1 a 4 metros por pixel), tem uma tecnologia já considerada
ultrapassada por cerca de dois anos. Ele fornece imagens em preto e branco
capazes de visualização de objetos de 1 m de comprimento. Ele também pode tomar
imagens em cores com uma resolução menor, da ordem de 4 m.
Os
detalhes nas imagens do Ikonos tinham mostrado uma linha de
treinamento da rede de AI-Qaeda em
marcha entre os campos de Jalalabad. Segundo diversos relatos, a decisão
de obstruir o acesso às imagens dos satélites civis foi adotada pelo governo um
pou co antes do início da guerra, após a divulgação na mídia de pesadas perdas
civis próximo a Jalalabad.
O Pentágono assim
procedeu com o objetivo de impedir que as informações fossem confrontadas pela
mídia, que procura colher dados sobre perdas civis nas imagens do Ikonos
e das ou tras empresas
vendedoras de imagens espaciais. A ação que levou
o Pentágono a recorrer à compra com exclusividade dos direitos sobre todas as
imagens do Ikonos, por exemplo, foi vista como uma precaução e clara
expressão de uma nova modalidade tecnológica de guerra centrada no controle das
informações e sua divulgação.
3. A nova guerra dos Estados Unidos e da Inglaterra
contra o Iraque
Por últimos vejamos
o exemplo do que poderá nos revelar a guerra do Iraque na aliança da
inteligência para a destruição. Hoje, existe uma enorme curiosidade sobre as
novas armas e engenhos que a tecnologia bélica norte-americana e de seus
aliados apresentará nesta tão anunciada guerra contra o Iraque. Em que pese o
clima de segredo tentado pelo Pentágono, algumas informações têm vazado pelos
técnicos e chegado ao conhecimento de revistas especializadas.[3]
Ao que tudo indica,
a principal nova arma deve ser um engenho eletromagnético que exige muita
inteligência e tecnologia. Ele é lançado por mísseis aéreos, que despeja
microondas sobre a região-alvo. Essas microondas provocam o colapso total das
ligações elétricas ou eletrônicas da
área atingida. A defesa e a atividade urbana ficam imobilizadas -silenciam-se
todos os telefones, rádios, aparelhos de fax e computadores. A defesa militar
fica completamente bloqueada. Não há como transmitir uma ordem, acionar um
míssil ou fazer um avião levantar
voo. Nesse cenário, é provável que a população civil entre em crise de
estupefação e confusão.
Isto nos faz
lembrar a Internet. Ela surgiu também como um projeto militar. A Internet é filha da Guerra Fria e a rede começa a nascer na década de 60, quando o
Departamento de Defesa Norte Americano imaginou
uma maneira de proteger o sistema de comunicações em caso de ataque nuclear,
pois as estações de rádio, de televisão e telefônicas são os primeiros alvos de
um bombardeio. Os militares achavam que os Estados Unidos eram muito
vulneráveis a um ataque nuclear soviético. Os laboratórios militares americanos
também sentiam a necessidade de compartilhar de forma segura informações
sigilosas, armazenadas em computadores espalhados pelo país.
Assim, dirigiram
seus esforços para um projeto que, sem o controle centralizado do poder
público, pudesse em caso de uma catástrofe nuclear, reorganizar as comunicações
no país. Em 1964, um pesquisador chamado Paul Baran com recursos militares,
projetou uma rede
de computadores, que é à base da Internet até hoje. Ela não tinha uma central
de controle de informações. A rede
continuaria funcionando mesmo se algumas de suas partes fossem atingidas. Outra
questão fundamental na sua concepção era a de que as mensagens eram divididas
em pacotes e enviadas em partes, para aumentar a segurança. Paul Baran concebeu
uma rede de computadores na qual
cada máquina seria capaz de orientar o trabalho das ou tras,
independentemente.
Essa ideia de
dividir as mensagens trata-se de uma técnica engenhosa. Os pacotes tomariam
rotas diferentes para chegar ao mesmo destino. Se um trecho fosse destruído, os
pacotes pegariam ou tra rota.
Diferentemente da invenção da Televisão, onde o usuário é um telespectador sem
acesso a modulação da informação recebida, na Rede imaginada por Baran todos os
pacotinhos devem se encontrar com o destinatário, onde seriam reunidos na ordem
certa. Este é o conceito básico que faz a Internet ser o sucesso que é até
hoje.
Hoje (2003) a Internet
interliga residências, universidades, empresas e o comércio mundial em mais de
150 países. São milhões e milhões de computadores que se ligam à Rede Numérica
Mundial a cada mês. Ela cresce numa cifra pessimista de cerca de 30% ao ano. Já em 2003 (na época desse artigo) a cada dia cerca de 130.000 novos usuários pulam para dentro da rede . Nenhuma ou tra
forma de comunicação na humanidade cresceu tão rápida. Por exemplo, em julho de
1995, o tráfego da Internet no Brasil era movimentado apenas por 50.000
usuários espalhados entre algumas universidades e institutos de pesquisa. Hoje
somos o quinto país em número de internautas - navegadores linkados - nesta
nessa imensa teia digital chega quase à casa dos 10 milhões e cresce
diariamente.
Porém, com a nova tecnologia a ser
testada, a Internet deixa de ser uma estratégia militar de reconstrução. Pois
não são os pontos físicos de transmissão de informações que são destruídos é o
próprio espaço informacional.
Algumas pesquisas e
experiências com essa bomba de microondas já foram realizadas há três anos, nos
laboratórios da base aérea de Kirtland, nos EUA, e só recentemente os técnicos
conseguiram ajustar o sistema avião-míssil-bomba.[4]
As “expectativas” de especialistas do Pentágono são
que as novas armas de microondas vão revolucionar os conceitos de guerra,
principalmente porque visam inutilizar equipamentos, sem vitimar os homens.
Imagem - Simulação
da conectividade mundial na Internet/Web. A maior rede de informações até o presente da história humana.
A defesa militar do
Iraque dispõe de elevado efetivo terrestre - cerca de 3 milhões de homens
mobilizados, dos quais 1 milhão está instruído e armado. Quanto às forças aérea
e naval e aos modernos engenhos eletrônicos, a inferioridade é tão grande que
nem merece comparação. A vontade férrea de resistir revelada por Saddam Hussein
não terá condições de suportar esses ataques gigantescos, apoiados pela mais
alta tecnologia - a não ser que ele possua e empregue as supostas armas de
destruição em massa.
É por isso que os
EUA (na época desse artigo - 2003) tinha cerca de 150 mil soldados espalhados por territórios próximos das
fronteiras iraquianas, no Kuait (maior efetivo), no Qatar, na Turquia e na
região habitada pelos curdos. Se junta a esses efetivos alguns milhares de
ingleses e australianos.
É claro que um
engenho convencional (não-nuclear), por mais surpresa que cause, não pode
decidir a sorte de uma guerra. Também, massificação de minas terrestres e
explosões suicidas como a de refinarias de petróleo comandadas por Saddan
tornando-as inoperantes por anos sua operação pode ser fatais à reconstrução
pretendida pelos vitoriosos. Porém armas como a bomba de microondas são sinais
suficientes que apontam para a superioridade do mundo atual, dos que cada vez
mais detém a imaterialidade complexa do conhecimento e sua operacionalização tecnológica
diante da velha matéria realizada por uma disciplinada infantaria aparelhada.
Enfim, novamente um conflito desta proporção estará nas mãos da aliança entre
inteligência e indústria da morte. Para quem não acredita que a ciência só
emancipa, temos aqui uma questão social e ética relevante.
Assinar:
Postagens (Atom)