17 Infoguerra

Versão 0.1.1 - 21/12/2025

Um aspecto notável da informação enquanto lixo é a possibilidade de usar todo esse entulho, todos esses escombros, enquanto um novo tipo de projétil direcionado ao inimigo ou à esmo, para gerar confusão, desinformação, sobrecarga. A poluição também pode ser convertida em arma de guerra (“weaponization”).

O que impulsiona processos informacionais como o da “Inteligência Artificial” não é uma vontade nobre de transcendência humana – este talvez seja um impulso pessoal de pesquisadores, financiadores e entusiastas. Aquilo que move sua construção são fatores econômicos da competição e da guerra: obter e processar quantidades cada vez maiores de informação e que podem produzir informações para dois “consumidores”, basicamente: os tomadores de decisão e para os outros. Os outros aqui vão desde o público em geral – por exemplo com manipulação de uma “opinião pública média”–, clientes – com peças publicitárias direcionadas – ou até mesmo para o inimigo, ou seja o outro a ser controlado ou combatido com “desinformação”.

Conforme o processamento informacional se aprofunda nessa lógica, os dois tipos de consumidores tendem a um único: os tomadores de decisão cada vez mais passam a ser igualados aos “outros”: se tomar decisões mais e mais rápidas é o imperativo, então o produto do processamento informacional deve estar cada vez mais “pronto” para a decisão, até o limite de nenhuma decisão mais ser necessária e os “donos” do sistema, até anteriormente os efetivos tomadores de decisão, tornarem-se meros supervisores das decisões tomadas.

A lógica da guerra requer “tirar os humanos” do “loop”, da “equação”, do processo, da cadeia de tomada de decisões e, se possível, da execução das mesmas. Este talvez seja o principal ponto do livro “A Guerra na Era das Máquinas Inteligentes”190. Lógica que considera humanos como máquinas de alto custo de produção e manutenção, de baixa performance e muito suscetíveis ao erro, reduzindo as chances de sucesso.

A informação não é apenas uma componente importantíssima para o sucesso nos conflitos em cada espectro – ar, mar, terra. Agora a disputa informacional ocorre em seu próprio “espectro”, como se a informação habitasse um ambiente próprio.

Cada lado do conflito opera então seu aparato de produção informacional direcionado aos oponentes, de modo a poluir esse novo espectro com conteúdo desencontrado, operações psicológicas e “false flags” (operações falsas), ao mesmo tempo que tenta filtrar o conteúdo desencontrado semeado pelo inimigo e permanecer com aquilo que se assenta nos acontecimentos “reais”: a checagem de fatos (“fact checking”) é antes de tudo uma tarefa da guerra e da lógica do Estado, só sendo posteriormente uma atividade de imprensa.

Parece haver uma queda tendencial da possibilidade de se informar, e os implementos técnicos surgem ao resgate. Os mais recente deles são as chamadas “Inteligências Artificiais” que, longe de resolver o problema, apenas o agrava: os beligerantes agora tem suas próprias “IAs” para filtrar e poluir o espectro informacional. Veremos adiante191 que as “IAs” apenas contribuem consideravelmente para a vitória caso haja uma assimetria significativa, isto é, quando são empregadas contra um inimigo que não as possui. Em geral isso ocorre nas guerras coloniais e nas guerras internas contra o próprio povo. Nos outros tipos de guerra, seu uso implica numa nova escalada armamentista.

A censura, longe de ser uma solução para o problema da poluição informacional, é seu próprio corolário: a existência da informação indesejável serve como justificação para a supressão arbitrária de conteúdo. Poluição e supressão operam como duas faces da corrida armamentista informacional.

A censura caracteriza-se pelo corte da capacidade informacional de inimigos externos e internos. Tende a ser uma proteção do status quo contra ameaças informacionais de atores políticos e militares, e é apresentada como uma medida paternalista de proteção da população. A censura não resolve o problema da informação indesejada: ela o intensifica, incitando novas formas de drible e contorno.

Se regimes nitidamente totalitários tendem à censura, o totalitarismo disfarçado das ditas “democracias liberais” suprimem as opiniões contraditórias ao deixarem que elas afundem no meio de tantas outras informações, num tipo de “censura soft” resultante da própria irrelevância.

Opera-se um fechamento, seja pelo excesso ou pela falta informacional.

Esta “esfera”, “camada” ou “ambiente” informacional tende a um fechamento nele mesmo. A hiper financeirização descolada de uma “realidade” “fincada no chão” é um exemplo da ubiquidade deste fenômeno, tendo como um dos seus ícones a chamada Hight Frequency Trading (HFT - Negociação em Alta Frequência). Agora todas as dimensões existenciais padecem do mesmo comportamento: sistemas de informação numa corrida armamentista em rápida escalada, se autodigerindo e se auto-excretando indefinidamente, gerando uma poluição de dados que não tem mais a ver com ganhar conhecimentos necessários para enfrentar os grandes problemas do mundo. Muito pelo contrário: aumentam os problemas do mundo, não só por desviarem a atenção como também pelo seu próprio impacto ambiental: informações custam recursos do planeta para serem produzidas, transferidas e armazenadas.

A “inovação” impulsionada por esta “competição” está ligada a uma racionalidade instrumental extremamente paranoica: trata-se de uma schizogenesis – a cismogênese192 como impulsionadora das técnicas de guerra.

Este impulso vem da própria dinâmica competitiva capitalista, que adota qualquer tecnologia que apresente ganhos de eficiência – dentro da lógica de quem não adotar será passado para trás por aqueles que o fizerem o quanto antes.

O mesmo temor da existência da bomba atômica alimentou sua criação: “é melhor construirmos, pois o outro pode estar construindo”. Algo semelhante parece ocorrer com as chamadas “Inteligências Artificiais Gerais” (AGIs - Artificial General Intelligence): como aponta Rushkoff (2022)193, o medo das “AGIs” impulsiona a corrida pela sua construção, mesmo que “AGIs” sejam apenas quimeras:

I was at a small invite-only conference for “friends of” a tech industry leader, where I met the wealthy founder of a social media app who was so afraid of the coming age of AI that he was careful not to ever post anything negative about thinking machines. “We can talk about them here”, the twenty-eight-year-old practically whispered to me, “but never on the record, and never ever online.”

This young man’s fear was that when the AIs do take over, they will review all of our social media posts in order to determine who among us are friendly to their interests and who must be eliminated—like the Chinese Cultural Revolution or the McCarthy hearings, except conducted by robots.

Yes, he had this insight while tripping on some sort of toad venom with a shaman. But on returning to work the next week and observing how his own company was using AI, he concluded that his vision of AIs networking themselves together into a new planetary governance structure was, to use his word, “inevitable.” He warned me to be careful about the essays I post, and maybe to pepper them with some hints that I was only concerned for how people would exploit AI, not about the AI itself. Although he then admitted that this strategy was doomed to fail, since AIs would be able to discern such subterfuge by analyzing our linguistic patterns over time.

“It’s not that I hate AI – I just fear them. That may not be interpreted as a threat to their interests.” The bigger the billionaire, the greater the fear, and the countermeasures. Elon Musk told a 2014 audience at MIT that by experimenting with AI, Larry Page and his friends at Google are “summoning the demon .” In a now famous Vanity Fair account of a conversation between Elon Musk and DeepMind creator Demis Hassabis, Musk explained that one of the reasons he intended to colonize Mars was “so that we’ll have a bolt-hole if AI goes rogue and turns on humanity.” Similarly, Musk has been developing a neural net apparatus that can be lasered onto our brains, which would potentially allow us to compete with a superintelligent rogue AI that turns against us. Of course, most of Musk’s space technologies are entirely dependent on AI, so a Mars mission may be less a means of escape than running straight into the robots’ arms194.

Esta paranóia do (in)formismo195 leva às bombas tecnológicas. O mesmo raciocínio reflexivo que impulsionou a construção da bomba atômica onte impulsiona hoje a corrida pelas “Inteligências Artificiais”: “sabemos que um aparato deste tipo será destrutivo e que talvez seja possível construí-lo; nossos oponentes devem saber disso, e devem estar pensando que nós estamos pensando o mesmo, e devem estar pensando que nós já estamos construindo, e por isso devem estar construindo; por isso devemos construir: façamos antes que nossos oponentes façam”.

Esta corrida “inevitavelmente” – no sentido agourítmico – produz tecnologias bombásticas, e não necessariamente produzirá “AGIs” no senso estrito de seres inteligentes, mas certamente aprofundará a indigência artificial.

References

Bateson, Gregory. 1935. “Culture Contact and Schismogenesis”. Man 35: 178–83. https://doi.org/10.2307/2789408.
———. 1936. “Culture Contact and Schismogenesis”. Man 36: 38. https://doi.org/10.2307/2791208.
———. 1958. Naven: a survey of the problems suggested by a composite picture of the culture of a New Guinea tribe drawn from three points of view. 2º ed. Stanford Univesity Press. https://archive.org/details/navensurveyofpro00bate.
De Landa, Manuel. 1991. War In The Age Of Intelligent Machines. 1º ed. The MIT Press.
Pfister, Wally, e Jack Paglen. 2014. “Transcendence”. https://www.themoviedb.org/movie/157353-transcendence.
Rushkoff, Douglas. 2022. Survival of the Richest: Escape Fantasies of the Tech Billionaires. W. W. Norton & Company. https://wwnorton.com/books/survival-of-the-richest.

  1. “War In The Age Of Intelligent Machines”, De Landa (1991).↩︎

  2. No Capítulo 20.↩︎

  3. Cismogênese seria um “processo de diferenciação nas normas do comportamento individual resultante da interação cumulativa entre indivíduos” – Bateson (1958) Cap. XIII; originalmente em Bateson (1935) e em Bateson (1936).↩︎

  4. Rushkoff (2022) Cap. 13.↩︎

  5. Uma dinâmica desse tipo foi ficcionalizada no filme “Transcendence” (2014) – Pfister e Paglen (2014) –, no qual um próprio grupo subversivo opositor às “AGIs” acaba agindo, neste caso involuntariamente, em prol da criação de uma. Mas, ao contrário de Musk, o grupo insurgente não padecia de uma atitude ambígua e possivelmente hipócrita.↩︎

  6. Vide Capítulo 11.↩︎