18 Indigência Artificial
Versão 0.1.1 - 21/12/2025
A Informação se tornou a Poluição, o Lixo da Indigência Artificial.
As “Inteligências Artificiais” tem sido promovidas à panaceia capaz de resolver todos os problemas humanos, inclusive aqueles gerados pela própria informação: bastaria “alimentá-las” com informação suficiente, “treiná-las” o suficiente, e modelá-las o suficiente para que produzam em suas saídas as receitas para a humanidade seguir.
Isto justificaria a qualquer atividade humana ter como parte de suas tarefas a coleta e o processamento de informações. Até mesmo hospitais não seriam mais apenas locais de cura, mas principalmente postos de coleta de informação para a criação de grandes bancos de dados biométricos a serem posteriormente convertidos em prognósticos e diretivas de saúde.
Soa pertinente investir em pesquisas que coletem e processem dados responsavelmente para a melhoria das condições da vida em todas as escalas. No entanto, esta forma de fazer ciência tem se convertido na justificativa para impor novas versões de antigos colonialismos, assim como varrer da existência outros modos de viver e de fazer. Além disso, abre-se a brecha para coletas de dados cada vez mais invasivas e que facilitam o controle social repressivo e opressivo, ou até a exclusão e a eliminação.
O perigo imediato das “IAs” hoje não viria do advento de “superinteligências” autônomas que ameaçariam a humanidade e a vida na Terra – um cenário do tipo “Skynet” onde uma “Inteligência Artificial Geral” (AGI) tomaria o controle de um arsenal de guerra. Mas sim, em primeiro lugar, do uso estratégico da poluição gerada pelas “Special Purpose IAs”, ou “IAs” estreitas, de propósito específico e já existentes, para tirar vantagens em cima da população não só economicamente como também pelo controle social direto e indireto, incluindo aí o reconhecimento facial e sistemas de julgamento assistido por software. E, em segundo lugar, mesmo que as “AGIs” não possam ser construídas, as narrativas sobre elas impulsionam continuamente a pesquisa na área e mascaram outros problemas, mais concretos e imediatos. Como frisa Tarcízio Silva196,
É importante fazer essa distinção entre o que se chama de “inteligência artificial geral” e o que se chama de “inteligência artificial estreita”.
Em linhas gerais, a busca pela inteligência artificial geral significa tentar emular capacidades da mente humana nas diversas esferas da experiência, produzir comportamento autônomo, independente e proativo e aprender sobre esse comportamento de forma criativa.
Os robôs completamente autônomos e criativos que povoam as narrativas da ficção científica e do cinema representam geralmente o ápice da inteligência artificial geral – que provavelmente nunca será de todo alcançada. A controvérsia sobre a viabilidade da inteligência artificial geral é algo de que não trataremos […] Sobretudo porque vemos como negativa a tendência a hipervisibilizar os debates filosóficos sobre robôs autômatos e seus possíveis direitos no futuro ante a realidade material do impacto da inteligência artificial estreita na vida contemporânea. Além disso, historiadores da tecnologia, como Jones-Imhotep, argumentam que a promoção da ideia de autonomia robótica desde o século XVIII, com a Revolução Industrial, já era operacionalizada para cada vez mais invisibilizar o papel do trabalho humano contido nas máquinas.
O lobby das corporações operadoras de “IA” inclusive tem usado o temor da criação de “AGIs” hostis como justificativa para limitar a pesquisa e criação de outras “IAs”, e com isso manterem o oligopólio de licenciamento de uso, agora que já estão estabelecidas no mercado. Oligopólio este seja para controle social direto – do tipo “sociedade do controle” – ou indireto – numa “sociedade do descontrole” via geração de lixo informacional. A classe dominante usa o bode expiatório das “inteligências gerais e hostis” para manter seu monopólio sobre as “inteligências de propósito específico” e ganhar tempo para que tentem inventar suas sonhadas “inteligências gerais”. Independentemente da viabilidade técnica e do que seja considerado “inteligência”, tais propósitos gerais e específicos sempre serão hostis ao resto da humanidade197.
Esta nova oligarquia mundial é baseada e dependente da manutenção do oligopólio das “IAs”. Almeja suprimir ou limitar do resto da sociedade a tecnologia que ela mesmo fomentou, similar ao que aconteceu com a bomba atômica: o temor da sua existência alimentou sua multiplicação, sempre nas mãos de poucos. E as “IAs” são a “bomba atômica informacional” por excelência, como veremos198. Ao mesmo tempo, negam qualquer responsabilidade por essa tecnologia199.
Mesmo que não houvesse monopolização e todo o software e dados necessários para rodar “IAs” estivessem disponíveis publicamente, a imensa infraestrutura requerida continuaria inacessível para o público geral.
Trata-se da monopolização da “inteligência”.
Adotaremos o termo “Indigência Artificial” para se referir à noção estrita e corrente de “Inteligência Artifical”, assim como os efeitos provocados por ela. “Indigência Artificial” é a operação de sistemas para a geração artificializada de empobrecimento – tanto da própria inteligência quanto das condições existenciais –, de modo intencional ou não. Manteremos a sigla “IA” para referir a esta acepção específica e redutora.
As concepções mecanicistas de “inteligência” e “inteligência artificial” tem, no nível de discurso, uma aparente preocupação e inclinação pelas “verdadeiras bases” da inteligência sobretudo da humana, enquanto que no plano prático estão basicamente assentadas na enganação, seja de quanto uma máquina pode enganar um examinador considerado “inteligente” – o chamado Teste de Turing –, seja para provar uma inteligência supostamente superior de alguém que cria tal maquinaria.
Dividir seres entre “inteligentes”, “não-inteligentes” ou “menos inteligentes” também alimenta a justificação para a o domínio e controle dos que possuem a qualidade daqueles que não possuem, especialmente se o critério selecionado possuir aspectos de objetividade, testabilidade e mensurabilidade. Como anteriormente foi feito com seres que teriam ou não teriam uma “alma”, o que já foi usado como justificativa moral para a escravização.
As classes dominantes sempre clamaram para si o papel da inteligência, até como justificativa para exercer seu domínio da sociedade.
Mas, assim como qualquer monopólio, a concentração da inteligência não é algo “natural” e sim mantido forçosamente.
O povo sempre teve sua inteligência, e a elite sempre fez de tudo para expropriá-la ou suprimi-la. Este sempre foi um processo violento de impor a indigência artificialmente. Agora, com império da Informação, isto só se agrava.
Numa fase anterior deste processo, houve uma privatização do conhecimento comum via “crowdsourcing” – a alimentação de grandes bancos de dados pela contribuição voluntária ou involuntária. Na fase seguinte, tais bases foram usadas para abastecer sistemas estatísticos de “IAs”. O comum foi expropriado e integrado à bases de dados ainda mais proprietárias. As chances de alguém ler um texto parecem já muito menores do que o mesmo ser ingerido por um sistema de “IA”.
As mesmas “inteligências artificiais” que expropriam o intelecto geral disperso nas redes informacionais com fins de aumentar a eficiência da extração de lucros são usadas para fomentar um desintelecto geral, robotização e precarização das pessoas.
Parte desse sequestro de inteligência também ocorre hoje pelo conteúdo poluente que as “IAs” cospem de volta e que tendem a turbinar ideologicamente a sociedade, canalizando opiniões coletivas em níveis sem precedentes.
Isso dificulta o trabalho de checagem de fatos não só atuais como históricos. Se “factualidade” já é um conceito difícil de estabelecer numa historiografia clássica, a nova historiografia terá de se deparar com um mar de lixo informacional e destilar aquilo que mais potencialmente esteja associado a “fenômenos factuais”.
Imaginemos não só obras de ficção, mas uma avalanche de conteúdo que soe como “histórico” – não só livros, filmes, podcasts como inclusive “pergaminhos” e “papiros” “digitalizados”, assim como “opiniões”, “dossiês”, “estudos”, “relatórios” e até “vazamentos”. Isso tende a dar um trabalho enorme para criação de cadeias de custódia e autenticidade de conteúdos – como assinaturas digitais e lastros em documentos físicos – para de algum modo estabelecer relações verificáveis entre obras “digitais” e suas fontes “analógicas”: pessoas, documentos etc.
Está cada vez mais difícil de saber se um conteúdo tem lastro com antigas construções coletivas que chamávamos de realidade, ou se faz parte da nova ilusão coletiva gerada por sistemas estatísticos chamados de “Inteligências Artificiais”.
A “sociedade de afluência” informacional se tornou, de fato, uma sociedade de efluentes poluicionais. As “Inteligências Artificiais” operam na lógica do GIGO: Garbage in, Garbage out (lixo entra, lixo sai).
O que sobra em termos de “informação de qualidade”, estratégica, é privada, restringida, secreta ou vendida, aprofundando a desigualdade de oportunidades no campo informacional: a “boa informação” sendo um privilégio, e quem não consegui-la terá uma forçosa existência num aterro informacional de conteúdo não verificado, grande parte dele gerado e recomendado por “IAs”.
As “tecnologias da informação” são produzidas e produzem um lixão informacional, estimulando mais e mais a criação de analisadores estatísticos do tipo “IA”.
Os grandes fabricantes destas tecnologias as mantém fechadas, sob segredo e em regime de propriedade intelectual. Restringem o acesso para terem exclusividade sobre uma base de informações, evitando a mineração das “IAs” dos concorrentes; para manterem um celeiro de “usuários” dependentes ou mesmo viciados na plataforma, sob coleta-extração-vigilância constantes fornecendo informação para “IAs” proprietárias. E assim podem vender o serviço de uso, monopolizando o acesso àquilo que passa a ser considerado como “inteligência”.
Este é um processo de extorsão da “realidade”, forçando outros atores, mais populares, a entrarem neste triste jogo e fomentaram suas próprias tecnologias de extração de inteligência a partir do lixo informacional. São forçados a isso, não necessariamente por acreditarem que esse tipo de tecnologia é benéfico, mas para não ficarem totalmente à mercê dos novos mercadores da realidade (“reality brokers”).
Adentremos agora numa seara ainda mais especulativa, sobre a atual e também vindoura crise de superprodução, aliás hiper-ultraprodução informacional.
Como qualquer parque industrial da economia de escala, a indústria informacional não parece que vai parar de vomitar dados até entupir o mundo muito além dos limites suportáveis e assimiláveis. Pode produzir uma onda de choque suficiente para destruir a capacidade de julgamento do “real”, pavimentando com isso a próxima “nova ordem mundial”.
Chapados de tanto conteúdo, quem irá notar ou se interpor às guerras, morticínios e demais opressões afetando o outro? Se isto já acontece e acontecia nas versões anteriores da “indústria da (in)consciência”200, talvez vivenciaremos em breve um aprofundameto brutal e talvez sem volta, alegorizado em diversas maneiras na série de filmes “Black Mirror”.
A chantagem do monopólio das “IAs” será a venda de serviços baseados nessas mesmas “plataformas” que forneceriam “senso”, ou “sentido” enviesados num mundo poluído por essa própria tecnologia, na lógica de produzir o problema para vender a solução.
Este monopólio também vislumbra-se como da “fonte da verdade” em vários sentidos:
O monopólio da tecnologia em si, através de segredos industriais e “propriedade intelectual”.
Com a problemática da “liberdade de expressão” sendo “resolvida” por um choque de “credibilidade” com a monopolização das tecnologias de checagem de “fatos” (“fact checking”) mediante o uso de “IA” ou através de uma hierarquia notarial201. Opera-se uma redefinição do que é notícia e “informação verificada”, para além daquilo que uma pessoa pode confirmar numa experiência mais direta, tendendo a ser um monopólio dos novos “information brokers” também figurando como “mercadores do conhecimento”. A tendencial queda das taxas de lucro afetando a imprensa não produzirá somente mais e mais “muros de pagamento” (“paywalls”) como também uma restrição a quem pode acessar informações checadas por alguma auto-proclamada “autoridade”.
Ao produzirem o próprio consenso sobre o que é a cognição, o que é relevante, o que é “real”.
É um duplo movimento que coloca as “IAs”, num paralelo proverbial, a figurarem simultaneamente nos papéis de Demônio do Primeiro Tipo – o de Maxwell, na chave informação-classificação – e do Segundo – informação-poluição, como fabulado fabulosamente em Lem (1974) –, apesar de operarem dentro de limites termodinâmicos.
Apelar para as ditas “Inteligências Artificiais” tem sido a alternativa para processar largas quantidades de “informação” na expectativa de extrair conhecimento tático-estratégico, ao invés da lenta e penosa tarefa de selecionar e estudar conteúdo “manualmente”, e que produz outro tipo de resultado.
Se voltarmos a chamar de “sistemas estatísticos” aqueles que estão etiquetados como “Inteligências Artificiais”, conseguiremos entender melhor que basicamente tratam dos sistemas estadísticos da gestão da realidade, dentro do binômio “conhecer para controlar”.
“Organizar a informação do mundo” não é somente o slogan de um dos maiores conglomerados de triagem do infolixo202, como uma das primeiras diretivas das ciências da informação nos últimos 200 anos.
Com as “IAs”, uma importante etapa desta “organização” é o “treinamento” de máquina (machine learning), consistindo basicamente na calibração de um sistema estatístico a partir da ingestão do mesmo com informação previamente classificada. Após esse “treinamento”, o sistema é então usado para efetivamente produzir decisões – seja classificação, produção de conteúdo e “inferência” – usando dados a ele fornecidos203.
As “IAs” tem sido baseadas num “aprendizado” por classificação, para depois atuarem como mecanismos classificadores ou geradores de variações a partir da estatística acumulada. “Inteligência” é mais associado ao novo, à novas estratégias, e assim fica difícil considerar um classificador como “inteligente”: terá performance ruim em detectar e agir em cima da novidade. Esta “Inteligência” está tendendo ao enviesamento da classificação. O que é um sapato, que imagens contém um hidrante, quais dias são lindos. O clichê, o “genérico” e o médio sobressaem.
Os critérios classificatórios das “IAs” também fazem parte da terrível mecânica de racialização, com vieses transmitidos durante a programação e o “treinamento” das mesmas204. Preconceito entra, preconceito sai: qualquer sistema de classificação de pessoas baseado em atribuições genotípicas ou fenotípicas é potencialmente racista, sendo muito difícil, senão inviável, reformas para corrigir essa característica de “redes neurais” selecionando perfis de acordo com critérios previamente estabelecidos.
Haveria uma maneira dessas “IAs” classificarem sem classificar? Os argumentos na área de saúde pública – como a análise de perfis para prevenção de doenças relacionadas à composição genética – são muito delicados e precisam ser debatidos amplamente para que não sirvam de argumento para justificar outras aplicações de controle social. Ainda assim, toda iniciativa de reduzir a produção algorítimica de suspeitos e acabar com enviesamentos racistas é importantíssimo para mitigar os impactos concretos do uso dessas tecnologias nas vidas das pessoas, especialmente das mais impactadas.
Este perigo não surge apenas pela falta de diversidade e dos vieses de quem constrói esses sistemas, como também pela inserção dos mesmos num megassistema colonial que inclui por um lado, e exclui por outro. Como no verso de Augusto dos Anjos, “a mão que afaga é a mesma que apedreja”205.
Há esforços estatais e empresariais para “incluir” mais pessoas no megassistema informacional, e esta inclusão é cada vez mais imposta como requisito para outros tipos de inclusão e participação em programas sociais.
Esta inclusão corresponde tanto a novas formas consumo quanto de precarização.
A inclusão digital pelas “Big Techs” tem uma aparência de inclusão social e está ocorrendo pela via do “desenvolvimento”. Mas ela é uma inclusão digital que produz precarização e exclusão social.
O efeito combinado é o alijamento de humanos enquanto entes ativamente incidentes no processo. Informação continuará sendo a transmissão de comando e controle, não somente em humanos como em outros arranjos maquínicos, dentro da lógica da indigência artificial, isto é, a produção de indigência humana e ambiental como artifício para justificar a própria necessidade de “Inteligências Artificiais” que produzirá ainda mais indigência. Meu argumento não é circular por uma questão retórica: a própria dinâmica é circular e viciosa.
Os comportamentos humanos já tendem a ser direcionados mais e mais por “aplicativos” – que poderíamos entender como aplicações de uma lógica de governo – e menos por regras e normas codificadas pelo processo legislativo clássico206.
A programação computacional tende a deixar de ser menos uma atividade humana, sendo realizada majoritariamente pelos próprios aparelhos.
A tentativa expulsão do humano do mundo da informação corresponde à tentativas anteriores, como a chegada dos motores industriais que correspondeu a um ataque ao movimento humano, sempre forçado à adequação ao ritmo do parque industrial. O advento das “Inteligências Artificiais” é a mais recente tentativa de substituição, que de tão forte passa a impressão de ser o passo final para alijar completamente humanos dos processos produtivos.
Um exemplo é (de)generatividade das “IAs” produtoras de texto, imagens e vídeos:
- No que tange à precarização do trabalho, não há ganho de médio ou longo prazo na redução de jornada com o uso deste tipo de sistema, já que o próprio mercado passará até a esperar este tipo de atitude; e as pessoas que forem revisar, avaliar ou consumir o trabalho também poderão fazê-lo via “IAs”. Na prática, a tendência é que qualquer alívio no tempo de trabalho seja preenchido com mais tarefas e novas exigências. Isto ou a perda do posto de trabalho, por este ter sido “automatizado” pelas “IAs” e não houver espaço para humanos atarefados que as treinem207.
Uma primeira reação sobre o uso esse tipo de gerador é bem resumida pelo que alguém disse que, “se não vale seu tempo pra escrever, não vale meu tempo pra ler”208. Mas como saber se vale ou não, antes de ler? E como saber que aquilo que foi escrito tem relevância, pertinência e especialmente está assentado em acontecimentos e referências fiáveis?
Escrever, contar histórias, falar etc são atos de memória e de organização dos pensamentos. Delegá-los para uma “IA” como uma medida para “salvar tempo” acaba por aniquilá-lo, por reduzir a memória – numa amnésia estimulada por computador.
Consequentemente, a contação de histórias benjaminiana, em primeira pessoa, decai ainda mais no rol das atividades humanas, sendo terceirizada para sistemas auxiliares. Na educação, as “redes neuróticas” de “IAs” treinadas pelas pessoas podem posteriormente treinando pessoas. Alimenta-se assim um “tamagochi” em forma de ouroboros, transformando professores em treinadores de “IAs”, e estas em adestradoras de estudantes.
As “IAs” generativas produzem lixo, mas é um lixo atraente, em alta definição, sob-medida e que incita à adoração. Da mesma maneira como as “mídias sociais” viciam e fazem as pessoas amarem os Grandes Irmãos209.
Novamente: “Informação” tem se aproximado do lixo e “Inteligência” da produção de indigência. Toda esta Demência Institucional é uma produção sistemática de indigência artificial, não somente produzida por “IAs” como por qualquer outro processo de despossessão, privação, espoliação e direcionamento cognitivo existente, especialmente no modo de operação infocapitalístico.
References
Ironicamente, os slogans de duas destas corporações são “não seja mau” e “mover rápido e quebrar coisas”.↩︎
“Com frequência, corporações de tecnologia argumentam contra a responsabilidade pública sobre os impactos de seus sistemas algorítmicos por meio de duas táticas comuns. A primeira é a ideia de que os softwares e algoritmos são “segredos de negócio” e, portanto, não poderiam ser auditados ou criticados em seus impactos. A segunda é que a colossal complexidade dos algoritmos os tornaria inescrutáveis tecnicamente para a sociedade e, em especial, para a leitura individual de milhões de linhas de código”, in Silva (2022) pág. 65.↩︎
Talve este seja o caso de iniciativas como Coalition for Content Provenance and Authenticity (C2PA). Embora seja um passo importante para implementar cadeias de custódia em recursos informacionais, à primeira vista a C2PA parece muito dependente na infraestrutura X.509 de autenticação digital, tipicamente operados por uma hierarquia de Autoridades Certificadoras (ACs). Não somente reforça a concentração de poder nas ACs – às vezes criticamente referidas como um cartel – como parece não proteger contra CAs alternativas e “anti-sistema” que facilitem a legitimação de conteúdo forjado, ao menos que CAs fora do padrão não possam ser instalados em dispositivos. O uso de C2PA é opt-in, isto é, quem produz o conteúdo que decide se usará esta tecnologia. Além do sistema de “Digital Rights Management” (DRM - Gestão de Direitos Digitais), a indústria da informação também disporá de sua própria mecânica notarial para atestação de factualidade – mas ainda não se sabe o quanto e como isso será usado, ou relevante.↩︎
E que aliás está mais para “se aproveitar da desorganização o mundo e das pessoas com o excesso de informação, para que vendamos a dependência no nossos serviços de organização.↩︎
Notar que, aqui, o momento epistemológico do conceito de Informação – já mencionado em Capurro (2022) – ganha uma nova dimensão ao se referir também à formação e treinamento de “IAs”.↩︎
Ver por exemplo “Racismo algorítmico: inteligência artificial e discriminação nas redes digitais”, de Silva (2022), do qual separamos uma breve passagem da pág. 66: “Algoritmos medeiam quais sujeitos são ou não inclusos, como são ordenados, suas hierarquias de valor ante os objetos e o capital e também situações em que vidas são consideradas descartáveis. Uma vez que vivemos em um mundo moldado pela supremacia branca, que nos últimos séculos vem se transformando em projetos de poder e violência, a partir do colonialismo material, político e científico, é preciso entender então o papel da algoritmização das relações raciais e de poder. Portanto, aqui definimos racismo algorítmico como o modo pelo qual a disposição de tecnologias e imaginários sociotécnicos em um mundo moldado pela supremacia branca realiza a ordenação algorítmica racializada de classificação social, recursos e violência em detrimento de grupos minorizados. Tal ordenação pode ser vista como uma camada adicional do racismo estrutural, que, além do mais, molda o futuro e os horizontes de relações de poder, adicionando mais opacidade sobre a exploração e a opressão global que já ocorriam desde o projeto colonial do século XVI”. Para uma breve bibliografia crítica sobre a amplificação de desigualdades promovida pelas “IAs”, consultar a lista de Pasquinelli (2023) (Seção “The many histories of AI”).↩︎
“Código é lei”, como indicou Lessig (2006), talvez de uma maneira ainda mais profunda se o próprio código passar a ser gerido sem a participação humana, muito menos democrática.↩︎
Há, entanto, um “paradoxo da última milha da automação” – comentado por exemplo em Falleiros (2024a) pág. 174: mais automação tem gerado, curiosamente, mais trabalho humano, em geral precarizado, justamente quando se pretende eliminá-lo. De todo modo, retirando ou somente piorando o trabalho humano, o resultado desse processo tem sido degradante.↩︎
Do original “if it’s not worth your time writing it, it’s not worth my time reading it”. Sigilo da fonte garantido.↩︎
Já o texto, uma estranha mídia de baixa definição visual mas de alta resolução imaginativa, perde espaço e audiência. Ninguém escreve, ninguém lê: num limite bem limítrofe, texto e outras mídias virariam produções e produtos de e para as “IAs”. Se a informação passa a ser lixo para humanos, continua sendo material de sobra reaproveitável para outras máquinas, que herdarão a Informação e seu uso. Tal como historiador-robô imaginado na introdução do trabalho de De Landa (1991).↩︎