18 Indigência Artificial
18.1 Aspectos gerais
Sumário conciso da história da “IA”, Pasquinelli (2023) pág. 220.
“Inteligência” medida enquanto compressão implica na computação enquanto compactação de lixo informacional.
Conceito de raça como informação e tecnologia; transmissão de forma em Syed Mustafa Ali, Silva (2022) pág. 146.
Inteligência:
Indigência Artificial: o Lixo da Informação.
“IAs” e corrosão do que sobrou de democracia e livre escolha: conselho ao pé do ouvido de Platão, uma prescrição (“prescribe”) à cama de cada pessoa – parakathēmenos “at the bedside of” –, Castoriadis (2002)), dizer o quê cada um tem que fazer. Morte da política. Se isso era inviável naqueles tempos, a tecnologia das prescrições de futuro (agouritmos) aliada à conexão constante (“Internet of Bodies”) já permite que os conselhos do que fazer sejam prescritos a todos. Uma alegoria disso está no meu conto “Experiência de Usuário: Brasil 2029mg” (2019). Checar também anotações relacionadas em Rhatto (sd).
Phronesis.
Treinamento:
Processos estocásticos: baseados em distribuições de probabilidades.
Um exemplo de “Inteligência Artificial” generativa enquanto um truque estocástico, contida na Teoria Shannoniana da Informação12. Retomada a partir da Seção ??.
Treinamento e poluição adversarial: escalada pela identificação de padrões dentre o lixo produzido tanto pelos inimigos quanto pela externalização de outras “IAs”: exponenciação da poluição, aumento do custo energético para triagem etc.
“Artificial Unintelligence: How Computers Misunderstand the World”,
Broussard (2018).
Psicomática: neurologia gradualmente substituída pela Informática. Nervos como feixes de dados e neurônios como condutores de bits. Eletroeletrônica se baseando no conhecimento da neurologia para depois se refletir na construção de modelos para o próprio cérebro. “Redes neurais” são modelos informáticos.
“Inteligência de Negócios” (Business Intelligence), dispositivos “espertos” (smart), “sistemas cognitivos”… a inteligência está sendo usada para designar propriedades de aparelhos e serviços, e cada vez menos de pessoas.
Inclusão Digital:
- População mundial, e quanto desta está “conectada”, isto é, “incluída” no mundo informacional? Quanto tempo ficam expostas, e qual a quantidade de dados que produzem e consomem?
“Anatomy of an AI System: The Amazon Echo As An Anatomical Map of Human Labor, Data and Planetary Resources”, Crawford e Joler (2018).
Campanhas de relações públicas ensinam a amar a bomba.
“Sorting Things Out: Classification and Its Consequences”, Bowker e Star (1999).
“Weapons of Math Destruction”, O’Neil (2016).
A ambiguidade da ofuscação como estatégia para minar o extracionismo de dados:
- “Vernacular resistance to data collection and analysis: A political theory of obfuscation”, Brunton e Nissenbaum (2011).
Da ética dos dados à justiça dos dados, Silva (2022) pág. 172.
Apagões de dados e quebras das cadeias de custódia.
Nota e referência sobre o Demônio de Maxwell.
Nota e referência sobre o Teste de Turing.
Sergio Amadeu sobre a inescrutabilidade de algoritmos que nem mesmo os implementadores conseguem explicar, Silva (2022) pág. 174.
A ascensão do “aprendizado de máquina” não só como resposta à sobrecarga informacional como também ao aumento da dimensionalidade dos dados, Pasquinelli (2023) pág. 212.
É obsceno propalar pesquisas sobre “AGIs” enquanto a miséria devasta as inteligências já existentes.
Esse excesso de acúmulo de dados é um sintoma de que a sociedade em geral não sabe o que é importante preservar em termos de memória.
Efeito agregado de identificar mais facilmente os desvios relativos ao comportamento padrão.
Pessoas consumindo lixo informacional e “IAs” ingerindo o conteúdo de maior qualidade.
Roubo de dados:
O momento agora é de baixar todo o acervo de obras disponíveis, pois talvez daqu iuns dias seja difícil saber se a versão de uma obra foi gerada por “IA”… mas é esse próprio processo de baixar tudo que vai viabilizar a geração via “IA”! Impressionante como esse discurso de libertar os dados esteja produzindo a próxima iteração da distopia.
Este texto aqui talvez seja mais um “dataset” a ser ingerido por esse tipo de base de dados – à revelia da licença que escolhi para isso. Mesmo que este texto contenha opinião que fomente o contraditório, nessas bases, isso não afeta o sistema, que se beneficia inclusive da posse do contraditório.
O vazamentos (“leaks”) são diretamente afetados – as “IAs” ameaçam diretamente a capacidade de transparência e whistleblowing. Lembro de me questionar por exemplo se o Cablegate era de fato real ou não passava de um conjunto de documentos forjados… e um dos critérios pra acreditar que são reais era que ninguém em sã consciência investiria tempo e dinheiro pra gerar um fake daquele tamanho… esse critério já não vale…
A propriedade é um roubo. A propriedade intelectual sempre foi um roubo. Roubo de conhecimento puro e simples, privatização de pesquisa financiada com recursos público e por aí vai. Agora o roubo é baseado na ingestão de qualquer tipo de informação de qualquer procedência, para a construção de enormes bases de dados de inferência estatística.
Parece que cada mudança de paradigma/matriz produtiva está associada a roubos cumulativos: roubo de terra, de liberdade (escravidão), tempo de trabalho (na industrialização), de atenção/informação/dados etc. Como se sempre fosse, no fundo, acumulação primitiva de vários tipos.
A criação da necessidade, segundo Gorz e Schaffroth (2003c), Gorz e Schaffroth (2003a) e Gorz e Schaffroth (2003b):
Global - O senhor vem criticando os “abre alas” da inteligência artificial e da vida artificial que preparam não mais uma sociedade do saber mas uma civilização pós-humana..
Gorz - À custa de processos de pensamento não sensoriais e matemáticos, têm-se chegado a uma condição ambiental e a um tipo de vida que já não é, física e mentalmente, a medida do homem. Por isso os detentores do poder têm tido a necessidade de criar seres humanos mais eficientes. A loucura do poder econômico e militar e a obsessão eficientista criaram a necessidade de inteligência artificial, de máquinas humanas artificiais.
A criação da necessidade pelo desincentivo ao uso das próprias faculdades cognitivas: “IAs” produtoras de texto em alta velocidade, desincentivando pessoas a escrever. Quem não pratica, perde a prática: ao não escreverem, as pessoas perdem a prática de escrever com agilidade. Fica mais difícil de se expressar na forma escrita e em tempo hábil. A exigência pela produção de relatórios, peças publicitárias, comunicados etc impõe um ritmo difícil de acompanhar, e daí acabam recorrendo às “IAs” (necessidade via desincentivo cognitivo).
- As pessoas são forçadas a produzir cada vez mais informação, e mais rápido. As “IAs” são máquinas de vomitar informação, e assim o mundo fica inundado de vômito, como é o caso do “ShitGPT”.
“Artificial Whiteness: Politics And Ideology In Artificial Intelligence”,
Katz (2020).
“IA”: embaralhamento da exploração: apropriação dos conteúdos e trabalhos humanos são misturados: dificuldade de atribuição da fonte.
Redução da inteligência por excesso de informação “rasa” e “superficial”:
Tirando o papo de QI e de coach, este apontamento é relevante (dica da Nahema):
Em 1976, no Rio de Janeiro, pessoas comuns eram entrevistadas sobre seus hábitos de leitura. As respostas, quando comparadas com o hoje, impressionam: vocabulário mais abrangente, frases bem estruturadas, e, sobretudo, um apreço genuíno pelos livros.
Esse contraste com o presente levanta uma questão inquietante: por que, quando olhando a média da população, houve uma deterioração tão evidente na forma como falamos, pensamos e nos expressamos?
A resposta, ao meu ver, está no conjunto de diversos fatores. Pela primeira vez na história moderna, pesquisas indicam que a nova geração possui um QI médio inferior à anterior – Efeito Flynn reverso.
Tradicionalmente, o QI da população vinha aumentando ao longo do século XX devido a melhorias na nutrição, educação e acesso à informação. No entanto, esse progresso começou a se inverter nas últimas décadas. Um dos principais suspeitos? A forma como consumimos informação.
Se antes a leitura exigia profundidade, paciência e um vocabulário extenso, hoje nos deparamos com textos rasos, limitados a poucas palavras ou caracteres, carregados de simplificações exageradas – ou seja, nunca lemos tanto na vida, mas lemos o raso.
As redes sociais, projetadas para a retenção máxima da atenção, recompensam o consumo rápido e a superficialidade. O pensamento crítico, por sua vez, torna-se vítima desse processo.
O impacto não é apenas cultural ou social, mas fisiológico. O cérebro é um órgão plástico, moldado pela experiência. A leitura profunda ativa regiões responsáveis pela cognição complexa, como o córtex pré-frontal, essencial para a tomada de decisões e planejamento. Já o consumo de conteúdos fragmentados estimula o sistema de recompensa, reforçando impulsividade e reduzindo nossa capacidade de manter a atenção.
O resultado? Uma sociedade que lê menos, pensa menos e questiona menos. Mas a boa notícia é que essa deterioração não é inevitável. Podemos reverter esse cenário resgatando o hábito da leitura profunda, incentivando o pensamento crítico e valorizando a riqueza da linguagem.
O declínio da inteligência não é um destino, mas provavelmente uma “escolha” coletiva.
– Nutricionista Gustavo Duarte https://www.instagram.com/reel/DGgptgsP1YX/ Acessado em 2025-03-05
“Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI”, Hao (2025).
As “IAs” são usadas para, efetivamente, treinar as pessoas em neoliberalismo.
Dados, informação, desinformação:
Dataclisma.
“We Are Bellingcat: An Intelligence Agency for the People”, Higgins (2022), incluindo:
Cap. 3, sobre desinformação.
Cap. 5, sobre “AI”.
Máquinas na mente, Cauquelin (2023), incluindo:
Informação/comunicação e “doxa técnica”, Cauquelin (2023) págs. 77-96.
Máquinas na mente: comedoras de cérebro?
Obsolescência de conteúdos (selecionar trecho), Cauquelin (2023) págs. 179-180.
Dados pessoais que “nunca foram dados, mas captados”, Cauquelin (2023) pág. 192 nota de rodapé 6.
Paradoxo da comunicação e da memória/esquecimento, Cauquelin (2023) pág. 192.
Digital e/em ruínas, Cauquelin (2023) págs. 223-226.
Enganação da “com.”, Deus de Feuerbach (selecionar trecho), Cauquelin (2023) págs. 182-183.
A constante febre de Hans Carstorp culmina com sua ida à guerra.
Chomsky sobre “IA” e linguagem, incluindo:
“ChatGPT and human intelligence: Noam Chomsky responds to critics - Noam Chomsky Interviewed by Ramin Mirfakhraie”, Chomsky e Mirfakhraie (2023).
“Noam Chomsky on Where Artificial Intelligence Went Wrong - Noam Chomsky interviewed by Yarden Katz”, Chomsky e Katz (2012).
“Noam Chomsky Speaks on What ChatGPT Is Really Good For - Noam Chomsky Interviewed by C.J. Polychroniou”, Chomsky e Polychroniou (2023).
18.2 “Inteligência”
De Pasquinelli (2023):
Inteligência roubada dos empobrecidos, Pasquinelli (2023) Cap. 2 (teorias de Babbage).
“Inteligência” na Grã-Bretanha do século XIX, Pasquinelli (2023) pág. 75.
Mitologia e estupidização sobre “IA” operando ao lado do capital, Pasquinelli (2023) pág. 106.
“Inteligência Artificial” como apenas uma técnica de otimização computacional baseada em “força bruta”, Pasquinelli (2023) pág. 195; antropomorfizada como “inteligência estatística”, Pasquinelli (2023) pág. 202.
Ferramentas estatísticas virando o modelo para “inteligência”; psicométrica contribuindo para a metáfora do cérebro enquanto um computador do tipo turiniano, Pasquinelli (2023) pág. 206.
Os termos “Informação” e “Inteligência” não foram somente sequestrados várias vezes como estratégia mercadológica para a venda de tecnologias automatizadas. O sequestro também é semântico, adicionando camadas de colonização epistêmica às camadas já existentes.
“Psychology of Intelligence”, Piaget (2003).
Corporeidade en Merleau-Ponty; inteligência indissociável de um corpo,
Chauí e Demori (2024).
“Inteligência e Realidade”, Zubiri (2011).
“Sentient Intelligence”, Zubiri (1999).
Inteligência na obra de Pierre Lévy, incluindo:
Inteligência em Lévy (1996) Cap 7; definição na pág. 97; psiquismo e afeto a partir da pág. 104.
Livro “Inteligência Coletiva”.
Os vários conceitos relacionados à inteligência/habilidade/etc, vide volume “Philo” do “Projeto Vertigem”.
Inteligência enquanto:
Artifício:
Inteligência enquanto artifício: do motor para o “abstrator”.
Os artefatos contém inteligência aplicada. A inteligência é um artifício que pode moldar conteúdos e operar situações, agindo e retroagindo.
Instrumento:
- Inteligência enquanto instrumento (tocar um instrumento e ser por ele tocado).
Inteligência de acordo com Edgar Morin.
A concepção DIKW (Data, Information, Knowledge, Wisdom) e similares.
O ato do pessimismo (Gramsci); que podemos entender também como a análise de tudo o que pode “dar errado”, para que então pensamos em como fazer dar certo a despeito de tudo isso que pode “jogar contra”.
Lentidão rápida, festina lente, Maffei (2014b), Maffei (2014a).
Pensamento na interação entre áreas cerebrais, Maffei (2014a) pág. 104.
Rebelião, Maffei (2016).
Inteligência versus:
- Inteligência versus razão instrumental: a “instrumentalização” num outro sentido: extração de valor a qualquer custo.
“Disarming Intelligence”, Z. Paul (2024).
“The Outlook for Intelligence”, Valery (1989).
“An Artificial History of Natural Intelligence: Thinking with Machines from Descartes to the Digital Age”, Bates (2024).
“Enciclopédia Einaudi - 34. Comunicação-Cognição”, Enciclopédia Einaudi (2001).
“Inteligência” como vantagem competitiva relativa no filme “Jurassic World Rebirth” (2025), ao redor de 01:03:10:
(chuckles) I’m too smart to die.
You know, intelligence is massively overrated as an adaptive trait.
- Oh, yeah?
- Seriously.
Enlighten us.
Dinosaurs: pretty dumb, right?
And yet they survived for 167 million years.
And we Homo sapiens, geniuses by comparison, only have about 200,000 years so far.
But with our huge cranial cavities, we’re so smart, we already have the capacity to annihilate ourselves.
I doubt we make it to even one million.
(scoffs) Hold on.
Don’t we rule the Earth? We got to be doing something right.
We don’t rule the Earth.
We just think we do.
I mean, sure, we’re changing the environment, but that makes us the ones to worry about, not the planet.
When the Earth gets tired of us, believe me, it will shake us off like a summer cold.
Of all species that have existed on Earth, 99.9% of them are now extinct.
Survival is a long shot.
(sighs)
(water splashing)
Whoa.
You hear that?
Every day could be your last.
18.3 “Inteligência Artificial”
Texto “Inteligência de Quem? Infraestruturando a Inteligência Coletiva na Era dos LLMs”, de Erik Bordeleau, da Universidade NOVA de Lisboa, com tradução de Augusto Jobim do Amaral (PUCRS).
“IAs” atuais operam apenas nível simbólico. Não possuem nenhum “loop estranho” fazendo a ponte do simbólico para o semântico.
Artificialização da Desinteligência, ou Ininteligência Artificial.
Segundo a Nahema durante sua defesa de doutorado, as “IAs” estão inseridas num “projeto leibiniziano de ‘liberar o juízo’”.
As chamadas “IA”s tem contribuído no reforço da psicologia behaviorista como emanadora da verdade completa sobre o humano.
“IA não é inteligência e sim marketing para explorar trabalho humano, diz Nicolelis”, Nicolelis e Teixeira (2023). Inclui trechos interessantes a serem selecionados.
“O problema das outras mentes: uma antropologia das inteligências artificiais”, Pereira (2021).
“A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going”, Wooldridge (2021).
Dreyfus: discutir aqui ou mover para mais adiante?
“A Brief History of Artificial Intelligence: What It Is, Where We Are, and Where We Are Going”, Wooldridge (2021).
Matteo Pasquinelli:
Three Thousand Years of Algorithmic Rituals: The Emergence of AI from the Computation of Space, Pasquinelli (2019)
“The Eye of the Master: A Social History of Artificial Intelligence”, Pasquinelli (2023), incluindo:
- Digitalização e compressão do trabalho, impressão inicial sobre Pasquinelli (2023).
Mapa da “inteligência maquínica”, Pasquinelli (sd).
“Inteligência artificial” não existe, Julia (2019).
Phronesis:
“Inteligência” artificial só é inteligência por uma questão agourtítimca: a definição de inteligência é adaptada para englobar o objeto técnico. É a auto-realização profética da inteligência que reproduz a crença da sua realidade pela construção da realidade “aumentada” mas que de fato é reduzida de variedade e diferença.
Mas não possui phronesis, o julgamento não-turiniano.
Turiniano versus phronético.
“Superintelligence: paths, dangers, strategies”, Bostrom (2014).
“Whole Brain Emulation - A Roadmap”, Sandberg e Bostrom (2008).
Turing:
- Teste de Turing:
“O Teste de Turing e a Tomada de Consciência - Anotações”, Rhatto (2012).
O teste acaba com a noção de corpo, ou tenta conceituar inteligência como algo independente do corpo. Argumento já presente no experimento mental do “Quarto Chinês”.
- Teste de Turing:
Dentro do paradigma turiniano, fingir que é inteligente, com sucesso, implica em ser inteligente.
“A inteligência artificial: mito ou realidade”, parte final de Pessis-Pasternak (1993) pags. 191-259.
Sobre a suposta “mescla” (“merger”) entre “inteligência biológica” e “inteligência artificial” em Hilbert (2020).
Correlações estatísticas versus significação:
Existe o argumento de que significação não passa de um fenômeno emergente a partir de correlações multi-nível entre símbolos sem significado.
No entanto, a partir do meu ponto de vista mental, penso em termos de significado.
Achar que os significados são ilusões seria uma explicação de quem está tentando observar o funcionamento da mente de alguém a partir de fora, ou seja, a explicação da ausência de significado só opera quando aplicada no outro, que passa então a ser desprovido de significado.
Significado são, portanto, noções subjetivas, noções relativas ao sujeito, e não critérios necessariamente objetivos. Quando algo é considerado objeto, ou seja, objetificado, não há brecha para considerá-lo como provido de suas próprias significações.
As próprias noções de significado, correlação, estatística etc só significam para sujeitos.
Inteligência Artificial e Novas Tecnologias no Direito, na Revista da AASP número 167/2025: https://aplicacao.aasp.org.br/revista_aasp/167
18.4 A Estupidez Artificial
Desinteligência:
O produto da inteligência agenciada de modo pseudo-coletivo é novamente agenciada para gerar produtos derivados.
Como diz Zuboff13, contrariando o mote de que você é o produto, o produto é sugado de você, até sobrar só a casca.
Redução forçada de inteligência usada na errônea justificativa de que as pessoas não são capazes de tomar decisões por conta própria, e portanto precisam não só de “apoio” nessa tarefa, como seria mais apropriado se delegassem inteiramente a decisão para terceiros, sejam “algoritmos”, “Inteligências Artificiais” ou um corpo tecnocrático. Não é de se espantar, portanto, que todos esses terceiros convergem para um mesmo oligopólio de conglomerados transnacionais conhecido como “Big Techs”.
Argumentação sobre o “conselheiro ao pé do ouvido” a la Platão, vide discussão de Castoriadis.
“IA” degenerativa, “DeGen IA”.
“IA” regurgitativa, “ReGurg IA”.
“IA Agêntica” é “IA Indigêntica”: gente extraída em gentio indigente.
Consequências de longo prazo de não pensar, ou de pensar menos.
“Brain rot”: a última etapa de lixificação?
“‘O verdadeiro perigo da inteligência artificial é a estupidez humana’”, Rivera (2025b):
Qual é a solução para não nos tornarmos escravos do algoritmo?
A solução, na minha opinião, é muito simples, está ao alcance de qualquer pessoa, é gratuita e não tem impacto ambiental. É simplesmente pensar. Em outras palavras, usar o cérebro. É uma capacidade humana que está em desuso, que se perdeu.
“Esclavos del algoritmo”, Rivera (2025a), incluindo:
Pensamento crítico, Rivera (2025a) págs. 192-193:
El pensamiento crítico – que no es genético ni le viene de serie al homo sapiens – es la única liana que puede salvarnos de perecer en las arenas movedizas de la desinformación. No es una exageración. Si no piensas por ti mismo, si no reflexionas sobre las fuentes, si no contrastas versiones, si te crees sin más los textos, audios o vídeos que vas pescando en internet o que te reenvían los amigos, bien podrías también renunciar a tu calidad de ser humano consciente y capaz de juicio… y a tu derecho a votar en una sociedad democrática.
Acronia em Merleau-Ponty, Chauí e Demori (2024) (fichamento inicialmente disponível no repositório
textos).
“Enriquecimento” da informação às custas do empobrecimento intelectual.
A estética lixo das “AIs” em “AI: The New Aesthetics of Fascism”, Watkins (2025):
The right loves AI-generated imagery. In a short time, a full half of the political spectrum has collectively fallen for the glossy, disturbing visuals created by generative AI. Despite its proponents having little love, or talent, for any form of artistic expression, right wing visual culture once ranged from memorable election-year posters to ‘terrorwave’. Today it is slop, almost totally. Why? To understand it, we must consider the right’s hatred of working people, its (more than) mutual embrace of the tech industry and, primarily, its profound rejection of Enlightenment humanism. The last might seem like a stretch, but bear with me.
[…]
No amount of normalisation and ‘validation’, however, can alter the fact that AI imagery looks like shit. But that, I want to argue, is its main draw to the right. If AI was capable of producing art that was formally competent, surprising, soulful, then they wouldn’t want it. They would be repelled by it.
[…]
If art is the establishing or breaking of aesthetic rules, then AI art, as practiced by the right, says that there are no rules but the naked exercise of power by an in-group over an out-group. It says that the only way to enjoy art is in knowing that it is hurting somebody. That hurt can be direct, targeted at a particular group (like Britain First’s AI propaganda), or it can be directed at art itself, and by extension, anybody who thinks that art can have any kind of value. It can often be playful – in the way that the cruel children of literary cliché play at pulling the wings off flies – and ironised; Musk’s Nazi salute partook of a tradition of ironic-not-ironic appropriation of fascist iconography that winds its way through 4Chan (Musk’s touchpoint) and back into the countercultural far right of the 20th century.
[…]
I would not be the first to observe that we are in a new phase of reaction, something probably best termed ‘postmodern conservatism’. The main effect of this shift has been to enshrine acting like a spoilt fifteen-year-old boy as the organising principle of the reactionary movement. Counter-enlightenment thought […] has been stripped of any pretence of being anything but a childish tantrum backed up by equally childish, playground-level bullying. It is, and has always been, “irritable mental gestures which seek to resemble ideas,” and to ‘post-liberal’ ‘intellectuals’, that is in fact a good thing – if anything, they believe, the postmodern right needs to become more absurd; it needs to abandon Enlightenment ideals like reason and argumentation altogether. The right wing intellectual project is simply to ask: ‘what would have to be true in order to justify the terrible things that I want to do?’ The right wing aesthetic project is to flood the zone […] with bullshit – in order to erode the intellectual foundations for resisting political cruelty.
Truth does not set you free. Once you know that 2+2=4, that the administrative capital of the Netherlands is The Hague and not Amsterdam, or that immigration is a net economic positive for Britain, then you are forever bound to that truth. Your world has become, in some respects, smaller, your options diminished. If it would be more enjoyable – because this is, at the end of the day, about enjoyment – to create your own truth then you are out of luck. Combine truths with a concern for human life and thriving, and suddenly rules start to proliferate: we have established the truth that heating milk reduces the bacteria and viruses in it that can harm human beings, which is undesirable to us, therefore we must heat all milk that is sold. A lot of people are fine with this, accepting small impositions on their freedom in the name of the greater freedom from disease. Some are not.
[…] If you’ve been subject to computer-says-no rules governing your access to the basic necessities of life, then you’ll know how easy it is to disguise arbitrary and highly politicised whims as laws of nature, as ironclad as \(A = π r²\). The application of rationality and compassion in the real world brings to mind the (likely apocryphal) Ghandi quote about Western civilisation: “I think it would be a good idea.”
The right is a libidinal formation; it is, for many of its proponents, especially those who aren’t wealthy enough to materially benefit from it, a structure in which to have fun. […] As such, the right are strongly averse to any sort of reality-testing. It is, to them, beside the point whether anything they say stands up to the tests developed by the sciences and humanities, including those which determine (insofar as such a determination can be made) whether a piece of art is ‘good’, or at least serious. When they do invoke objectivity, it is misplaced, and as deeply naïve as their artistic output, premising their objection to the existence of trans people on ‘basic biology’, when not only can biology not define ‘woman’, it is having difficulty deciding what a fish or vegetable is. Serious engagement with the world as it is – with the facts that emphatically don’t care about your feelings – doesn’t often, if ever, yield the simple explanations that the right require. In the face of this complexity, most people will conclude that it is best to be humble: What is a woman? No idea, don’t really care, but let’s act in a way that causes the least suffering. But the right seem incapable of doing this. Despite all their absurdist posturing, they struggle to come to terms with a contradictory world that does not conform to their pre-decided categories. They want to assert, simultaneously, that unambiguous laws govern all aspects of being, while acting as though ‘truth’ is whatever they want or need it to be at any given moment.
A leitura, via estética e crítica da arte, em Watkins (2025) é interessante, mas desconsidera as dinâmicas agonísticas que tratamos.
Dos agouritmos, Estupidez Artificial, Redes Neuróticas e Adestramento de Máquina.
Filme “The Zero Theorem” (2013), de Terry Gilliam: “I crunch entitities”.
Pra corrigir o glossário da novilínguia neoliberal: estupidez artificial (demência natural), redes neuróticas, agouritmos, adestramento de máquina.
Considerando nossa observação de que toda inteligência é artificial, isto é, a inteligência é um artifício.
O que consideraremos como Inteligência está relacionada à phronesis – conforme discussão de Castoriadis (2002) – e também às capacidades criativas e afetivas que não são Turing-computáveis.
LGPD e decisão automatizada (artigo 20 parágrafo 1), diferente da GDPR.
Levantamento das IA(s) em uso pelo governo.
Detalhamento sobre a(s) IA(s) do CyberSNI14.
I.A: máquinas utilitaristas - inteligência utilitarista.
“Google And The World Brain” (2013).
Os Agouritmos:
Algoritmo de distribuição de processos no STF: um anti-kleroterion.
Agourismo e Simulação: Especulação: Ficção Científica e Mercados de Futuros.
Espiral da Diminuição da Realidade:
Sombra da experiência humana “treinando” máquinas.
Máquinas conduzindo o comportamento das pessoas a partir desta “experiência” adquirida.
Aquilo que é “humanidade” convergindo para um intervalo existencial muito estreito, assim como as concepções de “realidade”.
“Alleys of Your Mind: Augmented Intelligence and Its Traumas”,
Pasquinelli (2015).
Trocando “inteligência” por “sofrimento” a questão mudaria? Em termos de separação, alguns seres seriam desprovidos de qualquer direito enquanto outros teriam todos.
No plano do governo, antropomorfiza-se a questão da inteligência: o governo fornece o intelecto que mobiliza a máquina Estatal; porém não precisamos necessariamente explicar as propriedades emergentes de sistemas coletivos como uma “inteligência coletiva”; as emergências de configurações coletivas por si mesmas não indicam que estas possuem intelecto e compõem uma mente.
Mito da Caverna de Platão à invertida, onde opera-se a redução do real:
Os vultos da experiência humana são as sombras da caverna projetadas no “treinamento de máquina”. Num jogo de espelhos distorcidos, estas sombras são projetadas numa caverna interior, onde o que sobrar da humanidade estará aprisionada.
A quantidade de cavernas separando o real da imagem será desconhecido.
Possivelmente, não há “real”, e sim um conjunto de cavernas uma dentro das outras, sendo que a “última” caverna nada mais seria do que o exterior da “primeira” caverna, num ciclo infernal de (re-)projeção e distorção de sombras.
Teste de Durkheim:
“The Structure of Ill-Structured Solutions: Boundary Objects and Heterogeneous Distributed Problem Solving”, Star (1989).
Um blockbuster com esse tema… “Eagle Eye”, onde uma “IA” do Pentágono criada pra monitorar ameaças decide fazer um golpe de estado nos EUA, limando todo o primeiro escalão e só deixando o secretário de defesa pra ser o novo presidente… ela decide isso com base na incapacidade do governo de minimizar vítimas e fazer boas escolhas… poderia argumentar que essa I/A passou no teste de Durkheim?
As “big techs” e a monopolização da “inteligência”. São as inimigas tanto do intelecto quanto da inteligência geral.
“Máquinas Automágicas: trabalho, mente estendida e subjetividade sob o fetiche da mercadoria”, Nascimento Gonçalves (2023).
“The Coming Wave”, Suleyman (2023).
Centro de Estudos Analytics e Políticas de Segurança (FGV-SP, SSP-SP e USP), “para acelerar o uso de dados e inteligência artificial na tomada de decisões em segurança pública”:
Lançamento do Centro de Estudos Analytics e Políticas de Segurança
Convidamos você para o lançamento do FGV Analytics, um centro de estudos criado pela Escola de Administração de Empresas de São Paulo da Fundação Getulio Vargas (FGV EAESP), a Secretaria de Segurança Pública do Estado de São Paulo (SSP-SP) e a Universidade de São Paulo (USP), com financiamento da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), para acelerar o uso de dados e inteligência artificial na tomada de decisão em segurança pública. O evento será realizado das 9h às 13h, no dia 17 de agosto, no Auditório FGV 9 de Julho.
Confira a programação:
• Apresentação do FGV Analytics; • Apresentação de iniciativas que possibilitam o uso de dados e tecnologia na tomada de decisão em segurança pública; • Perspectivas sobre análise de dados e IA na segurança; • Ato de solenidade com autoridades e representantes das instituições envolvidas no convênio para marcar o lançamento oficial do centro.
Data e 17/08, quinta Auditório FGV 9 de Julho Horário 9h às 13h Rua Itapeva, 432 – São Paulo
PARTICIPANTES
João Becker Coordenador do FGV Analytics
Joana Monteiro (FGV), Eduardo Rezende (FGV), Leandro Piquet (USP) e Roberto Speicys (USP) Pesquisadores principais
Fábio Bechara Promotor de Justiça do Ministério Público de São Paulo
João Henrique Martins Coordenador do Centro Integrado de Comando e Controle (CICC SSP)
Luiz Artur Ledur Brito Diretor da FGV EAESP
Carlos Ivan Simonsen Presidente da FGV
Pedro B. Abreu Dallari Diretor do Instituto de Relações Internacionais da USP
Marco Antonio Zago Presidente da FAPESP
Guilherme Derrite Secretário de Segurança Pública
Tarcísio de Freitas Governador de São Paulo
Inscrições: https://bit.ly/3OBOtGO
Automatismo, artificialização e desinteligencialização:
“Inteligência Artificial” como eufemismo para “trabalho não-remunerado”.
“Automático” como eufemismo para “trabalho terceirizado e precarizado”.
“Automatização” e “artificialização” da “inteligência” então como bombas semiológicas para externalização dos custos, aumento de lucros e retirada do “trabalho vivo” da jogada.