Entrevista: Os riscos da IA e dos algoritmos nas eleições de 2026

Entrevista: Os riscos da IA e dos algoritmos nas eleições de 2026

Os pesquisadores Fernando Filgueiras e Virgilio Almeida, autores do livro “Política dos algoritmos - Instituições e as transformações da vida social”, explicam como os códigos de computador criam novas normas de convivência social e por que eles são um risco nas eleições.

Entrevista: Os riscos da IA e dos algoritmos nas eleições de 2026

Na Netflix ou no Spotify, um algoritmo ajuda a decidir o que você vai assistir ou ouvir. Nas redes sociais, outro sistema calcula o que vai aparecer na sua timeline. Essas linhas de código podem parecer inofensivas e até úteis, mas acabam trancando o usuário em câmaras de eco e ditando novas regras de comportamento. Na prática, elas atuam como instituições.

“Eu sou da ciência da computação. Quando se falava em instituição, eu pensava num ministério, no Congresso, na Constituição”, diz Virgilio Almeida, professor da Universidade Federal de Minas Gerais, a UFMG, ex-coordenador do Comitê Gestor da Internet no Brasil, o CGI.br, e secretário nacional de Política de Informática de 2011 a 2015, durante o governo de Dilma Rousseff. Quando começou a estudar a regulação de plataformas, ele buscou na ciência política o caminho para lidar com o problema na tecnologia.

Foi assim que se uniu aos cientistas políticos Ricardo Fabrino Mendonça, também da UFMG, e Fernando Filgueiras, da Universidade Federal de Goiás, para lançar “Política dos algoritmos – Instituições e as transformações da vida social” pela editora Ubu. O argumento central do livro é contundente: os sistemas digitais passaram a definir regras e estruturas sociais com o mesmo peso do Congresso ou da Constituição.

A diferença é que o Congresso e a Constituição são (ou deveriam ser) democráticos e transparentes. Já os códigos das big techs trilionárias são opacos e mudam sem aviso prévio. Ainda assim, essas ferramentas tecnocráticas ditam as novas formas de trabalho, de socialização e, em última instância, influenciam as eleições que definem quem senta no Congresso. Do controle do que lemos nas redes à identificação de suspeitos por reconhecimento facial, os algoritmos comandam a esfera pública.

No livro, os autores argumentam que esses sistemas ocultam a natureza política das decisões que são programados para tomar. Ao despersonalizar processos, eles naturalizam injustiças sociais – como os sistemas de reconhecimento facial, que falham gravemente ao ler rostos de pessoas pretas e pardas.

Apesar do controle imposto pelas máquinas, a subversão ainda é uma prerrogativa humana. O livro traz exemplos do chamado gaming – a arte de driblar as normas algorítmicas. Um caso famoso é o uso de maquiagens especiais por manifestantes chineses para cegar as câmeras policiais.

LEIA TAMBÉM

Mas nem tudo se resolve driblando o sistema. Por isso, os pesquisadores defendem a democratização dessa tecnologia. “Há quem possa argumentar que essa é uma postura utópica e irrealista”, eles escrevem. “Mas cabe lembrar que democratizar o poder político nunca foi fácil.” 

A saída, apontam, é forçar a abertura dessas caixas-pretas para que sejam auditáveis e compreensíveis. Não se trata de ensinar programação a todos, mas de expor as intenções e consequências das plataformas.

Em entrevista ao Intercept Brasil, Filgueiras e Almeida dão exemplos práticos de como os códigos governam a sociedade. Eles avaliam os riscos das eleições de 2026, a primeira disputa eleitoral brasileira sob o peso da inteligência artificial generativa. Leia os melhores trechos.

O que significa dizer que os algoritmos hoje são instituições? Como isso acontece na prática?

Virgilio Almeida As instituições existem para estabelecer regras formais ou informais, para criar comportamentos e dar estabilidade. A família é uma instituição, por exemplo. Você sabe quais regras são permitidas ali dentro.

Os algoritmos não são neutros, nem mágicos. Eles têm intenções e essas intenções são definidas pelos humanos. Eles também estabelecem contextos e regras.

‘Os algoritmos não são neutros, nem mágicos. Eles têm intenções e essas intenções são definidas pelos humanos’.

Um exemplo prático: quando você entra na Netflix, o sistema te dá uma resposta baseada no seu histórico de interação. Ele olha para o que você gosta, o que deixou de assistir e começa a moldar o seu comportamento de usuário de acordo com isso. 

É isso que fazem os algoritmos de recomendação e os algoritmos que controlam os fluxos de notícias das plataformas, tudo de acordo com o que os códigos desses sistemas acham que vai te manter mais engajado. Esse engajamento amplia a exposição à publicidade. 

Mais recentemente, vemos novos objetivos. O Grok [IA do X, antigo Twitter] tem objetivos políticos, privilegia um tipo de notícia e esconde outras. Essa capacidade de dar visibilidade ou tornar invisível, enterrar uma informação, é um poder político dos algoritmos, chave na criação do pensamento coletivo.

Fernando Filgueiras – Quando você pensa em instituições e fala de órgãos governamentais e corporações, você está falando de coisas que implicam organização coletiva, de como as pessoas criam regras para estabelecer algum padrão de convivência.

Quando falamos de uma grande instituição política, como o Congresso, estamos falando de regras estruturantes da sociedade brasileira. Também podemos pensar em um conjunto de normas que depois vai derivar em outras regras que nascem da nossa convivência cotidiana, e podem ser tanto formais – como a Constituição – quanto informais. Não posso chegar em alguém e dar um tapa na cara dessa pessoa gratuitamente, desde que eu não seja maluco. A convivência coletiva vai nos ensinando essas regras.

Hoje, muitas dessas regras de convivência são determinadas pelos algoritmos. O trabalho no Brasil está todo estruturado na CLT, que é uma consolidação de legislações que estruturam as relações de trabalho existentes. As plataformas que promovem a uberização do trabalho mudam essas regras, a ponto de obrigar o governo a criar novas regras.

Campanhas eleitorais também estão sendo alteradas, já que o debate passa antes pelo Instagram e pelo WhatsApp. Os algoritmos alteram nossas dinâmicas sociais e de ação política em um âmbito global.

‘Os algoritmos alteram nossas dinâmicas sociais e de ação política em um âmbito global’.

Eu fui num jantar aqui em Brasília organizado por uma parlamentar. Os parlamentares mais novos estavam preocupados em tirar fotos instagramáveis, enquanto a velha guarda da política brasileira estava sentada em algum canto tentando articular alguma coisa. Isso demonstra como a gente está institucionalizando nossos padrões de ação a partir de sistemas digitais.

Como a gente pode regulamentar essas novas instituições, que são privadas, globais e fechadas?

Virgilio Alguns anos atrás foi aprovada no Parlamento Europeu a lei que garante o direito ao esquecimento na internet. Se você faliu há 20 anos e depois se recuperou, as notícias sobre a falência continuam aparecendo no Google. Agora, você pode solicitar ao Google a remoção dessa visibilidade. Isso virou lei porque um espanhol processou a empresa.

Fernando A gente levou séculos para estabelecer os sistemas políticos das sociedades industriais e democráticas. Hoje, a gente tem um oligopólio de poucas corporações que controlam uma infraestrutura de dados que vai calibrando e moldando todo esse processo eleitoral. 

São dilemas novos para a sociedade que partem de uma infraestrutura algorítmica que vai produzindo novos padrões de institucionalização e desinstitucionalização. A CLT nunca esteve tão frágil no Brasil como agora, e a dinâmica de comunicação mudou radicalmente.

É um processo de mudança muito intenso com uma infraestrutura que a gente não consegue controlar, que, ao mesmo tempo que é global, afeta dinâmicas locais. Como mudar isso? No livro, não temos uma resposta definitiva para isso. A gente aponta direções, como amplificar a participação e colocar o cidadão no centro do processo de constituição de algoritmos.

Acho que o ponto que merece muita atenção é que ao mesmo tempo que essa estrutura digital surge, desinstitucionalizando coisas e institucionalizando outras, a gente nunca esteve tão próximo do autoritarismo. Claro que isso não é uma relação linear, mas em muitas situações essas tecnologias ajudam governos autoritários, seja por vigilância…

Virgilio – Ou por censura…

No livro, vocês argumentam que as redes sociais definem os limites das nossas escolhas. Como essas limitações aparecem nas eleições?

Fernando Essas tecnologias dão o frame [a moldura] para as escolhas. Eu continuo livre para escolher, mas escolho dentro daquelas opções que limitam as minhas alternativas. Uma eleição não deixa de ser isso. Nossas escolhas são sempre limitadas, de certa maneira. A corrida para ser candidato a presidente é muito grande. O que difere é que agora os frames das escolhas são dados pelos algoritmos.

Virgilio Nós estamos numa nova época. Os mesmos mecanismos de análise e acompanhamento não funcionam mais. Como controlar essas instituições algorítmicas? No livro, a gente apresenta a ideia de tornar o controle das instituições algorítmicas mais democrático, com mecanismos que tenham participação da sociedade. Algo como o Comitê Gestor da Internet, que é uma instituição multisetorial e envolve a sociedade como um todo, mas não tem a função de estabelecer regras, só boas práticas.

Já tivemos eleições marcadas por algoritmos. Mas 2026 é a primeira disputa no Brasil com a IA generativa massificada. A inteligência artificial pode mudar a forma como votamos?

Fernando Como essas tecnologias estabelecem um frame de escolha para cada indivíduo, vai se produzindo uma mudança epistêmica. O conhecimento muda radicalmente, e essa é uma coisa que a gente não consegue ter controle. 

Brincadeiras à parte, esse é o meu maior desespero. Porque a gente alterou radicalmente a forma como o conhecimento é produzido. E o conhecimento que eu estou falando não é só o científico. Estou falando de várias outras formas de conhecimento, até o religioso. Na Alemanha tem IAs rezando missa. É um negócio muito maluco delegar a espiritualidade a uma inteligência artificial.

‘Inteligência artificial implica sobretudo mudar as relações de poder’.

Se pode influenciar como a gente vota? Acho que sim, e pode influenciar muito. Inteligência artificial implica sobretudo mudar as relações de poder, o que cria um outro regime de informação e conhecimento que a gente ainda não tem nenhuma certeza sobre como opera.

Virgilio O grande risco é a capacidade de manipulação que esses novos algoritmos têm. Essa manipulação tem várias facetas. Uma delas é a antropomorfização. As pessoas hoje buscam a terapia com algoritmos. Não há um conhecimento maior dos efeitos disso, mas esses chatbots não foram criados para ser terapeutas.

Os brasileiros enviam cerca de 140 milhões de mensagens para o ChatGPT diariamente. Essa capacidade de influência complica o jogo da seguinte forma: ele pode não falar uma mentira, mas pode começar a sugerir informações incompletas e parciais. E isso pode ser uma forma de manipular as pessoas. O ChatGPT vai entender o que aquele cidadão tem de preferência e de gosto e vai ajustando as respostas de acordo com isso. 

E aí que está a grande dificuldade: como é que você controla isso? Uma coisa é controlar notícias falsas: você pode fazer um serviço de fact-checking. Mas não tem como você controlar essa conversa tête-à-tête. A não ser que, institucionalmente, você decida que os chatbots não podem tratar do tema “eleições”. Isso teria que ser uma decisão que vá em direção às grandes plataformas. Não tem como controlar isso individualmente.

‘O grande risco é a capacidade de manipulação que esses novos algoritmos têm’.

Essa é a grande diferença que vamos ver nas eleições deste ano. A gente não sabe o que vai acontecer, e estabelecer regras para isso é muito difícil, a não ser que as empresas atuem. Algumas plataformas já têm restrições parecidas com questões de suicídio e de terrorismo, os chatbots são programados para não responder. A pergunta é: isso poderia ser expandido para a questão eleitoral? Talvez. Nós precisamos discutir quais serão essas regras, e essas regras precisam ser concebidas com participação da sociedade.

Existe alguma proposta sólida para combater essa desinformação via IA? Fica cada vez mais difícil diferenciar o que é real do que foi gerado por máquina.

Fernando Eu ousaria dizer que não existe uma proposta sólida. O que o TSE [Tribunal Superior Eleitoral] pretende fazer é criar algumas iniciativas mais educativas para lidar com isso, ou indicar que conteúdos criados com IA no âmbito de campanhas eleitorais precisam ser rotulados. Mas eu acho tudo isso muito pouco. É tranquilo rotular um conteúdo que o partido oficial criou. O problema é o que acontece em uma sociedade em que qualquer um pode criar esse tipo de conteúdo, não necessariamente só os filiados de um partido qualquer.

Hoje, na prática, a gente ainda não tem uma perspectiva sólida de estabelecer isso de forma mais robusta no âmbito das eleições. Acho que será uma eleição que vai continuar superpolarizada, que tende a ser muito crítica aos incumbentes – uma tendência global da última década. Vai ser uma eleição muito difícil, que não vai dar uma maioria robusta para quem ganhar. Em qualquer situação, o próximo presidente será um presidente fraco institucionalmente de novo.

Muitas vezes, esses conteúdos de IA são criados fora do país. Estamos começando a discutir mais sobre como garantir a soberania digital e o processamento de dados dentro do território do país. As discussões ainda são tímidas e dependem de muito investimento orçamentário.

É um tema sensível para se discutir na esfera pública como ela está hoje. Muita gente acusa de censura, de controle, de novas formas autoritárias. Parece uma espécie de jogo de soma zero que a gente criou e é difícil sair dele.

Virgilio Se o país fizer valer mais rigorosamente a Lei Geral de Proteção de Dados Pessoais, a LGPD, de modo a minimizar o acesso a dados pessoais, também vai diminuir essas possibilidades de manipulação. Porque são os dados pessoais que acabam levando à construção dos perfis digitais. 

Uma medida concreta é a Autoridade Nacional de Proteção de Dados, a ANPD, agir de forma rigorosa com as companhias estrangeiras que operam essas plataformas, porque isso diminuiria a capacidade de manipular um indivíduo, já que seus dados não estarão tão claros. É importante preservar os dados pessoais, não deixar que eles sejam usados nas campanhas.

Vocês escrevem que “os algoritmos não são estruturas gravadas em pedra, mas instituições sociais recriadas na ação humana por meio dela e com ela”. Enxergar os algoritmos como instituições significa que eles não são definitivos, podem ser transformados e reformados. Por onde a gente começa a criar algoritmos mais democráticos?

Fernando O uso de IA e a expansão de sistemas computacionais de caráter mais disruptivo têm sido muito discutidos em vários setores. O que se reforça é a ampliação da transparência e fortalecer como se  explicam esses sistemas – especialmente sistemas de inteligência artificial. Mas tudo isso é muito novo e a gente não sabe muito bem como fazer. 

Sem dúvida, a gente pode ter uma IA mais explicável e auditável, mas a gente precisa começar a criar regras novas para os desenvolvedores. E não estou falando das pessoas que sentam atrás de um computador e programam, mas das grandes corporações que desenvolvem software e hardware.

O fato hoje é que a gente tem um oligopólio de grandes empresas que controlam esse mercado. A gente precisa inaugurar uma rota de democratização na construção desses sistemas, porque eles se tornaram centrais na sociedade contemporânea.

Virgilio Um exemplo concreto do que precisa ser mudado são os sistemas de reconhecimento facial. Eles estão presentes em prédios públicos, condomínios e edifícios. Esses sistemas geralmente são treinados fora daqui, onde as características demográficas são completamente diferentes. Qual a consequência disso? Muitos desses sistemas erram bem mais com pessoas negras, especialmente mulheres negras, do que com homens brancos. Os algoritmos precisam ser modificados.

Outra linha de atuação é que precisamos treinar, na faculdade, os engenheiros de computação e análise de dados para entender questões históricas e sociais, que já precisam fazer parte do projeto desde o começo. O projeto não pode ignorar, por exemplo, que no Brasil a tonalidade de pele não é só branca ou preta, mas também parda.

Os engenheiros de computação são, no fundo, engenheiros sociais – porque, ao escrever um código, eles mudam relações sociais. E eles não são preparados para isso. A cabeça desse pessoal e a cabeça das gerências dessas corporações precisam ter essa formação. São questões complicadas, estranhas e recentes, e precisam ser mais discutidas no Congresso.

DOE FAÇA PARTE

Intercept Brasil existe para produzir jornalismo sem rabo preso que você não encontra em nenhum outro lugar.

Enfrentamos as pessoas e empresas mais poderosas do Brasil porque não aceitamos nenhum centavo delas.

Dependemos de nossos leitores para financiar nossas investigações. E, com o seu apoio, expusemos conspirações, fraudes, assassinatos e mentiras.

Neste ano eleitoral, precisamos colocar o maior número possível de repórteres nas ruas para revelar tudo o que os poderosos querem esconder de você.

Mas não podemos fazer isso sozinhos. Precisamos de 300 novos apoiadores mensais até o final do mês para financiar nossos planos editoriais. Podemos contar com seu apoio hoje?

DOE AGORA

Entre em contato

Inscreva-se na newsletter para continuar lendo. É grátis!

Este não é um acesso pago e a adesão é gratuita

Já se inscreveu? Confirme seu endereço de e-mail para continuar lendo