Daqui a alguns meses, completarei 10 anos atuando como docente de uma instituição pública de ensino superior. Nessa travessia, convivi não só com centenas de estudantes e docentes de todo Brasil, mas ainda com um personagem tão minúsculo quanto assustador, o vírus da Covid-19. Agora, com a sutileza de um trator desgovernado, outra criatura entrou na sala e sentou-se em uma das bancas: é a Inteligência Artificial Generativa, aquela que, supostamente, tudo sabe e tudo vê.
Eu não precisei fazer chamada: desde o início, a IA se mostrou muito obviamente presente.
Além da sala de aula, ela aparece nos trabalhos que recebo de tantas outras instituições ao redor do país, sejam públicas ou privadas. Está nos textos de qualificações, dissertações, teses, TCCs; está nos projetos de extensão, pesquisa, seleções de entrada em pós-graduações. Em boa parte deles, não encontro mais os comuns tropeços de escrita, ABNT errada, falta de fluidez. Aparecem citações teóricas diversas, inclusive de muitos autores e autoras que eu jamais usei em sala de aula.
Há poucos dias, uma situação em especial me pegou: um estudante de uma faculdade no Sudeste me procurou para saber se o projeto de pesquisa que ele enviaria para uma fundação de amparo à pesquisa estava bom. Tentava uma bolsa. Nas primeiras linhas, estranhei o texto – eu sabia que aquele não era o estilo dele. Marquei uma reunião online. Quando pedi para ele explicar melhor o recorte do tema e a metodologia que ele estava propondo, a realidade – ela sim – gritou “presente!”.
Fui sincera e questionei se o texto era realmente dele, que ficou constrangido e assumiu. Não, não era. Argumentou falta de tempo para estudar. Foi o chat GPT quem montou o projeto.
Saí mal do encontro, com a sensação de estar vivendo algo ao mesmo tempo catastrófico e melancólico: gente jovem e inteligente disposta a terceirizar quase completamente o pensar.
Uma semana depois, um e-mail do pesquisador Tarcízio Silva, autor do livro “Racismo Algorítmico: inteligência artificial e discriminação nas redes digitais” (2022), em uma lista de centenas de pesquisadoras/es de pós-graduação, trazia uma carta aberta de educadores que se recusam a utilizar a IA generativa. “Somos uma comunidade global de profissionais da educação que recusa o apelo pela adoção de I.A. generativa (I.A. Gen) em escolas e universidades, e que rejeita a narrativa de sua inevitabilidade”, lemos no começo da carta que pode ser acessada aqui. Um dos pontos levantados é o imenso impacto ambiental provocado pela inteligência artificial.
Como vemos, o debate não é apenas sobre algoritmos, mas sobre poder.
O assunto, é claro, virou debate. Diversos professores relatando experiências parecidas com a minha, outros apontando para os efeitos negativos trazidos pelas empresas de IA (danos ambientais, discriminação, precarização do trabalho, etc), outros apontando para sua ajuda como ferramenta de ensino e pesquisa.
Conversei, por email, com Silva. Depois, com Rafael Cardoso, professor da Universidade Federal do Paraná, a UFPR, que não concorda com a recusa do uso da IA e foi um dos diversos a se manifestarem na conversa. Falei também com Raquel Lobão, do Laboratório de Mídias Digitais da Universidade Estadual do Rio de Janeiro, a UERJ: pedi para trazer aqui a sua análise, lida lá na lista, sobre uma portaria da pró-reitoria de Pós-graduação e Pesquisa da Universidade Federal do Ceará, a UFC, sobre o uso acadêmico da IA.
***
Primeiro, trago Tarcízio. O pesquisador vê com grande ceticismo a forma como as tecnologias de IA vêm sendo integradas ao ensino: para ele, o entusiasmo em torno de plataformas “inteligentes” tem servido, em muitos casos, para ampliar a precarização docente e reforçar desigualdades. “O primeiro impacto é a ofensiva contra o trabalho dos educadores, já precarizado em torno do mundo”, afirma. Segundo ele, o discurso da inovação costuma se sobrepor à discussão sobre condições de trabalho e à própria valorização da carreira docente, transformando a precariedade em um projeto. “A métrica de resultado é o quanto ‘escalável’ é um determinado serviço digital”, diz.
Além da pressão por resultados rápidos e pela substituição de atividades humanas por ferramentas automatizadas, o pesquisador alerta para o que chama de “erosão epistêmica”. Modelos de linguagem, explica ele, reproduzem visões distorcidas de mundo e chegam a “reeditar teorias racistas já superadas há décadas”. Isso se torna ainda mais grave em um país que, como ele lembra, não conseguiu efetivar as leis 10.639/2003 e 11.645/2008, que obrigam o ensino da história e cultura afro-brasileira e indígena. A combinação entre racismo institucional e uso acrítico de IA “tem o potencial de atrasar conquistas”, adverte.
Como vemos, o debate não é apenas sobre algoritmos, mas sobre poder. “A normalização de modelos de IA baseados no roubo trilionário de conteúdo da web enfraquece as indústrias criativas e aumenta a assimetria entre big techs e criadores”, diz. Na educação, esse desequilíbrio se expressa na dependência crescente de plataformas privadas que prometem “otimizar o aprendizado” enquanto se apropriam de dados de estudantes e professores. A entrega da mediação pedagógica a máquinas que simulam discurso humano cria “uma máquina de controle ideológico sem precedentes”.
Quando leio as críticas do pesquisador e a questão da dependência, me lembro automaticamente do uso do Google pelas próprias universidades federais (estou em uma de Pernambuco), um trato firmado desde 2014, mas que se espalhou durante a pandemia. A princípio, tudo era grátis e ilimitado. Depois, a big tech tentou restringir a Universidade Federal de Juiz de Fora a acessar inclusive dados produzidos pela mesma. O Procon multou o Google.
(Mesmo serviços “gratuitos” são pagos com dados e conteúdo valioso produzido pelas universidades, não esquecer).
Há, na carta publicada por Silva, uma clara recusa a respeito da pressão que o sistema educacional tem sofrido para a adoção irrestrita da IA, tanto por parte de empresas quanto por gestões governamentais. “Infelizmente o atual governo federal de centro-esquerda parece abraçar essa pressão com muito gosto. São inúmeros os indícios desses problemas, como o próprio Plano Brasileiro de Inteligência Artificial, que menciona mais a Open AI do que as comunidades negras; ou o escândalo sobre o plano de data centers brasileiro e a Amazon – ignorando explicitamente pedidos de informação pela sociedade civil’, escreve Silva.
O citado Plano Brasileiro de Inteligência Artificial, o PBIA, foi lançado em 2024. O governo federal prometeu investir R$ 23 bilhões entre 2024 e 2028 em pesquisa, capacitação e infraestrutura, com o objetivo de tornar o país uma referência em “IA para o bem de todos”. O documento, coordenado pelo Ministério da Ciência, Tecnologia e Inovação, fala em soberania tecnológica, ética e diversidade cultural. Mas, como ocorre com tantas promessas políticas, a pergunta é o que efetivamente se entende por “para todos” — e quem realmente ganha com isso.
ESTRATÉGIAS DE CONVIVÊNCIA
Rafael Cardoso, professor e pesquisador da UFPR, não concorda com a negação do uso da IA e propõe um caminho mais pragmático – sem negar os riscos, mas recusando o pânico que muitas vezes acompanha o tema. “Proibir é a pior estratégia possível. Não funciona. Leva a uso escondido e sem orientação”, diz. Ele reconhece que há uma dependência tecnológica preocupante, fruto de duas décadas em que o Brasil foi “apenas consumidor de tecnologia”, e vê o PBIA como oportunidade de virada. “Depende de levar o plano a sério, desenvolver soluções nacionais, abertas, de software livre”, defende.
LEIA TAMBÉM:
- A luta global para regular inteligência artificial
- Como a indústria de inteligência artificial lucra criando uma nova classe trabalhadora sem direitos no Brasil
- ENTREVISTA: ‘A indústria de IA não se importa com nada além de si mesma’
Cardoso não acredita que o uso da IA deva ser demonizado, mas contextualizado. “Aluno que só quer passar, que compra TCC, sempre existiu”, observa. O que muda, segundo ele, é a necessidade de uma conversa mais aberta, com diretrizes inteligentes e menos desconfiança entre docentes e discentes. Para o pesquisador, o papel do professor continua sendo o centro do processo de aprendizado: é ele quem pode ensinar o uso ético, crítico e criativo dessas ferramentas.
Espero que não só alunas e alunos entendam e se comprometam com isso, mas principalmente escolas, universidades e outras instituições de ensino, além das big techs. Em Londres, já teve escola este ano trocando professor por IA.
Se as posições de Silva e Cardoso parecem somente opostas à primeira vista, elas se cruzam em um ponto essencial: ambos rejeitam o determinismo tecnológico. Um alerta para o risco de submissão epistêmico-ideológica; o outro, para a paralisia que vem do medo. Entre o tecnofetichismo e a negação, há um campo fértil de debate – e é ali que o novato PBIA precisa provar que não será apenas mais um projeto de intenções.
O plano tem pontos animadores. Prevê a criação de um supercomputador nacional alimentado por energia limpa, o desenvolvimento de modelos de linguagem em português e políticas de formação docente em IA. Mas há lacunas que se alinham às críticas de Silva. Embora fale em capacitação, o documento diz pouco sobre valorização salarial e condições concretas de trabalho. Também não detalha como pretende auditar algoritmos quanto a vieses raciais, de gênero ou de classe. E, como lembra o pesquisador, “o lobby das grandes empresas contra a regulação de inteligência artificial sabe muito bem que são máquinas discriminatórias que não resistirão a práticas de auditoria centradas no interesse comum”.
Por outro lado, Cardoso vê na regulação – e não na proibição – o caminho mais promissor. “Estamos mais próximos de aprovar uma lei sobre IA do que estávamos no caso das fake news. A sociedade quer isso”, afirma, referindo-se à recente movimentação no Congresso e à aprovação do chamado “ECA Digital” após o episódio do vídeo do influenciador Felca.
Entre a esperança de um plano que possa fortalecer a soberania tecnológica e a crítica à captura corporativa das políticas públicas, o que está em jogo é o sentido de educar. A IA pode ser aliada de uma pedagogia mais inclusiva, mas também instrumento de controle e homogeneização. Tudo depende de seu desenho – e de quem se beneficia com seu uso. Podemos inclusive pensar em uma IA responsável. Como diz Silva, “a imaginação estreita, fruto da colonização do nosso próprio tempo livre para sonhar, não permite ver que a agência para influenciar futuros sociotécnicos é sempre possível”. Para Cardoso, o país precisa entrar de fato na disputa da produção: “negar a IA é manter o Brasil onde sempre esteve: como mero consumidor de tecnologias produzidas por outros”.
NO CEARÁ
No meio dessa ópera, a pró-reitoria de pesquisa e pós graduação da Universidade Federal do Ceará lançou uma portaria que trata da “obrigatoriedade de submissão de trabalhos acadêmicos à ferramenta de verificação de similaridade e regulamenta o uso de Inteligência Artificial (IA) nos trabalhos acadêmicos e de conclusão de curso”. Significa dizer que toda produção discente passará por um verificador de uso de IA/plágio. O problema é que esses verificadores, já testados, já informaram que textos originais eram cópias. A própria portaria da UFC diz que o uso isolado da ferramenta não é suficiente para atestar a originalidade integral do documento. A pró-reitoria informa que o uso de IA só será permitido como suporte auxiliar, e que a utilização deverá ser declarada e especificada.
O lobby das grandes empresas contra a regulação de inteligência artificial sabe muito bem que são máquinas discriminatórias.
Para a pesquisadora Raquel Lobão, da UERJ, que investiga ferramentas digitais e IA generativa, a portaria apresenta fragilidades em três aspectos centrais. Primeiro, a definição de similaridade (Art. 1º e 2º) delega aos programas de pós-graduação a tarefa de fixar limites de percentual e trechos aceitáveis, o que para ela pode gerar inconsistência e subjetividade entre diferentes programas, já que não há um padrão unificado da pró-reitoria. Em seguida, a restrição ao uso de IA para “gerar conteúdo original” (Art. 5º) cria uma zona cinzenta, pois a distinção entre produção original e apoio legítimo ao desenvolvimento de ideias é vaga e difícil de fiscalizar, podendo desestimular o uso ético e produtivo dessas ferramentas. Por fim, o artigo que trata da omissão docente (Art. 7º) estabelece que, na ausência de orientações explícitas, o uso de IA será tratado como “auxílio externo”, o que pune preventivamente o estudante, mesmo quando não há má-fé. Seria mais coerente, assim, presumir permissão condicionada à citação, e não uma infração automática. “Essa proibição ampla pode desencorajar o uso de IA mesmo em tarefas éticas e válidas, limitando a produtividade do estudante, ou, pior, forçando a omissão do seu uso por receio de violar uma regra com limites imprecisos’.
O Intercept é sustentado por quem mais se beneficia do nosso jornalismo: o público.
É por isso que temos liberdade para investigar o que interessa à sociedade — e não aos anunciantes, empresas ou políticos. Não exibimos publicidade, não temos vínculos com partidos, não respondemos a acionistas. A nossa única responsabilidade é com quem nos financia: você.
Essa independência nos permite ir além do que costuma aparecer na imprensa tradicional. Apuramos o que opera nas sombras — os acordos entre grupos empresariais e operadores do poder que moldam o futuro do país longe dos palanques e das câmeras.
Nosso foco hoje é o impacto. Investigamos não apenas para informar, mas para gerar consequência. É isso que tem feito nossas reportagens provocarem reações institucionais, travarem retrocessos, pressionarem autoridades e colocarem temas fundamentais no centro do debate público.
Fazer esse jornalismo custa tempo, equipe, proteção jurídica e segurança digital. E ele só acontece porque milhares de pessoas escolhem financiar esse trabalho — mês após mês — com doações livres.
Se você acredita que a informação pode mudar o jogo, financie o jornalismo que investiga para gerar impacto.