Imagine que você é mãe ou pai de uma criança de quase 13 anos. O que você faria se ela recebesse uma ligação de um estranho ensinando como sair sozinho de casa sem precisar pedir a sua autorização ou consentimento? Apavorante, certo?
É exatamente isso que o Google tem feito, ao redor do mundo, com crianças que estão prestes a completar 13 anos. Na semana passada, um post no meu feed do Linkedin me chocou. Melissa McKay, presidente de uma organização dos Estados Unidos que atua em prol de uma internet mais segura para crianças, postou que, a um mês de completar 13 anos, seu filho recebeu um email do Google avisando que ele logo poderia desabilitar os controles parentais.
“Uma corporação trilionária está diretamente contactando cada criança para dizer a ela que ela tem idade suficiente para se ‘graduar’ da supervisão parental. Esse e-mail explica como uma criança pode remover esses controles sozinha, sem consentimento ou envolvimento dos pais”, escreveu McKay.
Você deve ter visto nessa última semana os protestos de crianças no Roblox. Carregando cartazes virtuais, esses usuários (que ninguém tem certeza se são crianças, diga-se de passagem) protestavam contra recentes medidas de segurança implementadas pela plataforma.
É fato que, faltando dois meses para que a lei nº 15.211/2025, o chamado ECA Digital, entre em vigor no Brasil, as big techs e outras plataformas estão sentindo o bafo quente da regulação em seus pescoços. O Roblox não fica de fora, e já antecipou os efeitos e introduziu novas medidas de verificação etária.
Mas as big techs também se anteciparam com uma mudança no discurso. Em novembro, cerca de dois meses depois que o presidente Luiz Inácio Lula da Silva sancionou o ECA Digital, começou a circular uma campanha chamada “Rede que Cuida, focada em “promover a conscientização, prevenção e enfrentamento dos riscos de crianças e adolescentes no ambiente digital”.
O mote da campanha é que a proteção de crianças e adolescentes na internet é uma responsabilidade compartilhada entre os diferentes setores da sociedade. Parece uma boa iniciativa. O problema é quem está por trás dela: o Conselho Digital.

Se você é leitor do Intercept há algum tempo, já ouviu falar nesse nome. Mas eu te relembro: o Conselho Digital, antigo Instituto Cidadania Digital, é ligado à Frente Digital, um braço de lobby poderosíssimo bancado pelas maiores empresas de tecnologia no mundo para representar seus interesses.
Se a gente pensar em momentos-chave que travaram a agenda de regulação de redes sociais no Brasil, o Conselho Digital estava lá atuando. O modus operandi desse grupo repete o modelo do Instituto Pensar Agropecuária. Mas sob esteróides, como eu costumo dizer. Afinal eles conseguem ir um passo além do agro porque controlam as arenas onde acontece o debate público.
As big techs nunca estiveram muito interessadas em proteger crianças e adolescentes dos danos ocasionados pelas redes sociais. Os Facebook Papers, um conjunto de documentos internos vazados pela ex-funcionária Frances Haugen, revelaram que o Facebook adotou medidas agressivas para aumentar seu uso e retenção entre crianças pequenas. Os mesmos documentos mostraram que a empresa sabia que o Instagram era tóxico para adolescentes, em especial meninas.
Em 2024, o Conselho Digital financiou um relatório de um pesquisador que minimiza o impacto das telas sobre a saúde mental de jovens. A pesquisa foi apresentada em uma comissão sobre proteção de crianças e adolescentes no Senado. Porém, o pesquisador omitiu um detalhe: quem pagou pela pesquisa foram as big techs, principais interessadas no uso prolongado de telas. Mas isso nós revelamos.
LEIA TAMBÉM:
- A crise dos EUA é uma oportunidade para combater as big techs
- Por que este pesquisador brasileiro negou um prestigioso prêmio bancado por uma big tech
- ENTREVISTA: ‘A indústria de IA não se importa com nada além de si mesma’
Com a inteligência artificial, o que era ruim piorou. O caso Grok e a omissão do X (que agora está sob a mira do Judiciário brasileiro) escancara a violência contra mulheres e meninas. E digo escancara porque, como pontuou a pesquisadora e co-diretora do Internet Lab Mariana Valente, essa é apenas a ponta do iceberg. Há anos, pesquisadores e jornalistas alertam sobre bots no Telegram e apps que retiram roupas de mulheres – e crianças.
A falácia da “responsabilidade compartilhada”
Tudo isso não quer dizer que eu não acredite que o cuidado deva ser compartilhado. Mas eu vejo uma assimetria brutal de poder entre quem opera as redes, os feeds e algoritmos, e quem está do lado de cá das telas.
Em São Paulo, onde eu moro, o tempo médio de deslocamento para moradores no dia-a-dia é de 2 horas e 25 minutos. Eu não consigo deixar de pensar nas mães e pais que depois do trabalho, com todo esse tempo de deslocamento, precisam chegar em casa e resolver comida e outras tarefas domésticas. Qual é o tempo que sobra para supervisionar um uso de tela por uma criança? Para checar com quem a sua adolescente está conversando?
E por isso não enxergo como justa essa terceirização do cuidado, sendo que há muito mais que as plataformas poderiam fazer pela proteção das nossas crianças e adolescentes.
Também porque a responsabilidade compartilhada é muito delicada. Em julho de 2025, publicamos uma reportagem sobre um grupo de canais de YouTube gerenciados por adultos que estavam enriquecendo às custas da exploração da imagem de menores, inclusive em vídeos de cunho sexual. Depois da primeira reportagem, soubemos que professores da escola onde essas crianças estudam já haviam feito denúncias ao Ministério Público e ao próprio YouTube, sem sucesso. A rede de cuidado tem limites.
O perigo invisível: IA e a saúde mental
O que mais as redes poderiam fazer pelas crianças e adolescentes? Um bom começo seria garantir que os pais tenham soberania sobre as decisões que envolvem seus filhos. Não cabe ao Google dizer a uma criança que ele pode se livrar de controles parentais.
Isso também me faz pensar sobre os casos de pais que estão processando a OpenAI e outros assistentes de IA que encorajaram seus filhos à auto-mutilação ou suicídio. Em um dos casos, o ChatGPT dissuadiu o adolescente de falar com a mãe sobre as ideações suicidas.
‘Não dá para se dizer a favor da proteção de crianças e adolescentes e lutar contra leis e proposições que buscam endereçar essas questões’.
Esses problemas ligados à IA são preveníveis. A questão é que, nessa corrida maluca da IA, a obsessão é por estar na frente, em detrimento da segurança e de uma reflexão mais aprofundada sobre os potenciais danos dessa tecnologia.
Por fim, o que as empresas de tecnologia podem realmente fazer se querem ajudar os pais a protegerem suas filhas e filhos é não resistir e ativamente lutar contra a regulação. Não dá para se dizer a favor da proteção de crianças e adolescentes e lutar contra leis e proposições que buscam endereçar essas questões.
Para além do ECA Digital, o Brasil pode aprovar este ano a regulamentação de IA. Parlamentares têm a oportunidade de passar uma legislação séria e rigorosa que olhe para essas questões e exija das big techs medidas à altura dos danos potenciais. Aí sim, poderemos falar de rede de cuidado compartilhado.
A VIRADA COMEÇA AGORA!
Você sabia que quase todo o orçamento do Intercept Brasil vem do apoio dos nossos leitores?
No entanto, menos de 1% de vocês contribuem. E isso é um problema.
A situação é a seguinte, precisamos arrecadar R$ 400.000 até o ano novo para manter nosso trabalho: expor a verdade e desafiar os poderosos.
Podemos contar com o seu apoio hoje?
(Sua doação será processada pela Doare, que nos ajuda a garantir uma experiência segura)

