“Eu ainda choro muito e me sinto suja. Eu sei que o corpo das fotos não é o meu, mas o rosto é”. Este depoimento de uma adolescente de Campo Grande não é um caso isolado, mas a ponta de um iceberg digital que naufraga a dignidade de milhares de meninas no Brasil.
Em fevereiro, duas alunas de 15 anos tiveram seus rostos sobrepostos a corpos nus por colegas, que ainda comercializavam as imagens. É a face mais perversa de um fenômeno que se alastra com a cumplicidade silenciosa de escolas e a lentidão do poder público.
Não se trata mais de “brincadeira de mau gosto”. A popularização das Inteligências Artificiais (IAs) generativas deu origem a uma indústria caseira de deep nudes: pornografia falsa, hiper-realista e não consensual.
O que exigia edição avançada, hoje é feito em segundos por aplicativos gratuitos, transformando colegiais em vítimas de uma nova violência de gênero, tão danosa quanto a física, mas operando na impunidade virtual.
Casos como o de Campo Grande, que se somam a outros em Belo Horizonte, Botucatu e Cuiabá, expõem um padrão alarmante. Em Belo Horizonte (2023), garotos criaram um “ranking pornográfico” das colegas com deep nudes.
Em Cuiabá (2024), o alvo foi uma professora. O que esses episódios têm em comum? A objetificação do corpo feminino, a misoginia e a tentativa das escolas de abafar o caso para “proteger a imagem da comunidade escolar”.
A diretoria que minimiza a denúncia, o gestor que se omite e o Conselho que trata o crime como “coisa de adolescente” são peças que perpetuam a violência. Ao silenciar, a escola valida a conduta dos agressores.
O recorte social e de gênero é inescapável. A maioria dos casos ocorre em escolas privadas, evidenciando que o acesso a ferramentas de IA é facilitado pelo poder aquisitivo. Mas a raiz é estrutural: o machismo.
Como aponta a educadora Sheylli Caleffi, o patriarcado colocou os meninos em posição de onipotência, onde tudo é permitido, inclusive a violação da intimidade, disfarçada de “brincadeira”. Para as meninas, a consequência é a degradação social e psicológica, um dano permanente que a internet não esquece.
Diante disso, a resposta do Estado é um misto de ineficácia e despreparo. Apesar de o Código Penal e o Estatuto da Criança e do Adolescente (ECA) tipificarem a violência psicológica, a aplicação da lei esbarra na subnotificação e na morosidade.
A família da vítima de Belo Horizonte aguarda há um ano o retorno do Ministério Público, enquanto ouvia do delegado que tivessem “compreensão”, porque os agressores eram “apenas meninos”.
Essa fala revela um viés de gênero na aplicação da lei: o algoz merece compreensão; a vítima, paciência. O Ministério da Educação (MEC), por sua vez, opera na contramão da urgência, sem nenhum mapeamento oficial sobre deep nudes nas escolas.
A raiz do problema, contudo, é mais profunda: a erosão da educação sexual e afetiva nas escolas. Dados do ObservaDH mostram que apenas 14,8% dos diretores reportam projetos de enfrentamento ao machismo. Enquanto a discussão sobre gênero for um tabu, os meninos crescerão sem empatia.
A tecnologia, nesse vácuo, não cria a violência, mas a amplifica. Como ironiza a especialista Ana Paula Siqueira, “não existe ‘estupro-mimimi’, portanto, também não existe ‘bullying-mimimi’.
Enquanto o debate público se perde em projetos lentos no Congresso, as plataformas digitais lucram. O Google exibe anúncios de apps de “montagem nuds”. A Apple Store e o Google Play oferecem aplicativos sem barreiras efetivas de idade. A autorregulação das big techs falhou. A regulação estatal ainda engatinha.
A solução exige uma resposta em múltiplas frentes: regular a tecnologia, classificando ferramentas de deep nudes como de “risco excessivo”; educar para a afetividade, inserindo educação sexual e de gênero no currículo escolar de forma transversal; e capacitar a rede de proteção com protocolos nacionais claros para que escolas e polícias saibam acolher vítimas e punir agressores.
Enquanto a sociedade não encarar os deep nudes como uma forma brutal e deliberada de violência de gênero, o rosto das meninas continuará sendo usado como tela em branco para a pornografia e a crueldade. E o choro abafado das vítimas ecoará no vazio deixado pela nossa inação coletiva.


