A tecnologia avança sem pedir licença e a inteligência artificial (IA) já deixou de ser novidade para se tornar parte do nosso dia a dia. Para os mais jovens, ela não é uma ferramenta, mas uma linguagem nativa. Nasceram imersos nela.
Segundo pesquisa do Google e Educa Insights, 30% dos estudantes já usam IA para tarefas escolares. Isso revela não apenas o uso da tecnologia, mas uma mudança profunda: a substituição do processo de aprender pela simples obtenção de respostas. O perigo? A confiança excessiva no formato, não no conteúdo.
O problema não está na resposta rápida, mas na perda do intervalo entre a dúvida e o entendimento, espaço em que nasce o pensamento crítico. Quando a IA entrega conhecimento pronto, o aprendizado vira consumo. O pensar vira replicar.
Além disso, a IA responde com base em padrões estatísticos, não em verdade. Ela reflete dados históricos e seus vícios. Sem contexto, dados são fragmentos.
E quando respostas “parecem” neutras, mascaram suas origens e influências. Isso é especialmente perigoso para jovens, que podem ver a IA como fonte de verdade absoluta.
Essa confiança cega na IA leva a um risco ainda maior: não o erro, mas a ilusão de certeza. A pluralidade e o conflito, essenciais à ciência, à democracia e à humanidade, cedem lugar a respostas agradáveis, funcionais, mas empobrecidas de diversidade.
Diante disso, é urgente politizar e contextualizar o uso da IA. Não se trata de rejeitá-la, mas de compreendê-la criticamente. A escola deve ensinar a questionar, não apenas usar. As empresas devem assumir responsabilidade sobre como formam cultura por meio da tecnologia. Transparência e governança não são opcionais.
A IA é um avanço poderoso, mas sem consciência não é progresso, é perda. O auxílio desta ferramenta não nos dispensa de pensar, criticamente, se a reposta aponta a solução ou apenas um resultado que não satisfaça a pergunta feita.

