Um artigo de opinião publicado nos Estados Unidos argumenta que a inteligência artificial, longe de “salvar” a educação, pode aprofundar problemas já existentes ao substituir o esforço intelectual dos estudantes e a presença de professores humanos, enquanto redes públicas reagem com restrições ao uso de tecnologia em sala de aula.
O QUE HÁ DE NOVO: O texto, assinado por articulista ligado ao setor educacional e publicado pelo site GovTech, faz uma crítica frontal à ideia de que a IA generativa será capaz de “resolver” a educação, tese popularizada em manifestos como “Why AI Will Save the World”, do investidor Marc Andreessen. A partir de exemplos de produtos educacionais baseados em IA, da experiência fracassada de um chatbot “amigo educacional” na rede pública de Los Angeles e de novas políticas de restrição ao uso de smartphones em escolas, o artigo sustenta que a aposta em automação total da aprendizagem contraria o que pesquisas em neurociência, psicologia e políticas educacionais mostram sobre como as pessoas realmente aprendem.
COMO FUNCIONA: A crítica parte da observação de como ferramentas recentes de IA generativa têm sido posicionadas como atalhos para o estudo, prometendo produzir resumos, cartões de memória, adaptações de textos para qualquer nível de ensino e até simulações de personagens literários para “conversar” com o aluno. Plataformas como Quizlet, Trellis e Khan Academy são citadas como exemplos de um movimento mais amplo: deslocar para o algoritmo parte do trabalho cognitivo que antes cabia ao estudante, inclusive a redação de textos com apoio de sistemas como o ChatGPT.
Na outra ponta, o artigo examina o uso da IA como substituta do professor, especialmente na forma do “tutor de IA para cada criança” defendido por tecnólogos. A lógica é tratar a atenção qualificada do docente como um recurso escasso que poderia ser escalado por sistemas automáticos, reduzindo custos e aumentando o atendimento individualizado. O caso da startup AllHere, que criou o chatbot “Ed” para acompanhar meio milhão de alunos da rede de Los Angeles, ilustra esse modelo: a promessa era oferecer um agente “emocionalmente responsivo” e motivador, disponível 24 horas por dia, mas o projeto acabou suspenso, com cortes drásticos na empresa e poucos indícios de impacto positivo consistente sobre engajamento ou bem-estar dos estudantes.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Do ponto de vista da aprendizagem, o artigo alerta que externalizar para a IA tarefas centrais de estudo, ler, interpretar, escrever, sintetizar, pode minar justamente aquilo que consolida o conhecimento: o esforço mental prolongado. A literatura de ciência cognitiva citada pelo autor enfatiza que mudanças duradouras no cérebro dependem de desafios cognitivos sustentados, como testes práticos, recuperação espaçada de conteúdos e atividades que exigem raciocínio ativo, em contraste com o consumo passivo de respostas prontas geradas por algoritmos.
Para o trabalho docente e a gestão escolar, a promessa de substituir professores por tutores artificiais entra em choque com evidências robustas de que a aprendizagem é social. A referência à “2-sigma problem” de Benjamin Bloom reforça que a tutoria individual presencial continua sendo o padrão de ouro: não apenas pelas estratégias cognitivas, mas pelo efeito sobre atitude, autoconfiança acadêmica e relação com o saber. Ao tentar escalar esse cuidado via máquinas, redes podem reduzir custos no curto prazo, mas correm o risco de esvaziar o papel da escola como espaço de vínculos, pertencimento e desenvolvimento socioemocional, fatores hoje reconhecidos como centrais para desempenho e permanência dos alunos.
INSIGHT CENTRAL: O eixo da argumentação está na desmontagem de duas premissas recorrentes no discurso “tecno-otimista”: a de que é possível substituir o trabalho do aluno e a de que é possível substituir o trabalho do professor sem perdas significativas. Na visão apresentada, ambas violam o núcleo do que torna a educação eficaz. Quando a IA assume a parte difícil do estudo, ela não está apenas “ajudando” o estudante, mas competindo com o exercício de memória, atenção e pensamento crítico de que ele precisa para aprender. E quando a IA tenta emular o professor, ela reduz a docência a transmissão de conteúdo e respostas personalizadas, desconsiderando o papel do educador como referência afetiva, mediador de conflitos, organizador de cultura e criador de ambientes de confiança.
Esse reposicionamento é relevante para gestores e formuladores de políticas: em vez de imaginar a IA como substituto integral de pessoas, o texto sugere que qualquer uso responsável precisaria partir da lógica oposta, a de preservar o esforço cognitivo do aluno e a relação humana central do professor, usando algoritmos apenas para tarefas periféricas ou de bastidor, como análise de dados, geração de materiais preliminares ou apoio administrativo, sem dispensar o julgamento pedagógico.
PRINCIPAIS RESULTADOS: Embora se trate de um artigo de opinião, o texto recorre a evidências empíricas para sustentar suas conclusões. Na dimensão neurobiológica, é citado um estudo que associa melhorias em funções cognitivas a desafios mentais prolongados, reforçando que “atalhos” tendem a comprometer o aprendizado profundo. Na área de ciência da aprendizagem, o livro “Make It Stick” é usado como síntese de décadas de pesquisa que apontam benefícios de práticas desafiadoras, como testes diagnósticos, quizzes frequentes e recuperação ativa de conteúdos ao longo do tempo, justamente o oposto da delegação de raciocínio à máquina.
No campo socioemocional, o artigo destaca uma meta-análise de 2023 conduzida pela Yale School of Medicine, que revisou 424 estudos experimentais sobre programas de aprendizagem socioemocional e encontrou ganhos consistentes em desempenho acadêmico, engajamento, saúde mental e qualidade das relações entre alunos e professores. Esse resultado é apresentado como um contraponto direto ao modelo de alunos aprendendo sozinhos com dispositivos, sugerindo que as intervenções mais promissoras hoje são, em certa medida, antitéticas à lógica de isolamento reforçada por algumas aplicações de IA e por modelos de ensino hiperautomatizados.
CONTEXTO E BASTIDORES: A crítica à ideia de que a IA “salvará” a educação é contextualizada dentro de um padrão histórico: conforme novas tecnologias surgem, rádio, televisão, computadores, internet, reaparece a promessa de que agora, finalmente, será possível universalizar educação de qualidade a baixo custo. Nos Estados Unidos, isso se traduziu em um longo processo de “industrialização” da escola, com turmas cada vez maiores, cursos online em larga escala e crescente pressão por eficiência. Os tutores de IA emergem como o capítulo mais recente dessa busca por escalar a atenção docente.
Ao mesmo tempo, a reação das redes públicas pós-pandemia indica um movimento quase inverso ao entusiasmo do Vale do Silício. A experiência de ensino remoto forçado, com forte mediação tecnológica, expôs limites de engajamento, desigualdades de acesso e redução de interações significativas. O artigo lembra que o Distrito Unificado de Los Angeles, o segundo maior do país, aprovou recentemente uma proibição de celulares em sala, e que o estado de Nova York caminha na mesma direção. Em vez de aderirem sem reservas à narrativa de que mais tecnologia é sempre melhor, escolas e professores parecem buscar recompor espaços de convivência presencial e foco, mesmo enquanto a IA ganha velocidade no debate público.
SIM, MAS… (limitações e riscos): O texto é abertamente crítico à visão de que a IA será a grande solução educacional, e essa posição também tem limites que precisam ser considerados. Por um lado, ele se concentra em usos da IA que substituem tarefas centrais de estudo e da docência, sem discutir em detalhe modelos híbridos em que algoritmos apoiam, mas não substituem, o trabalho pedagógico, por exemplo, ferramentas que ajudam professores a acompanhar o progresso de alunos ou a identificar lacunas de aprendizagem para intervir de maneira mais precisa.
Além disso, as experiências negativas destacadas, como o fracasso do chatbot “Ed”, ocorreram em contextos específicos de uma grande rede urbana dos Estados Unidos, com desafios próprios de escala, financiamento e governança. Não se sabe, a partir desses casos, se iniciativas menores, co-desenhadas com professores e baseadas em princípios sólidos de ética, proteção de dados e ciência da aprendizagem poderiam gerar efeitos diferentes. Ainda assim, o alerta central permanece: sem um desenho pedagógico cuidadoso, há risco de a IA ampliar desigualdades, favorecendo quem já tem repertório e apoio humano para usá-la criticamente, e reforçar uma visão de educação centrada em eficiência e redução de custos, e não em desenvolvimento integral.
O QUE VEM DEPOIS: As questões abertas pelo artigo são particularmente importantes para sistemas de ensino que hoje discutem diretrizes para IA generativa. Uma agenda de pesquisa e de política pública sugerida indiretamente pelo texto inclui avaliar em que condições a IA pode ser usada sem substituir o esforço cognitivo dos alunos, como garantir que ela não enfraqueça a dimensão socioemocional da escola e quais modelos de governança e regulação minimizam riscos de dependência tecnológica e captura comercial.
Para gestores e formuladores de currículo, o debate aponta para a necessidade de combinar duas frentes: de um lado, fortalecer práticas baseadas em evidências, como programas de aprendizagem socioemocional e metodologias ativas que exigem participação intelectual intensa; de outro, testar usos de IA em funções de apoio, planejamento, análise de dados, geração de materiais, sempre com protagonismo docente e salvaguardas de equidade. Em lugar de apostar que uma tecnologia isolada “resolverá” a educação, o desafio é construir ecossistemas em que a IA seja apenas mais uma ferramenta a serviço de projetos pedagógicos centrados em pessoas.
Fonte: Opinion: AI Will Not ‘Solve’ Education. Here’s Why
Fonte(s): https://www.govtech.com/education/k-12/opinion-ai-will-not-solve-education-heres-why