Um artigo do National Association of State Boards of Education (NASBE) argumenta que a chegada da IA generativa às escolas exige políticas estaduais menos reativas à “novidade” e mais orientadas a problemas educacionais concretos, com foco em segurança, formação docente e atualização de currículos e avaliações, sem tirar o professor do centro do processo.
O QUE HÁ DE NOVO: Publicado pela NASBE, o texto “State Education Policy and the New Artificial Intelligence”, de Glenn M. Kleiman (Stanford University Accelerator for Learning) e H. Alix Gallagher (Policy Analysis for California Education), organiza recomendações para líderes educacionais estaduais diante da rápida adoção de ferramentas de IA generativa em escolas. Os autores destacam que, até junho de 2024, 15 departamentos estaduais de educação nos EUA já haviam divulgado orientações iniciais para suas redes, sinalizando uma escalada de respostas institucionais a um fenômeno que avança mais rápido do que os ciclos usuais de mudança curricular e de formação de profissionais.
COMO FUNCIONA: O artigo explica a diferença entre softwares tradicionais, programados com instruções passo a passo, e modelos generativos, como grandes modelos de linguagem (LLMs), treinados com volumes massivos de texto e capazes de produzir respostas novas a partir de padrões estatísticos. Na prática educacional, essa capacidade se manifesta em usos por professores (planejamento e personalização de aulas), por gestores (rascunho de comunicados e tradução) e por estudantes (tutoria, apoio à pesquisa e escrita, feedback sobre redações e simulações). O texto também aponta a tendência de “agentes de IA”, sistemas que recebem objetivos, elaboram planos e executam ações, como próxima fronteira de integração em softwares do dia a dia.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para as redes de ensino, a mensagem central é que a política pública não deveria começar perguntando “o que fazer com IA”, e sim “quais desafios críticos queremos resolver”, como condições de trabalho docente, engajamento estudantil, desigualdades de aprendizagem e capacidade de gestão e comunicação. Na sala de aula, a IA pode ampliar a personalização e acelerar ciclos de feedback, mas também pode deslocar interações humanas se virar o “padrão” de mediação, afetando motivação e pertencimento. No nível sistêmico, o texto sugere que estados terão de equilibrar inovação com conformidade regulatória e salvaguardas (privacidade, segurança e integridade acadêmica), ao mesmo tempo em que revisam o que estudantes precisam aprender em um mundo em que IA passa a ser uma infraestrutura cognitiva disponível.
INSIGHT CENTRAL: Em vez de tratar IA como uma tecnologia que “substitui” capacidades humanas, os autores propõem a lente da “intelligence augmentation” (aumento de inteligência), alinhada a recomendações do U.S. Department of Education: humanos definem objetivos e exercem julgamento; sistemas de IA ampliam análise, produção e organização de informação. Essa moldura é relevante para conselhos estaduais porque dá base conceitual para manter o professor como responsável por decisões pedagógicas e para desenhar políticas que privilegiem suporte, não automação cega.
SIM, MAS…: O texto lista riscos particularmente sensíveis no contexto escolar: alucinações (respostas convincentes porém falsas), incorporação de vieses e conteúdo tóxico presentes em dados de treino, respostas inadequadas a demandas socioemocionais e uso malicioso (como deepfakes). Há ainda o alerta de conformidade com leis federais de privacidade e proteção infantil, COPPA, CIPA e FERPA, quando estudantes interagem com serviços que coletam dados. Mesmo com estratégias de mitigação (curadoria de dados, reforço com feedback humano, filtros e “sistemas fechados”), os autores sustentam que os problemas não desaparecem totalmente, exigindo planejamento de proteção a estudantes e profissionais.
CONTEXTO E BASTIDORES: Para enquadrar o momento, o artigo recupera uma referência histórica: um relatório da UNESCO de 1953 sobre televisão na educação já defendia complementar o professor, e não substituí-lo,, com “grande deliberação” e preocupação com padrões. A comparação com ondas anteriores (calculadoras, computadores pessoais, internet, celulares e aulas virtuais) serve para situar a IA no ciclo recorrente de expectativas infladas, frustração e adoção madura, um movimento que, segundo os autores, deve ser reconhecido por formuladores de políticas para evitar decisões impulsivas.
O QUE VEM DEPOIS: As recomendações convergem para uma agenda de implementação contínua: tratar segurança e privacidade como urgência; estruturar programas permanentes de desenvolvimento profissional; e, no horizonte mais longo, atualizar currículos, pedagogias e avaliações para incorporar competências relacionadas à IA, incluindo princípios, impactos sociais e ética. Em vez de criar políticas totalmente novas “centradas em IA”, o texto sugere revisar instrumentos já existentes (uso aceitável de tecnologia, integridade acadêmica, compras públicas, avaliação docente e proteção de dados). Para apoiar esse caminho, os autores citam recursos como o TeachAI e defendem a criação de forças-tarefa estaduais para governança, com participação de múltiplos grupos e um princípio orientador: “manter a calma e planejar cuidadosamente” enquanto a tecnologia muda em ritmo muito mais acelerado do que a escola consegue, e precisa, mudar.
Fonte: State Education Policy and the New Artificial Intelligence