Um estudo de casos múltiplos com cinco licenciandos em formação docente em Hong Kong investigou como futuros professores investem em “literacias” de IA generativa para aprender a ensinar, revelando usos intensos de chatbots para escrita, planejamento e decisões pedagógicas, e também uma combinação de confiança elevada, pouca checagem crítica e dúvidas éticas sobre plágio e equidade de acesso.
O QUE HÁ DE NOVO: Pesquisadores analisaram como professores em formação inicial (pre-service teachers, PSTs) constroem identidades e práticas profissionais ao usar ferramentas de IA generativa, um foco menos explorado do que pesquisas sobre docentes já atuantes. O artigo, publicado na ScienceDirect, acompanha cinco casos em um programa de formação de professores em uma universidade pública de Hong Kong, combinando questionário, entrevistas por videoconferência (50–60 minutos) e registros de uso (capturas de tela) para mapear como esses estudantes recorrem a ferramentas como ChatGPT, Poe, DeepL e outras para tarefas acadêmicas e de ensino.
COMO FUNCIONA: A pesquisa adota uma lente teórica que cruza identidade, capital (recursos sociais e econômicos) e ideologia para entender “investimento” em práticas de letramento mediadas por tecnologia. Na prática, os participantes relataram usar GenAI para revisar gramática, produzir e reescrever textos, localizar informações em leituras, sugerir títulos e ideias, gerar planos de aula, criar materiais e até buscar orientação sobre dilemas ocorridos durante o estágio. O estudo também registra estratégias de “treinar” agentes com textos próprios e o uso de translanguaging (mistura intencional de línguas) nas interações com chatbots, especialmente em um contexto acadêmico com política de “English-only”.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a formação docente, os achados sugerem que GenAI já está funcionando, na prática, como um “tutor” que interfere diretamente na aprendizagem de conteúdos, no desenvolvimento de escrita acadêmica e na tomada de decisão pedagógica durante estágios, etapas centrais para consolidar autonomia e julgamento profissional. Ao mesmo tempo, quando a ferramenta é percebida como “especialista” (inclusive em aconselhamento pedagógico), cresce o risco de substituir processos formativos essenciais, reflexão, argumentação, resolução de problemas e senso de responsabilidade, por respostas rápidas que podem ser inadequadas ao contexto escolar.
PRINCIPAIS RESULTADOS: Os relatos apontam três padrões principais. Primeiro, os PSTs utilizaram GenAI com frequência maior para demandas acadêmicas e de aprendizagem (como escrita e busca de informações) do que para atividades pedagógicas estruturadas, mas ainda assim recorreram à tecnologia para elaborar planos de aula e solucionar problemas de sala de aula. Segundo, emergiu uma confiança elevada no “nível” da IA, frequentemente associada a uma ideologia de “native-like English”, levando alguns participantes a aceitar saídas sem adaptação ou verificação. Terceiro, apareceram tensões sobre ética e integridade acadêmica: houve dúvidas explícitas sobre o que constitui plágio quando o texto é gerado por uma máquina e percepção de “brechas” regulatórias, mesmo quando os participantes reconheciam que a questão é séria.
SIM, MAS…: O estudo também explicita limitações e riscos que gestores e coordenadores de licenciaturas precisam considerar. A pesquisa é qualitativa e baseada em apenas cinco casos, o que não permite generalizações estatísticas; ainda assim, a riqueza dos episódios descreve dilemas plausíveis em programas de formação. Além disso, os autores destacam que respostas pedagógicas podem ser problemáticas e “persuasivas” ao mesmo tempo, o que aumenta o perigo de uso acrítico por futuros professores, especialmente em situações sensíveis de convivência escolar, disciplina e cuidado socioemocional, onde uma recomendação inadequada pode ter consequências reais.
CONTEXTO E BASTIDORES: O trabalho se insere em um debate mais amplo sobre o papel da IA generativa na educação de línguas e na docência, mas desloca o foco do “que a ferramenta faz” para “como ela reorganiza identidades e relações de poder” na formação inicial. O artigo também chama atenção para a diferença entre tratar “IA literacy” como um conjunto uniforme de habilidades e entender “literacias” como práticas diversas, históricas e culturalmente situadas, um ponto relevante para políticas de formação que tendem a responder à GenAI com listas de competências genéricas.
O QUE VEM DEPOIS: Entre as implicações pedagógicas, os autores defendem que formadores devem explicitar limites do uso de GenAI em trabalhos acadêmicos (incluindo a ideia de que a saída da IA não deve ser tratada como fonte primária), avaliar mais fortemente contribuição original e pensamento crítico dos licenciandos e criar atividades seriadas de leitura crítica de vieses, estereótipos e imprecisões, inclusive em imagens geradas. No plano de políticas, a recomendação é incorporar literacias críticas de GenAI como objetivo curricular na formação docente e incentivar pesquisas aplicadas (como action research) para testar modelos de orientação, avaliação e equidade de acesso em contextos reais.
NOSSA LEITURA: O estudo reforça um deslocamento importante para tomadores de decisão: a questão não é apenas “permitir ou proibir” IA na licenciatura, mas desenhar rotinas formativas em que o uso da ferramenta seja compatível com autonomia profissional, ética e capacidade de julgamento, competências que definem a docência. Isso exige diretrizes claras, práticas de supervisão no estágio e estratégias para reduzir assimetrias de acesso (por exemplo, dependência de VPN, versões pagas e alternativas gratuitas), sob risco de a GenAI ampliar desigualdades e encurtar etapas essenciais da formação.