Um estudo qualitativo com pós-graduandos chineses em uma universidade de Hong Kong mostra que estudantes que escrevem em inglês como segunda língua já incorporaram ferramentas de IA generativa ao processo de escrita, sobretudo para apoio linguístico e organização, e preferem políticas de avaliação que permitam amplo uso, desde que com transparência por meio de declaração. Os dados sugerem que o eixo do debate, para esses alunos, não é “usar ou não usar”, mas como preservar agência, justiça na avaliação e letramento digital crítico diante de regras e ideologias docentes muitas vezes inconsistentes.
O QUE HÁ DE NOVO: Publicado na ScienceDirect, o artigo “Generative AI tools and empowerment in L2 academic writing” investiga como 21 estudantes de pós-graduação (falantes de mandarim) se posicionam frente a ferramentas como ChatGPT durante o primeiro mês de transição para um programa de MEd em uma universidade de ensino em inglês (EMI) em Hong Kong. Além de entrevistas em grupos focais, o estudo aplicou uma tarefa de preferência com 11 cenários de políticas de uso de IA em avaliações e encontrou rejeição maciça a proibições: 85,68% indicaram como “menos preferidas” políticas de “No AI”, enquanto 47,62% preferiram opções de “Full AI”, com destaque para a política que permite qualquer uso desde que o estudante declare o quê, como e por quê utilizou.
COMO FUNCIONA: A pesquisa combina um desenho qualitativo (sete entrevistas em pequenos grupos e três individuais, em mandarim, após 3–4 semanas de aulas) com um instrumento de “preferência de políticas” inspirado na AI Assessment Scale (AIAS), que organiza níveis de permissão de IA em avaliações. Os autores analisaram estatisticamente as escolhas de política e conduziram análise temática indutiva das entrevistas; em uma segunda etapa, usaram o GPT‑4o (via Poe) para “cross-check” de codificação, com supervisão humana e checagem de trechos, chegando inclusive a um tema adicional: a demanda dos estudantes por mais orientação e treinamento institucional sobre uso adequado de IA.
PRINCIPAIS RESULTADOS: No nível da prática de escrita, todos os participantes relataram uso de IA generativa, principalmente para explicar conceitos, resumir leituras, revisar gramática, “polir” o texto e gerar estruturas e modelos, usos que aumentam confiança e eficiência. Ao mesmo tempo, surgiram limites claros: alguns estudantes relataram ceticismo por erros e “referências inventadas” e afirmaram priorizar julgamento humano; outros temiam que delegar ideias e redação à IA gerasse “inércia”, preguiça intelectual e dependência. No nível das políticas, a opção mais preferida (38,10%) foi permitir qualquer uso com declaração, vista como um equilíbrio entre autonomia e accountability; proibições foram descritas como rígidas e potencialmente injustas, sobretudo quando associadas a detecção de IA, considerada pouco confiável e mais arriscada para escritores não nativos.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para programas de pós-graduação e centros de escrita acadêmica, o estudo reforça que a “realidade de uso” já é disseminada e pragmática, o que desloca a gestão do problema de integridade para desenho de avaliação, clareza de expectativas e desenvolvimento de letramentos. Para docentes, a evidência aponta que estudantes valorizam autonomia, mas querem regras que protejam justiça comparativa (evitar competição desleal) e que reduzam o medo de sanções arbitrárias. Para gestores e formuladores de política institucional, a mensagem é que diretrizes excessivamente heterogêneas entre disciplinas e professores podem aumentar confusão e risco de transgressões não intencionais justamente no período de transição acadêmica.
INSIGHT CENTRAL: O trabalho propõe ler a escrita com IA por “agência distribuída”: a autoria e o controle não residem apenas no indivíduo, mas na interação entre estudante, ferramenta e normas institucionais. Nesse enquadramento, “empoderamento” não é sinônimo de produtividade; depende de o aluno manter poder de decisão sobre objetivos, conteúdo e critérios, além de compreender vieses, estilos privilegiados (como variedades padrão do inglês) e interesses embutidos nas plataformas, caso contrário, o ganho percebido pode ser um “falso empoderamento”.
SIM, MAS…: Os próprios autores reconhecem limites de transferibilidade: a amostra é pequena (21 participantes), concentrada em um programa e em um contexto de alto recurso, com acesso institucional a modelos, além de recrutamento por conveniência. Também há potenciais efeitos de relação indireta com o pesquisador docente, apesar de entrevistadores sem vínculo direto. Por fim, embora o estudo discuta riscos de vieses e poder na IA, as falas dos estudantes indicam que o senso crítico ainda se concentra em precisão e dependência, o que sugere que políticas “liberadas com declaração” podem falhar se não vierem acompanhadas de formação explícita em letramento crítico digital e em práticas de citação/atribuição adequadas a usos variados de IA.
O QUE VEM DEPOIS: A pesquisa aponta como próximos passos replicações em outros países, áreas e condições de infraestrutura, especialmente em redes com menos acesso a ferramentas, para testar se preferências por “uso livre com transparência” se mantêm. No plano institucional, o artigo sugere que orientações de início de curso e formação docente deveriam incluir: (1) exemplos concretos do que declarar e do que não declarar; (2) como integrar IA sem deslocar objetivos de aprendizagem; e (3) espaços para discutir ideologias e desigualdades embutidas nas ferramentas, reduzindo o uso “às escondidas” e tornando a avaliação mais alinhada às práticas reais de escrita na era da IA.
fonte: Generative AI tools and empowerment in L2 academic writing
Fonte: https://www.sciencedirect.com/science/article/pii/S0346251X25001897