Um estudo de métodos mistos com 69 universitários de ciência da computação no Japão analisou como estudantes de inglês como língua estrangeira usam técnicas de prompt engineering em tarefas multimodais e o que acontece quando são obrigados a revisar, em vez de apenas aceitar, textos gerados por IA. Os achados sugerem que a aprendizagem e a “sustentabilidade” do uso educacional da IA dependem mais de ciclos iterativos de prompting e reescrita crítica do que do tipo específico de prompt escolhido.

O QUE HÁ DE NOVO: Publicado na revista Sustainability (MDPI), o trabalho investiga, em um ambiente de aprendizagem “inteligente”, como alunos do segundo ano de computação em um curso de EFL aplicam prompt engineering em quatro domínios de tarefa: sumarização de pesquisa, anotações a partir de vídeo acadêmico, transformação de estilo (casual ↔ acadêmico) e mapeamento conceitual. O desenho reúne questionário estruturado, coleta do texto gerado pela IA e a versão revisada pelos estudantes, além de análises estatísticas e medidas de similaridade textual para estimar o quanto os alunos preservam significado enquanto reescrevem profundamente a forma.

COMO FUNCIONA: Em cada seção do instrumento (Google Forms), os participantes precisavam primeiro gerar um rascunho com apoio de um modelo de linguagem (como ChatGPT) e, na sequência, editar o material “para submissão”, entregando as duas versões e uma reflexão sobre estratégia e dificuldades. A pesquisa operacionaliza “profundidade de revisão” com três medidas complementares: similaridade cosseno (retenção semântica), índice de Jaccard (sobreposição lexical) e similaridade de Levenshtein (reformulação em nível de caracteres/edição). Em vez de comparar com um grupo controle sem IA, o estudo privilegia variações entre tarefas e padrões de engajamento, argumentando que restringir a IA reduziria a validade ecológica num contexto em que o uso já está normalizado.

PRINCIPAIS RESULTADOS: Na tarefa de busca e sumarização de literatura (seção 1), as métricas apontam uma combinação típica de aprendizagem por paráfrase: alinhamento conceitual moderado com baixa reutilização de palavras e baixa similaridade de edição (cosine médio ≈ 0,25; Jaccard ≈ 0,11; Levenshtein ≈ 0,14), sugerindo que muitos estudantes preservaram ideias centrais enquanto reformularam vocabulário e estrutura. Ainda nessa etapa, análises de associação indicam que usuários mais frequentes de IA relataram maior eficiência e mais revisão, com os vínculos mais fortes em tamanho moderado (Cramér’s V chegando a 0,45 e 0,37), mas o “tipo de prompt” apareceu como fator fraco para explicar a profundidade de revisão.

PRINCIPAIS RESULTADOS: Na sumarização de vídeo (seção 2), o padrão foi de condensação com manutenção de sentido: os resumos gerados pela IA eram, em média, mais longos do que os textos revisados pelos alunos (≈190 vs. ≈127 palavras), e a redução foi estatisticamente significativa. Ao mesmo tempo, a comparação entre versões indicou alta preservação semântica com reformulação parcial do texto (cosine médio ≈ 0,61; Jaccard ≈ 0,44; Levenshtein ≈ 0,48), um indício de que os estudantes usaram a IA como estrutura inicial e depois “assumiram” a redação final. As associações entre tipo de prompt e grau de revisão, ou entre revisão e benefício percebido em escuta/anotação, foram em geral não significativas, com um caso limítrofe (p≈0,053) sugerindo que a estratégia de prompt pode afetar modestamente como a reescrita ajuda a compreensão.

INSIGHT CENTRAL: O argumento mais importante do estudo não é que prompts “melhores” gerem automaticamente melhor aprendizagem, mas que a aprendizagem aparece quando o processo força a negociação entre texto da máquina e critérios humanos: revisar, checar tom, recuperar sentido, cortar excessos, reestruturar e justificar escolhas. Essa ênfase desloca o foco do “produto” (qualidade do texto da IA) para o “processo” (iterar prompts + reescrever), tratando a proficiência em prompt engineering como uma alfabetização digital e acadêmica que pode ser ensinada com tarefas guiadas e evidências de revisão.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a sala de aula, a pesquisa sugere um caminho prático para integrar IA generativa sem transformar a atividade em mera terceirização de escrita: exigir a entrega de rascunho da IA e versão revisada cria condições para trabalhar paráfrase, síntese, adequação ao registro acadêmico e organização de informação multimodal. Para docentes, o valor está menos em escolher “o prompt certo” e mais em desenhar rotinas avaliáveis de revisão e reflexão, que também podem reduzir disputas sobre integridade ao tornar o processo transparente e orientado por critérios. No nível de gestão e políticas institucionais, o estudo reforça a necessidade de orientações que tratem IA como apoio à autonomia e à literacia informacional, e não como atalho para entregar um texto final, especialmente em cursos técnicos onde comunicação acadêmica é competência de carreira.

SIM, MAS…: O próprio desenho impõe cautela na interpretação: trata-se de um único contexto institucional e de uma amostra relativamente homogênea (inclusive com desequilíbrio de gênero típico de computação), sem grupo controle e com parte relevante baseada em autorrelato. As métricas de similaridade ajudam a objetivar “revisão”, mas não capturam plenamente qualidade retórica, correção factual ou adequação disciplinar; além disso, a codificação qualitativa não reporta confiabilidade interavaliadores. Por fim, resultados são sensíveis à versão e ao comportamento dos modelos disponíveis no período, o que pode afetar replicabilidade em ambientes e políticas que mudam rapidamente.

O QUE VEM DEPOIS: Para transformar achados em diretrizes robustas, as próximas etapas tendem a incluir replicações em outras áreas e níveis de proficiência, avaliações mais diretas de qualidade do texto (com rubricas e múltiplos avaliadores) e estudos longitudinais para verificar se a prática de revisão iterativa se converte em ganhos sustentados de escrita acadêmica e autonomia. Também fica em aberto como desenhar formações docentes que ensinem “prompt literacy” de modo alinhado a objetivos curriculares, e como instituições podem equilibrar acesso, privacidade e transparência quando a produção do estudante passa a incluir, de forma explícita, um ciclo de coautoria com IA.

Fonte: Prompt Engineering and Multimodal Tasks in AI-Supported EFL Education: A Mixed Methods Study