Uma revisão sistemática de 33 artigos publicados desde 2022 analisa como universidades vêm ensinando “prompt engineering” para uso de IA generativa e conclui que a área ainda carece de métricas e taxonomias consolidadas para avaliar a qualidade de prompts e a aprendizagem dos estudantes, apesar da proliferação de frameworks e atividades em diferentes disciplinas.
O QUE HÁ DE NOVO: O estudo organiza, em uma síntese única, o que a literatura recente tem proposto e testado sobre a inclusão de prompt engineering no ensino superior, com foco explícito em informar desenho curricular e políticas institucionais. A busca em quatro bases, com critérios de artigos revisados por pares em inglês a partir de 2022, partiu de 880 registros e chegou a 33 trabalhos após triagens e busca ancestral. O panorama encontrado combina pesquisas experimentais (a maioria), estudos de caso e discussões conceituais, com evidências ainda fragmentadas: apenas nove estudos envolveram participantes humanos em surveys, observações e grupos de discussão, somando 224 pessoas, e os modos de “medir sucesso” do prompt variam muito entre trabalhos.
COMO FUNCIONA: A revisão mostra que, na prática, ensinar prompt engineering costuma seguir um ciclo iterativo: escrever prompts, observar a saída do modelo, avaliar se o resultado atende ao objetivo e documentar ajustes, repetindo o processo até obter algo “viável”. Nos estudos analisados, esse ciclo aparece aplicado a tarefas acadêmicas e profissionais (como desenho de avaliações, criação artística, busca e síntese de informação, apoio à decisão administrativa e learning analytics), frequentemente com estratégias como definição de persona (atribuir um papel ao modelo), restrições de formato (templates “soltos” ou “estritos”), fornecimento de exemplos (zero-shot, one-shot, few-shot) e uso de loops de feedback. Como metodologia de ensino, a literatura sugere que essas rotinas podem virar atividades de sala, oficinas com docentes e tarefas avaliativas em que o foco se desloca do “texto final” para o processo de investigação e refinamento do prompt.
INSIGHT CENTRAL: Em vez de tratar prompt engineering como um conjunto de “macetes” universalizáveis, a revisão aponta cinco temas que ajudam a estruturar currículo por competência e por contexto: (1) Skills, a habilidade ensinável de formular, criticar e iterar prompts; (2) Shots, o uso de exemplos e níveis de contextualização para melhorar a resposta; (3) Administration, aplicações institucionais e de gestão; (4) Creativity, uso em processos criativos como co-colaboração; e (5) Frameworks, guias reutilizáveis como padrões, acrônimos e fluxos. A ideia recorrente é que a habilidade mais transferível não é repetir um prompt “que já funcionou”, mas avaliar criticamente a saída do modelo e redesenhar instruções de maneira deliberada, alinhada a objetivos educacionais.
PRINCIPAIS RESULTADOS: A síntese identifica um campo com muita experimentação e pouca padronização: nos trabalhos experimentais, as métricas de qualidade do output frequentemente são subjetivas (por exemplo, coerência e profundidade, alinhamento com objetivos do usuário, “aderência a template”), e não emerge um indicador universal. A revisão também destaca duas estratégias que aparecem como especialmente influentes para gerar respostas mais aplicáveis: personificação (definir papéis, estilos ou cenários para orientar o modelo) e o uso de templates e exemplos para “ancorar” o formato da resposta. Ao mesmo tempo, a literatura aponta efeitos ambíguos: em alguns contextos, adicionar exemplos (few-shot) melhora a performance; em outros, pode enviesar a resposta e piorar o resultado, sugerindo que “mais contexto” nem sempre é melhor.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a aprendizagem, a revisão reforça que prompt engineering tende a funcionar melhor quando é ensinado como exercício de pensamento crítico, checagem, verificação e questionamento da resposta para lidar com riscos como alucinações, vieses e inadequações, e não como terceirização da tarefa intelectual. Para docentes e designers instrucionais, o material reunido oferece uma base para criar atividades mais autênticas, que avaliem investigação, refinamento e justificativa de decisões (por exemplo, comparar frameworks, testar padrões de prompts e discutir trade-offs), além de apoiar redesenho de avaliações em tempos de IA generativa. Para a gestão universitária, aparecem usos em apoio à decisão, extração de dados e feedback em linguagem natural, indicando que a “alfabetização em prompts” pode ser relevante também fora da sala de aula, em rotinas administrativas e de suporte ao estudante.
SIM, MAS…: O estudo evidencia limitações importantes para quem pretende transformar a literatura em política curricular: os estudos disponíveis são, em geral, pequenos e muito dependentes do contexto, e o julgamento de qualidade permanece subjetivo, o que pode gerar inconsistências entre cursos, turmas e avaliadores. Além disso, a rápida evolução dos modelos pode tornar frameworks e boas práticas rapidamente datados, exigindo currículos flexíveis e atualização contínua, inclusive porque há o risco de “jailbreaks” e de usos que contornem salvaguardas do sistema por meio de prompts. A revisão também aponta um obstáculo pedagógico: sem conhecimento prévio do domínio, estudantes podem não conseguir avaliar a saída do modelo, o que reduz o valor formativo da atividade.
O QUE VEM DEPOIS: O maior vazio mapeado está na avaliação: há pouca discussão sobre como medir, de forma confiável, o nível de habilidade dos estudantes em prompt engineering. Entre as exceções, aparecem tentativas iniciais de criar escores de qualidade do prompt e de codificar componentes (como verbo, foco, contexto, restrições), mas ainda sem uma taxonomia abrangente e validada. A revisão sugere que os próximos passos mais promissores incluem desenvolver métricas e taxonomias consistentes, ampliar estudos longitudinais e replicar intervenções em diferentes disciplinas e tipos de instituição, de modo a separar o que é efeito do “framework” do que é efeito do contexto, do professor e do próprio modelo de IA usado.
Fonte: Prompt engineering in higher education: a systematic review to help inform curricula