Um estudo qualitativo realizado em uma universidade de Londres investiga como ferramentas de IA generativa podem atuar como parceiras de diálogo no processo de feedback acadêmico, reduzindo barreiras emocionais dos estudantes e abrindo caminho para modelos mais participativos de avaliação no ensino superior.

O QUE HÁ DE NOVO: Pesquisadores analisaram, em um contexto de ensino superior em Londres, como estudantes de uma instituição pós-1992 interagem com feedback gerado por ferramentas de IA generativa, como ChatGPT. O artigo, publicado na revista Assessment & Evaluation in Higher Education, foca em alunos de grupos de “widening participation”, ou seja, públicos historicamente sub-representados na universidade, e pergunta se a mediação por IA pode alterar a forma como esses estudantes recebem e utilizam comentários sobre seu desempenho acadêmico. A pesquisa adota uma lente teórica específica, baseada em Bakhtin, para explorar mudanças na agência estudantil e nas dinâmicas de autoridade no feedback.

COMO FUNCIONA: O estudo parte de um problema já identificado na literatura: embora haja consenso sobre o valor pedagógico do feedback, muitos alunos têm dificuldade em engajar com os comentários dos docentes, em parte por reações emocionais negativas à crítica. Em vez de substituir o professor, os autores propõem reposicionar a IA generativa como parceira dialógica no processo: o estudante recebe comentários iniciais do docente ou elabora um rascunho de trabalho e, em seguida, interage com a IA para pedir esclarecimentos, exemplos adicionais ou reformulações, construindo uma conversa iterativa em torno do feedback.

Nessa dinâmica, a IA funciona como mediadora entre o discurso de autoridade do professor e a interpretação ativa do estudante. Utilizando a teoria bakhtiniana de discurso autoritário e discurso internamente persuasivo, os pesquisadores investigam como a interação com respostas da IA pode ajudar o aluno a traduzir, questionar e reapropriar o feedback em seus próprios termos. A pesquisa é qualitativa, baseada em entrevistas com estudantes sobre suas experiências com GenAI no apoio a tarefas acadêmicas e na reflexão sobre comentários recebidos, complementada por registros de uso de ferramentas de IA no processo de revisão de textos.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: A proposta de tratar a IA como parceira de diálogo desloca o foco da substituição docente para o fortalecimento da participação estudantil no feedback. Na sala de aula universitária, isso pode significar estudantes mais dispostos a explorar críticas, testar reformulações e fazer perguntas que talvez evitassem dirigir diretamente ao professor por vergonha ou medo de julgamento. Ao reduzir o peso afetivo de receber avaliação, há potencial para que o feedback se torne um processo mais contínuo, investigativo e menos punitivo.

Para o trabalho docente, o modelo abre espaço para reorganizar tarefas: professores podem concentrar seu tempo em feedback mais estratégico e de alto nível, enquanto parte do esclarecimento de dúvidas recorrentes é apoiada por IA. Isso não elimina a necessidade de mediação humana, sobretudo para questões éticas, de julgamento acadêmico e de acompanhamento individual, mas sugere um arranjo em que a IA é incorporada ao ecossistema de avaliação como recurso de apoio, não como autoridade infalível. Em termos de equidade, o foco em estudantes de widening participation indica que o uso cuidadoso de GenAI pode funcionar como apoio adicional àqueles que, por razões sociais ou culturais, sentem-se menos à vontade para negociar sentido com o feedback docente tradicional.

INSIGHT CENTRAL: O ponto conceitual mais forte do artigo está em recusar a visão da IA generativa como oráculo que corrige textos ou entrega respostas prontas. Em vez disso, os autores trabalham com uma ideia de feedback como diálogo, em que o estudante constrói entendimento ao confrontar múltiplas vozes: a do professor, a da IA e a sua própria. A teoria de Bakhtin ajuda a mostrar que o problema não é apenas técnico, qualidade da correção ou precisão da sugestão,, mas também discursivo e relacional: quem tem autoridade para falar sobre o que é um “bom texto” ou uma “boa resposta”?

Nesse enquadramento, a IA ganha um lugar intermediário: não fala com a autoridade institucional de um professor, mas também não é simplesmente neutra. Ao se tornar mais uma voz com a qual o estudante dialoga, ela pode facilitar a passagem de um discurso autoritário (“o professor disse que está errado”) para um discurso internamente persuasivo (“entendi por que esse argumento não se sustenta e posso reformulá-lo”). Essa mudança de perspectiva tira a IA do papel de ameaça à integridade acadêmica e a recoloca como recurso para desenvolver literacia de feedback e agência estudantil.

PRINCIPAIS RESULTADOS: Embora o artigo não apresente dados quantitativos de desempenho, o material qualitativo indica que alguns estudantes relatam sentir-se mais confortáveis em testar ideias com a IA do que em expor dúvidas diretamente ao docente. Eles descrevem a possibilidade de pedir reformulações, exemplos extras ou explicações em linguagem mais acessível sem medo de “parecer inadequados” diante de um professor. Esse espaço de experimentação reduz a carga emocional associada à crítica, o que, segundo os autores, pode levar a um engajamento mais ativo com o processo de revisão.

Ao mesmo tempo, surgem sinais de que a legitimação da IA como parceira de diálogo não acontece automaticamente. Alguns alunos continuam a enxergar o feedback humano como a única referência confiável, usando a IA apenas como tradutora ou simplificadora do que o professor já disse. Outros levantam dúvidas sobre a confiabilidade das respostas geradas, reforçando a necessidade de literacia em IA, compreender limites, vieses e escopo de uso das ferramentas, como parte integrada da formação universitária, especialmente entre estudantes de trajetórias educacionais mais diversas.

SIM, MAS…: O estudo ressalta que a adoção de IA no feedback exige cautela. A pesquisa foi conduzida em um contexto específico, uma universidade londrina pós-1992, com foco em estudantes de widening participation, o que limita a generalização imediata para outras instituições e sistemas. Além disso, por se tratar de uma investigação qualitativa inicial, não há evidência robusta de melhora em notas ou indicadores objetivos de aprendizagem; o foco está na experiência subjetiva dos alunos e em mudanças de postura frente ao feedback.

Há também riscos estruturais: o uso intensivo de IA depende de acesso a dispositivos, conectividade e familiaridade digital, o que pode aprofundar desigualdades entre estudantes de diferentes perfis socioeconômicos. No plano pedagógico, existe a possibilidade de que alguns docentes deleguem em excesso a mediação do feedback à IA, enfraquecendo a relação pedagógica que é central para a formação no ensino superior. Questões éticas, como privacidade de dados e transparência sobre o uso de ferramentas externas, aparecem como pontos sensíveis, especialmente quando plataformas utilizam textos estudantis para treinar modelos.

EXEMPLOS NA PRÁTICA EDUCACIONAL: Em um curso de graduação, por exemplo, o professor pode manter a prática de devolver comentários detalhados em trabalhos escritos, mas incentivar os alunos a usar uma ferramenta de IA para traduzir esse feedback em um plano concreto de revisão. O estudante pode solicitar à IA sugestões de como reorganizar argumentos, criar novos parágrafos ou melhorar a coesão, sempre com base nos pontos indicados pelo docente, em vez de pedir apenas que o sistema “reescreva” o texto por completo. Esse tipo de roteiro reforça a responsabilidade do aluno sobre as escolhas que faz na reescrita.

Na gestão de cursos, coordenações podem incorporar momentos formais de discussão sobre IA e feedback, incluindo oficinas que expliquem limites, riscos e boas práticas no uso de GenAI. Em programas voltados para estudantes de primeira geração no ensino superior, a IA pode ser apresentada como um apoio adicional para interpretar rubricas, critérios de avaliação e linguagem acadêmica, desde que acompanhada de orientação clara sobre integridade acadêmica. Assim, o uso de IA dialoga com políticas institucionais de inclusão, em vez de operar à margem delas.

O QUE VEM DEPOIS: Os autores indicam a necessidade de avançar da exploração qualitativa para estudos de maior escala que investiguem, por exemplo, se o uso dialógico de IA no feedback se traduz em ganhos sustentáveis de aprendizagem ao longo de semestres ou de um curso inteiro. Outra frente é comparar diferentes estratégias de integração, da IA como simples verificador de forma até seu uso como agente conversacional estruturado, para entender quais desenhos didáticos produzem mais benefícios e menos riscos.

Para políticas institucionais e sistemas de ensino, os próximos passos envolvem definir diretrizes claras sobre o papel da IA no feedback, incluindo políticas de avaliação que distingam usos legítimos de usos que configuram plágio ou terceirização indevida da autoria. Em paralelo, abre-se espaço para a construção de currículos que incluam literacia de IA e literacia de feedback como competências explícitas, preparando estudantes e docentes para um cenário em que a conversa com sistemas generativos fará parte, de maneira cada vez mais orgânica, da experiência de aprender e ensinar no ensino superior.

Fonte(s): AI as a dialogic partner: rethinking feedback in higher education