Um experimento de campo com 196 estudantes de licenciatura na Alemanha testou dois níveis de feedback automatizado, gerado por learning analytics em uma atividade colaborativa no Moodle, e encontrou que mensagens mais ricas e pedagógicas foram percebidas como mais úteis para aprender e para apoiar autorreflexão e autorregulação; ao mesmo tempo, a “feedback literacy” dos alunos, especialmente atitudes em relação ao feedback, modulou parte dessas percepções, sugerindo que tecnologia e preparo do estudante precisam caminhar juntos para escalar devolutivas personalizadas na universidade.
O QUE HÁ DE NOVO: O estudo publicado na International Journal of Educational Technology in Higher Education quantificou, em um desenho randomizado e em contexto real de curso, como estudantes avaliam feedback automatizado personalizado e até que ponto a chamada feedback literacy altera essa avaliação. Em uma tarefa online de aprendizagem colaborativa sobre “ativação cognitiva” em sala de aula, alunos de um curso inicial de formação docente receberam ou um feedback básico (focado em conclusão e participação mínima) ou um feedback altamente informativo, com comentários detalhados sobre o processo de colaboração e a qualidade do produto final do grupo.
COMO FUNCIONA: A intervenção ocorreu dentro do ambiente Moodle e envolveu uma semana de trabalho assíncrono em fóruns privados, em três fases (identificação de evidências em vídeos, análise conceitual guiada por prompts e produção de uma justificativa conjunta). O grupo de controle recebeu uma devolutiva automatizada mais simples: lembrete dos critérios, contagem de postagens por fase e confirmação binária de conclusão. Já o grupo experimental recebeu, além disso, um pacote de feedback “altamente informativo” com duas camadas: (1) feedback de produto, gerado por um pipeline de processamento de linguagem natural que avaliou o texto final do grupo segundo critérios alinhados aos objetivos didáticos (uso de terminologia acadêmica, referências a evidências dos vídeos com timestamps e identificação de momentos de ativação cognitiva); e (2) feedback de processo, derivado de indicadores de comunicação nos fóruns para inferir padrões de participação e papéis emergentes na discussão, acionando templates com orientações e sugestões personalizadas via regras do tipo “se–então”.
PRINCIPAIS RESULTADOS: Em comparação ao feedback básico, o feedback altamente informativo elevou de forma significativa a percepção de que a devolutiva ajudava na aprendizagem contínua, além de ampliar a sensação de “insight” sobre o próprio aprendizado: estudantes relataram mais apoio para entender o progresso, refletir sobre o comportamento de estudo e regular ações futuras. A compreensão do texto do feedback, porém, não mudou entre condições, um resultado relevante porque indica que a diferença percebida não veio de “explicações mais fáceis”, mas de conteúdo mais acionável e conectado ao processo de aprender.
INSIGHT CENTRAL: O trabalho desloca o foco de “o feedback automatizado é bom?” para “para quem e em que condições ele é percebido como útil?”. Ao introduzir feedback literacy como moderadora, o estudo sugere que a eficácia percebida de uma devolutiva baseada em dados não depende só do nível de detalhamento, mas também das atitudes do estudante diante do feedback, isto é, crenças de que a devolutiva tem valor e de que o aluno tem agência para usá-la. Em outras palavras, escalar feedback com IA/learning analytics pode exigir tanto engenharia pedagógica do sistema quanto desenvolvimento de competências e disposições do lado do aprendiz.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a sala de aula universitária (inclusive em formatos híbridos e EAD), a evidência reforça que feedback automatizado pode ir além de checagens de conclusão e oferecer suporte percebido a autorregulação, uma habilidade crítica quando a autonomia do estudante aumenta. Para o trabalho docente, a implicação é prática: a automação tende a ser mais valiosa quando devolve informação de processo (como a colaboração aconteceu) e de produto (qualidade do argumento), reduzindo a dependência de correções manuais extensas sem limitar-se a mensagens “administrativas” de participação.
SIM, MAS…: O estudo mede percepções imediatas, não mudanças efetivas de comportamento nem ganhos objetivos de aprendizagem, e usa itens únicos para avaliar cada dimensão de percepção, o que simplifica a coleta, mas limita a precisão psicométrica. Além disso, a intervenção aconteceu em uma tarefa colaborativa (CSCL), em que dinâmicas de grupo podem alterar como o feedback é interpretado; portanto, a transferência direta para tarefas individuais, outras áreas e instituições deve ser feita com cautela.
O QUE VEM DEPOIS: Os autores apontam como próximos passos investigar efeitos em desempenho e em ação concreta (revisões, mudanças de estratégia, persistência), além de testar o modelo em outros tipos de tarefas e feedbacks automatizados. Outra agenda sugerida é combinar sistemas de feedback mais informativos com práticas curriculares que desenvolvam feedback literacy, por exemplo, autoavaliação guiada, revisão por pares e rotinas reflexivas, para aumentar a probabilidade de que estudantes transformem uma devolutiva rica em decisões de estudo, e não apenas em avaliações positivas do sistema.