Uma revisão de escopo analisou como a inteligência artificial tem sido usada para inferir atenção e emoção em ambientes digitais de aprendizagem, especialmente no ensino superior e em contextos online e híbridos. Ao mapear 39 estudos publicados entre 2017 e 2025, o trabalho conclui que a área cresce rápido e testa muitas técnicas, mas ainda mede atenção e emoção de forma separada, com fragilidades de validade e pouca ligação entre sinais coletados e decisões pedagógicas adaptativas.
O QUE HÁ DE NOVO: O estudo mapeia, com protocolo de revisão de escopo baseado no PRISMA-ScR, a convergência (ainda rara) entre abordagens de IA para medir atenção e emoções em technology-enhanced learning (TEL). A busca em Scopus e Web of Science (maio de 2025) identificou 372 registros e chegou a 39 estudos elegíveis, com crescimento acentuado a partir de 2021. Além de síntese narrativa, os autores aplicaram avaliação de qualidade metodológica com ferramentas do Joanna Briggs Institute e uma análise bibliométrica de coocorrência de palavras-chave para evidenciar como o campo se organiza em “silos” temáticos.
COMO FUNCIONA: Em vez de testar uma única ferramenta, a revisão descreve três formas recorrentes de uso da IA nesses ambientes: (1) inferência algorítmica baseada em sinais “multimodais” (como expressões faciais, rastreamento ocular e dados fisiológicos) para estimar estados internos; (2) analytics de interação (logs de plataformas, cliques, tempo de permanência) usados como proxies de engajamento e, indiretamente, de atenção; e (3) estudos de adoção e percepção, que avaliam utilidade, riscos e aceitação por estudantes e docentes. Para organizar evidências heterogêneas, a revisão classifica desenho dos estudos, populações (alunos, professores, instituições ou bases de dados), papel da IA (intervenção educacional, suporte analítico ou validação técnica) e medidas reportadas (desempenho, engajamento, percepções e indicadores afetivos/atencionais).
PRINCIPAIS RESULTADOS: A revisão encontra um contraste entre avanço tecnológico e baixa padronização conceitual. De um lado, há evidências de viabilidade técnica para captar sinais ligados a estados afetivos e cognitivos e, em alguns casos, acionar intervenções adaptativas (como feedback por chatbot ou estratégias de gamificação). De outro, a integração explícita entre atenção e emoção é “excepcional”: a análise bibliométrica aponta clusters separados (emoção aparece mais periférica e pouco conectada ao núcleo de learning analytics), e a síntese narrativa descreve engajamento como um termo “guarda-chuva” frequentemente usado com significados distintos (ora proxy de atenção, ora componente afetivo, ora resultado global).
SIM, MAS…: A avaliação de qualidade metodológica sugere gargalos importantes para transformar esses sistemas em apoio pedagógico confiável. Entre os estudos avaliados com checklists padronizáveis, aparecem riscos ligados à validade e confiabilidade das medidas (uso de instrumentos ad hoc e mapeamentos frágeis entre “constructos” educacionais e métricas computacionais) e problemas de transparência em estratégias de busca e reporte. A revisão também ressalta que, em ambientes multimodais, privacidade e ética não são “apêndices”: coletar dados sensíveis (imagem, biometria, rastros detalhados) pode elevar resistência e limitar escala, especialmente se a instituição não garantir minimização de coleta, auditabilidade e governança clara.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para o ensino superior, e para redes que ampliaram online e híbrido, o recado central é que personalização “cega” à oscilação de atenção e emoção tende a subaproveitar a promessa da IA e pode aumentar frustração, tédio ou ansiedade, afetando motivação e desempenho. Ao mesmo tempo, a revisão argumenta que aumentar a sofisticação do classificador não resolve sozinho o problema educacional: sem um encadeamento interpretável entre sinal → construto (o que o dado realmente representa) → regra de intervenção → avaliação de impacto, a adaptação vira “detect-and-adjust” pouco justificável, difícil de auditar e arriscada para decisões sobre ensino e apoio ao estudante.
O texto também reposiciona a discussão de “engajamento” como ponto crítico de gestão e desenho instrucional: sua popularidade facilita a adoção, mas pode mascarar diferenças entre atenção sustentada, envolvimento emocional e motivação. Na prática, isso afeta desde dashboards para professores até políticas institucionais de uso de analytics, porque a mesma métrica pode ser tratada como diagnóstico de risco, evidência de aprendizagem ou gatilho de intervenção, mesmo quando a base conceitual não sustenta tais usos.
O QUE VEM DEPOIS: A revisão defende como prioridade criar e validar frameworks integrativos, informados por teorias da psicologia educacional e modelos de atenção, que permitam medir atenção e emoção de modo coerente e traduzir essa leitura em decisões pedagógicas justificadas. Também indica a necessidade de estudos mais replicáveis e “ecologicamente válidos”, com reporte completo de dados e procedimentos, e avaliações que considerem não apenas desempenho acadêmico, mas bem-estar e experiência do estudante. Em uma busca complementar, os autores relatam não ter encontrado um framework formalizado e nomeado que unifique, de maneira consolidada, a integração emoção–atenção em sistemas educacionais, sinalizando que a área ainda carece de uma linguagem e paradigma comuns.