Uma revisão sistemática de estudos publicados entre 2017 e 2025 mapeia como a IA vem sendo usada para prever “estilos de aprendizagem” e acionar sistemas de recomendação educacional, mas conclui que a distância entre protótipos acadêmicos e implementação em escala ainda é grande. O trabalho chama atenção para mudanças recentes, como o avanço de ensembles, deep learning e dados multimodais, ao mesmo tempo em que questiona a robustez de muitas métricas de desempenho e a baixa preocupação com requisitos de produção, como privacidade, integração com LMS e escalabilidade.
O QUE HÁ DE NOVO: O estudo revisa 40 trabalhos publicados de 2017 a 2025 (com concentração de publicações após 2023) sobre predição de estilos de aprendizagem e sistemas de recomendação voltados à personalização do ensino. Ao sintetizar tendências e barreiras de adoção, os autores destacam três “viradas” qualitativas na literatura recente: a troca de classificadores isolados por ensembles e arquiteturas profundas; o aumento de entradas multimodais (incluindo sinais fisiológicos); e a evolução de tarefas de predição “separadas” para sistemas adaptativos integrados que combinam modelagem do estudante e recomendação de recursos.
COMO FUNCIONA: Como se trata de uma revisão sistemática, o trabalho não testa um único modelo, mas organiza e compara abordagens encontradas em bases como ScienceDirect, Web of Science, IEEE Xplore e Scopus, seguindo PRISMA 2020 e um protocolo registrado. A síntese agrupa a literatura em quatro frentes: predição de estilos de aprendizagem, recomendação educacional, predição de comportamento/personalidade/desempenho e aplicações. Em termos práticos, as soluções analisadas variam entre (a) modelos que inferem perfis a partir de questionários e dados de interação em LMS/MOOCs e (b) recomendadores (colaborativos, baseados em conteúdo, híbridos e, mais recentemente, session-based) que sugerem recursos, trilhas ou cursos e, em alguns casos, usam o estilo previsto como parte do perfil do aluno para ajustar a entrega.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para escolas, redes e universidades, a promessa desses sistemas é reduzir atrito na personalização: orientar recursos e atividades a partir de sinais do comportamento do estudante, apoiar intervenções mais cedo e dar ao professor uma camada adicional de diagnóstico. A revisão, porém, indica que a “implementação real” esbarra menos em falta de modelos e mais em condições institucionais e de produto, integração com plataformas, aceitação docente, governança de dados e capacidade de operar com escala e responsabilidade. Isso desloca o debate: o sucesso não depende só de aumentar a acurácia, mas de demonstrar impacto educacional e operar com critérios de qualidade compatíveis com ambientes de aprendizagem reais.
INSIGHT CENTRAL: Um dos pontos mais incisivos do estudo é separar “uso computacional” de “validação pedagógica”. A revisão observa que a literatura não demonstra, como corpo de evidências, a eficácia da teoria dos estilos de aprendizagem para melhorar resultados; em vez disso, ela mostra como essas categorias são frequentemente reaproveitadas como abstrações para modelar diversidade de estudantes em sistemas adaptativos. Essa distinção é relevante para gestores e formuladores de política porque evita que um ganho de performance preditiva seja interpretado automaticamente como ganho de aprendizagem.
PRINCIPAIS RESULTADOS: A revisão aponta domínio do modelo Felder-Silverman (FSLSM) na literatura analisada, associado mais à “dependência de trajetória” (instrumentos disponíveis e comparabilidade com estudos anteriores) do que à superioridade educacional comprovada. Também chama atenção para níveis altos de desempenho reportado em parte dos estudos (como faixas de acurácia frequentemente citadas na casa de 87% a 98% em tarefas de predição), mas relativiza esses números ao indicar problemas de validação: a maioria recorre a divisão aleatória dos dados, e uma parcela pequena discute requisitos de produção, o que pode inflar resultados e dificultar generalização. No campo de recomendação, o trabalho reforça a migração para arquiteturas híbridas para lidar com problemas típicos como cold start e esparsidade de dados, além do crescimento de modelos session-based em cenários de interação dinâmica.
SIM, MAS…: O mapeamento evidencia um conjunto de riscos e limitações com implicações diretas para adoção em instituições: a dependência de dados próprios (a maioria dos estudos usa conjuntos customizados), a baixa disponibilidade de código e artefatos para reprodução, e a fragilidade de protocolos de avaliação que não simulam o “mundo real” (por exemplo, sem validação temporal ou por usuário). A revisão também coloca no radar preocupações éticas e operacionais: entradas multimodais e sinais fisiológicos ampliam a sensibilidade dos dados, elevando a necessidade de consentimento, minimização e proteção; e a falta de análise sobre impactos de misclassificação pode transformar personalização em rotulagem inadequada que prejudica a experiência de aprendizagem.
O QUE VEM DEPOIS: Como agenda, o estudo identifica lacunas que tendem a definir a próxima fase do campo: validação intercultural, estudos longitudinais, desenho inclusivo, técnicas de preservação de privacidade e análise de consequências quando o sistema erra o perfil do aluno. Para tomada de decisão, a implicação é clara: antes de escalar soluções “baseadas em estilo”, instituições devem exigir evidência de impacto educacional, protocolos de avaliação que evitem vazamento de informação, e requisitos de implantação (integração com LMS, governança e transparência) tratados desde o início, sob risco de repetir um padrão já recorrente na área: alta performance em laboratório e baixa prontidão para uso cotidiano em sala de aula.