Um novo relatório do projeto europeu ADMIT mapeia como universidades parceiras estão lidando com modelos de linguagem (LLMs) e IA generativa no ensino superior, apontando mudanças ao longo do tempo e forte heterogeneidade entre instituições. Com dados quantitativos e qualitativos de estudantes, docentes e equipes de suporte, o estudo indica que diferenças de conscientização, padrões de uso e respostas institucionais podem acelerar ganhos pedagógicos em alguns campi e ampliar riscos de descoordenação e inequidade em outros.

O QUE HÁ DE NOVO: O “Second report” do ADMIT reúne evidências recentes sobre tendências e variações temporais na adoção de LLMs e GenAI no ensino superior entre as instituições participantes do consórcio. A análise se baseia em um recorte amplo de partes interessadas, estudantes, educadores, profissionais de TI e suporte e pessoal administrativo, para comparar níveis de conhecimento, formas de uso e estratégias institucionais para integrar (ou restringir) essas tecnologias em atividades acadêmicas.

COMO FUNCIONA: O relatório combina métodos quantitativos e qualitativos para construir um panorama comparativo: de um lado, mede percepção, familiaridade e frequência de uso; de outro, explora narrativas e justificativas sobre decisões e práticas em diferentes funções dentro das universidades. A lógica é observar não apenas “se” a IA generativa é utilizada, mas “por quem” e “para quê” (por exemplo, apoio à escrita, estudo, planejamento docente ou atendimento), e como políticas, orientações internas e estruturas de suporte moldam essas escolhas no cotidiano institucional.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a sala de aula, o diagnóstico de assimetrias de consciência e uso sugere que o impacto da IA generativa na aprendizagem não depende só do acesso à ferramenta, mas também da clareza sobre usos aceitáveis e do desenho pedagógico que evita atalhos cognitivos e preserva autoria e desenvolvimento de competências. Para docentes, a variação entre instituições indica que a carga de decidir “na prática” o que é permitido pode cair de forma desigual sobre professores, especialmente quando faltam diretrizes e apoio técnico-pedagógico, o que tende a aumentar insegurança, inconsistência de avaliação e conflitos sobre integridade acadêmica.

CONTEXTO E BASTIDORES: O movimento observado no ADMIT se insere em um cenário global em que universidades passaram, em poucos semestres, de respostas reativas (proibição, alertas genéricos) para tentativas de normalização (orientações por disciplina, políticas de uso, atualização de avaliações e serviços de suporte). Ao evidenciar diferenças de abordagem dentro de um mesmo projeto colaborativo, o relatório reforça que “adoção de IA” não é um evento único, mas uma transição organizacional que envolve governança, formação e infraestrutura, e que tende a se acelerar onde há coordenação entre áreas acadêmicas, TI e administração.

SIM, MAS…: Como síntese baseada em múltiplos grupos e instituições, os achados descrevem tendências e divergências, mas não permitem concluir, por si só, efeitos causais sobre desempenho acadêmico ou qualidade do ensino. Além disso, diferenças de maturidade institucional podem refletir contexto local (cursos, cultura avaliativa, recursos de TI) e não apenas “boa” ou “má” gestão, o que exige cautela ao comparar instituições e ao transformar o diagnóstico em políticas padronizadas sem considerar infraestrutura, privacidade e condições de trabalho.

O QUE VEM DEPOIS: Para avançar da fotografia do momento para decisões educacionais robustas, o próximo passo implícito é testar quais combinações de política, suporte e desenho de avaliação reduzem inconsistências e ampliam benefícios pedagógicos, inclusive para estudantes com menor familiaridade tecnológica. Em redes universitárias e consórcios como o ADMIT, isso tende a significar guias mais operacionais (o que declarar, como avaliar, como apoiar), mecanismos de escuta contínua e métricas comuns que permitam acompanhar mudanças ao longo do tempo sem perder de vista integridade acadêmica e equidade.

Fonte: Report on trends in policies and practices on the use of LLMs and generative AI in the partnership : Second report (JYX)