Dois experimentos com participantes recrutados em painéis online indicam que a aceitação de IA em ambientes de aprendizagem não depende apenas de utilidade percebida ou facilidade de uso: ela também é mediada por visões normativas sobre o que a universidade deve ser. Quando a educação é entendida como orientada a competências e resultados, a adoção de plataformas com tutor de IA e monitoramento de objetivos tende a parecer mais “adequada”; já sob um ideal humanista, que privilegia autonomia, reflexão e diálogo, a mesma tecnologia é vista com mais ressalvas.

O QUE HÁ DE NOVO: Um artigo publicado em janeiro de 2026 na revista AI Ethics testa empiricamente uma hipótese pouco explorada na literatura de IA na educação: a de que “ideais educacionais” (humanista versus baseado em competências) moldam a aceitação de tecnologias de IA em universidades. Em dois estudos com desenho experimental, os autores pediram que participantes avaliassem a compatibilidade entre a adoção de uma plataforma de aprendizagem com IA e a visão educacional atribuída a uma liderança universitária, em um cenário de decisão com recursos limitados entre investir em tecnologia ou ampliar equipes de ensino e biblioteca.

COMO FUNCIONA: Nos dois estudos, os participantes primeiro leram descrições curtas de duas concepções de educação. A concepção humanista foi apresentada como centrada em liberdade para definir objetivos, autodesenvolvimento, reflexão e transformação intelectual; a concepção baseada em competências foi descrita como orientada a resultados de aprendizagem, perfis de competência e preparação para a vida profissional. Em seguida, todos receberam um mesmo caso fictício: uma presidência universitária na Alemanha precisa escolher apenas uma alternativa para melhorar o ensino, desenvolver uma plataforma com IA (com transcrição e indexação de aulas, recomendações de materiais, exercícios e monitoramento dinâmico de objetivos) ou contratar mais docentes e ampliar apoio acadêmico e de biblioteca.

No Estudo 1, o “fato” apresentado ao participante foi a decisão final: em uma condição, a presidente escolheu implementar a plataforma de IA; na outra, escolheu aumentar equipes. Depois, os participantes indicaram em uma escala de 0 a 100 se a presidente parecia mais alinhada ao ideal humanista (0) ou ao ideal por competências (100). No Estudo 2, a lógica foi invertida: o participante foi informado de qual ideal a presidente apoiava e, então, estimou, também em uma escala de 0 a 100, se ela tenderia a optar por contratar mais pessoas (0) ou implementar a plataforma de IA (100). Em ambos os estudos, controles incluíram atitudes gerais sobre IA e percepções sobre IA na educação.

PRINCIPAIS RESULTADOS: No Estudo 1, entre os participantes incluídos na análise (aqueles que acertaram uma questão de checagem do cenário), a decisão pró-IA elevou fortemente a atribuição de um ideal baseado em competências: a média foi 70,12 (dp 27,80) quando a presidente escolhia a plataforma, contra 43,62 (dp 34,30) quando ela rejeitava a IA em favor de contratação de pessoal, diferença estatisticamente significativa (p < 0,001). A regressão reportada no artigo sugere que esse efeito do cenário experimental se manteve mesmo com variáveis de controle, que não explicaram a mudança com a mesma força.

No Estudo 2, quando a presidente era apresentada como humanista, os participantes tenderam a prever menos adesão à plataforma: média 34,93 (dp 34,49). Quando ela era apresentada como orientada a competências, a previsão de escolha por IA subiu para 52,97 (dp 34,10), novamente com diferença significativa (p < 0,001). No conjunto de controles, um item se destacou: quanto maior a concordância com a ideia de que IA deveria ser usada para avaliar o progresso dos estudantes, maior a tendência de prever a decisão pela plataforma de IA.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: O estudo ajuda a explicar por que iniciativas de IA podem enfrentar resistência ou adesão desigual dentro do ensino superior, mesmo quando prometem ganhos operacionais e personalização. Se a instituição se define por valores humanistas, autonomia, julgamento crítico, formação ampla e diálogo, a percepção de risco pode se concentrar em elementos como monitoramento de objetivos, “guidance” automatizado e potencial vigilância, que podem ser entendidos como tensionando autonomia e privacidade. Já em modelos orientados a competências, ferramentas de recomendação, exercícios estruturados e feedback podem ser vistos como meios diretos de alcançar resultados mensuráveis, com uma lógica de alinhamento entre tecnologia e objetivos.

Para gestores universitários, a implicação prática é que a discussão sobre IA não é apenas “comprar ou não comprar” uma plataforma: ela envolve traduzir a tecnologia para a missão institucional e explicitar limites. Estratégias, políticas internas e guias de uso que reconheçam diferentes filosofias de ensino tendem a reduzir ruídos e tornar as decisões mais defensáveis, inclusive quando há trade-offs orçamentários entre tecnologia e investimento em pessoal, um dilema que se tornou comum na transformação digital do ensino superior.

SIM, MAS…: Os próprios autores apontam limites relevantes. Os resultados podem depender do contexto cultural, o cenário remete a uma universidade na Alemanha e à tradição europeia influenciada pelo ideal humboldtiano, além do pano de fundo de reformas como o Processo de Bolonha, que impulsionou a orientação a competências em partes do continente. Além disso, os estudos se concentram em ensino superior; não está claro se a mesma associação entre ideais educacionais e aceitação de IA se manteria em educação básica, educação profissional ou modelos híbridos, onde expectativas de autonomia, supervisão e avaliação podem ser distintas.

Há ainda uma limitação de generalização ligada ao próprio dilema experimental: a escolha foi estruturada como uma competição direta entre plataforma de IA e contratação de pessoal e ampliação de serviços acadêmicos. Em situações reais, universidades podem adotar modelos combinados, com IA apoiando tarefas específicas enquanto investimentos humanos cobrem mentorias, desenho pedagógico e suporte socioemocional. Isso sugere que a aceitação observada pode variar quando a tecnologia é apresentada como complemento, e não substituto, de equipes.

O QUE VEM DEPOIS: A agenda aberta pelo trabalho é testar se as mesmas dinâmicas aparecem em outros países e em outras etapas de ensino, e se diferentes “modos” de IA mudam a percepção de compatibilidade com ideais humanistas (por exemplo, um tutor em modo reflexivo, que provoca perguntas e sugere leituras, versus um sistema mais diretivo de exercícios e metas). Para políticas públicas e financiamento, a mensagem é que programas de IA educacional tendem a ganhar legitimidade quando deixam de tratar a tecnologia apenas como eficiência e passam a exigir, desde o desenho, como a IA contribuirá para objetivos educacionais mais amplos, incluindo pensamento crítico, e como docentes serão formados para uso criterioso e responsável.

Fonte: Educational ideals affect AI acceptance in learning environments