Um estudo com universitários na Áustria investigou por que estudantes continuam usando ferramentas de IA generativa, como o ChatGPT, após a adoção inicial. Os autores mostram que a intenção de uso recorrente é explicada sobretudo por ganhos percebidos de desempenho e facilidade de uso, mas também por um fator menos explorado: a avaliação ética que cada aluno faz sobre usar IA em tarefas acadêmicas.
O QUE HÁ DE NOVO: Publicado na revista Education and Information Technologies, o artigo propõe um modelo de “uso contínuo” (post-adoption) para IA generativa no ensino superior, indo além das pesquisas que focam apenas na intenção de experimentar a tecnologia. A pesquisa aplicou um questionário online em inglês e alemão em uma universidade austríaca e analisou 120 respostas válidas, com participantes majoritariamente da graduação, média de 26,5 anos, e controle de idade e gênero.
COMO FUNCIONA: Os pesquisadores adaptaram o UTAUT2, um dos modelos mais usados para explicar adoção de tecnologia, e acrescentaram “julgamento ético” como variável explicativa da intenção de continuar usando IA generativa. O estudo mediu expectativas de desempenho (se a IA melhora resultados acadêmicos), expectativas de esforço (facilidade de uso), influência social (pressão/encorajamento de pessoas importantes) e julgamento ético (se o uso é visto como justo e moralmente correto), além de covariáveis. As relações foram testadas com análises fatoriais para validar as escalas e regressão OLS para estimar o peso de cada fator na intenção de uso contínuo.
PRINCIPAIS RESULTADOS: Três fatores tiveram associação positiva e estatisticamente significativa com a intenção de uso contínuo: expectativa de desempenho (β=0,49; p<0,001), expectativa de esforço (β=0,16; p=0,033) e julgamento ético (β=0,16; p=0,026). A influência social não apareceu como fator relevante (β=−0,10; p=0,199), sugerindo que, após ganhar experiência prática, o estudante passa a depender menos da opinião de colegas, familiares ou referências externas. A idade teve efeito positivo (β=0,19; p=0,006), indicando maior propensão ao uso contínuo entre estudantes mais velhos; já o efeito de gênero perdeu significância quando os principais preditores entraram no modelo. O conjunto do modelo explicou cerca de metade da variação na intenção de uso contínuo (Adj. R²=0,48).
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para gestores e formuladores de política acadêmica, os achados ajudam a entender por que o uso tende a persistir mesmo em ambientes com incerteza regulatória: quando estudantes percebem ganho de produtividade e baixo “custo” de esforço, a continuidade se torna provável. Ao mesmo tempo, o resultado de “julgamento ético” aponta que normas e valores, e não só utilidade, entram na equação, especialmente em tecnologias controversas. Isso desloca o debate de uma lógica de “proibir versus liberar” para uma agenda de governança: clareza sobre o que é permitido, em que tipos de tarefa e com quais transparências.
SIM, MAS…: O próprio estudo ressalta limitações típicas de pesquisas transversais: os dados são de um único momento e não permitem inferir causa e efeito com segurança, além de dependerem de autorrelato (o que pode sofrer vieses, ainda que os autores tenham adotado medidas para reduzir viés de método comum e testado não-resposta). A amostra vem de uma única universidade europeia, em um contexto no qual não havia diretrizes formais sobre IA generativa no período analisado, o que pode alterar tanto percepções éticas quanto a interpretação de “condições facilitadoras”. Aliás, esse último construto, que representaria suporte institucional e infraestrutura, foi excluído por problemas psicométricos, o que impede conclusões sobre o papel direto da universidade como facilitadora do uso.
CONTEXTO E BASTIDORES: A pesquisa dialoga com um cenário de adoção acelerada de ferramentas como o ChatGPT, frequentemente citada como uma das aplicações de consumo que mais rapidamente atingiram escala, e com a tensão instalada no ensino superior entre oportunidades (apoio à aprendizagem e produtividade) e riscos (fraude acadêmica, plágio, textos pouco originais e “alucinações” factuais). Ao focar na continuidade, o artigo também se conecta a uma preocupação prática: efeitos educacionais negativos ou transformações sistêmicas tendem a emergir quando o uso se torna rotina, e não apenas quando estudantes “testam” a ferramenta.
O QUE VEM DEPOIS: Os autores sugerem replicações em diferentes países e instituições, especialmente onde já existam códigos de conduta e políticas explícitas de uso de IA generativa, para observar como isso altera o julgamento ético e a persistência do uso. Também apontam a necessidade de estudos longitudinais e de ampliar o olhar para fatores correlatos, como confiança na credibilidade das respostas e compreensão das limitações do modelo, incluindo vieses e aversão algorítmica. Para a gestão educacional, a mensagem é que diretrizes claras e formação docente e discente sobre limites e boas práticas não são acessórios: podem influenciar diretamente como estudantes justificam (ou rejeitam) o uso contínuo.
FONTE: Students’ little helper: Investigating continuous-use determinants of generative AI and ethical judgment (Education and Information Technologies).
Fonte: https://link.springer.com/article/10.1007/s10639-025-13708-0