Um estudo com estudantes de inglês em uma universidade pública da Malásia mostra que a motivação para continuar usando o ChatGPT no ensino superior depende menos de competência técnica ou ausência de problemas e muito mais de dois fatores centrais: autonomia para usar a ferramenta sem barreiras institucionais e a sensação de vínculo e interação “quase humana” com o sistema de IA.

O QUE HÁ DE NOVO: Pesquisadores analisaram, em uma universidade pública da Malásia, como estudantes de inglês como língua estrangeira (EFL) e segunda língua (ESL) se motivam a continuar usando o ChatGPT em seus estudos. O trabalho, baseado em uma versão modificada da Teoria da Autodeterminação (Self-Determination Theory, SDT), aplicou um questionário on-line a 324 alunos, em diferentes níveis (graduação, mestrado e doutorado), todos usuários de ChatGPT. Usando modelagem de equações estruturais (PLS-SEM), os autores avaliaram como uso efetivo da ferramenta, autonomia, competência, sensação de vínculo (relatedness), desafios percebidos e motivação para uso contínuo se relacionam, explicando mais de 70% da variação na intenção de seguir utilizando o chatbot.

COMO FUNCIONA: O estudo parte da SDT, que identifica três necessidades psicológicas básicas, autonomia, competência e relacionamento, e a expande para incluir o uso efetivo do ChatGPT, os desafios percebidos no uso e a motivação para continuar usando a ferramenta. A equipe elaborou um questionário com base em estudos anteriores sobre chatbots educacionais, adaptando itens para medir, em escala Likert de 5 pontos, percepções dos alunos sobre liberdade de uso, habilidades para operar o sistema, sensação de conexão com o chatbot, dificuldades encontradas e intenção de seguir utilizando a IA no futuro.

Os dados foram coletados entre novembro de 2023 e janeiro de 2024, em contexto de ensino híbrido e autorregulado: os estudantes usavam ChatGPT principalmente fora da sala de aula para práticas de escrita, correção de textos, compreensão de leitura e esclarecimento de dúvidas gramaticais, e depois levavam questões para discussão com docentes em aulas presenciais. Após limpeza dos dados, os pesquisadores utilizaram o software SmartPLS para verificar a qualidade das medidas (confiabilidade, validade, ausência de multicolinearidade) e testar um modelo estrutural com dez hipóteses, investigando como o uso de ChatGPT impacta autonomia, competência, vínculo, desafios e, por fim, a motivação para o uso continuado.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Os resultados indicam que a experiência de autonomia, sentir que pode recorrer ao ChatGPT livremente, sem censura institucional rígida, é o principal motor da motivação para uso contínuo. Para a prática docente, isso sugere que políticas apenas repressivas ou proibitivas podem ser contraproducentes: ao restringir severamente o acesso, instituições reduzem justamente o elemento psicológico que mais sustenta o engajamento produtivo com a IA. Em contrapartida, abordagens que combinam liberdade vigiada com orientações éticas tendem a favorecer um uso mais sustentável e integrado ao currículo.

Outro achado central é o papel da sensação de vínculo com o sistema: à medida que estudantes percebem o ChatGPT como um interlocutor constante, capaz de manter diálogos, acompanhar dúvidas e responder em linguagem natural, aumenta a disposição para mantê-lo como parceiro de estudo. Isso redefine a dinâmica de sala de aula: a IA não substitui o professor, mas ocupa o espaço de tutor sempre disponível, o que pode aliviar parte da demanda de atendimento individual, ao mesmo tempo em que exige do docente uma curadoria mais cuidadosa sobre quando e como recorrer ao chatbot.

INSIGHT CENTRAL: A novidade conceitual do estudo está em deslocar o foco da pergunta tradicional, “os alunos sabem usar bem a IA?”, para “sob quais condições psicológicas eles decidem continuar usando a IA para aprender?”. Ao inserir autonomia e vínculo como variáveis centrais em um modelo quantitativo robusto, os autores mostram que, no caso de ChatGPT, não basta treinar tecnicamente o estudante: o que mantém o uso ao longo do tempo é a percepção de que ele pode explorar a ferramenta livremente e de que a interação é significativa, responsiva e relevante para seus objetivos de estudo.

Esse “pulo do gato” teórico ajuda a superar uma visão puramente instrumental da IA na educação. Em vez de tratar o chatbot apenas como ferramenta neutra de produtividade, o modelo mostra que estudantes constroem uma relação subjetiva com o sistema, que pode fortalecer ou enfraquecer sua motivação. Para gestores e professores, isso implica que desenhar políticas de IA significa, em grande medida, desenhar condições de autonomia responsável e de relacionamento pedagógico mediado pela tecnologia.

PRINCIPAIS RESULTADOS: Os testes estatísticos mostram que o uso efetivo de ChatGPT está fortemente associado a sentimentos de autonomia, competência e vínculo, e também, ainda que de forma mais fraca, à percepção de desafios. Em outras palavras, quanto mais os estudantes usam a ferramenta em tarefas concretas de leitura, escrita e revisão, mais sentem que podem aprender por conta própria, que dominam tanto a língua inglesa quanto o próprio sistema de IA, e que há uma espécie de “parceria” contínua com o chatbot.

Quando o foco se volta para a motivação de uso contínuo, porém, o quadro muda: apenas autonomia e relatedness aparecem como preditores significativos. Competência, a sensação de saber usar bem o ChatGPT, não se mostrou determinante para a intenção de continuar usando, e os desafios, como saídas imprecisas, limitações do sistema ou questões éticas, tampouco reduziram a motivação. O modelo explica cerca de 71% da variação na intenção de uso contínuo, um valor elevado para estudos desse tipo, e uma análise adicional de importância-desempenho confirma a autonomia como o fator mais decisivo, seguido pelo vínculo relacional com o chatbot.

SIM, MAS… (limitações e riscos): Apesar da robustez estatística, o estudo tem limitações importantes para quem formula políticas educacionais. A amostra concentra-se em uma única universidade pública malaia, com predominância de estudantes de graduação, mulheres e falantes de línguas locais específicas, o que restringe a generalização para outros países, níveis de ensino ou áreas do conhecimento além de EFL/ESL. Além disso, o recorte é transversal: captura percepções em um período curto, sem mostrar se a motivação se mantém ou se dissipa à medida que o uso de ChatGPT se normaliza.

Outro ponto é que o desenho, centrado em questionário quantitativo, não explora em profundidade como estudantes definem “uso ético”, como negociam fronteiras entre ajuda e plágio, ou como a relação com professores se transforma na prática. Também não investiga se gênero, idade ou perfil socioeconômico modulam a experiência de autonomia ou o acesso à infraestrutura necessária. Na implementação real, esses fatores podem criar assimetrias importantes, inclusive ampliando desigualdades de aprendizagem se apenas parte dos alunos puder exercer essa autonomia mediada por IA.

CONTEXTO E BASTIDORES: O estudo dialoga com um debate global em que universidades oscilam entre proibir e incorporar sistematicamente ferramentas como ChatGPT. Enquanto instituições de elite, como Oxford e Cambridge, adotam diretrizes restritivas em nome da integridade acadêmica, cresce o corpo de pesquisas que mostram ganhos em escrita acadêmica, feedback personalizado e suporte à aprendizagem em diversas áreas, da saúde às engenharias. No campo de ensino de línguas, em particular, acumulam-se evidências de que chatbots podem apoiar prática intensiva, correção imediata e simulação de diálogos, desde que acompanhados por orientação docente clara.

Ao adotar a Teoria da Autodeterminação em vez de modelos clássicos de aceitação de tecnologia (como TAM ou UTAUT), os autores se afastam da lógica de apenas medir utilidade percebida e facilidade de uso. A aposta é compreender as condições psicológicas mais amplas sob as quais estudantes se engajam com a IA. Isso coloca o trabalho na fronteira entre pesquisa em motivação, desenho de ambientes de aprendizagem híbridos e discussão ética sobre autoria, originalidade e papel do professor em tempos de IA generativa.

O QUE VEM DEPOIS: A partir desses achados, uma agenda de pesquisa promissora envolve replicar e estender o modelo em outras áreas, como matemática, ciências exatas ou cursos profissionais, e em diferentes sistemas educacionais, incluindo redes públicas com menor infraestrutura digital. Estudos longitudinais poderiam mapear se a autonomia inicial gera, de fato, ganhos sustentáveis em proficiência linguística ou se se limita a aumentar a dependência de respostas prontas, sem desenvolvimento de pensamento crítico.

Pesquisas futuras também podem combinar abordagens quantitativas e qualitativas para entender, em maior detalhe, como os alunos narram sua relação com o ChatGPT, como docentes interpretam essa autonomia e que tipos de políticas institucionais conseguem equilibrar liberdade e responsabilização. Por fim, uma linha estratégica é investigar como variações de desenho do próprio chatbot, mais ou menos explicativo, mais ou menos restritivo em tarefas de escrita acadêmica, alteram a experiência de vínculo e a motivação para uso contínuo, oferecendo subsídios tanto para reguladores quanto para desenvolvedores de sistemas de IA educacional.

Fonte: Artificial intelligence in higher education: Modelling students’ motivation for continuous use of ChatGPT based on a modified self-determination theory

Fonte(s): https://www.sciencedirect.com/science/article/pii/S2666920X24001498