Pesquisa com mais de 600 estudantes, docentes e técnicos em Hong Kong propõe um quadro abrangente de política de IA para o ensino superior, articulado em três dimensões, pedagógica, governança e operacional, e detalha dez áreas críticas que vão de ética e avaliação à formação para o trabalho em um mundo dominado por inteligência artificial generativa.
O QUE HÁ DE NOVO: Uma pesquisa conduzida em universidades de Hong Kong, com 457 estudantes e 180 professores e funcionários de diferentes áreas, formulou um “AI Ecological Education Policy Framework” especificamente voltado ao uso de IA generativa, como ChatGPT, no ensino e na aprendizagem universitária. O estudo combina dados quantitativos e qualitativos para identificar preocupações, expectativas e recomendações de quem está no dia a dia das salas de aula, e converte essa escuta em um modelo de política institucional estruturado em três dimensões interligadas.
COMO FUNCIONA: A pesquisa utilizou um questionário on-line com perguntas fechadas e abertas para mapear, de um lado, o uso e a percepção de ferramentas como ChatGPT e, de outro, sugestões concretas de estudantes, docentes e staff sobre como as universidades deveriam responder ao avanço da IA. As análises descritivas mostraram, por exemplo, baixa experiência prática com IA generativa, mas forte concordância de que instituições precisam de planos específicos e de que aprender a usar essas ferramentas será essencial para a carreira.
As respostas abertas passaram por análise temática indutiva e deram origem a dez áreas-chave para políticas de IA, que depois foram agrupadas em três dimensões: Pedagógica (centrada em ensino, aprendizagem, avaliação e desenvolvimento de competências), Governança (ética, privacidade, equidade, integridade acadêmica) e Operacional (infraestrutura, formação em literacia em IA, monitoramento e suporte). Cada dimensão é associada a responsabilidades distintas, sobretudo de docentes, gestores e estruturas de governança universitária, compondo um ecossistema de decisões e práticas.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: O estudo parte de um contexto em que universidades pelo mundo alternam entre banir e abraçar ferramentas como ChatGPT, frequentemente sem diretrizes claras para professores e estudantes. Ao propor um quadro de política educacional ancorado em evidências empíricas e alinhado às diretrizes da UNESCO, a pesquisa oferece às instituições de ensino superior um roteiro concreto para ir além de proibições genéricas e explorar a IA como apoio à aprendizagem, sem abrir mão da integridade acadêmica nem da formação de competências críticas.
Para o trabalho docente, o framework ajuda a organizar decisões sobre quando e como permitir IA em tarefas, como redesenhar avaliações para valorizar compreensão e pensamento crítico, e que tipo de formação em ética e literacia digital precisa ser incorporada à prática. No plano institucional, a ênfase em governança, transparência, privacidade e equidade força universidades a tratar IA como tema de política acadêmica e de gestão, com impacto sobre regimentos, infraestrutura, apoio estudantil e preparação para o mercado de trabalho, e não apenas como uma questão disciplinar ou de tecnologia de apoio.
INSIGHT CENTRAL: Em vez de tratar a IA apenas como uma ameaça à avaliação tradicional ou como ferramenta de produtividade, o estudo propõe encará-la como parte de um “ecossistema educacional” que exige políticas articuladas entre didática, ética e operações. O “pulo do gato” conceitual é deslocar o foco de um debate restrito ao combate à cola para uma abordagem sistêmica: redefinir integridade acadêmica na era da IA generativa, proteger direitos de dados, garantir acesso equitativo às ferramentas e, ao mesmo tempo, usar a própria IA para fomentar pensamento crítico, literacia digital e competências profissionais que os graduados precisarão em setores já profundamente automatizados.
PRINCIPAIS RESULTADOS: Os dados quantitativos mostram que tanto estudantes quanto professores enxergam potencial positivo na integração da IA generativa ao ensino superior no longo prazo, ao mesmo tempo em que apontam riscos claros. Há apoio robusto à ideia de que as instituições devem ter um plano específico para gerir riscos da IA, e ampla concordância de que dominar essas tecnologias será importante para a trajetória profissional dos estudantes. Respondentes também veem valor na IA como fonte de feedback rápido, inspiração de ideias e ganho de tempo em tarefas acadêmicas.
Ao mesmo tempo, há preocupações significativas com uso desleal em trabalhos, possível dependência excessiva das ferramentas e impacto negativo sobre habilidades como escrita, interação social, resolução de problemas em grupo e liderança. Muitos participantes duvidam da capacidade atual dos docentes de detectar com precisão o uso de IA em trabalhos, mas não acreditam que essas tecnologias substituirão professores, reforçando a visão de que a IA tende a atuar como apoio, e não como substituto, e que isso precisa ser considerado na formatação de políticas e práticas.
CONTEXTO E BASTIDORES: A pesquisa dialoga com um cenário global em que governos e organismos multilaterais, como UNESCO e União Europeia, vêm produzindo orientações éticas para IA, centradas em princípios como beneficência, justiça, explicabilidade, responsabilidade e respeito aos direitos humanos. No campo específico da educação, essas diretrizes permanecem amplas e, em grande medida, prescritivas, com pouca experimentação concreta em larga escala sobre o uso de IA generativa em sala de aula e avaliação.
Além disso, revisões de políticas nacionais indicam que muitos governos enxergam a educação sobretudo como mecanismo para formar mão de obra “pronta para a IA”, com foco em capacitação técnica e formação de especialistas. O estudo de Hong Kong procura preencher a lacuna ao propor um quadro de política que considera não só a dimensão instrumental, preparar para o mercado de trabalho,, mas também aspectos transformadores: ética no uso da IA, reconfiguração do papel docente, renovação das formas de avaliar aprendizagem e preservação de valores fundamentais da educação superior.
SIM, MAS…: O próprio artigo destaca que o debate normativo internacional ainda é predominantemente teórico: marcos éticos amplos não se traduzem automaticamente em regras claras para professores ao planejar avaliações ou para alunos ao decidir como usar um chatbot em um trabalho. A pesquisa foi realizada em um contexto específico, universidades de Hong Kong, com amostragem por conveniência,, o que limita a generalização automática de resultados para sistemas públicos massivos ou instituições com infraestrutura tecnológica mais precária.
Há também riscos de implementação que vão além das percepções captadas pela pesquisa: instituições podem adotar políticas de IA no papel sem investir em infraestrutura, formação docente ou mecanismos de acompanhamento; desigualdades de acesso entre estudantes podem ser ampliadas se ferramentas poderosas ficarem restritas a quem tem melhor conexão e dispositivos; e a pressão por “inovação” pode levar a usos apressados de IA em avaliações de alto risco, sem evidência robusta de benefício pedagógico. Esses limites indicam que o framework deve ser visto como ponto de partida a ser adaptado e testado, não como solução pronta.
EXEMPLOS NA PRÁTICA EDUCACIONAL: Aplicar o quadro proposto pode significar, na sala de aula, explicitar em cada tarefa se e como a IA pode ser usada, exigir que estudantes declarem as partes de seus trabalhos produzidas com apoio de ferramentas generativas e pedir reflexões críticas sobre a qualidade e os vieses das respostas geradas. Em avaliações, docentes podem migrar parte do peso para apresentações orais, debates em tempo real, projetos em grupo e tarefas que combinem análise de saídas de IA com raciocínio próprio, reduzindo o incentivo ao uso oculto das ferramentas.
No plano institucional, a dimensão operacional do framework se traduziria em políticas claras de proteção de dados quando alunos usam plataformas externas, em programas de formação continuada em literacia em IA para professores e staff, e em suporte técnico para garantir acesso equitativo a ferramentas e detectores. Já na relação com o mundo do trabalho, currículos poderiam incorporar módulos sobre uso responsável de IA em áreas como saúde, direito, finanças ou engenharia, aproximando as competências desenvolvidas na graduação dos fluxos de trabalho que os estudantes encontrarão em ambientes profissionais crescentemente automatizados.
O QUE VEM DEPOIS: A pesquisa sugere que os próximos passos passam por testar o AI Ecological Education Policy Framework em diferentes tipos de instituições e sistemas nacionais, inclusive em universidades públicas com grandes contingentes de estudantes e em contextos de menor infraestrutura digital. Isso implica desenhar pilotos que acompanhem, ao longo do tempo, o efeito de políticas de IA sobre aprendizagem, equidade, engajamento estudantil, carga de trabalho docente e práticas de avaliação, gerando uma base de evidências mais sólida.
Também permanecem em aberto questões como o impacto de longo prazo da IA generativa sobre habilidades de escrita e pensamento crítico, a eficácia de diferentes modelos de atribuição e transparência no uso de IA por estudantes, e formas de integrar princípios globais, como os propostos pela UNESCO, a realidades locais e disciplinares muito diversas. A consolidação de políticas de IA em universidades tenderá a exigir, ainda, maior interação entre pesquisadores em educação, especialistas em tecnologia, gestores e formuladores de políticas públicas, de modo a alinhar marcos institucionais com regulações nacionais e internacionais em rápida evolução.
Fonte(s): A comprehensive AI policy education framework for university teaching and learning