Um estudo analisou 214 documentos públicos de diretrizes sobre IA generativa emitidos pelas 50 principais universidades dos EUA e encontrou um quadro predominantemente favorável à adoção, com forte foco em ensino, avaliação e integridade acadêmica, além de preocupações recorrentes com privacidade e segurança. Ao mesmo tempo, as orientações aparecem de forma desigual entre públicos internos: há ampla cobertura para docentes, mas pouca para pesquisa e rotinas administrativas, sugerindo um descompasso entre onde a tecnologia já impacta e onde a governança ainda é incipiente.
O QUE HÁ DE NOVO: A pesquisa examinou como as 50 universidades mais bem colocadas em um ranking nacional dos EUA vêm formalizando regras e recomendações para o uso de ferramentas como ChatGPT e outros sistemas de IA generativa em ensino, aprendizagem, pesquisa e administração. O levantamento reuniu 214 documentos institucionais, totalizando 9.475 sentenças e 235.118 palavras, e identificou não apenas os tópicos dominantes nessas diretrizes, mas também diferenças de “tom” conforme o público-alvo (docentes, estudantes, pesquisadores, técnicos e gestores).
COMO FUNCIONA: Para mapear o conteúdo, os autores coletaram, nos sites oficiais das universidades, apenas documentos públicos, de abrangência institucional e em inglês, usando um protocolo de busca com termos como “generative AI guidelines” e “ChatGPT policy”. Em seguida, aplicaram uma combinação de mineração de texto (frequência de termos e TF-IDF), modelagem de tópicos com LDA para extrair temas latentes, análise de sentimentos com VADER para estimar o grau de positividade/negatividade do texto e, por fim, uma análise temática qualitativa por público-alvo para identificar orientações práticas e recorrências nas recomendações.
PRINCIPAIS RESULTADOS: A modelagem de tópicos apontou quatro eixos que estruturam a discussão institucional: integração da IA generativa no ensino e na avaliação; usos em mídia visual/interativa e aplicações multimodais; segurança e ética (com destaque para privacidade e risco); e integridade acadêmica e enforcement de políticas. Em termos de linguagem, os documentos foram, em média, altamente positivos tanto em universidades públicas quanto privadas, sem diferença estatisticamente significativa entre esses grupos, nem entre portes institucionais. Já por público-alvo houve diferenças relevantes: textos para administradores tiveram o sentimento médio mais alto (cerca de 0,997), seguidos por materiais para docentes (cerca de 0,976), enquanto estudantes (cerca de 0,910) e pesquisadores (cerca de 0,899) receberam diretrizes com tom mais cauteloso; a divergência mais clara apareceu entre documentos para docentes e para estudantes.
INSIGHT CENTRAL: O retrato que emerge não é o de “liberar ou proibir” IA generativa, mas o de transferir parte relevante da governança para o nível da disciplina e do professor, especialmente via políticas de curso e declarações no syllabus. A estratégia combina estímulo à experimentação pedagógica com mecanismos de responsabilização (clareza de regras, redesenho de avaliações e exigências de transparência), ao mesmo tempo em que desincentiva a aposta em soluções automatizadas de “policiamento” como detectores de texto por IA, frequentemente descritos como pouco confiáveis e potencialmente enviesados.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a sala de aula, o foco em redesenho de tarefas aponta uma mudança de paradigma: mais avaliações autênticas, orientadas a processo (rascunhos, portfólios, apresentações, provas orais) e exigindo pensamento de ordem superior, formatos menos vulneráveis ao “texto pronto” e mais alinhados ao desenvolvimento de competências. Para o trabalho docente, o estudo mostra que muitas instituições têm buscado padronizar a comunicação com os estudantes (modelos de cláusulas no syllabus e orientações para explicitar o que é permitido), o que pode reduzir conflitos e incertezas, mas também cria uma nova demanda de atualização contínua das regras à medida que as ferramentas mudam.
SIM, MAS…: A distribuição das diretrizes evidencia riscos de governança: apesar de quase todas as universidades oferecerem orientação a docentes (47 de 50), menos da metade tem documentos específicos para estudantes (21 de 50) e apenas uma minoria aborda pesquisa (9 de 50) e atividades de técnicos/gestores (7 de 50). Essa lacuna é relevante porque a IA generativa também reconfigura práticas fora da avaliação, como escrita acadêmica, revisão bibliográfica, gestão de dados, relatórios e comunicação institucional, onde questões de privacidade, propriedade intelectual, vieses e “alucinações” podem gerar danos difíceis de remediar se não houver regras claras e formação apropriada.
O QUE VEM DEPOIS: Os próprios autores apontam que o retrato capturado é parcial e datado: o corpus se baseia apenas em documentos públicos, restritos às 50 universidades analisadas e coletados em um recorte temporal (primavera de 2024), num cenário em rápida evolução. Como próximos passos, o estudo sugere ampliar a análise para outros países e contextos institucionais, acompanhar mudanças ao longo do tempo (pesquisas longitudinais), investigar diretrizes difundidas por outros canais além de páginas institucionais e, sobretudo, avaliar impacto: se políticas e orientações de IA generativa de fato alteram práticas pedagógicas, resultados de aprendizagem e necessidades de desenvolvimento profissional docente.