Um estudo com 730 universitários da China continental e de Hong Kong propõe e valida a AI Ethical Reflection Scale (AIERS), instrumento de 12 itens que busca medir não apenas consciência ética sobre IA, mas também a capacidade de avaliar criticamente resultados de sistemas como ferramentas generativas e a disposição para usar IA em benefício social. A pesquisa oferece um caminho prático para universidades e formuladores de políticas acompanharem competências éticas que tendem a ficar fora das métricas tradicionais de “alfabetização em IA”.

O QUE HÁ DE NOVO: Pesquisadores desenvolveram e testaram uma nova escala para avaliar “reflexão ética sobre IA” em estudantes universitários, com base em um questionário aplicado online no ano acadêmico de 2023–2024. A validação foi feita com 730 estudantes de duas universidades (uma na China continental e outra em Hong Kong), incluindo alunos de áreas STEM (46,4%) e não-STEM (53,6%), e com diferentes níveis de uso prévio de IA para aprendizagem e avaliação.

COMO FUNCIONA: A AIERS foi construída como um instrumento curto de autorrelato com 12 afirmações em escala Likert de 7 pontos, organizadas em três dimensões: (1) consciência ética em IA (temas como transparência, justiça, privacidade, responsabilização e não maleficência), (2) avaliação crítica (julgar a confiabilidade, vieses e adequação de saídas de sistemas frequentemente opacos) e (3) IA para o bem social (motivação e tendência comportamental de aplicar IA com responsabilidade e impacto positivo). Para verificar se a escala realmente mede esses três componentes, o estudo comparou um modelo “tudo em um fator” com um modelo de três fatores correlacionados por meio de análises fatoriais confirmatórias, além de testar consistência interna e associação com uma medida separada de alfabetização em IA.

PRINCIPAIS RESULTADOS: O modelo de três fatores apresentou ajuste substancialmente melhor do que o modelo de fator único, sustentando a ideia de que a reflexão ética em IA não é uma habilidade homogênea. Os indicadores psicométricos reportados apontam consistência interna adequada nas três dimensões (alfa de Cronbach entre 0,73 e 0,81) e cargas fatoriais acima do patamar mínimo recomendado. Como evidência adicional, a pontuação geral de reflexão ética em IA se correlacionou de forma positiva com alfabetização em IA (r = 0,43), mas com magnitudes que sugerem construtos relacionados e distintos; a menor associação foi justamente com “consciência ética” (r = 0,19), indicando que saber mais sobre IA não garante maior sensibilidade ética.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para gestores acadêmicos, a novidade é menos a criação de mais uma “rubrica” e mais a mudança de foco: a escala tenta capturar o percurso completo entre reconhecer dilemas (consciência), julgar criticamente (avaliação) e agir com responsabilidade (bem social). Isso conversa diretamente com o desafio atual do ensino superior: estudantes têm acesso fácil a sistemas generativos, mas a formação tende a enfatizar uso instrumental e produtividade, enquanto habilidades de julgamento e responsabilidade social ficam difusas no currículo e raramente são medidas com rigor.

O estudo também sugere implicações para desenho curricular e avaliação institucional. Se a escala for usada para diagnóstico, universidades podem identificar onde estão os “gargalos”, por exemplo, quando estudantes reconhecem riscos éticos, mas não conseguem avaliar vieses e limites de saídas de IA, ou não traduzem princípios em práticas orientadas ao bem comum. Em termos de trabalho docente, instrumentos assim podem apoiar a construção de atividades avaliativas que vão além de proibir ou permitir ferramentas: pedem justificativas, checagem de fontes, análise de impactos e tomada de decisão responsável em cenários realistas.

INSIGHT CENTRAL: O principal “pulo do gato” do AIERS é tratar ética em IA como competência que inclui disposição para ação, e não apenas como awareness. A pesquisa se ancora em um modelo clássico de funcionamento moral, interpretando a reflexão ética como um processo em etapas, reconhecer o problema, julgar, priorizar valores e implementar decisões. Essa abordagem tende a produzir diagnósticos mais úteis para educação porque aponta que o maior déficit pode não estar na sensibilização inicial, mas na transição para julgamento crítico e comportamento responsável.

SIM, MAS…: A amostra é ampla para testes psicométricos, porém restrita a um contexto cultural específico (duas universidades na China e em Hong Kong), o que limita a generalização imediata para outros países e sistemas. Além disso, embora a escala tenha mostrado invariância de medida em níveis importantes entre gêneros, não atingiu invariância estrita no nível de erros de medida, o que recomenda cautela ao comparar grupos em análises muito finas. Por fim, trata-se de autorrelato: estudantes podem responder de forma socialmente desejável, especialmente em temas normativos como justiça e responsabilidade.

O QUE VEM DEPOIS: Os próximos passos mais relevantes são replicar a validação do AIERS em outros países e perfis institucionais, além de testar sensibilidade a intervenções educativas (por exemplo, se disciplinas com estudos de caso, laboratórios de uso responsável e experiências práticas com IA elevam pontuações ao longo do tempo). A pesquisa também abre espaço para investigar causas e efeitos: que tipos de experiência com IA e que práticas pedagógicas fortalecem, de fato, avaliação crítica e uso para o bem social, dimensões que, no estudo, aparecem como mais difíceis do que simplesmente reconhecer questões éticas.

Fonte: Assessment of AI ethical reflection: the development and validation of the AI ethical reflection scale (AIERS) for university students