Um estudo com 102 docentes e pós-graduandos na República Dominicana testou uma formação curta e híbrida para ampliar a capacidade de identificar vieses em aplicações de IA e propor estratégias de mitigação, especialmente por meio de prompts mais inclusivos. A principal aposta foi usar a reflexão dialógica, em oficina e fórum no Moodle, para transformar “consciência ética” em práticas pedagógicas orientadas por justiça algorítmica, ainda que persistam lacunas entre intenção e implementação.
O QUE HÁ DE NOVO: O artigo “Dialogic Reflection and Algorithmic Bias: Pathways Toward Inclusive AI in Education”, publicado na MDPI, descreve uma intervenção de formação continuada com 102 participantes de instituições de ensino superior (docentes universitários e estudantes de pós-graduação em programas de formação docente) vinculados a uma universidade pública na República Dominicana. Em um workshop de 8 horas, combinado a uma semana de debate assíncrono em fórum no Moodle, os participantes analisaram casos de discriminação algorítmica e experimentaram estratégias para reconhecer vieses e redesenhar interações com IA, com ênfase em prompt design inclusivo e em responsabilidade ética no uso educacional.
COMO FUNCIONA: A formação foi organizada como pesquisa-ação, combinando introdução conceitual (justiça algorítmica, TRIC e interseccionalidade algorítmica) com atividades práticas e colaborativas. No encontro síncrono, o grupo trabalhou com exemplos do cotidiano (recomendação em plataformas digitais), simuladores gamificados de aprendizado supervisionado para tornar visível como dados e categorias moldam erros de classificação, e estudos de caso (como o sistema de recrutamento automatizado da Amazon e a geração de textos estereotipados por IA generativa). Depois, no Moodle, threads temáticos estruturaram o diálogo: os participantes precisavam comentar, responder pares e refinar propostas, produzindo um corpus analisado em ATLAS.ti com categorias como identificação de vieses, responsabilidade ética, impacto social e propostas de equidade, complementado por estatísticas descritivas de frequência de termos.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para gestores e formadores, o estudo reforça que “saber que IA existe” não basta: mesmo quando há intuição ética, docentes relatam dificuldade em traduzir preocupação com justiça em ações consistentes, por falta de formação, diretrizes e condições institucionais. Na sala de aula, isso aparece em riscos concretos, como correção automática penalizando variações linguísticas (por exemplo, espanhol não padronizado), com potenciais efeitos emocionais e acadêmicos em estudantes migrantes ou de grupos minorizados. Para o trabalho docente, a mensagem é que prompts e rotinas de uso não são detalhes operacionais: são pontos de controle onde professores podem reduzir estereótipos, explicitar contexto, exigir critérios de inclusão e tensionar decisões automatizadas com julgamento humano.
INSIGHT CENTRAL: A contribuição distintiva não é apenas ensinar “checklists” de ética ou técnicas rápidas de prompt engineering, mas colocar a reflexão dialógica como mecanismo pedagógico que liga três etapas: identificar o viés, reconhecer suas raízes sociotécnicas (dados, categorias, poder e história) e co-criar respostas situadas. Na prática, o fórum funciona como um “laboratório discursivo” onde a negociação entre pares ajuda a transformar percepções individuais em posicionamentos coletivos, e isso, segundo os autores, é o que aumenta a agência docente para atuar como mediador crítico, e não como usuário passivo de ferramentas.
PRINCIPAIS RESULTADOS: A análise de discurso sugere que as menções se concentraram fortemente no tema “IA” (mais de 70% das referências em ambos os grupos), enquanto tópicos como diversidade, inclusão e acesso aparecem de modo periférico (em torno de 2% a 3%, dependendo da coorte), indicando que as dimensões éticas e de equidade ainda “disputam espaço” com o foco técnico. Ainda assim, as redes conceituais produzidas no ATLAS.ti apontam caminhos recorrentes: a conscientização sobre vieses se relaciona à percepção de responsabilidade profissional, mas nem sempre se converte em estratégias de mitigação; a formação atua como variável mediadora para sair do diagnóstico e chegar a propostas (como revisar prompts, adaptar atividades e questionar critérios de avaliação automatizada).
SIM, MAS…: O próprio desenho do estudo impõe limites: a amostra se restringe ao ensino superior e a um contexto nacional específico, o que dificulta extrapolações diretas para educação básica. Além disso, a abordagem é qualitativa (com estatísticas descritivas), sem medidas padronizadas de impacto em aprendizagem ou mudanças observáveis de prática ao longo do tempo; a confiabilidade entre codificadores foi estabelecida por acordo negociado, sem coeficientes como kappa. No plano de implementação, o estudo também evidencia um gargalo típico: mesmo quando professores reconhecem injustiças algorítmicas, faltam tempo curricular, protocolos institucionais, governança de dados e autonomia para “mudar o sistema”, o que pode manter a tensão entre intenção ética e prática cotidiana.
O QUE VEM DEPOIS: O artigo propõe um modelo conceitual testável em pesquisas futuras: a formação baseada em reflexão dialógica impulsionaria o engajamento crítico e a consciência sobre vieses, o que aumentaria a adoção de práticas pedagógicas inclusivas, uma hipótese que pede validação quantitativa e replicação em outras etapas de ensino. Os autores também sinalizam uma agenda ambiciosa para capacitação: além de prompts inclusivos, aproximar docentes de noções como auditoria de vieses e, em contextos mais avançados, técnicas como Retrieval-Augmented Generation (RAG) e ajustes de modelos, sempre com o cuidado de não transformar a ética em apêndice, mas em competência contínua ligada à realidade local.
Fonte: Dialogic Reflection and Algorithmic Bias: Pathways Toward Inclusive AI in Education