Um novo policy paper australiano argumenta que a expansão acelerada da IA na educação exige governança menos reativa e mais participativa, combinando expertise técnica com a experiência de estudantes, professores e comunidades para reduzir riscos e evitar que desigualdades se aprofundem. O documento testa métodos de participação no ecossistema de EdTech de NSW e traduz os aprendizados em uma agenda prática que vai de auditorias de equidade a um conselho permanente para orientar políticas e compras públicas.

O QUE HÁ DE NOVO: O Australian Public Policy Institute (APPI) reuniu evidências e conduziu, no contexto do ecossistema de EdTech de New South Wales (NSW), uma exploração aplicada de como métodos participativos podem orientar políticas de IA na educação escolar, a partir de dois workshops realizados em 2024. A proposta central é transformar esses aprendizados em “oportunidades de política” para NSW e para a Austrália, com ênfase em governança multiescalar (da escola ao estado), na inclusão de jovens no processo decisório e em critérios de equidade incorporados à contratação e ao monitoramento de tecnologias educacionais.

COMO FUNCIONA: A pesquisa testou dois formatos de participação voltados a tornar riscos e trade-offs mais visíveis antes de decisões de política e de adoção tecnológica se consolidarem. O primeiro foi um “hybrid forum” com foco em auditoria participativa de EdTech e IA, no qual participantes mapearam grupos afetados, discutiram impactos em diferentes camadas (produto, sala de aula, escola, setor e sociedade) e prototiparam formas de auditoria com recorte de equidade. O segundo foi um serious game (AI Fairness Game) que colocou equipes em escolas fictícias com orçamentos diferentes e papéis distintos (como estudante, professor e direção) para deliberar sobre cenários de uso de IA, avaliando opções como restrições, alternativas não automatizadas e mecanismos de supervisão.

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Ao defender participação como “necessidade técnica”, e não apenas um gesto de legitimidade, o texto desloca o debate do “quais ferramentas adotar” para “como decidir, com quem decidir e com que garantias”, num momento em que a IA generativa já é usada amplamente por adolescentes em vários países e a resposta institucional tende a ser fragmentada. Para a sala de aula, a preocupação é dupla: a IA pode ampliar personalização e feedback, mas também reduzir interação professor-estudante, introduzir vieses e criar incerteza sobre avaliação e aprendizagem. Para o trabalho docente e a gestão, o documento enfatiza que a variação de acesso, formação e confiança em tecnologia pode gerar adoções desiguais entre escolas e disciplinas, exigindo suporte de capacitação e mecanismos consistentes de revisão e monitoramento.

PRINCIPAIS RESULTADOS: Nos workshops, participantes relataram que os processos participativos aumentaram a compreensão sobre como sistemas de IA operam e ajudaram a antecipar riscos, com ganhos de inclusividade no diálogo de política. Um achado recorrente foi que contribuições de estudantes tendem a desafiar pressupostos adultos e a tornar preocupações de equidade mais concretas e situadas. Na auditoria participativa, emergiu a ideia de equidade como processo e resultado, não apenas “igualdade de insumos”, e a necessidade de olhar para propriedade, modelo de negócio e desenho de dados dos produtos, além de consentimento, agência estudantil e efeitos sobre relações pedagógicas. No serious game, restrições de orçamento e troca de papéis favoreceram empatia e explicitaram custos de coordenação e limites práticos de políticas “ideais”, mesmo quando opções já conhecidas estavam na mesa.

SIM, MAS…: O próprio documento reconhece que participação mal desenhada pode produzir o efeito contrário ao desejado: dominação por especialistas, fadiga de stakeholders, dinâmicas de poder invisíveis e processos lentos demais para acompanhar o ritmo de inovação em IA. Também há barreiras materiais relevantes para que “voz” vire governança: infraestrutura desigual, conectividade precária e dependência de acesso por celular em comunidades rurais e remotas, o que tensiona qualquer estratégia de adoção que pressuponha banda larga, atualizações frequentes e interação multimodal. Sem recursos dedicados (tempo, liberação de professores, facilitação qualificada, acessibilidade e segurança cultural), a participação pode ser percebida como tokenismo, corroendo confiança em vez de construí-la.

O QUE VEM DEPOIS: A agenda proposta se organiza em cinco frentes: (1) criar modelos participativos e multinível que conectem sala de aula, escola e decisões estaduais; (2) operacionalizar engajamento local com ferramentas como auditorias participativas, mesas regionais e painéis de risco–oportunidade; (3) instituir um conselho permanente e multissetorial de IA na educação para orientar política, compras e implementação, com produção de relatórios e comunicações públicas; (4) desenvolver capacidade estatal e setorial para desenhar participação com qualidade, via toolkits, formação e guias baseados em cenários; e (5) reformar compras públicas de EdTech para incorporar critérios de equidade, exigências de transparência, auditorias rotativas e monitoramento contínuo. O fechamento do paper sugere um caminho de implementação por fases, com pilotos, escala e revisão iterativa, para deslocar a governança de IA na educação de uma postura reativa para uma abordagem antecipatória, com accountability pública e foco explícito em reduzir desigualdades.

Fonte: Gulson_Governing-AI-in-education-PIP-1