Um estudo em uma universidade australiana testou como estudantes de análise e projeto de sistemas colaboram com IA generativa em três tarefas autênticas, síntese de requisitos, correção de modelos formais e avaliação de design, e propôs uma versão instrumentada do framework SAGE para tornar “competências de orquestração” mensuráveis e ensináveis. Os dados mostram uso majoritariamente seletivo e justificado da IA, mas também revelam fragilidades importantes: habilidades como acessibilidade não se transferem automaticamente entre camadas do projeto e a IA erra de forma sistemática ao traduzir especificações em diagramas, exigindo andaimes pedagógicos específicos.
O QUE HÁ DE NOVO: A pesquisa aplica e estende o framework SAGE (Structured AI-Guided Education) ao ensino de systems analysis and design, com uma sequência de três avaliações-experimento implementadas em quatro campi e modalidades (Brisbane, Melbourne, Sydney e online) de uma universidade australiana. Participaram 21 grupos, e 18 entregas aderentes aos templates foram analisadas; na coorte-base de Brisbane, com 13 grupos, 84% demonstraram uso seletivo e justificado da IA (perfis “Balanced Integrator” e “Selective Adapter”), enquanto nenhum grupo atingiu o nível mais alto de síntese (“Critical Synthesizer”).
COMO FUNCIONA: O SAGE organiza a integração da IA em uma progressão em dois estágios: primeiro, semanas de tutoriais com atividades guiadas; depois, três avaliações em semanas distintas que funcionam ao mesmo tempo como prática de aprendizagem, instrumento de avaliação somativa e experimento controlado. Em cada tarefa, estudantes registram decisões de aceitar, modificar ou rejeitar sugestões da IA em matrizes padronizadas, com justificativas textuais e, em alguns casos, medidas como classificação de erros e autopercepção de confiança, tornando observável o julgamento profissional por trás do “copiar/colar” ou da colaboração criteriosa.
PRINCIPAIS RESULTADOS: Na síntese de requisitos, a distribuição de perfis indicou predomínio de integração equilibrada (46%) e adaptação seletiva (38%), com baixa incidência de aceitação passiva (15%) e ausência total do perfil expert esperado (“Critical Synthesizer”). As métricas também sugeriram que habilidades se desenvolvem em “pacotes”: qualidade da justificativa se associou fortemente à evidência de síntese (ρ=0,84) e a síntese se associou à cobertura de requisitos não funcionais (ρ=0,78), indicando que ensinar a argumentar e a integrar fontes pode ampliar o olhar para qualidades do sistema além do “funciona/não funciona”.
PRINCIPAIS RESULTADOS: Um achado central foi a chamada “curva em U” de acessibilidade: estudantes reconheceram necessidades de usuários (idosos e clientes indígenas, no estudo) ao escrever requisitos (84% de explicitação), praticamente abandonaram o tema ao trabalhar com diagramas de arquitetura/fluxos (10%) e voltaram a considerá-lo com força ao avaliar interfaces (90%). O padrão, replicado em diferentes campi, sugere que competências de inclusão podem ficar dependentes de lembretes e prompts, e não “transferir” automaticamente entre camadas do desenvolvimento, como do texto de requisitos para a modelagem formal.
PRINCIPAIS RESULTADOS: Na tarefa de tradução e correção de diagramas de fluxo de dados gerados por IA, os erros se concentraram em áreas previsíveis, e não aleatórias. Entre 104 correções na coorte-base, os problemas se distribuíram sobretudo entre erros estruturais (30%), de completude (27%) e semânticos (26%), com falhas recorrentes em raciocínio sobre fronteiras do sistema e tratamento de exceções (ambos aparecendo em 55% dos grupos), além de lacunas de gerenciamento de estado (45%). Em termos pedagógicos, isso reforça a ideia de que a IA pode ser útil como “material imperfeito” para revisão, mas exige que o currículo fortaleça pré-requisitos de modelagem para que a correção não vire apenas caça a inconsistências superficiais.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para cursos técnicos no ensino superior, o estudo aponta um deslocamento importante: não basta ensinar “IA literacy” genérica, porque o trabalho de analistas de sistemas envolve decidir quando confiar, quando adaptar e quando rejeitar a IA com base em critérios de domínio, contexto e trade-offs. O SAGE tenta preencher essa lacuna ao exigir justificativas e comparações estruturadas, o que pode reduzir tanto o uso acrítico quanto a proibição total, oferecendo um caminho avaliável para formar julgamento profissional, algo especialmente relevante em currículos pressionados por adoção rápida de ferramentas generativas.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Os resultados também têm implicações diretas para a formação docente e o desenho de tarefas. A queda de acessibilidade em arquitetura sugere que objetivos como inclusão e equidade não se sustentam apenas com um “lembrete” no início do projeto; eles precisam aparecer como critério em cada etapa, com prompts, rubricas e exemplos que traduzam o tema para a linguagem de cada artefato (requisitos, modelos, diagramas, wireframes). Sem essa costura, estudantes podem manter boas intenções no texto e perder o compromisso quando entram em notações e práticas mais “neutras” em aparência.
INSIGHT CENTRAL: A pesquisa propõe um modelo de “três zonas” de colaboração humano–IA observado na avaliação de design: uma zona de princípios universais, onde estudantes tendem a aceitar recomendações gerais; uma zona de refinamento colaborativo, onde a IA ajuda, mas precisa de ajustes; e uma zona de restrições contextuais, onde o humano deve liderar por conhecer condições de uso que a IA não enxerga (como limitações do ambiente físico e do canal de interação). Para currículos, a utilidade do modelo é orientar a sequência de atividades e a cobrança de justificativas, de modo que a “autoridade” seja ensinada como algo graduado, e não binário.
SIM, MAS…: A própria fonte sinaliza limites de generalização: o número de grupos analisados é pequeno e concentrado em uma disciplina e instituição, com exclusão de entregas fora do template, o que pode enviesar o retrato para estudantes mais organizados. Além disso, correlações muito altas em amostras reduzidas (como a associação quase perfeita entre conhecimento de domínio e acessibilidade) exigem cautela, porque podem refletir sobreposição de rubricas ou efeitos específicos do caso trabalhado, e não uma relação estável em outras turmas e contextos.
O QUE VEM DEPOIS: O estudo aponta como próximos passos testar adaptações que sustentem competências entre camadas, por exemplo, inserir andaimes de acessibilidade na modelagem e fortalecer instrumentos que ajudem estudantes a especificar fronteiras, exceções e ciclo de vida de dados antes de recorrer à IA. Outra agenda aberta é como romper o “teto” observado: se ninguém atingiu o nível de síntese expert em um semestre, será preciso investigar se isso requer mais tempo de prática, tarefas explicitamente orientadas à criação (não só avaliação) e critérios de avaliação que recompensem a identificação proativa do que nem humanos nem IA consideraram.