Uma revisão de escopo publicada na ScienceDirect mapeia como ferramentas de IA, com destaque para modelos de linguagem como o ChatGPT, vêm sendo incorporadas à educação baseada em simulação em enfermagem e saúde, e avalia em que medida esses usos se conectam aos padrões de boas práticas da INACSL. O levantamento aponta ganhos potenciais em realismo, feedback e eficiência operacional, mas também evidencia lacunas de evidência, sobretudo em resultados de longo prazo e em temas como integridade profissional e privacidade.
O QUE HÁ DE NOVO: O estudo “Artificial intelligence meets best practice: A scoping review of AI integration in simulation-based education” analisou pesquisas recentes (2020–2025) sobre IA aplicada a simulações educacionais na formação em saúde e enfermagem, perguntando explicitamente como essas aplicações apoiam, reforçam ou se alinham aos INACSL Healthcare Simulation Standards of Best Practice (HSSOBP). Após buscar literatura em PubMed, CINAHL, ProQuest e Scopus, os autores identificaram 481 registros; depois de triagens e exclusões por falta de aderência aos padrões da INACSL, chegaram a 18 estudos incluídos, publicados entre 2021 e 2025 e conduzidos majoritariamente na América do Norte, Europa e Ásia.
COMO FUNCIONA: Seguindo o método de revisão de escopo de Arksey e O’Malley, com aprimoramentos de Levac e relato alinhado ao PRISMA-ScR, os pesquisadores usaram a plataforma Covidence para importar referências, remover duplicatas, fazer triagem de títulos/resumos, revisar texto completo e extrair dados com uma tabela padronizada. A etapa central foi “mapear” cada estudo a domínios do HSSOBP (como Prebriefing, Simulation Design, Facilitation, Debriefing, Operations e Evaluation of Learning and Performance) e, em paralelo, classificar os tipos de IA (LLMs, NLP, avatares, tutores inteligentes, geração de voz/imagem e sistemas de feedback automatizado), identificando padrões e temas recorrentes de adoção, barreiras e lacunas.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Ao colocar a IA sob a lente de um referencial amplamente adotado na simulação clínica, a revisão ajuda líderes de centros de simulação e gestores acadêmicos a separar “novidade tecnológica” de aderência pedagógica: a questão não é apenas usar IA, mas usá-la sem comprometer fidelidade, segurança psicológica, objetivos educacionais e qualidade do debriefing. O mapeamento também explicita onde a IA pode reduzir trabalho invisível, documentação de cenários, rastreio de desempenho, apoio à facilitação, liberando tempo docente para mentoria e reflexão, mas alerta que ampliar automação em avaliação (formativa ou somativa) exige governança, transparência e critérios claros de validade educacional.
PRINCIPAIS RESULTADOS: Entre os 18 estudos, os domínios mais frequentemente associados à IA foram Simulation Design (12 estudos), Evaluation of Learning and Performance (9) e Facilitation (8), sugerindo que a adoção está concentrada no “coração” do desenho e da condução das simulações. Em contrapartida, Outcomes and Objectives apareceu apenas uma vez; Professional Integrity não apareceu; e Simulation-Enhanced Interprofessional Education (Sim-IPE) foi pouco abordada, indicando que dimensões de integridade, colaboração interprofissional e alinhamento fino entre objetivos e evidências ainda não estão no centro das implementações reportadas.
INSIGHT CENTRAL: O diferencial do trabalho é tratar a integração de IA como um problema de alinhamento a padrões, e não como uma lista de ferramentas, oferecendo um “mapa” de onde a tecnologia está, de fato, adicionando valor em relação às boas práticas. Esse enquadramento sugere que a adoção mais sustentável tende a acontecer quando a IA é posicionada como infraestrutura de apoio (por exemplo, para personalizar feedback, enriquecer o prebriefing e tornar o debriefing mais analisável) e como alívio de carga operacional, em vez de substituir decisões pedagógicas centrais que dependem de julgamento humano.
SIM, MAS…: A revisão destaca fragilidades importantes na base de evidências: muitos estudos têm amostras pequenas, são de um único centro, nem sempre usam grupo controle e frequentemente descrevem pouco o modelo de IA, versões e condições de uso, o que dificulta reprodutibilidade e comparação. Além disso, a maior parte das avaliações se concentra em reações e aprendizagem de curto prazo (níveis 1 e 2 de Kirkpatrick), com raras investigações sobre mudança de comportamento em campo (nível 3) e impacto em desfechos no trabalho/organização (nível 4), limitando inferências sobre transferência para a prática clínica.
CONTEXTO E BASTIDORES: O panorama encontrado reforça uma tendência recente: o uso de LLMs como “pacientes padronizados” virtuais e geradores de materiais (roteiros, cenários, narrativas, imagens) vem acelerando a produção e a personalização de simulações, ao mesmo tempo em que reabre debates sobre validade, viés e privacidade quando essas ferramentas entram em avaliações. A revisão também aponta que a adoção depende menos do acesso à tecnologia em si e mais da capacidade institucional de preparar docentes (alfabetização em IA, engenharia de prompts, critérios éticos) e de criar políticas que sustentem o uso em ambientes educacionais com dados sensíveis.
O QUE VEM DEPOIS: Os autores defendem que a agenda de pesquisa precisa evoluir de estudos exploratórios para avaliações mais rigorosas e longitudinalmente informadas, capazes de medir efeitos sustentados em competência clínica e transferência para o cuidado real. Entre os temas subexplorados, destacam-se o uso de IA em Operations (agendamento, logística, padronização e rastreio de processos), Professional Development (formação docente estruturada para uso responsável) e Sim-IPE (como a IA pode apoiar simulações interprofissionais sem reduzir a complexidade da comunicação e da tomada de decisão em equipe).
NOSSA LEITURA: Para gestores e coordenadores de simulação, o recado prático é que “adoção responsável” começa por escolher casos de uso que já se conectam a padrões e processos existentes, e por definir, antes do piloto, quais evidências contam como sucesso (aprendizagem, consistência de feedback, economia de tempo, segurança e equidade). O mapeamento por padrões também sugere um alerta: se integridade profissional e governança de dados não aparecem na literatura com a mesma força que design e feedback, cabe às instituições preencher esse vazio com políticas, auditorias e formação, especialmente quando a IA se aproxima de decisões avaliativas.