Uma revisão de escopo publicada em 2025 mapeou 26 estudos sobre o uso de inteligência artificial na educação em saúde pública desde 2015, identificando avanços em simulações, plataformas adaptativas e formação em letramento digital, mas também lacunas de evidência e desafios persistentes de equidade, infraestrutura e ética. O panorama sugere que preparar a força de trabalho para ambientes de dados e decisões automatizadas exigirá reformas curriculares, capacitação docente e governança mais robusta para evitar que a adoção de IA amplie desigualdades.
O QUE HÁ DE NOVO: O levantamento analisou a literatura internacional sobre IA aplicada à educação e ao treinamento em saúde pública, com foco em desenvolvimento de competências profissionais, a partir de buscas em bases como PubMed, Scopus e IEEE Xplore, cobrindo publicações entre janeiro de 2015 e maio de 2025. Ao todo, 26 estudos atenderam aos critérios de inclusão, atravessando contextos de graduação, pós-graduação, educação profissional e iniciativas de engajamento público, e apontando tendências como o crescimento de conteúdos de IA no currículo e o uso de ferramentas como chatbots, sistemas de recomendação, processamento de linguagem natural e simulações para aproximar o ensino de cenários reais do setor.
COMO FUNCIONA: Por ser uma revisão de escopo, o trabalho não testou uma intervenção única, mas organizou “como a IA tem sido usada” em diferentes formatos educacionais. Entre as abordagens mais recorrentes estão simuladores e ambientes virtuais para treinar resposta a surtos, modelagem epidemiológica e tomada de decisão; plataformas adaptativas e sistemas tutores que ajustam ritmo e conteúdo conforme desempenho; e aplicações de linguagem natural para apoiar produção e análise de materiais de comunicação em saúde. A revisão também descreve iniciativas centradas em competências, por exemplo, mapear domínios de IA (conhecimento básico, implicações sociais e éticas, avaliação baseada em evidências e integração ao fluxo de trabalho), e ações de capacitação voltadas a profissionais em serviço, muitas vezes com ênfase em alfabetização de dados, fundamentos de ciência de dados e no uso crítico de saídas geradas por modelos.
INSIGHT CENTRAL: O ponto que atravessa os estudos não é apenas “adotar ferramentas”, mas deslocar a ideia de competência em saúde pública para incluir a capacidade de operar em ecossistemas digitais: interpretar previsões e recomendações algorítmicas, questionar limitações e vieses, e tomar decisões com responsabilidade quando há automação envolvida. Isso puxa a formação para um modelo mais interdisciplinar, combinando saúde pública, ciência de dados, informatics, ciências comportamentais e ética, com a IA servindo tanto como objeto de estudo (letramento e avaliação crítica) quanto como meio (simulações, feedback, analytics).
PRINCIPAIS RESULTADOS: No conjunto, a revisão encontrou relatos de ganhos em engajamento e eficiência de ensino quando recursos interativos e automatizados são integrados a disciplinas e treinamentos, além de aumento de prontidão digital em contextos que ofereceram formação estruturada. Ao mesmo tempo, o mapeamento evidencia que a base empírica ainda é frágil: predominam estudos qualitativos, exploratórios, pesquisas de percepção e documentos conceituais; não foram identificados estudos experimentais nem avaliações longitudinais que permitam atribuir causalidade ou estimar efeitos sustentados no desempenho acadêmico e profissional. Entre os achados recorrentes, aparecem também disparidades de prontidão institucional e de competência digital, especialmente em contextos com restrições de infraestrutura e orçamento.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para cursos e escolas de saúde pública, o recado é que IA tende a mexer com dois pilares ao mesmo tempo: o “como ensinar” (mais simulação, adaptação e feedback em escala) e o “o que ensinar” (letramento em IA, governança de dados, segurança e avaliação crítica). Na sala de aula, simulações e plataformas adaptativas podem ampliar treino prático sem depender do acesso físico a cenários complexos; por outro lado, exigem desenho pedagógico cuidadoso para evitar aprendizagem superficial e dependência acrítica de sistemas. Para docentes, a promessa de automatizar tarefas e personalizar acompanhamento vem acompanhada da necessidade de desenvolvimento profissional contínuo, já que muitos estudos apontam lacunas de conhecimento e resistência por insegurança ou receio de substituição. No nível sistêmico, a revisão conecta a adoção a desafios de equidade: acesso desigual a conectividade e ferramentas, barreiras linguísticas e custos podem aprofundar diferenças entre instituições e perfis de estudantes, justamente em um campo orientado por justiça social.
SIM, MAS…: A revisão destaca riscos que ganham peso específico em saúde pública: vieses algorítmicos que podem reproduzir desigualdades, opacidade (“caixa-preta”) que dificulta accountability e ensino baseado em evidências, além de preocupações com privacidade, consentimento e segurança de dados em ambientes de aprendizagem e analytics. Também aparecem limitações práticas, infraestrutura insuficiente, falta de orçamento e de suporte técnico, e um descompasso entre a velocidade da evolução tecnológica e a capacidade institucional de manter currículos atualizados. Sem políticas claras de uso e salvaguardas, ferramentas que monitoram desempenho e comportamento podem escorregar para práticas de vigilância e restrição de autonomia.
O QUE VEM DEPOIS: A agenda proposta passa por políticas e governança (diretrizes para transparência, proteção de dados, fairness e supervisão ética), reforma curricular com integração progressiva de IA e ciência de dados desde a graduação, e modelos de formação continuada para reduzir o fosso de competências entre estudantes e profissionais em diferentes estágios de carreira. Do ponto de vista de pesquisa, a maior lacuna indicada é a necessidade de estudos longitudinais e comparativos, inclusive em ambientes de baixo recurso, para medir impacto real em aprendizagem, desempenho no trabalho, tomada de decisão e efeitos distributivos. Também ganha prioridade investigar como estudantes internalizam raciocínio ético em contextos de decisão assistida por IA e quais formatos de ensino evitam sobreconfiança em sistemas automatizados, preservando o julgamento profissional.