Um artigo publicado na Revista Colombiana de Ciências e Humanidades (REHCOL) analisa como a inteligência artificial pode ampliar acessibilidade e autonomia de estudantes com deficiência no ensino superior, mas também alerta para riscos de vieses, vigilância e padronização que podem gerar novas formas de exclusão. A pesquisa defende que o impacto inclusivo da IA depende menos da tecnologia em si e mais de governança institucional, políticas de acessibilidade, formação docente e participação ativa das pessoas com deficiência no desenho e na avaliação das ferramentas.
O QUE HÁ DE NOVO: O estudo “IA e inclusão: potencialidades e barreiras para pessoas com deficiência no ensino superior”, publicado em janeiro de 2026 na REHCOL, reúne evidências e diretrizes normativas nacionais e internacionais para discutir a adoção de IA em universidades com foco em inclusão. Em vez de tratar a IA como solução automática, os autores propõem uma leitura crítica: as mesmas ferramentas que prometem remover barreiras podem, sem critérios claros, reforçar desigualdades por meio de decisões algorítmicas, infraestrutura desigual e ausência de políticas institucionais.
COMO FUNCIONA: Metodologicamente, trata-se de uma pesquisa qualitativa, exploratória e analítica baseada em revisão bibliográfica e análise de documentos regulatórios. O trabalho articula três eixos, inclusão e deficiência; IA e tecnologia educacional; e políticas públicas/práticas institucionais, para mapear onde a IA aparece na rotina universitária (ambientes virtuais, avaliação, apoio à aprendizagem e serviços acadêmicos) e quais condições são necessárias para que tecnologias assistivas e sistemas adaptativos realmente reduzam barreiras de acesso, permanência e êxito acadêmico.
PRINCIPAIS RESULTADOS: A revisão indica que a IA pode ampliar acessibilidade por meio de recursos como reconhecimento de voz, leitores de tela “inteligentes”, legendagem e tradução em tempo real, além de tutores virtuais e ambientes de aprendizagem adaptativos, com potencial de fortalecer autonomia e participação, especialmente para estudantes com deficiência sensorial e neurodivergências. Ao mesmo tempo, a literatura analisada aponta que benefícios não se distribuem de maneira uniforme: barreiras de infraestrutura, falta de capacitação e sistemas pouco compatíveis com padrões de acessibilidade podem fazer com que a inovação gere “exclusão invisível”, quando ferramentas e métricas são desenhadas para um aluno “padrão”.
POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: Para a sala de aula, a discussão desloca o foco do “recurso tecnológico” para a experiência acadêmica: se plataformas e rotinas de ensino forem guiadas por métricas automatizadas rígidas, estudantes com deficiência podem ser penalizados por padrões de participação e desempenho que não consideram adaptações razoáveis ou diferentes ritmos de aprendizagem. Para o trabalho docente, o estudo reforça que a mediação humana continua central: sem formação continuada, recursos avançados viram soluções subutilizadas ou inadequadas, e a promessa de personalização pode se transformar em padronização sob aparência de eficiência.
Do ponto de vista institucional, o artigo destaca a governança como ponto crítico. A adoção de IA “em pedaços”, por iniciativas isoladas, sem coordenação com políticas de inclusão e acessibilidade, tende a reduzir impacto e aumentar riscos, inclusive na gestão de dados educacionais. Também entram no radar os custos de sustentabilidade: sem planejamento de longo prazo, financiamento contínuo e avaliação permanente de impacto, projetos podem se limitar a ações pontuais, sem mudar a permanência e o sucesso acadêmico desse público.
SIM, MAS…: O estudo chama atenção para três riscos recorrentes. O primeiro é o viés algorítmico: sistemas treinados com dados pouco representativos podem falhar ao reconhecer padrões de fala, interação ou comportamento de pessoas com deficiência, reforçando desigualdades. O segundo é a vigilância e a privacidade, especialmente em ferramentas que coletam dados comportamentais para “monitorar aprendizagem”; em grupos historicamente vulnerabilizados, isso pode intensificar estigmas e restringir autonomia. O terceiro é o “solucionismo tecnológico”: a ideia de que implementar IA bastaria para resolver um problema que é também pedagógico, institucional e político.
CONTEXTO E BASTIDORES: Ao ancorar o debate em referências de educação inclusiva, ética da IA e crítica à tecnologia, o texto conecta a discussão universitária a diretrizes internacionais de acessibilidade digital, como as WCAG, e a marcos de direitos, como a Convenção sobre os Direitos das Pessoas com Deficiência. Um ponto de fundo é a lacuna de evidências empíricas, especialmente na América Latina: a literatura ainda enfatiza potencialidades, mas há menos estudos sobre impactos concretos na trajetória universitária de estudantes com deficiência.
O QUE VEM DEPOIS: Como agenda de próximos passos, os autores recomendam pesquisas empíricas sobre o uso real de ferramentas de IA por estudantes com deficiência, além de estudos de caso em instituições públicas e privadas e análises comparativas de políticas de acessibilidade digital e governança algorítmica. Na prática, a mensagem para gestores é direta: se a universidade quiser que a IA ajude a incluir, precisará tratá-la como política institucional, com critérios de acessibilidade desde o desenho, participação dos usuários, formação de equipes e monitoramento contínuo, e não como compra de tecnologia.
Fonte: IA e inclusão: potencialidades e barreiras para pessoas com deficiência no ensino superior