Um artigo na revista Educação & Sociedade defende que a resposta mais efetiva ao avanço da IA generativa nas escolas e universidades não é a proibição, mas a construção de uma cultura de uso responsável, ancorada em ética, governança e formação docente. A autora situa a tecnologia na trajetória de digitalização e dataficação e descreve a elaboração de um manual e um guia prático voltados a instituições, professores e estudantes.

O QUE HÁ DE NOVO: Publicado no contexto do debate pós-ChatGPT, o texto argumenta que a IA generativa inaugurou problemas educacionais novos, especialmente para avaliação e autoria, e apresenta, como resposta, a síntese de um número temático da revista Teccogs dedicado a um manual informativo e avaliativo seguido de um guia de orientação para educadores. A iniciativa, conduzida por um grupo coordenado pela autora, parte do diagnóstico de que instituições brasileiras (em especial universidades) estariam reagindo lentamente ao uso já disseminado da IA por estudantes, sobretudo no ensino médio e superior.

COMO FUNCIONA: A reportagem descreve dois movimentos complementares propostos pela autora: primeiro, diferenciar IA preditiva/classificatória (voltada a análise de dados, previsões e recomendações, em geral “invisível” ao usuário final) de IA generativa (ferramentas conversacionais e multimodais que produzem texto, imagem e outros conteúdos e chegam diretamente ao público). Segundo, organizar uma resposta educacional baseada em um manual com discussões sobre direitos humanos, dilemas éticos e limites das IAGs (incluindo a crítica à antropomorfização, como atribuir “emoções” ou “intenção” ao sistema) e em um guia de formação que propõe regras práticas distribuídas por atores: instituição (políticas, prevenção de riscos, privacidade, fiscalização), professores (explicabilidade, consentimento, inclusão, estímulo à originalidade e ao pensamento crítico), alunos e pesquisadores (transparência no uso, verificação de fontes, prevenção de plágio e aprendizagem contínua) e comitês/grupos (diversidade, clareza operacional, capacitação e diálogo interinstitucional).

POR QUE ISSO IMPORTA PARA A EDUCAÇÃO: O ponto central é que a IA generativa desloca o problema do “acesso a informação” para o “acesso a produção”, com impacto direto em práticas de ensino e, sobretudo, em avaliações baseadas em textos e trabalhos feitos fora da sala. Ao sugerir que proibir tende a empurrar o uso para a clandestinidade, e que a detecção é incerta,, o artigo reforça uma agenda de redesenho pedagógico: instituições precisariam atualizar políticas, currículos e métodos de avaliação, enquanto docentes teriam de explicitar expectativas de autoria, incentivar verificação e desenvolver “suspeita informada” diante de respostas convincentes, porém erradas. No plano da equidade, a autora também conecta a discussão às assimetrias de infraestrutura e condições de aprendizagem evidenciadas na pandemia, sugerindo que respostas éticas e institucionais não podem ignorar desigualdades de acesso e de letramento digital.

INSIGHT CENTRAL: A contribuição mais distintiva do texto é tratar ética não como um adendo moral (“regrinhas”), mas como eixo operacional de governança em um cenário em que a IA generativa se populariza por ser fácil, “prestativa” e integrada a fluxos cotidianos. Em vez de mirar apenas a tecnologia, o argumento desloca a responsabilidade para práticas e decisões situadas: o risco não é a máquina “mentir” com intenção, mas pessoas e instituições não criarem condições, de transparência, diálogo e responsabilidade, para que o uso não se converta em enganação e em perda de aprendizagem.

SIM, MAS…: O texto reconhece limitações importantes de abordagens centradas em fiscalização. Detectores de autoria por IA podem produzir falsos positivos, e a autora alerta para o dano acadêmico e psicológico de acusar indevidamente um estudante, além de notar que esforços moderados de reescrita podem escapar da detecção. Também chama atenção para vieses nos dados de treinamento e para a tendência de usuários antropomorfizarem sistemas, o que pode gerar decisões pedagógicas equivocadas em ambientes vulneráveis como a sala de aula. A implicação prática é que controles técnicos, sozinhos, não substituem políticas claras, formação e critérios de avaliação coerentes.

O QUE VEM DEPOIS: A agenda sugerida é de transição guiada: experimentar, avaliar e ajustar regras com participação de professores e alunos, incluindo comitês interdepartamentais e parcerias entre instituições para compartilhar práticas. No campo pedagógico, o artigo aponta a necessidade de rever competências curriculares e modelos de avaliação que hoje são facilmente “terceirizáveis” para ferramentas generativas, preservando como norte a produção de conhecimento rigoroso e o desenvolvimento do pensamento crítico. Em termos sistêmicos, a autora posiciona a IA generativa como uma mutação inevitável nas ecologias tecnológicas já presentes na educação, e defende que a resposta institucional deve ser contínua, não episódica.

Fonte: A ética como guia para o uso da inteligência artificial generativa (SciELO – Educação & Sociedade)