O surgimento de IA generativa como o ChatGPT trouxe desafios sem precedentes para o campo da educação. É cada vez mais comum que os estudantes utilizem a IA para realizar trabalhos e exames. Isto não só reduz o valor dos diplomas, mas também pode levar a que talentos sem competências práticas entrem em áreas profissionais essenciais, colocando em risco a segurança social. Este artigo fornecerá uma análise aprofundada do problema da fraude académica causada pela IA na educação e discutirá a sua gravidade e deficiências nas estratégias de resposta.
Desde o lançamento público do ChatGPT, o impacto na educação tem sido profundo e preocupante. Cada vez mais, os alunos usam IA generativa para concluir tarefas e exames, e o trabalho enviado é considerado um trabalho acadêmico autêntico. Este fenómeno não só desvaloriza os diplomas do ensino secundário e superior, mas também pode levar muitos estudantes a ingressar em áreas profissionais importantes, como enfermeiros, engenheiros e bombeiros, sem aprendizagem real, o que terá graves consequências para a sociedade.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
No entanto, a maioria das escolas e instituições de ensino não prestam atenção suficiente ao combate à fraude académica da IA. O que é ainda mais chocante é que algumas escolas tomaram mesmo a iniciativa de flexibilizar as restrições à utilização de IA, permitindo que os alunos utilizem ferramentas de IA, mas proibindo a utilização de tecnologia que possa detectar trabalhos de casa de IA. Esta decisão errada enfraquecerá enormemente a capacidade de supervisão do professor.
Uma pesquisa recente da Universidade de Reading, no Reino Unido, mostra que os professores são quase incapazes de reconhecer o trabalho académico gerado pela IA. A equipe de pesquisa enviou trabalhos gerados por IA sob identidades de estudantes falsas e descobriu que 94% dos trabalhos enviados não foram detectados. Se fossem aplicadas normas de deteção mais rigorosas, 97% dos envios de IA ainda não seriam sinalizados como possível geração de IA. Isto mostra que, mesmo em circunstâncias ideais, a taxa de reconhecimento dos trabalhos de IA pelos professores é muito baixa.
Esta não é a primeira vez que tal aviso aparece. Pesquisas anteriores da Universidade do Sul da Flórida mostraram que os especialistas em linguística não conseguiam distinguir entre texto gerado por IA e texto escrito por humanos. Outro estudo do Vietnã mostrou que o sistema de detecção de IA foi capaz de identificar efetivamente o texto da IA, enquanto a capacidade de reconhecimento dos professores humanos estava muito atrás.
Além disso, a pesquisa mais recente descobriu que as tarefas geradas por IA tendem a ter pontuações mais altas do que as tarefas de alunos reais. A pesquisa mostra que 83,4% das vezes, as tarefas enviadas pela IA tiveram pontuação mais alta do que as tarefas selecionadas aleatoriamente de estudantes humanos semelhantes. Isso significa que os alunos que usam ferramentas básicas de IA têm maior probabilidade de obter notas mais altas no trabalho do que aqueles que concluem suas tarefas com cuidado.
Em salas de aula reais, embora os sistemas de detecção possam sinalizar tarefas de IA, os professores são muitas vezes cautelosos em denunciar a integridade académica e muitas escolas não possuem medidas punitivas adequadas para os infratores. Resumindo, se as escolas não usarem tecnologia de detecção de IA, os alunos que usam IA para trapacear poderão quase facilmente obter pontuações mais altas sem se preocupar em serem descobertos.
O ambiente atual dos cursos on-line agrava esse problema, com os professores incapazes de conhecer verdadeiramente a identidade dos seus alunos, aumentando a probabilidade de trapaça. Embora as escolas possam resolver esta questão através da monitorização de testes ou da utilização de ambientes de escrita que monitorizam as revisões, muitas escolas não estão dispostas a gastar energia e dinheiro para implementar estas medidas. Portanto, o fenómeno da fraude académica está a tornar-se cada vez mais grave e as respostas eficazes a este problema são ainda insuficientes.
Enfrentando a crise de integridade académica provocada pela IA, as escolas e instituições educativas precisam de tomar medidas activas, tais como reforçar a aplicação da tecnologia de detecção de IA, melhorar os métodos de ensino, cultivar as capacidades de pensamento crítico dos alunos e formular normas de integridade académica mais rigorosas e medidas punitivas. . Só desta forma os desafios podem ser enfrentados de forma eficaz e a imparcialidade e a justiça na educação podem ser mantidas.