ChatGPT などの生成 AI の出現は、教育分野に前例のない課題をもたらしました。学生が課題や試験を完了するために AI を使用することがますます一般的になってきており、これにより卒業証書の価値が低下するだけでなく、実践的な能力に欠ける人材が主要な職業分野に就くことになり、社会保障が危険にさらされる可能性があります。この記事では、教育におけるAIによって引き起こされた学術不正問題を詳細に分析し、その深刻さと対応戦略の欠点について議論します。
ChatGPT の公開以来、教育への影響は深刻かつ憂慮すべきものとなっています。課題や試験を完了するために生成 AI を使用する学生が増えており、提出された作品は本物の学術作品とみなされます。この現象は、高校や大学の学位の価値を下げるだけでなく、多くの学生が実際に学習せずに看護師、エンジニア、消防士などの重要な職業分野に進学する可能性があり、社会に深刻な影響を与える可能性があります。
画像出典注:画像はAIにより生成され、画像認証サービスプロバイダMidjourney
しかし、ほとんどの学校や教育機関は、AI による学術不正との闘いに十分な注意を払っていません。さらに衝撃的なのは、一部の学校が率先して AI の使用制限を緩和し、生徒が AI ツールを使用することは許可するものの、AI の宿題を検出できるテクノロジーの使用を禁止していることです。この誤った判断は教師の監督能力を大きく低下させることになる。
英国のレディング大学による最近の研究では、教師は AI によって生成された学業をほとんど認識できないことが示されています。研究チームは、AI が生成した課題を偽の学生 ID で提出したところ、提出された課題の 94% が検出されなかったことを発見しました。より厳格な検出基準が適用された場合でも、AI 送信の 97% は AI 生成の可能性としてフラグ付けされません。これは、理想的な状況であっても、教師による AI 作品の認識率が非常に低いことを示しています。
このような警告が表示されるのはこれが初めてではない。南フロリダ大学のこれまでの研究では、言語専門家がAIが生成したテキストと人間が書いたテキストを区別できないことが示されている。ベトナムでの別の研究では、AI検出システムはAIテキストを効果的に識別できたが、人間の教師の認識能力にははるかに及ばなかったことが示された。
さらに、最新の研究では、AI が生成した課題は実際の学生からの課題よりも高いスコアを獲得する傾向があることが判明しました。研究によると、83.4% の確率で、AI によって提出された課題は、同様の人間の生徒から無作為に選択された課題よりも高いスコアを獲得しました。これは、基本的な AI ツールを使用する学生は、課題を注意深く完了する学生よりも、課題のスコアが高くなる可能性が高いことを意味します。
実際の教室では、検出システムが AI の課題にフラグを立てる可能性はありますが、教授は学業の誠実さを報告することに慎重であることが多く、多くの学校では違反者に対する適切な懲罰措置が不足しています。要約すると、学校が AI 検出テクノロジーを使用していない場合、AI を使用して不正行為を行った生徒は、発見されることを心配することなく、ほぼ簡単に高い得点を得ることができます。
現在のオンラインコース環境では、教師が生徒の身元を正確に知ることができず、カンニングの可能性が高まっているため、この問題はさらに悪化しています。学校はテストの監視や改訂を追跡する執筆環境の使用を通じてこの問題に対処できますが、多くの学校はこれらの対策を実行するためにエネルギーと資金を費やすことに消極的です。このため、学術不正現象はますます深刻化しており、この問題に対する有効な対応はいまだ不十分である。
AI によってもたらされる学力の危機に直面し、学校や教育機関は、AI 検出技術の適用の強化、指導方法の改善、生徒の批判的思考スキルの育成、より厳格な学力の誠実基準と懲罰的措置の策定などの対策を積極的に講じる必要があります。 。この方法によってのみ、課題に効果的に対処し、教育における公平性と正義を維持することができます。