最近、生成型人工知能 (AI) に関する 2 つの論文が、AI によって生成されたテキストが「ナンセンス」であることが多いと指摘し、激しい議論を巻き起こしました。これら 2 つの論文は、AI が生み出す誤った情報によって引き起こされる社会への潜在的被害を、AI の本質的な特性と現行法規制の欠点の観点から詳細に分析し、リスクを回避するためのより効果的な対策が求められています。この論文の著者らは、AI のエラーを単純に「幻想」のせいにするのは誤解を招くものであり、この現象を説明するにはより正確な用語を使用する必要があると考えており、それによって AI テクノロジーに対する国民の意識と理解を向上させ、関連する法律や法律の施行を促進することができると考えています。規制が完了しました。
最近、2つの研究チームが、生成人工知能(AI)製品の内容は基本的に「ナンセンス」とみなせると率直に述べた論文を発表し、広く注目を集めた。 「ChatGPTはでたらめだ」と題されたこの論文は、生成AIが情報を生成する際の正確性を無視しているため、公務員、特に真実を伝える法的義務がある公務員にとって多くの課題を引き起こしていると指摘している。
著者のマイケル・タウンセン・ヒックス氏、ジェームス・ハンフリーズ氏、ジョー・スレーター氏は、生成AIによって生成される誤った情報を単純に「嘘」や「幻想」として説明することはできないと強調している。意図的に欺く嘘とは異なり、でたらめは、特定の印象を与えるために真実を無視した表現形式を指します。彼らは、AIのエラーを「幻覚」と呼ぶことは、これらのマシンが依然として何らかの形で彼らが「信じている」ことを伝えようとしていると国民に誤解させるだけだと主張している。
「これらのエラーを『幻想』ではなく『でたらめ』と呼ぶ方が正確であるだけでなく、このテクノロジーに対する一般の理解も促進されるだろう」と彼らは述べ、AIエラーを説明するためにより正確な用語を使用することの重要性を強調している。特に、科学技術コミュニケーションの改善が緊急に必要とされている現在の状況では。
一方、大規模言語モデル (LLM) に関する別の研究論文は、この問題に関する EU の法的および倫理的環境に焦点を当てています。この論文の結論は、AI に関する現在の法律や規制は、これらの AI によって生成される「ナンセンス」によって引き起こされる害を効果的に防止するにはまだ十分ではない、というものです。著者のサンドラ・ワハター氏、ブレント・ミッテルシュタット氏、クリス・ラッセル氏は、社会的危害を引き起こす可能性のある「カジュアルな言論」を避けることに重点を置き、出版分野と同様の規制を導入することを提案している。
彼らは、この義務は、公的か私的かを問わず、単一の組織が真実の唯一の裁定者となるべきではないことを強調していると指摘しています。彼らはまた、生成型 AI の「ランダムな発話」により、真実が実際の事実ではなく、頻度や多数意見の問題になってしまう可能性があるとも述べています。
全体として、これら 2 つの論文は共同して生成 AI の潜在的なリスクを明らかにし、社会のあらゆる部門に対し、関連する法律や規制を改善し、AI テクノロジーの開発を標準化し、AI テクノロジーがより良いサービスを提供できるようにするために注意を払い、行動を起こすよう呼びかけています。人間社会。