最近、Downcodes の編集者は、OpenAI の新しいテキストからビデオへの AI モデル Sora のテストに参加したアーティストのグループが、OpenAI の協力方法に不満を抱いていたため、公的に抗議を表明し、モデルへの早期アクセス権を漏洩したことを知りました。彼らは、OpenAIがアーティストを無償の研究開発と広報活動に利用し、アーティストを「無料のバグテスター、宣伝ツール、トレーニングデータ、検証トークン」としてのみ扱っていると考えており、これがAI開発におけるアーティストの権利について業界に広範な懸念を引き起こしている。モデル。
アーティストたちはHugging Faceプラットフォーム上で不満の詳細を記した公開書簡を公開し、OpenAIは対応する物質的な報酬なしで「芸術的信頼性」のみを提供していることや、Soraのコンテンツレビュー要件に対する厳格な制限を指摘した。 OpenAIは、テストへの参加は任意であると回答し、参加アーティストのサポートを継続することを約束した。しかし、この事件は、アーティストの権利をより良く保護する方法についての議論だけでなく、AI モデルの開発における倫理やビジネス モデルについて人々が考えるきっかけにもなりました。
アーティストたちは、芸術作品への AI テクノロジーの適用には反対していないが、OpenAI がアーティストの労働力を搾取するために早期アクセス プログラムを利用していることを強く非難している。彼らは、OpenAI はアーティストを会社の目標を達成するための単なるツールとして扱うのではなく、アーティストに公正な報酬と敬意を与えるべきだと信じています。
アーティストらは公開書簡の中で、「エンタープライズ AI の主の皆様、Sora へのアクセスが与えられたとき、私たちは初期テスターおよびクリエイティブ パートナーになることが約束されました。しかし、私たちは単に『芸術』に誘惑されただけだと信じています」と述べています。ソラのホワイトウォッシングとプロモーションの行為だ」とし、アーティストは同社の「無料のバグテスター、プロモーションツール、トレーニングデータ、検証トークン」ではないと強調した。
これらのアーティストは、芸術創作のツールとして AI テクノロジーを使用することに反対しているわけではありませんが、OpenAI の早期アクセス プログラムには不満を抱いており、このプログラムはアーティストの創造性を無償労働として悪用していると考えられています。
彼らは、OpenAIが仕事に見返りを与えずにプロジェクトの「芸術的功績」を提供したとして批判した。特に彼らは、Sora のコンテンツに対する OpenAI のモデレーション要件に反対し、生成された各コンテンツは共有する前に OpenAI チームの承認が必要であると述べました。
メディアからの問い合わせに対し、OpenAIはSoraリークの信憑性を確認しなかったが、「リサーチプレビュー」に参加するアーティストは自主的なものであり、フィードバックを提供したりツールを使用したりする必要はないと強調した。 OpenAIの広報担当者は、「Soraはまだ研究段階にあり、クリエイティビティと安全対策のバランスをとるために懸命に取り組んでいる。数百人のアーティストの参加により、新機能と安全対策の優先順位付けに役立つ。さらに、OpenAIはサポートを続けることを約束する」と述べた。助成金、イベントを通じて会社に貢献し、その他の方法で参加アーティストをサポートします。
これに先立ち、OpenAIの元最高技術責任者ミラ・ムラティ氏は、Soraは年末までにリリースされる予定だが、モデルの影響に確信が持てないものはリリースしないつもりだと述べた。
最近の Reddit の Q&A で、最高製品責任者の Kevin Weil 氏は、Sora がまだリリースされていない理由は、機能を拡張し、セキュリティを確保し、詐欺師の問題を防ぐ必要があるからであると述べました。
この事件は、人工知能の開発における倫理と道徳の重要性を改めて浮き彫りにするとともに、技術進歩の背後にある人間性への配慮に注意を払うよう私たちに思い出させます。技術革新とアーティストの権利をどう両立させるかは、今後のAIの発展において真剣に検討すべき課題となるだろう。 『Downcodes』編集者は今後も事件の展開に注目していきたい。