Downcodes の編集者は、デザイン大手の Canva が最近、自社の AI 機能の安全かつ信頼性の高い使用を確保するために、自社の AI ツール Magic Media によって生成されるコンテンツの範囲を明確に規定したことを知りました。 Canva CEO のメラニー・パーキンス氏はインタビューで、AI によって生成された有害または不適切なコンテンツを回避するためのこの戦略について説明しました。この動きは、責任ある AI アプリケーションに対する Canva の取り組みを反映しており、他の AI ツール開発者にとっても有益な参考資料となります。
海外メディアの報道によると、デザイン大手のCanvaは、自社のAIツールが生成できるコンテンツと生成できないコンテンツの範囲を明確に定義したという。
Canvaの最高経営責任者(CEO)メラニー・パーキンス氏はインタビューで、CanvaのAI機能「Magic Media」は、有害または不適切なコンテンツの可能性があるため、医療用語や政治用語と併用すべきではないと述べた。
Canva のソフトウェアは、パーティーの招待状からソーシャル メディア コンテンツやプレゼンテーション テンプレートまで、あらゆるものを作成するために使用できます。たとえば、ツールが政治的候補者の画像を作成するよう求められた場合、ツールは単にユーザーに「それはできません」と伝えるだけです。
もちろん、ユーザーはプラットフォーム上で政治や健康に関するコンテンツを使用した独自のデザインを作成することもできます。 AI 製品規約によれば、Canva は契約書、法的または財務上のアドバイス、スパム、またはアダルト コンテンツを生成するために AI を使用することも許可していません。
ハイライト:
- Canva の AI 機能 Magic Media は、コンテンツが有害または不適切である可能性があるため、医学用語や政治用語には対応していません。
- Canva では、AI を使用して契約書、法的または財務上のアドバイス、スパム、またはアダルト コンテンツを生成することは許可されていません。
- Canva はクリエイターのコンテンツに対して許可なく AI トレーニングを実施することはありません。また、ユーザーはいつでも自分のデザインが AI トレーニングに使用されることをオプトアウトできます。
Canvaのこの動きは、AIアプリケーションセキュリティの分野で模範を示し、ユーザーに対するCanvaの責任ある姿勢を示しています。 今後も、CanvaのAIツールMagic Mediaは、より安全で便利なデザイン体験をユーザーに提供するために改良を続けていきます。 Downcodes の編集者は、今後も Canva の AI 開発トレンドに注目し、よりエキサイティングなレポートをお届けしていきます。