オープンソースのアニメをテーマにしたテキストから画像への変換モデルである Animagine XL 3.1 のリリースは、画像生成の分野における大きな進歩を示しています。このバージョンでは、画像の露出オーバーの問題を解決し、美的タグ、更新品質、年タグを追加することで画像生成の精度とユーザー エクスペリエンスを向上させるなど、以前のバージョンの欠点に対処するために多くの最適化が行われています。さらに、モデルのトレーニング プロセスとデータ セットのサイズが大幅に改善され、生成される画像の高品質と多様性が確保されています。
新しくリリースされた Animagine XL 3.1 は、オープンソースのアニメーションをテーマにしたテキストから画像へのモデルであり、幅広いアニメーション作品やスタイルの理解を向上させるためにアップグレードおよび最適化されています。新しいバージョンでは、露出オーバーの問題が解決され、美的ラベルが追加され、品質ラベルと年ラベルが更新されて、ユーザーのニーズにより一致した画像が生成されます。ラベル ソート方法は、生成された結果の精度を向上させるために使用され、トレーニング プロセス中に 2x A100 80GB GPU が約 350 時間のトレーニングに使用されました。事前トレーニングでは、順序付けされラベル付けされた 870,000 個の画像を含むデータ セットを使用し、モデルに深い知識ベースを提供します。このモデルは、アニメ スタイルの画像生成、手の解剖学的構造の最適化、画像の詳細品質、出力結果の迅速な解析と概念的な理解に重点を置いています。Animagine XL 3.1 の改良により、アニメーション スタイルの画像生成がより高いレベルに達し、オープン ソース機能により、開発者や愛好家によるさらなる研究や応用も促進されます。 このモデルは将来的にアニメーション作成の分野でより大きな役割を果たすと考えられており、ユーザーにより良い画像生成エクスペリエンスを提供するために改良が続けられます。