DALL-E von Open-AI in Mesh-Tensorflow.
Wenn dies ähnlich effizient wie GPT-Neo ist, sollte dieses Repo in der Lage sein, Modelle bis zu und größer als die Größe von Open-AIs DALL-E (12B Parameter) zu trainieren.
Keine vorab trainierten Modelle ... Noch nicht.
Vielen Dank an Ben Wang für die TF-VAE-Implementierung und dafür, dass die MTF-Version funktioniert, und an Aran Komatsuzaki für die Hilfe beim Aufbau der MTF-VAE- und Eingabepipeline.
git clone https://github.com/EleutherAI/GPTNeo
cd GPTNeo
pip3 install -r requirements.txt
Läuft auf TPUs, wurde auf GPUs nicht getestet, sollte aber theoretisch funktionieren. Die Beispielkonfigurationen sind für die Ausführung auf einem TPU v3-32-Pod konzipiert.
Um TPUs einzurichten, melden Sie sich bei der Google Cloud Platform an und erstellen Sie einen Speicher-Bucket.
Erstellen Sie Ihre VM über eine Google-Shell ( https://ssh.cloud.google.com/
) mit ctpu up --vm-only
, damit sie eine Verbindung zu Ihrem Google-Bucket und Ihren TPUs herstellen und das Repo wie oben einrichten kann.
DALLE benötigt eine vorab trainierte VAE, um Bilder in Token zu komprimieren. Um das VAE-Vortraining auszuführen, passen Sie die Parameter in configs/vae_example.json
an einen globalen Pfad an, der auf einen Datensatz mit JPGs verweist, und passen Sie die Bildgröße auf die entsprechende Größe an.
"dataset": {
"train_path": "gs://neo-datasets/CIFAR-10-images/train/**/*.jpg",
"eval_path": "gs://neo-datasets/CIFAR-10-images/test/**/*.jpg",
"image_size": 32
}
Sobald dies alles eingerichtet ist, erstellen Sie Ihre TPU und führen Sie dann Folgendes aus:
python train_vae_tf.py --tpu your_tpu_name --model vae_example
Das Training protokolliert Bildtensoren und Verlustwerte. Um den Fortschritt zu überprüfen, können Sie Folgendes ausführen:
tensorboard --logdir your_model_dir
Sobald die VAE vorab trainiert ist, können Sie mit DALL-E fortfahren.
Derzeit trainieren wir an einem Dummy-Datensatz. Ein öffentlicher, groß angelegter Datensatz für DALL-E ist in Arbeit. Führen Sie in der Zwischenzeit Folgendes aus, um einige Dummy-Daten zu generieren:
python src/data/create_tfrecords.py
Dies sollte CIFAR-10 herunterladen und einige zufällige Untertitel generieren, die als Texteingaben dienen.
Benutzerdefinierte Datensätze sollten in einem Ordner formatiert werden, mit einer JSONL-Datei im Stammordner, die Beschriftungsdaten und Pfade zu den jeweiligen Bildern enthält, wie folgt:
Folder structure:
data_folder
jsonl_file
folder_1
img1
img2
...
folder_2
img1
img2
...
...
jsonl structure:
{"image_path": folder_1/img1, "caption": "some words"}
{"image_path": folder_2/img2, "caption": "more words"}
...
Anschließend können Sie die Funktion create_paired_dataset
in src/data/create_tfrecords.py
verwenden, um den Datensatz zur Verwendung im Training in „tfrecords“ zu kodieren.
Sobald der Datensatz erstellt ist, kopieren Sie ihn mit gsutil in Ihren Bucket:
gsutil cp -r DALLE-tfrecords gs://neo-datasets/
Und schließlich das Lauftraining mit
python train_dalle.py --tpu your_tpu_name --model dalle_example
VAE:
{
"model_type": "vae",
"dataset": {
"train_path": "gs://neo-datasets/CIFAR-10-images/train/**/*.jpg", # glob path to training images
"eval_path": "gs://neo-datasets/CIFAR-10-images/test/**/*.jpg", # glob path to eval images
"image_size": 32 # size of images (all images will be cropped / padded to this size)
},
"train_batch_size": 32,
"eval_batch_size": 32,
"predict_batch_size": 32,
"steps_per_checkpoint": 1000, # how often to save a checkpoint
"iterations": 500, # number of batches to infeed to the tpu at a time. Must be < steps_per_checkpoint
"train_steps": 100000, # total training steps
"eval_steps": 0, # run evaluation for this many steps every steps_per_checkpoint
"model_path": "gs://neo-models/vae_test2/", # directory in which to save the model
"mesh_shape": "data:16,model:2", # mapping of processors to named dimensions - see mesh-tensorflow repo for more info
"layout": "batch_dim:data", # which named dimensions of the model to split across the mesh - see mesh-tensorflow repo for more info
"num_tokens": 512, # vocab size
"dim": 512,
"hidden_dim": 64, # size of hidden dim
"n_channels": 3, # number of input channels
"bf_16": false, # if true, the model is trained with bfloat16 precision
"lr": 0.001, # learning rate [by default learning rate starts at this value, then decays to 10% of this value over the course of the training]
"num_layers": 3, # number of blocks in the encoder / decoder
"train_gumbel_hard": true, # whether to use hard or soft gumbel_softmax
"eval_gumbel_hard": true
}
DALL-E:
{
"model_type": "dalle",
"dataset": {
"train_path": "gs://neo-datasets/DALLE-tfrecords/*.tfrecords", # glob path to tfrecords data
"eval_path": "gs://neo-datasets/DALLE-tfrecords/*.tfrecords",
"image_size": 32 # size of images (all images will be cropped / padded to this size)
},
"train_batch_size": 32, # see above
"eval_batch_size": 32,
"predict_batch_size": 32,
"steps_per_checkpoint": 1000,
"iterations": 500,
"train_steps": 100000,
"predict_steps": 0,
"eval_steps": 0,
"n_channels": 3,
"bf_16": false,
"lr": 0.001,
"model_path": "gs://neo-models/dalle_test/",
"mesh_shape": "data:16,model:2",
"layout": "batch_dim:data",
"n_embd": 512, # size of embedding dim
"text_vocab_size": 50258, # vocabulary size of the text tokenizer
"image_vocab_size": 512, # vocabulary size of the vae - should equal num_tokens above
"text_seq_len": 256, # length of text inputs (all inputs longer / shorter will be truncated / padded)
"n_layers": 6,
"n_heads": 4, # number of attention heads. For best performance, n_embd / n_heads should equal 128
"vae_model": "vae_example" # path to or name of vae model config
}