Hinweis: Das Repository wird nicht gepflegt. Wenn Sie die Wartung übernehmen möchten, schreiben Sie mir gerne eine PN.
Erstellen Sie einen universellen Konversations-Chatbot basierend auf einem in Tensorflow implementierten Hot-Seq2seq-Ansatz. Da es bisher keine guten Ergebnisse liefert, sollten Sie auch andere Implementierungen von seq2seq in Betracht ziehen.
Die aktuellen Ergebnisse sind ziemlich mies:
hello baby - hello
how old are you ? - twenty .
i am lonely - i am not
nice - you ' re not going to be okay .
so rude - i ' m sorry .
Haftungsausschluss:
Jeder ist herzlich eingeladen, den Code zu untersuchen und Verbesserungen vorzuschlagen.
Tatsächliche Taten
Papiere
Ein tolles Bild
Mit freundlicher Genehmigung dieses Artikels.
Aufstellen
git clone [email protected]:nicolas-ivanov/tf_seq2seq_chatbot.git
cd tf_seq2seq_chatbot
bash setup.sh
Laufen
Trainieren Sie ein seq2seq-Modell auf einem kleinen (17 MB) Korpus von Filmuntertiteln:
python train.py
(Mit diesem Befehl wird das Training auf einer CPU ausgeführt ... GPU-Anweisungen folgen)
Testen Sie das trainierte trainierte Modell anhand einer Reihe häufiger Fragen:
python test.py
Chat mit trainiertem Modell in der Konsole:
python chat.py
Alle Konfigurationsparameter werden unter tf_seq2seq_chatbot/configs/config.py
gespeichert
GPU-Nutzung
Wenn Sie das Glück haben, bereits über eine ordnungsgemäße GPU-Konfiguration für Tensorflow zu verfügen, sollte dies die Aufgabe erfüllen:
python train.py
Andernfalls müssen Sie möglicherweise Tensorflow aus der Quelle erstellen und den Code wie folgt ausführen:
cd tensorflow # cd to the tensorflow source folder
cp -r ~/tf_seq2seq_chatbot ./ # copy project's code to tensorflow root
bazel build -c opt --config=cuda tf_seq2seq_chatbot:train # build with gpu-enable option
./bazel-bin/tf_seq2seq_chatbot/train # run the built code
Anforderungen