GPT-3 Numerische Modellanpassungsexperimente im Kontext
Dies ist der Aufbewahrungsort für meine Experimente zur Fähigkeit von GPT-3, numerische Modelle im Kontext anzupassen. Siehe den zugehörigen Lesswrong-Beitrag.
Kurze Beschreibungen der Dateien in diesem Repository:
Notizbücher | |
---|
Klassifizierung_Spielplatz.ipynb | Darstellung von Klassifizierungsszenarien und Berechnung der Genauigkeit |
iris_analysis.ipynb | Berechnung der Genauigkeit von GPT-3 und kNN/log. reg. zum Iris-Datensatz |
Python-Skripte | |
---|
Generatoren.py | Funktionen zur Generierung von Klassifizierungs-/Regressionsexperimenten |
generieren_experiment.py | Skript, in dem ich oben genannte Funktionen aufgerufen habe |
run_all_experiments.py | Führt alle noch nicht durchgeführten Experimente aus und speichert deren Ergebnisse |
iris_test.py | Führt einen Test für den Iris-Datensatz durch und speichert die Ergebnisse |
number_sense_test.py | Experimentieren Sie, bei dem Buchstaben Zahlen ersetzen |
number_sense_test_spaced.py | Wie oben, nur mit Leerzeichen zwischen den Buchstaben |
text_freq_classifier.py | Testet einen handcodierten Texthäufigkeitsklassifikator |
even_odd_test.py | Testen Sie, ob GPT-3 lernen kann, dass die zweite Ziffer gerade ist |
utils.py | Nur eine einzige Utility-Funktion |
R-Skript | |
---|
Visualisierungen.R | Visualisieren Sie Dinge in results/ in ggplot2 |
Json | |
---|
experiments_log.json | Metadaten, Rohergebnisse aller Experimente |