Das magische Prompt-Projekt?♂️
Dieses Repository enthält eine handgeprüfte Prompt-Engineering-Ressource mit Schwerpunkt auf Generative Pretrained Transformer (GPT), ChatGPT, PaLM und mehr.
Inhaltsverzeichnis
- Papier
- Tools und Code
- API
- Datensatz
- Modell
- KI-Inhaltsdetektor
- erziehen
- Video
- Bücher
- Gemeinschaft
- So können Sie einen Beitrag leisten
Papier
?
Prompt Engineering-Technologie :
- Methode zur Verbesserung des ChatGPT-Prompt-Projekts mithilfe des Prompt-Pattern-Verzeichnisses [2023] (Arxiv)
- Gradientenbasierte diskrete Optimierung für schnelle Feinabstimmung und Entdeckung [2023] (Arxiv). - Allgemeiner Tipp: Demo zur Generierung von Gedankenketten für große Sprachmodelle [2023] (Arxiv)
- Progressive Eingabeaufforderungen: Kontinuierliches Lernen von Sprachmodellen [2023] (Arxiv)
- Tipps zur Stapelverarbeitung: Effiziente Inferenz mit der LLM-API [2023] (Arxiv)
- Kontinuierliche Aufforderungen zur Lösung komplexer Probleme [2022] (Arxiv)
- Strukturelle Tipps: Kontextuelles Lernen auf 1.000 Beispiele skalieren [2022] (Arxiv)
- Große Sprachmodelle sind schnelle Ingenieure auf menschlicher Ebene [2022] (Arxiv)
- Fragen Sie mich etwas: Einfache Strategien zur Anregung von Sprachmodellen [2022] (Arxiv)
- Tipps für die Zuverlässigkeit von GPT-3 [2022] (Arxiv)
- Aktuelle Tipps: Modulare Ansätze zur Lösung komplexer Aufgaben [2022] (Arxiv)
- PromptChainer: Verkettung großer Sprachmodell-Prompts mittels visueller Programmierung [2022] (Arxiv)
- Untersuchung der Hinweistechnik in Diffusionsmodellen [2022] (Arxiv)
- Zeigen Sie Ihre Arbeit: Ein grober Entwurf von Zwischenberechnungen unter Verwendung von Sprachmodellen [2021] (Arxiv)
- Unterrichtstipps zur Neuinterpretation von GPTk [2021] (Arxiv)
- Wunderbar geordnete Hinweise und ihre Entdeckung: Überwindung der Empfindlichkeit bei der Reihenfolge kleiner Stichproben [2021] (Arxiv)
- Die Macht der Skalierung für eine effiziente, zeitnahe Abstimmung von Parametern [2021] (Arxiv)
- Programmierung großer Sprachmodelle: Jenseits des Few-Shot-Paradigmas [2021] (Arxiv) – Präfix-Tuning: Optimierung kontinuierlicher Hinweise für die Generierung [2021] (Arxiv)
Argumentation und kontextbezogenes Lernen :
- Multimodale Denkkettenbegründung in Sprachmodellen [2023] (Arxiv)
- Auf den zweiten Blick gehen wir nicht den Weg des Einzelschrittdenkens! Bias und Schädlichkeit in der Zero-Shot-Inferenz [2022] (Arxiv)
- ReAct: Synergie von Denken und Handeln in Sprachmodellen [2022] (Arxiv)
- Sprachmodelle sind gierige Denker: eine systematische formale Analyse von Gedankenketten [2022] (Arxiv)
- Fortschritte bei der Verbesserung von Sprachmodellen für die Inferenz [2022] (Arxiv)
- Große Sprachmodelle sind Zero-Shot-Denker [2022] (Arxiv)
- Denken wie ein Programmausführer [2022] (Arxiv)
- Selbstkonsistenz verbessert das Denken in der Denkkette in Sprachmodellen [2022] (Arxiv)
- Die Rolle der Demonstration überdenken: Wie funktioniert kontextuelles Lernen? [2022] (Arxiv)
- Erklären lernen: Multimodales Denken für wissenschaftliche Fragen und Antworten durch Gedankenketten [2022] (Arxiv)
- Gedankenkettenaufforderungen zum Hervorrufen von Schlussfolgerungen in großen Sprachmodellen [2021] (Arxiv)
- Generierung von Wissensaufforderungen für vernünftiges Denken [2021] (Arxiv)
- BERTese: Lernen Sie, mit BERT zu kommunizieren [2021] (Acl)
Sprachmodelle bewerten und verbessern :
- Große Sprachmodelle sind anfällig für Störungen durch irrelevanten Kontext [2023] (Arxiv)
- Durchsuchen der internen Wissensbasis von Sprachmodellen [2023] (Arxiv) – Methoden zur Entdeckung des Verhaltens von Sprachmodellen: Bewertung des Modellschreibens [2022] (Arxiv) Ursprünglicher Link
- Vor der Verwendung kalibrieren: Verbesserung der Leistung von Sprachmodellen bei wenigen Schüssen [2021] (Arxiv) Originallink
Anwendung des Sprachmodells :
- Tipps zur Klassifizierung multimodaler bösartiger Memes [2023] (Arxiv) Originallink
- Prompt Language Model for Social Conversation Synthesis [2023] (Arxiv) Ursprünglicher Link
- Gesunder Menschenverstand bewusste Aufforderungen zur kontrollierten empathischen Konversation [2023] (Arxiv) Ursprünglicher Link
- Programmgestütztes Sprachmodell [2023] (Arxiv) Ursprünglicher Link
- Legal Prompt Writing für mehrsprachige Gerichtsurteilsvorhersage [2023] (Arxiv) Originallink
- Forschung zum Prompt Engineering zur Lösung von CS1-Problemen mithilfe natürlicher Sprache [2022] (Arxiv) Originallink
- Ploterstellung mit vorab trainierten Sprachmodellen [2022] (Acl) Originallink
- AutoPrompt: Verwendung automatisch generierter Eingabeaufforderungen, um Wissen aus Sprachmodellen zu ermitteln [2020] (Arxiv) Originallink
Beispiele für Bedrohungserkennung und Gegenmaßnahmen :
- Konstitutionelle künstliche Intelligenz: Harmlos durch KI-Feedback [2022] (Arxiv) Originallink
- Ignorieren Sie den vorherigen Tipp: Angriffstechniken für Sprachmodelle [2022] (Arxiv) Originallink
- Maschinengenerierter Text: Eine umfassende Übersicht über Bedrohungsmodelle und Erkennungsmethoden [2022] (Arxiv) Originallink
- Bewertung der Anfälligkeit vorab trainierter Sprachmodelle anhand handgefertigter kontradiktorischer Beispiele [2022] (Arxiv) Originallink
- Toxizitätserkennung mithilfe generierter Hinweise [2022] (Arxiv) Originallink. - Woher wissen wir, was das Sprachmodell weiß? [2020] (Mit)
Few-Shot-Lernen und Leistungsoptimierung :
- Promptagator: Few-Shot Dense Retrieval aus 8 Beispielen [2022] (Arxiv)
- Few-Shot-Eingabeaufforderungen für interpretative Unzuverlässigkeit beim textuellen Denken [2022] (Arxiv)
- Verbesserung vorab trainierter Sprachmodelle für Weniglerner [2021] (Acl)
- Sprachmodelle sind Weniglerner [2020] (Arxiv)
Text-zu-Bild-Generierung :
- Eine Hinweismodifikatorklassifizierung für die Text-zu-Bild-Generierung [2022] (Arxiv)
- Entwurfsrichtlinien für die schnelle Entwicklung generativer Text-zu-Bild-Modelle [2021] (Arxiv)
- Hochauflösende Bildsynthese unter Verwendung latenter Diffusionsmodelle [2021] (Arxiv)
- DALL·E: Bilder aus Text erstellen [2021] (Arxiv)
Text zu Musik/Tonerzeugung :
- MusicLM: Musik aus Text generieren [2023] (Arxiv)
- ERNIE-Music: Text-to-Wave-Musikgenerierung mithilfe von Diffusionsmodellen [2023] (Arxiv)
- Noise2Music: Textmodulierte Musikgenerierung mithilfe von Diffusionsmodellen [2023) (Arxiv)
- AudioLM: Eine Methode zur Audiogenerierung basierend auf Sprachmodellierung [2023] (Arxiv)
- Make-An-Audio: Text-to-Audio-Generierung mithilfe verbesserter Cue-Diffusionsmodelle [2023] (Arxiv)
Text-zu-Video-Generierung :
- Dreamix: Ein Videodiffusionsmodell für einen universellen Videoeditor [2023] (Arxiv). - Tuning-Video: One-Shot-Tuning von Bilddiffusionsmodellen für die Text-zu-Video-Generierung [2022] (Arxiv)
- Noise to Music: textbedingte Musikgenerierung basierend auf einem Diffusionsmodell [2023] (Arxiv)
- Audio LM: Eine Methode zur Sprachmodellgenerierung von Audio [2023] (Arxiv)
Übersicht :
- Copilot und Codex steuern: Heiße Temperatur, kalte Aufforderungen oder schwarze Magie [2022] (Arxiv)
Tools und Code
?
Name | beschreiben | Link |
---|
GPT-Index | GPT Index ist ein Projekt, das aus einer Reihe von Datenstrukturen besteht, die die Arbeit mit großen externen Wissensdatenbanken mit LLM erleichtern sollen. | [Github] |
Auffordern | Verwenden Sie LLM, um NLP-Probleme zu lösen, und verwenden Sie Promptify, um auf einfache Weise verschiedene NLP-Aufgabenaufforderungen für gängige generative Modelle wie GPT und PaLM zu generieren. | [Github] |
Bessere Eingabeaufforderung | Testen Sie die Testsuite, bevor Sie LLM-Eingabeaufforderungen in die Produktion übertragen | [Github] |
Interaktiver Kompositions-Explorerx | ICE ist ein Trace-Visualizer für Python-Bibliotheken und Sprachmodellprogramme. | [Github] |
LangChainx | Erstellen Sie Anwendungen mit LLM in Kombination | [Github] |
OpenPrompt | Ein Open-Source-Framework für schnelles Lernen | [Github] |
Prompt-Engine | Dieses Repository enthält eine Bibliothek von NPM-Dienstprogrammen zum Erstellen und Verwalten von LLMs-Eingabeaufforderungen (Large Language Model). | [Github] |
Fordert KI auf | Erweiterter Arbeitsplatz für GPT-3 | [Github] |
Prompt-Quelle | PromptSource ist ein Toolkit zum Erstellen, Teilen und Verwenden von Eingabeaufforderungen in natürlicher Sprache. | [Github] |
Gedankenquelle | Ein Rahmen für Maschinen, um über Wissenschaft nachzudenken | [Github] |
API
Name | beschreiben | URL | Bezahlt oder Open Source |
---|
OpenAI | GPT-n für Aufgaben in natürlicher Sprache, Codex für die Übersetzung natürlicher Sprache in Code und DALL·E für die Erstellung und Bearbeitung von Rohbildern. | [OpenAI] | Zahlen |
CohereAI | Cohere bietet über eine API Zugriff auf fortschrittliche umfangreiche Sprachmodelle und Tools zur Verarbeitung natürlicher Sprache. | [CohereAI] | Zahlen |
Anthropisch | kommt bald | [Anthropisch] | Zahlen |
FLAN-T5XXL | kommt bald | [HugginFace] | Open Source |
Datensatz
?
Name | beschreiben | URL |
---|
P3 (Öffentlicher Pool von Eingabeaufforderungen) | P3 (Public Pool of Prompts) ist eine Sammlung von englischsprachigen Datensätzen mit Eingabeaufforderungen, die verschiedene NLP-Aufgaben enthalten. | [Umarmendes Gesicht] |
Tolle ChatGPT-Eingabeaufforderungen | Dieses Repository enthält eine ChatGPT-Eingabeaufforderungskuration zur besseren Nutzung von ChatGPT. | [Github] |
?
Name | beschreiben | Link |
---|
ChatGPT | ChatGPT | [OpenAI] |
Kodex | Das Codex-Modell ist ein Nachkomme unseres GPT-3-Modells und kann Code verstehen und generieren. Seine Trainingsdaten umfassen natürliche Sprache und Milliarden Zeilen öffentlichen Codes auf GitHub | [Github] |
Blühen | BigScience Large Open Science Open Access Mehrsprachiges Sprachmodell | [Umarmendes Gesicht] |
Facebook LLM | OPT-175B ist ein Meta-trainiertes GPT-3-Äquivalentmodell. Mit 175 Milliarden Parametern ist es das größte derzeit verfügbare vorab trainierte Sprachmodell | [Alpa] |
GPT-NeoX | GPT-NeoX-20B, ein trainiertes autoregressives Sprachmodell mit 20 Milliarden Parametern | [Umarmendes Gesicht] |
FLAN-T5XXL | Flan-T5 ist ein auf Befehle abgestimmtes Modell, das heißt, es zeigt kein Feuerverhalten, wenn Befehle als Teil eines Cues gegeben werden. | [HuggingFace/Google] |
XLM-RoBERTa-XL | Das XLM-RoBERTa-XL-Modell ist auf 2,5 TB gefilterter CommonCrawl-Daten mit 100 Sprachen vorab trainiert | [Umarmendes Gesicht] |
GPT-J | Es handelt sich um ein kausales Sprachmodell ähnlich GPT-2, das auf dem Pile-Datensatz trainiert wurde | [Umarmendes Gesicht] |
| . Ein großer Datensatz von 300.000 individuell verfassten Geschichten und Eingabeaufforderungen aus dem öffentlichen Discord-Server || . rlhf-pytorch |. Implementierung von RLHF (Reinforcement Learning with Human Feedback) in der PaLM-Architektur. Grundsätzlich ChatGPT, aber mit der Ergänzung von PaLM [Github] |. Eine Implementierung von GPT-2- und GPT -3-ähnlichen Modellen für die Modellparallelität. |. [Github] |. LaMDA-rlhf-pytorch |. RLHF hinzugefügt, ähnlich wie ChatGPT. | . [Github] | . Eine Implementierung des verstärkenden Lernens durch menschliches Feedback |
KI-Inhaltsdetektor
?
Name | beschreiben | URL |
---|
KI-Textklassifikator | Der AI Text Classifier ist ein fein abgestimmtes GPT-Modell, das die Wahrscheinlichkeit vorhersagen kann, dass ein Text aus verschiedenen Quellen wie ChatGPT KI-generiert ist. | [OpenAI] |
GPT-2-Ausgangsdetektor | Dies ist eine Online-Demonstration von RoBERTa, das auf Basis von ?/Transformers implementiert wurde | [Umarmendes Gesicht] |
Openai-Detektor | KI-Klassifikator zur Anzeige von von KI geschriebenem Text (OpenAI Detector Python-Wrapper) | [GitHub] |
Anleitung
Einführung in das Prompt-Projekt
- Prompt Engineering 101 – Einführung und Ressourcen
- Prompt Engineering 101". – Prompt Engineering Guide von SudalaiRajkumar
Ein Leitfaden für Anfänger zu generativen Sprachmodellen
- Ein anfängerfreundlicher Leitfaden für generative Sprachmodelle – LaMBDA Guide
- Generative KI basierend auf Cohere: Teil 1 – Modelltipps
Best Practices für schnelles Engineering
- Best Practices für das OpenAI API Prompt Engineering
- Wie schreibe ich gute Aufforderungen?
Vollständiger Prompt-Projektleitfaden
- Eine vollständige Einführung in das große Sprachmodell-Prompt-Projekt
- Prompt Engineering Guide: So entwerfen Sie die besten Prompts
Schnelle technische Aspekte des Ingenieurwesens
- Drei Hauptprinzipien des GPT-3-Prompt-Engineerings
- Gemeinsames Framework für ChatGPT Prompt-Projekte
- Schnelle Programmiermethode
Schnelle Projektressourcen
- Tolle ChatGPT-Tipps
- Beste 100+ stabile Diffusionsaufforderung
- DALLE PROMPT BÜCHER
- OpenAI-Kochbuch
- Das Prompt-Projekt von Microsoft
Video
?- Erweiterte Version des ChatGPT Prompt-Projekts
- ChatGPT: 5 schnelle Engineering-Tipps für Anfänger
- CMU Advanced Natural Language Processing 2022: Eingabeaufforderung
- Prompt Engineering – ein neuer Beruf?
- ChatGPT-Leitfaden: Nutzen Sie bessere Eingabeaufforderungen, um Ihre Ergebnisse um das Zehnfache zu steigern
- Sprachmodelle und Prompt Engineering: Eine systematische Übersicht über Prompting-Methoden im NLP
- Prompt Engineering 101: Automatische Vervollständigung, Eingabeaufforderungen für Nullproben, Einzelproben und wenige Proben
Gemeinschaft
?
- OpenAI Discord
- PromptsLab Discord
- Lernen Sie Aufforderungen
- r/ChatGPT Discord
- MidJourney Discord
So können Sie einen Beitrag leisten
Wir freuen uns über Beiträge zu dieser Liste! Tatsächlich ist das der Hauptgrund, warum ich es erstellt habe – um Beiträge zu fördern und Menschen zu ermutigen, Änderungen zu abonnieren, um über neue und aufregende Entwicklungen im Bereich großer Sprachmodelle (LLMs) und Prompt Engineering auf dem Laufenden zu bleiben.
Bevor Sie einen Beitrag leisten, nehmen Sie sich bitte einen Moment Zeit, um unsere Beitragsrichtlinien durchzulesen. Diese Richtlinien tragen dazu bei, sicherzustellen, dass Ihre Beiträge mit unseren Zielen übereinstimmen und unseren Qualitäts- und Relevanzstandards entsprechen. Vielen Dank für Ihr Interesse, an diesem Projekt mitzuwirken!
Bildquelle: docs.cohere.ai