Ein Open-Source-Engineering-Leitfaden für Prompt-in-Context-Learning von EgoAlpha Lab.
Papiere | ⚡️ Spielplatz | ? Schnelles Engineering | ? ChatGPT-Eingabeaufforderung | ⛳ LLMs-Nutzungshandbuch
️ Shining ️: Dies sind frische, täglich aktualisierte Ressourcen für kontextbezogenes Lernen und schnelles Engineering. Da die künstliche allgemeine Intelligenz (AGI) immer näher rückt, sollten wir Maßnahmen ergreifen und ein Super-Lerner werden, um uns an der Spitze dieser aufregenden Ära zu positionieren und nach persönlicher und beruflicher Größe zu streben.
Zu den Ressourcen gehören:
?Papiere? : Die neuesten Artikel zu In-Context Learning , Prompt Engineering , Agenten- und Foundation-Modellen .
?Spielplatz? : Große Sprachmodelle (LLMs), die schnelles Experimentieren ermöglichen.
?Promptes Engineering? : Prompt-Techniken zur Nutzung großer Sprachmodelle.
?ChatGPT-Eingabeaufforderung? : Anschauliche Beispiele, die in unserer Arbeit und unserem täglichen Leben angewendet werden können.
?LLMs-Nutzungsleitfaden? : Die Methode für den schnellen Einstieg in große Sprachmodelle mithilfe von LangChain.
In Zukunft wird es wahrscheinlich zwei Arten von Menschen auf der Erde (vielleicht sogar auf dem Mars, aber das ist eine Frage für Musk) geben:
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha veröffentlicht den TrustGPT, der sich auf das Denken konzentriert. Vertrauen Sie dem GPT mit den stärksten Argumentationsfähigkeiten für authentische und zuverlässige Antworten. Sie können hier klicken oder die Spielplätze direkt besuchen, um es zu erleben.
[17.11.2024]
[16.11.2024]
[15.11.2024]
[14.11.2024]
[13.11.2024]
[12.11.2024]
[11.11.2024]
Vollständige Geschichtsnachrichten?
Sie können direkt auf den Titel klicken, um zur entsprechenden PDF-Linkstelle zu springen
Bewegung trifft Aufmerksamkeit: Video-Bewegungsaufforderungen ( 03.07.2024 )
Auf dem Weg zu einem großen Sprachmodell für die persönliche Gesundheit ( 2024.06.10 )
Husky: Ein einheitlicher Open-Source-Sprachagent für mehrstufiges Denken ( 10.06.2024 )
Auf dem Weg zum lebenslangen Lernen großer Sprachmodelle: Eine Umfrage ( 10.06.2024 )
Auf dem Weg zur semantischen Äquivalenz der Tokenisierung im multimodalen LLM ( 07.06.2024 )
LLMs treffen auf multimodale Generierung und Bearbeitung: Eine Umfrage ( 29.05.2024 )
Werkzeuglernen mit großen Sprachmodellen: Eine Umfrage ( 28.05.2024 )
Wenn LLMs in die 3D-Welt eintreten: Eine Übersicht und Metaanalyse von 3D-Aufgaben mithilfe multimodaler großer Sprachmodelle ( 16.05.2024 )
Unsicherheitsschätzung und -quantifizierung für LLMs: Ein einfacher überwachter Ansatz ( 24.04.2024 )
Eine Umfrage zum Gedächtnismechanismus von auf großen Sprachmodellen basierenden Agenten ( 21.04.2024 )
Vollständige Papierliste? für „Umfrage“?
LLaRA: Aufladung von Roboterlerndaten für Vision-Language-Richtlinien ( 28.06.2024 )
Wiederherstellung der Datensatzgröße aus LoRA-Gewichten ( 27.06.2024 )
Zweiphasige beschleunigte Prompt-Optimierung ( 19.06.2024 )
Von RAGs zu umfangreichen Parametern: Untersuchung, wie Sprachmodelle externes Wissen über parametrische Informationen für Sachabfragen nutzen ( 18.06.2024 )
VoCo-LLaMA: Auf dem Weg zur Sehkomprimierung mit großen Sprachmodellen ( 18.06.2024 )
LaMDA: Feinabstimmung großer Modelle durch spektral zerlegte niedrigdimensionale Anpassung ( 18.06.2024 )
Der Einfluss der Initialisierung auf die LoRA-Feinabstimmungsdynamik ( 12.06.2024 )
Eine empirische Studie zur parametereffizienten Feinabstimmung für multimodale große Sprachmodelle ( 07.06.2024 )
Kontextübergreifende Backdoor-Angriffe gegen Graph Prompt Learning ( 28.05.2024 )
Yuan 2.0-M32: Expertenmischung mit Aufmerksamkeitsrouter ( 28.05.2024 )
Vollständige Papierliste? für „Prompt Design“?
Eine empirische Studie zur parametereffizienten Feinabstimmung für multimodale große Sprachmodelle ( 07.06.2024 )
Cantor: Inspirierende multimodale Gedankenkette von MLLM ( 24.04.2024 )
nicolay-r bei SemEval-2024 Aufgabe 3: Verwendung von Flan-T5 zur Begründung von Emotionsursachen in Gesprächen mit Chain-of-Thought zu Emotionszuständen ( 04.04.2024 )
Die Visualisierung von Gedanken löst räumliches Denken in großen Sprachmodellen aus ( 04.04.2024 )
Können kleine Sprachmodelle großen Sprachmodellen helfen, besser zu denken?: LM-Guided Chain-of-Thought ( 2024.04.04 )
Visual CoT: Entfesselung der Gedankenkette in multimodalen Sprachmodellen ( 25.03.2024 )
Ein gedankenkettenanregender Ansatz mit LLMs zur Bewertung der formativen Bewertungsantworten von Studierenden in Naturwissenschaften ( 21.03.2024 )
NavCoT: Förderung der LLM-basierten Bild- und Sprachnavigation durch das Erlernen entwirrten Denkens ( 12.03.2024 )
ERA-CoT: Verbesserung der Gedankenkette durch Entity-Relationship-Analyse ( 11.03.2024 )
Voreingenommenes Konsistenztraining reduziert voreingenommenes Denken in der Gedankenkette ( 08.03.2024 )
Vollständige Papierliste? für „Chain of Thought“?
LaMDA: Feinabstimmung großer Modelle durch spektral zerlegte niedrigdimensionale Anpassung ( 18.06.2024 )
Der Einfluss der Initialisierung auf die LoRA-Feinabstimmungsdynamik ( 12.06.2024 )
Eine empirische Studie zur parametereffizienten Feinabstimmung für multimodale große Sprachmodelle ( 07.06.2024 )
Nutzung visueller Token für erweiterte Textkontexte beim multimodalen Lernen ( 2024.06.04 )
Groken lernen: Entstehung von kontextbezogenem Lernen und Kompetenzkomposition in modularen Rechenaufgaben ( 04.06.2024 )
Langer Kontext ist überhaupt nicht lang: Ein Prospektor für Daten mit langer Abhängigkeit für große Sprachmodelle ( 28.05.2024 )
Effizientes Prompt-Tuning durch Mehrraumprojektion und Prompt-Fusion ( 19.05.2024 )
MAML-en-LLM: Modellunabhängiges Meta-Training von LLMs für verbessertes kontextbezogenes Lernen ( 19.05.2024 )
Verbesserung der Vielfalt der Commonsense-Generierung durch große Sprachmodelle durch kontextbezogenes Lernen ( 25.04.2024 )
Stärkere zufällige Basislinien für kontextbezogenes Lernen ( 19.04.2024 )
Vollständige Papierliste? für „In-context Learning“?
Abruf-erweiterte Mischung von LoRA-Experten für hochladbares maschinelles Lernen ( 24.06.2024 )
Verbesserung von RAG-Systemen: Ein Überblick über Optimierungsstrategien für Leistung und Skalierbarkeit ( 2024.06.04 )
Verbesserung der Rauschrobustheit von abrufgestützten Sprachmodellen mit adaptivem gegnerischen Training ( 31.05.2024 )
Beschleunigung der Inferenz der Retrieval-Augmented Generation durch spärliche Kontextauswahl ( 25.05.2024 )
DocReLM: Beherrschung des Dokumentenabrufs mit Sprachmodell ( 19.05.2024 )
UniRAG: Universelle Retrieval-Erweiterung für multimodale große Sprachmodelle ( 16.05.2024 )
ChatHuman: Sprachgesteuertes 3D-Menschenverständnis mit abrufgestütztem Tool-Argument ( 2024.05.07 )
GRÜNDE: Ein Maßstab für das Abrufen und automatisierte Zitieren wissenschaftlicher Sätze unter Verwendung öffentlicher und proprietärer LLMs ( 03.05.2024 )
Superposition Prompting: Verbesserung und Beschleunigung der Retrieval-Augmented Generation ( 10.04.2024 )
Entwirren Sie den KNOTEN: Verflechtung widersprüchlicher Kenntnisse und Denkfähigkeiten in großen Sprachmodellen ( 04.04.2024 )
Vollständige Papierliste? für „Retrieval Augmented Generation“?
CELLO: Kausale Bewertung großer Seh-Sprach-Modelle ( 27.06.2024 )
PrExMe! Groß angelegte, zeitnahe Erforschung von Open-Source-LLMs für die maschinelle Übersetzung und Zusammenfassungsbewertung ( 26.06.2024 )
Überprüfung der Bewertung des Verständnisses verweisender Ausdrücke im Zeitalter großer multimodaler Modelle ( 24.06.2024 )
OR-Bench: Ein Over-Refusal-Benchmark für große Sprachmodelle ( 31.05.2024 )
TimeChara: Bewertung der Point-in-Time-Charakterhalluzination von rollenspielenden großen Sprachmodellen ( 28.05.2024 )
Subtile Verzerrungen erfordern subtilere Maßnahmen: Duale Metriken zur Bewertung der repräsentativen und Affinitätsverzerrung in großen Sprachmodellen ( 23.05.2024 )
HW-GPT-Bench: Hardware-bewusster Architektur-Benchmark für Sprachmodelle ( 16.05.2024 )
Multimodale LLMs haben Schwierigkeiten mit der grundlegenden visuellen Netzwerkanalyse: ein VNA-Benchmark ( 10.05.2024 )
Vibe-Eval: Eine harte Evaluierungssuite zur Messung des Fortschritts multimodaler Sprachmodelle ( 2024.05.03 )
Kausale Bewertung von Sprachmodellen ( 01.05.2024 )
Vollständige Papierliste? für „Bewertung & Zuverlässigkeit“?
Kooperative Multi-Agent-Deep-Reinforcement-Learning-Methoden für UAV-gestützte mobile Edge-Computing-Netzwerke ( 03.07.2024 )
Symbolisches Lernen ermöglicht sich selbst entwickelnde Agenten ( 26.06.2024 )
Gegnerische Angriffe auf multimodale Agenten ( 18.06.2024 )
DigiRL: Training von In-the-Wild-Gerätekontrollagenten mit autonomem Verstärkungslernen ( 14.06.2024 )
Umwandlung tragbarer Daten in Gesundheitserkenntnisse mithilfe großer Sprachmodellagenten ( 10.06.2024 )
Neuromorphes Träumen: Ein Weg zu effizientem Lernen mit künstlichen Agenten ( 24.05.2024 )
Feinabstimmung großer Vision-Language-Modelle als Entscheidungsagenten durch Reinforcement Learning ( 16.05.2024 )
Lernen der Multiagentenkommunikation aus der Perspektive der Graphmodellierung ( 14.05.2024 )
Schlümpfe: Nutzung mehrerer Proficiency-Agenten mit Kontexteffizienz für die Werkzeugplanung ( 09.05.2024 )
Aufdeckung von Unterschieden bei der Web-Aufgabenabwicklung zwischen Menschen und Web-Agenten ( 07.05.2024 )
Vollständige Papierliste? für „Agent“?
InternLM-XComposer-2.5: Ein vielseitiges Large-Vision-Sprachmodell, das die Ein- und Ausgabe mit langem Kontext unterstützt ( 2024.07.03 )
LLaRA: Aufladung von Roboterlerndaten für Vision-Language-Richtlinien ( 28.06.2024 )
Web2Code: Ein umfangreicher Webpage-to-Code-Datensatz und ein Bewertungsrahmen für multimodale LLMs ( 28.06.2024 )
LLaVolta: Effiziente multimodale Modelle durch stufenweise visuelle Kontextkomprimierung ( 28.06.2024 )
Cambrian-1: Eine vollständig offene, visionszentrierte Erforschung multimodaler LLMs ( 24.06.2024 )
VoCo-LLaMA: Auf dem Weg zur Sehkomprimierung mit großen Sprachmodellen ( 18.06.2024 )
Jenseits von LLaVA-HD: Eintauchen in hochauflösende große multimodale Modelle ( 12.06.2024 )
Eine empirische Studie zur parametereffizienten Feinabstimmung für multimodale große Sprachmodelle ( 07.06.2024 )
Nutzung visueller Token für erweiterte Textkontexte beim multimodalen Lernen ( 2024.06.04 )
DeCo: Entkopplung der Tokenkomprimierung von der semantischen Abstraktion in multimodalen großen Sprachmodellen ( 31.05.2024 )
Vollständige Papierliste? für „Multimodale Eingabeaufforderung“?
IncogniText: Datenschutzverbessernde bedingte Textanonymisierung durch LLM-basierte private Attribut-Randomisierung ( 2024.07.03 )
Web2Code: Ein umfangreicher Webpage-to-Code-Datensatz und ein Bewertungsrahmen für multimodale LLMs ( 28.06.2024 )
OMG-LLaVA: Überbrückung von Argumentation und Verständnis auf Bild-, Objekt- und Pixelebene ( 27.06.2024 )
Kontroverse Suchmaschinenoptimierung für große Sprachmodelle ( 26.06.2024 )
VideoLLM-online: Online-Video-Großsprachenmodell für Streaming-Video ( 17.06.2024 )
Die Regularisierung versteckter Zustände ermöglicht das Erlernen eines verallgemeinerbaren Belohnungsmodells für LLMs ( 14.06.2024 )
Autoregressives Modell schlägt Diffusion: Lama für skalierbare Bilderzeugung ( 10.06.2024 )
Sprachmodelle emulieren bestimmte kognitive Profile: Eine Untersuchung, wie Vorhersagbarkeitsmaße mit individuellen Unterschieden interagieren ( 07.06.2024 )
PaCE: Parsimonious Concept Engineering für große Sprachmodelle ( 06.06.2024 )
Yuan 2.0-M32: Expertenmischung mit Aufmerksamkeitsrouter ( 28.05.2024 )
Vollständige Papierliste? für „prompte Bewerbung“?
TheoremLlama: Allzweck-LLMs in Lean4-Experten verwandeln ( 2024.07.03 )
3D-Formverständnis von Fußgängern zur erneuten Identifizierung von Personen durch Multi-View-Lernen ( 2024.07.01 )
Token-Löschung als Fußabdruck impliziter Vokabelelemente in LLMs ( 28.06.2024 )
OMG-LLaVA: Überbrückung von Argumentation und Verständnis auf Bild-, Objekt- und Pixelebene ( 27.06.2024 )
Grundlegende Probleme bei der Modellbearbeitung: Wie sollte die Revision rationaler Überzeugungen in LLMs funktionieren? ( 27.06.2024 )
Effiziente Weltmodelle mit kontextbewusster Tokenisierung ( 27.06.2024 )
Die bemerkenswerte Robustheit von LLMs: Stufen der Inferenz? ( 27.06.2024 )
ResumeAtlas: Überarbeitung der Lebenslaufklassifizierung mit großen Datensätzen und großen Sprachmodellen ( 26.06.2024 )
AITTI: Lernendes adaptives inklusives Token für die Text-zu-Bild-Generierung ( 18.06.2024 )
Enthüllung codiererfreier Vision-Language-Modelle ( 17.06.2024 )
Vollständige Papierliste? für „Foundation Models“?
Große Sprachmodelle (LLMs) werden zu einer revolutionären Technologie, die die Entwicklung unserer Zeit prägt. Entwickler können durch den Aufbau von LLMs Anwendungen erstellen, die bisher nur in unserer Vorstellung möglich waren. Allerdings ist die Nutzung dieser LLMs oft mit gewissen technischen Hürden verbunden, und bereits in der Einstiegsphase kann es sein, dass Menschen von der neuesten Technologie abgeschreckt werden: Haben Sie Fragen wie die folgenden?
Wenn es ein Tutorial gäbe, das für alle Zielgruppen und nicht nur für Informatiker zugänglich wäre, würde es eine detaillierte und umfassende Anleitung bieten, um schnell loszulegen und in kurzer Zeit zu arbeiten und letztendlich das Ziel zu erreichen, LLMs flexibel nutzen zu können und kreativ, um die Programme zu erstellen, die sie sich vorstellen. Und jetzt nur für Sie: der detaillierteste und umfassendste Langchain-Einsteigerleitfaden, der von der offiziellen Langchain-Website stammt, jedoch mit weiteren inhaltlichen Anpassungen, begleitet von den detailliertesten und kommentiertesten Codebeispielen, die Code Zeile für Zeile und Satz für Satz beibringen alle Zuschauer.
Klicken Sie hier? um einen kurzen Überblick über die ersten Schritte mit LLM zu geben.
Dieses Repo wird von EgoAlpha Lab verwaltet. Fragen und Diskussionen sind willkommen über [email protected]
.
Wir sind bereit, mit Freunden aus der akademischen und industriellen Gemeinschaft an Diskussionen teilzunehmen und gemeinsam die neuesten Entwicklungen im Bereich Prompt Engineering und In-Context-Lernen zu erkunden.
Vielen Dank an die Doktoranden des EgoAlpha Lab und andere Mitarbeiter, die an diesem Repo teilgenommen haben. Wir werden das Projekt in der Folgezeit verbessern und diese Community gut pflegen. Wir möchten auch den Autoren der relevanten Ressourcen unseren aufrichtigen Dank aussprechen. Ihre Bemühungen haben unseren Horizont erweitert und es uns ermöglicht, eine wundervollere Welt wahrzunehmen.