Llm-table-survey
Benchmarks
Datensätze
Großsprachige Modell
Tischtraining vor der Flüssigkeit Era
Tabellenanweisungsabbau
Code LLM
Hybrid von Tabelle und Code
Multimodales Verständnis und Extraktion
Darstellung
Aufforderung
Werkzeuge
Umfrage
NL2SQL
Tabelle QA
Kalkulationstabelle
Multi-Task-Framework
Inhaltsverzeichnis
Papierliste
Datensätze und Benchmarks
GPT-3, Sprachmodelle sind nur wenige Lernende. Neurips 20. [Papier]
T5, untersucht die Grenzen des Transferlernens mit einem einheitlichen Text-zu-Text-Transformator. [Papier]
FLAN, FELLETUNED-Sprachmodelle sind Null-Shot-Lernende. ICLR 22. [Papier] [Code]
DPO, direkte Präferenzoptimierung: Ihr Sprachmodell ist heimlich ein Belohnungsmodell. Neurips 23. [Papier]
PEFT, die Skalierungsleistung für parametereffizientes Einort-Tuning. EMNLP 21. [Papier]
Lora, Lora: Niedrige Anpassung von Großsprachenmodellen. ICLR 22. [Papier]
Die Kette der Gedanken, die die Kette der Kette des Gedankens beantragt, führt zu Begründungen in Großsprachenmodellen. Neurips 22. [Papier]
Die am wenigsten zu meistversteigende, am wenigsten zu Aufforderung ermöglicht komplexe Argumentation in Großsprachenmodellen. ICLR 23. [Papier]
Selbstkonsistenz Aufforderung und Selbstkonsistenz verbessert die Kette des Denkens in Sprachmodellen. ICLR 23. [Papier]
React, React: Synergisierung von Denken und Handeln in Sprachmodellen. ICLR 23. [Papier] [Code]
Tabert, Tabert: Vorbereitung für das gemeinsame Verständnis von Text- und tabellarischen Daten. ACL 20 Main. [Papier] [Code]
Tapex, Tapex: Tabelle vor dem Training über das Erlernen eines neuronalen SQL-Executors. ICLR 22. [Papier] [Code] [Modelle]
Tabbie, Tabbie: Vorbereitete Darstellungen von tabellarischen Daten. Naacl 21 Main. [Papier] [Code]
Turl, Turl: Tabellenverständnis durch Repräsentationslernen. VLDB 21. [Papier] [Code]
RESDSQL, RESDSQL: Entkopplungsschema Verknüpfung und Skelett an Text-zu-SQL. AAAI 23. [Papier] [Code]
UnifiedSkg, UnifiedSKG: Einheitliche und multitasking strukturierte Wissensdeerde mit Text-zu-Text-Sprachmodellen. EMNLP 22 Main. [Papier] [Code]
Tabellenkallerin, Tabellenkallerin: Formelvorhersage aus dem semi-strukturierten Kontext. ICML 21. [Papier] [Code]
Tisch-GPT, Tabelle-GPT: GPT-abgestimmt für verschiedene Tabellenaufgaben. ARXIV 2023. [Papier]
Tablellama, Tablellama: Auf dem Weg zu offenen großen Generalistenmodellen für Tische. NAACl 24. [Papier] [Code] [Modell: Tablellama 7b] [Datensatz: TableInstruct]
Codex, Bewertung großer Sprachmodelle, die auf Code trainiert wurden. Arxiv 21. [Papier]
STARCODER, STARCODER: Möge die Quelle mit Ihnen sein!. TMLR 23. [Papier] [Code] [Modelle]
Code LLAMA, Code Lama: Open Foundation -Modelle für Code. ARXIV 23. [Papier] [Code]
WizardLM, WizardLM: Ermächtigung großer vorgebliebener Sprachmodelle, komplexe Anweisungen zu befolgen. ICLR 24. [Papier] [Modell: Assistent 13b] [Modell: Assistentlm 70b]
WizardCoder, WizardCoder: Ermächtigung von Code großsprachigen Modellen mit EVOL-Instruct. ICLR 24. [Papier] [Code] [Modelle: Assistentcoder 15b]
Magicoder, Magicoder: Quellcode ist alles, was Sie brauchen. ICML 24. [Papier] [Code] [Modelle 6.7b/7b]
Lemur, Lemur: Harmonisierung der natürlichen Sprache und Code für Sprachagenten. ICLR 24. [Papier] [Code] [Modell: Lemur 70B] [Modell: Lemur 70B -Chat]
InfiaGent-Dabch, InfiaGent-Taberch: Bewertung von Wirkstoffen bei Datenanalyseaufgaben. ICML 24. [Papier] [Code]
TabellM, TabellM: Aktivieren Sie tabellarische Datenmanipulation durch LLMs in realen Szenarien der Büroverbrauch. [Papier] [Modell Tabellm 7b] [Modell Tabellm 13b]
StructLM, StructLM: Auf dem Weg zu den Aufbau von Generalistenmodellen für strukturiertes Wissens Erdung. ARXIV 24. [Papier] [Modell: structlm 7b] [Modell: structlm 13b] [Modell: structlm 34b] [Datensatz: skginstruct]
FinSQL, FinSQL: Modell-agnostische LLM-basierte Text-zu-SQL-Framework für die Finanzanalyse. Sigmod Companion 24. [[Papier] (https://arxiv.org/pdf/2401.10506)]
Sinn, synthetisierende Text-zu-SQL-Daten von schwachen und starken LLMs. ACL 24. [Papier]
Zeronl2SQL, Kombination kleiner Sprachmodelle und Großsprachenmodelle für Null-Shot-NL2SQL. VLDB 24. [Papier]
Layoutlm, Layoutlm: Vorausbildung von Text und Layout für das Verständnis des Dokumentbildes. KDD 20. [Papier]
PUBTABNET, bildbasierte Tabellenerkennung: Daten, Modell und Bewertung. ECCV 20. [Papier] [Code & Daten]
Tabelle-Llava, multimodales Tabellenverständnis. ACL 24. [Papier] [Code] [Modell]
Tablelvm, Tablevlm: Multimodal vor dem Training für die Erkennung von Tabellenstruktur. ACL 23. [Papier]
PIXT3, PIXT3: Pixel-basierte Tabelle zu Textgenerierung. ACL 24. [Papier]
Tabellarische Darstellung, laute Operatoren und Auswirkungen auf die Verständnis von Aufgaben der Tabellenstruktur in LLMs. Neurips 2023 Zweite Tabelle Repräsentation Lernworkshop. [Papier]
Tabellenkalkulelle, Tabellenkalkulelle: Codierung von Tabellenkalkulationen für Großsprachmodelle. ARXIV 24. [Papier]
Verbesserung von Text-to-SQL-Funktionen großer Sprachmodelle: Eine Studie über schnelle Designstrategien. EMNLP 23. [Papier] [Code]
Tabellen als Texte oder Bilder: Bewertung der Fähigkeit von LLMs und MLLMs der Tabelle. ARXIV 24. [Papier]
Die Morgendämmerung der natürlichen Sprache zu SQL: Sind wir voll bereit? VLDB 24. [Papier] [Code]
MCS-SQL, MCS-SQL: Nutzung mehrerer Eingabeaufforderungen und Multiple-Choice-Auswahl für die Text-zu-SQL-Erzeugung. [Papier]
Din-SQL, Din-SQL: Zersetztes Erlernen von Text-to-SQL mit Selbstkorrektur, zersetzt. Neurips 23. [Papier] [Code]
Dail-SQL, Text-to-SQL-Ermordung durch große Sprachmodelle: Eine Benchmark-Bewertung. VLDB 24. [Papier] [Code]
C3, C3: Null-Shot-Text-zu-SQL mit Chatgpt. ARXIV 24. [Papier] [Code]
Dater, Großsprachenmodelle sind vielseitige Zerlegungen: Zersetzung von Erkenntnissen und Fragen für Tabellenbasis. Sigir 23. [Papier] [Code]
Binder, verbindliche Sprachmodelle in symbolischen Sprachen. ICLR 23. [Papier] [Code]
Reaktivierbar, reaktivierbar: Verbesserung der Reaktierung für die Beantwortung von Tabellenfragen. VLDB 24. [Papier] [Code]
E5, E5: Hierarchische Tabellenanalyse mit Null-Shot-Tabellen unter Verwendung erweiterter LLMs über Erklären, Extrahieren, Ausführen, Ausstellen und Extrapolat. NAACl 24. [Papier] [Code]
Kette der Tisch, Kette der Tabelle: Entwicklungstische in der Argumentationskette für das Verständnis des Tisches. ICLR 24. [Papier]
ITR, ein innerer Tisch -Retriever für eine robuste Tischfrage, die Beantwortung der Frage. ACL 23. [Papier]
Li-rage, li-rage: Spätinteraktion Abruf Augmented Generation mit expliziten Signalen für die Beantwortung von Fragen zur Beantwortung von Tischtischtabellen. ACL 23. [Papier]
SheetCopilot, SheetCopilot: Durch die Produktivität von Software werden durch große Sprachmodelle auf die nächste Stufe gebracht. Neurips 23. [Papier] [Code]
Sheetagent, Blech: Ein Generalist Agent für die Argumentation und Manipulation von Tabellenkalkulationen über Großsprachenmodelle. ARXIV 24. [Papier]
Visionsprachmodelle für das Verständnis von Tabellenkalkulationen: Herausforderungen und Chancen. ARXIV 24. [Papier]
StructGPT, StructGPT: Ein allgemeiner Rahmen für Großsprachenmodell, der über strukturierte Daten begründet. EMNLP 23 Main. [Papier] [Code]
TAP4llM, TAP4LLM: Tabellenanbieter für die Abtastung, Augmentierung und Verpackung semi-strukturierter Daten für das Argumentieren von großer Sprache. ARXIV 23. [Papier]
UNIDM, UNIDM: Ein einheitlicher Rahmen für die Datenmanipulation mit großen Sprachmodellen. MLSYS 24. [Papier]
Data-Copilot, Data-Copilot: Überbrücken von Milliarden von Daten und Menschen mit autonomem Workflow. ARXIV 23. [Papier] [Code]
Llamaindex
Pandasai
Vanna
DB-GPT. DB-GPT: Stärkung der Datenbankinteraktionen mit privaten großsprachigen Modellen. [Papier] [Code]
RetClean. Retclean: Abrufbasierte Datenreinigung mithilfe von Grundmodellen und Datenseen. [Papier] [Code]
Eine Übersicht über große Sprachmodelle. [Papier]
Eine Umfrage zu großsprachigen modellbasierten autonomen Agenten. [Papier]
Tabelle Vorverschleppung: Eine Umfrage zu Modellarchitekturen, Voraussetzungszielen und nachgeschalteten Aufgaben. [Papier]
Transformatoren für tabellarische Datenrepräsentation: Eine Übersicht über Modelle und Anwendungen. [Papier]
Eine Übersicht über Tabellenbedenken mit großartigen Sprachmodellen. [Papier]
Eine Umfrage zur Beantwortung von Tischfrage: Jüngste Fortschritte. [Papier]
Große Sprachmodelle (LLMs) auf tabellarischen Daten - Eine Umfrage. [Papier]
Eine Umfrage zur Analyse von Text zu SQL: Konzepte, Methoden und zukünftige Richtungen. [Papier]
Name | Schlüsselwörter | Artefakt | Papier |
---|---|---|---|
MBPP | Code | Link | Arxiv 21 |
Humaneral | Code | Link | Arxiv 21 |
Dr.spider | NL2SQL, Robustheit | Link | ICLR 23 |
WikitleQuestions | Tabelle QA | Link | ACL 15 |
Wikisql | Tabelle QA, NL2SQL | Link | Arxiv 17 |
Tabfact | Tabelle Faktenüberprüfung | Link | ICLR 20 |
Hybirdqa | Tabelle QA | Link | EMNLP 20 |
Fetaqa | Tabelle Faktenüberprüfung | Link | TaCl 22 |
Robut | Tabelle QA | Link | ACL 23 |
Anameta | Tischmetadaten | Link | ACL 23 |
Gpt4table | Tabelle QA, Tabelle zu Text | Link | WSDM 24 |
Totto | Tabelle zu Text | Link | EMNLP 20 |
Tabelle | Tabelle Manipulation | Link | Neurips 24 |
VOGEL | NL2SQL | Link | Neurips 23 |
Spinne | NL2SQL | Link | EMNLP 18 |
Dr.spider | NL2SQL | Link | ICLR 23 |
ScienceBenchmark | NL2SQL | Link | VLDB 24 |
DS-1000 | Datenanalyse | Link | ICML 23 |
InfiaGent-Dabch | Datenanalyse | Link | ICML 24 |
Tischbank | Tischerkennung | Link | LERC 20 |
PUBTABNET | Tischextraktion | Link | ECCV 20 |
Comtqa | QA visuelle Tabelle, Tabellenerkennung, Tabellenextraktion | Link | ARXIV 24 |
Name | Schlüsselwörter | Artefakt | Papier |
---|---|---|---|
TableInstruct | Tischanweisung Tuning | Link | Arxiv 23 |
WDC | Web Tabelle | Link | Www 16 |
Gittables | Github CSVs | Link | Sigmod 23 |
PFEIL | Tabelle zu Text | Link | Naacl 21 |
MMTAB | Multimodales Tabellenverständnis | Link | ACL 24 |
Schemapile | Datenbankschemata | Link | Sigmod 24 |