Domänenspezifische LLMs
Umfassende Zusammenstellung maßgeschneiderter LLMs für bestimmte Domänen und Branchen
Kontext
- Große Sprachmodelle (LLMs) haben die Landschaft der Verarbeitung natürlicher Sprache revolutioniert und zeigen beispiellose Leistungsfähigkeit bei einer Vielzahl von Aufgaben, von der einfachen Textgenerierung bis hin zur komplexen Problemlösung.
- Da sich das Potenzial von LLMs immer weiter entfaltet, besteht ein zunehmender Bedarf, diese Modelle auf bestimmte Bereiche und Branchen zuzuschneiden und sicherzustellen, dass ihre umfangreiche Wissensbasis auf spezielle Anforderungen abgestimmt ist.
- Dieses Repo zielt darauf ab, eine Datenbank mit domänenspezifischen LLMs zu erstellen, die für verschiedene Sektoren optimiert sind, von Gesundheitswesen und Recht bis hin zu Finanzen und Unterhaltung.
- Ziel ist es, die Lücke zwischen generischen LLMs und Nischenanwendungen zu schließen und Tools vorzustellen, die die einzigartigen sprachlichen Nuancen und Wissensanforderungen verschiedener Branchen wirklich verstehen und darauf eingehen.
Inhalt
- Biologie
- Finanzen
- Gesundheitspflege
- Informationstechnologie
- Telekommunikation
Biologie
Name | Typ | Beschreibung | Demo | Papier | Repo | Website |
---|
ProtGPT2 | Vortrainiert | LLM (mit 738 Millionen Parametern) speziell für Protein-Engineering und -Design durch Training im Proteinraum, der De-novo-Proteinsequenzen nach den Prinzipien natürlicher Proteinsequenzen generiert. | ? | - | - | ? |
Finanzen
Name | Typ | Beschreibung | Demo | Papier | Repo | Website |
---|
BloombergGPT | Vortrainiert | LLM mit 50 Milliarden Parametern, trainiert auf einer breiten Palette von Finanzdaten (363 Milliarden Token-Datensatz) | - | ? | - | - |
FinChat | ? | Generatives KI-Tool für die Investitionsanalyse, das dazu beiträgt, den Zeitaufwand für die Aggregation, Visualisierung und Zusammenfassung von Daten erheblich zu reduzieren. | ? | - | - | ? |
FinGPT | Fein abgestimmt | Eine Reihe von LLMs, die auf Basismodellen (z. B. Llama-2) mit offenen Finanzdaten verfeinert wurden | - | ? | ? | ? |
FinMA | Fein abgestimmt | Finanzielles LLM von der Feinabstimmung von LLaMa mit finanzbasierten Instruktionsdaten mit 136.000 Datenbeispielen | ? | ? | ? | - |
Fragen Sie FT | ? | LLM-Tool, mit dem Benutzer beliebige Fragen stellen und eine Antwort mithilfe von Inhalten der Financial Times (FT) erhalten können, die in den letzten zwei Jahrzehnten veröffentlicht wurden. | ? | ? | - | - |
Gesundheitspflege
Name | Typ | Beschreibung | Repo | Papier | Demo | Website |
---|
Med-PaLM | Fein abgestimmt | Das LLM von Google (verfeinert mit PaLM als Basismodell) wurde entwickelt, um qualitativ hochwertige Antworten auf medizinische Fragen zu liefern. | - | ? | - | ? |
Med-PaLM 2 | Fein abgestimmt | Erweiterte Version von Med-PaLM, veröffentlicht im März 2023 von Google mit verbesserter Leistung | ? | ? | ? | ? |
ApothekeGPT | Lernen im Kontext | GPT-4-Modell gekoppelt mit kontextbezogenem Lernen (dynamischer Prompting-Ansatz) unter Einbeziehung domänenspezifischer Daten | - | ? | - | - |
RUSSELL-GPT | Fein abgestimmt | LLM wurde vom National University Health System in Singapur entwickelt, um die Produktivität von Ärzten zu steigern (z. B. medizinische Fragen und Antworten, Zusammenfassung von Fallnotizen). | - | - | - | ? |
PH-LLM | Fein abgestimmt | Das Personal Health Large Language Model (PH-LLM) ist eine fein abgestimmte Version von Gemini, die darauf ausgelegt ist, Erkenntnisse und Empfehlungen zur Verbesserung des persönlichen Gesundheitsverhaltens im Zusammenhang mit Schlaf- und Fitnessmustern zu generieren. | - | ? | - | ? |
Informationstechnologie (IT)
Name | Typ | Beschreibung | Repo | Papier | Demo | Website |
---|
EULE | Fein abgestimmt | Ein umfangreiches Sprachmodell für den IT-Betrieb, das auf der Grundlage eines benutzerdefinierten Owl-Instruct-Datensatzes mit einer breiten Palette an IT-bezogenen Informationen verfeinert wurde | - | ? | - | - |
Telekommunikation
Name | Typ | Beschreibung | Repo | Papier | Demo | Website |
---|
TelecomGPT: Ein Framework zum Erstellen telekommunikationsspezifischer großer Sprachmodelle | Fein abgestimmt | Telekommunikationsspezifisches LLM, das für mehrere nachgelagerte Aufgaben im Telekommunikationsbereich verwendet werden kann | - | ? | - | - |
Zu tun