Domain Specific LLMs
1.0.0
姓名 | 類型 | 描述 | 示範 | 紙 | 回購協議 | 地點 |
---|---|---|---|---|---|---|
GPT2蛋白 | 預訓練 | 法學碩士(擁有 7.38 億個參數)專門針對蛋白質工程和設計,透過在蛋白質空間上進行培訓,按照天然序列的原則生成從頭蛋白質序列。 | ? | - | - | ? |
姓名 | 類型 | 描述 | 示範 | 紙 | 回購協議 | 地點 |
---|---|---|---|---|---|---|
彭博GPT | 預訓練 | 在廣泛的金融資料(3,630 億代幣資料集)上訓練的 500 億參數 LLM | - | ? | - | - |
金融聊天室 | ? | 用於投資研究的生成式人工智慧工具,有助於大幅減少資料聚合、視覺化和摘要的時間要求。 | ? | - | - | ? |
芬GPT | 微調 | 系列法學碩士在具有開放金融數據的基礎模型(例如 Llama-2)上進行了微調 | - | ? | ? | ? |
金融管理局 | 微調 | 金融法學碩士,透過基於金融的指示資料和 136K 資料樣本對 LLaMa 進行微調 | ? | ? | ? | - |
問英國《金融時報》 | ? | LLM 工具允許用戶使用過去二十年發布的《金融時報》(FT) 內容提出任何問題並收到回應。 | ? | ? | - | - |
姓名 | 類型 | 描述 | 回購協議 | 紙 | 示範 | 地點 |
---|---|---|---|---|---|---|
醫學PaLM | 微調 | Google 的 LLM(使用 PaLM 作為基本模型進行微調)旨在為醫學問題提供高品質的答案。 | - | ? | - | ? |
醫學-PaLM 2 | 微調 | Google 於 2023 年 3 月發布的 Med-PaLM 增強版,效能有所提升 | ? | ? | ? | ? |
藥房GPT | 情境學習 | GPT-4 模型與涉及特定領域資料的上下文學習(動態提示方法)相結合 | - | ? | - | - |
羅素-GPT | 微調 | 新加坡國立大學醫療系統開發的法學碩士旨在提高臨床醫生的生產力(例如醫學問答、病例摘要) | - | - | - | ? |
法學碩士 | 微調 | 個人健康大語言模型 (PH-LLM) 是 Gemini 的微調版本,旨在產生見解和建議,以改善與睡眠和健身模式相關的個人健康行為。 | - | ? | - | ? |
姓名 | 類型 | 描述 | 回購協議 | 紙 | 示範 | 地點 |
---|---|---|---|---|---|---|
貓頭鷹 | 微調 | 用於 IT 操作的大型語言模型,基於自訂 Owl-Instruct 資料集進行微調,其中包含廣泛的 IT 相關信息 | - | ? | - | - |
姓名 | 類型 | 描述 | 回購協議 | 紙 | 示範 | 地點 |
---|---|---|---|---|---|---|
TelecomGPT:建構電信專用大型語言模型的框架 | 微調 | 電信專用LLM,可用於電信領域的多種下游任務 | - | ? | - | - |