Domain Specific LLMs
1.0.0
姓名 | 类型 | 描述 | 演示 | 纸 | 回购协议 | 地点 |
---|---|---|---|---|---|---|
GPT2蛋白 | 预训练 | 法学硕士(拥有 7.38 亿个参数)专门针对蛋白质工程和设计,通过在蛋白质空间上进行培训,按照天然序列的原则生成从头蛋白质序列。 | ? | - | - | ? |
姓名 | 类型 | 描述 | 演示 | 纸 | 回购协议 | 地点 |
---|---|---|---|---|---|---|
彭博GPT | 预训练 | 在广泛的金融数据(3630 亿代币数据集)上训练的 500 亿参数 LLM | - | ? | - | - |
金融聊天室 | ? | 用于投资研究的生成式人工智能工具,有助于大大减少数据聚合、可视化和摘要的时间要求。 | ? | - | - | ? |
芬GPT | 微调 | 系列法学硕士在具有开放金融数据的基础模型(例如 Llama-2)上进行了微调 | - | ? | ? | ? |
金融管理局 | 微调 | 金融法学硕士,通过基于金融的指令数据和 136K 数据样本对 LLaMa 进行微调 | ? | ? | ? | - |
询问英国《金融时报》 | ? | LLM 工具允许用户使用过去二十年发布的《金融时报》(FT) 内容提出任何问题并收到答复。 | ? | ? | - | - |
姓名 | 类型 | 描述 | 回购协议 | 纸 | 演示 | 地点 |
---|---|---|---|---|---|---|
医学PaLM | 微调 | Google 的 LLM(使用 PaLM 作为基本模型进行微调)旨在为医学问题提供高质量的答案。 | - | ? | - | ? |
医学-PaLM 2 | 微调 | Google 于 2023 年 3 月发布的 Med-PaLM 增强版,性能有所提升 | ? | ? | ? | ? |
药房GPT | 情境学习 | GPT-4 模型与涉及特定领域数据的上下文学习(动态提示方法)相结合 | - | ? | - | - |
罗素-GPT | 微调 | 新加坡国立大学医疗系统开发的法学硕士旨在提高临床医生的生产力(例如医学问答、病例摘要) | - | - | - | ? |
法学硕士 | 微调 | 个人健康大语言模型 (PH-LLM) 是 Gemini 的微调版本,旨在生成见解和建议,以改善与睡眠和健身模式相关的个人健康行为。 | - | ? | - | ? |
姓名 | 类型 | 描述 | 回购协议 | 纸 | 演示 | 地点 |
---|---|---|---|---|---|---|
猫头鹰 | 微调 | 用于 IT 操作的大型语言模型,基于自定义 Owl-Instruct 数据集进行微调,其中包含广泛的 IT 相关信息 | - | ? | - | - |
姓名 | 类型 | 描述 | 回购协议 | 纸 | 演示 | 地点 |
---|---|---|---|---|---|---|
TelecomGPT:构建电信专用大型语言模型的框架 | 微调 | 电信专用LLM,可用于电信领域的多种下游任务 | - | ? | - | - |