Chinois simplifié | Anglais
Le chemin vers la mise en œuvre et la transcendance du modèle open source ChatGPT
Depuis la fuite accidentelle des poids LLaMA et les performances impressionnantes des instructions de Stanford Alpaca pour le réglage fin de LLaMA à l'aide de données construites à partir de l'API gpt-3 de manière auto-instructive, la communauté open source est devenue de plus en plus intéressée par la réalisation d'un grand modèle de langage au niveau de ChatGPT. De plus en plus d'espoir.
Ce dépôt a pour but d'enregistrer ce processus de reproduction et de transcendance, et de fournir une vue d'ensemble à la communauté.
Y compris : progrès technologiques associés, modèles de base, modèles de domaine, formation, raisonnement, technologie, données, multi-langue, multi-modalité, etc.
donateur | modèle/projet | licence | langue | caractéristique principale |
---|---|---|---|---|
Méta | LLaMA/LLaMA2 | multi | LLaMA-13B surpasse le GPT-3(175B) et le LLaMA-65B est compétitif par rapport au PaLM-540M. Modèle de base pour la plupart des travaux ultérieurs. | |
CâlinsFace-BigScience | FLORAISON | multi | un grand modèle linguistique (LLM) autorégressif formé par HuggingFace BigScience. | |
CâlinsFace-BigScience | BLOOMZ | multi | version optimisée pour les instructions des modèles de langage multilingues pré-entraînés BLOOM et mT5 sur le mélange de tâches multilingues. | |
EleutherAI | GPT-J | fr | modèle de transformateur formé à l'aide de Mesh Transformer JAX de Ben Wang. | |
Méta | OPTER | fr | Modèles de langage de transformateur pré-entraînés ouverts, l'objectif du développement de cette suite de modèles OPT est de permettre la reproduction et responsable à grande échelle, et de faire entendre davantage de voix dans l'étude de l'impact de ces LLM. | |
Systèmes cérébraux | Cérébras-GPT | fr | LLM pré-entraîné, de type GPT-3, disponible dans le commerce, formé efficacement sur le supercalculateur Andromeda AI, formé conformément aux lois de mise à l'échelle Chinchilla (20 jetons par paramètre de modèle), ce qui est optimal pour le calcul. | |
EleutherAI | python | fr | combiner l'analyse d'interprétabilité et les lois de mise à l'échelle pour comprendre comment les connaissances se développent et évolue au cours de la formation en transformateurs autorégressifs. | |
Stabilité-IA | StableLM | fr | Modèles de langage d'IA de stabilité | |
FDU | MOUSSE | fr/zh | Un modèle de langage conversationnel augmenté par un outil open source de l'Université de Fudan. | |
symétrie et FDU | BBT-2 | zh | 12B LM open source. | |
@mlfoundations | OuvrirFlamingo | fr | Un framework open source pour la formation de grands modèles multimodaux. | |
EleutherAI | GPT-NeoX-20B | fr | Son architecture ressemble volontairement à celle du GPT-3, et est quasiment identique à celle du GPT-J-6B. | |
UCB | OuvrirLLaMA | Apache-2.0 | fr | Une reproduction ouverte de LLaMA. |
MosaïqueML | MPT | Apache-2.0 | fr | MPT-7B est un modèle de style GPT et le premier de la série de modèles MosaicML Foundation. Formé sur les jetons 1T d'un ensemble de données organisé par MosaicML, MPT-7B est open-source, utilisable commercialement et équivalent à LLaMa 7B sur les métriques d'évaluation. |
EnsembleOrdinateur | RedPajama-INCITE-Base-3B-v1 | Apache-2.0 | fr | Un modèle de langage pré-entraîné de paramètres 2,8B, pré-entraîné sur RedPajama-Data-1T, avec une version adaptée aux instructions et une version de chat. |
Lightning-AI | Lit-LLaMA | Apache-2.0 | - | Implémentation indépendante de LLaMA entièrement open source sous licence Apache 2.0. |
@conceptofmind | PLM | Licence MIT | fr | Une implémentation open source des modèles Google PaLM. |
TII | Faucon-7B | Licence TII Falcon LLM | fr | un modèle de décodeur causal uniquement à 7 B de paramètres construit par TII et formé sur 1 500 B de jetons de RefinedWeb amélioré avec des corpus organisés. |
TII | Faucon-40B | Licence LLM TII Falcon | multi | un modèle causal de 40 milliards de paramètres uniquement construit par TII et formé sur 1 000 milliards de jetons de RefinedWeb amélioré avec des corpus organisés. |
TigreRecherche | Robot Tigre | Apache-2.0 | fr/zh | un LLM multilingue et multitâche. |
BAAI | Aquila/Aquila2 | BAAI_Aquila_Model_License | fr/zh | Le modèle de langage Aquila hérite des avantages de conception architecturale de GPT-3 et LLaMA, remplaçant un lot de logiciels sous-jacents plus efficaces. implémentations des opérateurs et refonte du tokenizer pour le support bilingue chinois-anglais. |
OuvrirBMB | CPM-Abeille | Modèle universel de contrat de licence - Déclaration de la source - Restrictions en matière de publicité - Autorisation commerciale | fr/zh | CPM-Bee est un modèle de base bilingue chinois-anglais entièrement open source et commercialement utilisable, avec une capacité de dix milliards de paramètres. Et a été pré-formé sur un vaste corpus de jetons à l’échelle d’un billion. |
Baichuan | baichuan-7B | Apache-2.0 | fr/zh | Il a obtenu les meilleures performances parmi les modèles de même taille en standard Benchmarks faisant autorité en chinois et en anglais (C-EVAL, MMLU, etc.). |
Tencent | lyraChatGLM | Licence MIT | fr/zh | À notre connaissance, il s'agit de la première version accélérée de ChatGLM-6B . La vitesse d'inférence de lyraChatGLM a atteint une accélération de 300 fois par rapport à la première version originale. Nous travaillons toujours dur pour améliorer encore les performances. |
Force de vente | XGen | Apache-2.0 | multi | LLM open source Salesforce avec une longueur de séquence de 8 000 |
Laboratoire d'IA de Shanghai | StagiaireLM | Apache-2.0 | fr/zh | InternLM propose en open source un modèle de base de 7 milliards de paramètres et un modèle de chat adapté à des scénarios pratiques. Le modèle présente les caractéristiques suivantes : Il exploite des milliards de jetons de haute qualité pour la formation afin d'établir une puissante base de connaissances. Il prend en charge une longueur de fenêtre contextuelle de 8 Ko, permettant des séquences d'entrée plus longues et des capacités de raisonnement plus fortes. Il fournit un ensemble d'outils polyvalents permettant aux utilisateurs de créer de manière flexible leurs propres flux de travail. |
xverse-ai | XVERS | Apache-2.0 | multi | LLM multilingues développés par XVERSE Technology Inc. |
Écrivain | palmyre | Apache-2.0 | fr | extrêmement puissant tout en étant extrêmement rapide. Ce modèle excelle dans de nombreuses tâches nuancées. tels que la classification et la synthèse des sentiments. |
Mistral IA | Mistral | Apache-2.0 | fr | Mistral 7B est un modèle paramétrique 7.3B qui : 1. Surclasse Llama 2 13B sur tous les benchmarks 2. Surclasse Llama 1 34B sur de nombreux benchmarks 3. Se rapproche des performances de CodeLlama 7B sur le code, tout en restant bon dans les tâches en anglais 4. Utilise l'attention des requêtes groupées (GQA) pour une inférence plus rapide 5. Utilise l'attention par fenêtre coulissante (SWA) pour gérer des séquences plus longues à moindre coût |
SkyworkAI | Travail aérien | - | fr/zh | Dans les principaux benchmarks d'évaluation, Skywork-13B est à l'avant-garde des modèles open source chinois et constitue le niveau optimal selon la même échelle de paramètres ; il peut être utilisé commercialement sans application ; il a également un ensemble de données chinoises open source de 600 G (150 milliards de jetons). |
01.IA | Yi | - | fr/zh | Les modèles de la série Yi sont de grands modèles de langage formés à partir de zéro par les développeurs de 01.AI. |
Systèmes IEIT | Yuan-2.0 | - | fr/zh | Dans ce travail, l'attention basée sur le filtrage localisé (LFA) est introduite pour incorporer la connaissance préalable des dépendances locales du langage naturel dans l'attention. Sur la base de LFA, nous développons et publions Yuan 2.0, un grand modèle de langage avec des paramètres allant de 2,1 milliards à 102,6 milliards. Une méthode de filtrage et de génération de données. est présenté pour créer un ensemble de données de pré-entraînement et de réglage fin de haute qualité. Une méthode de formation distribuée avec un pipeline parallèle non uniforme, un parallèle de données et un parallèle d'optimiseur est proposée, ce qui réduit considérablement les besoins en bande passante de la communication intra-nœud et permet d'obtenir de bonnes performances dans la formation distribuée à grande échelle. Les modèles Yuan 2.0 affichent des capacités impressionnantes en matière de génération de code, de résolution de problèmes mathématiques et de chat par rapport aux modèles existants. |
Nanbeige | Nanbeige | Apache-2.0 | fr/zh | Nanbeige-16B est un modèle de langage de 16 milliards de paramètres développé par Nanbeige LLM Lab. Il utilise des jetons 2,5T pour la pré-formation. Les données de formation comprennent une grande quantité de corpus Internet de haute qualité, divers livres, codes, etc. bons résultats sur divers ensembles de données d'évaluation faisant autorité. Cette version inclut Base, Chat, Base-32k et Chat-32k. |
recherche profonde-ai | recherche profonde-LLM | Licence MIT | fr/zh | un modèle linguistique avancé comprenant 67 milliards de paramètres. Il a été formé à partir de zéro sur un vaste ensemble de données de 2 000 milliards de jetons en anglais et en chinois. |
LLM360 | LLM360 | - | - | La plupart des versions open source de LLM incluent les pondérations du modèle et les résultats d'évaluation. Cependant, des informations supplémentaires sont souvent nécessaires pour véritablement comprendre le comportement d'un modèle, et ces informations ne sont généralement pas disponibles pour la plupart des chercheurs. C'est pourquoi nous nous engageons à publier tous les points de contrôle intermédiaires (. jusqu'à 360 !) collectées pendant la formation, toutes les données de formation (et leur mappage aux points de contrôle), toutes les métriques collectées (par exemple, perte, norme de gradient, résultats d'évaluation) et tout le code source pour le prétraitement des données et la formation du modèle. les artefacts peuvent aider Les chercheurs et les praticiens pourront approfondir le processus de construction du LLM et mener des recherches telles que l'analyse de la dynamique des modèles. Nous espérons que LLM360 pourra contribuer à rendre les LLM avancés plus transparents, à favoriser la recherche dans des laboratoires à plus petite échelle et à améliorer la reproductibilité de la recherche sur l'IA. |
FDU, etc. | CT-LLM | - | zh/fr | En se concentrant sur la langue chinoise, CT-LLM utilise principalement des données chinoises provenant d'un corpus de 1 200 milliards de jetons, dont 800 milliards de chinois, 300 milliards d'anglais et 100 milliards de jetons de code en open source. traitement des données et le Massive Appropriate Pretraining Chinese Corpus (MAP-CC), et en introduisant le Chinese Hard Case Benchmark (CHC-Bench), nous encourageons la poursuite de la recherche et de l'innovation, visant pour des modèles linguistiques plus inclusifs et adaptables. |
Laboratoire du Tigre | CARTE-NEO | - | zh/fr | Le premier grand modèle open source pour l'ensemble du processus, du traitement des données à la formation du modèle et aux pondérations du modèle. |
Camp de données | DCLM | - | - | Fournit des outils et des conseils pour le traitement des données brutes, la tokenisation, le brassage des données, la formation des modèles et l'évaluation des performances. Le modèle de base 7B offre d’excellentes performances. |
donateur | modèle | domaine | langue | modèle de base | caractéristique principale |
---|---|---|---|---|---|
UT Sud-Ouest/ UIUC/OSU/HDU | ChatDocteur | médical | fr | LAMA | Peut-être le premier modèle de chat spécifique à un domaine optimisé sur LLaMA. |
Cambridge | Visual Med-Alpaga | biomédical | fr | LLaMA-7B | un modèle de fondation multimodal conçu spécifiquement pour le domaine biomédical. |
FRAPPER | BenTsao/ChatGLM-Med | médical | zh | LLaMA/ChatGLM | affiné avec l'ensemble de données de connaissances médicales chinoises, généré à l'aide de l'API gpt3.5. |
ShanghaiTech, etc. | DocteurGLM | médical | fr/zh | ChatGLM-6B | Modèle de consultation médicale chinois affiné sur ChatGLM-6B. |
JEU AIR | BioMedGPT-1.6B | biomédical | fr/zh | - | un modèle de fondation moléculaire multimodal pré-entraîné avec des paramètres 1.6B qui associe des graphiques moléculaires 2D à des textes. |
@LiuHC0428 | LawGPT_fr | légal | zh | ChatGLM-6B | un modèle général dans le domaine juridique chinois, formé sur des données générées via Reliable-Self-Instruction. |
SJTU | MédicalGPT-zh | médical | zh | ChatGLM-6B | un modèle général dans le domaine médical chinois, des données diverses générées via l'auto-instruction. |
SJTU | PMC-LLaMA | médical | zh | LAMA | Poursuivre la formation LLaMA sur les papiers médicaux. |
ÉtreindreVisage | Codeur étoile | génération de code | fr | - | un modèle de langage (LM) formé sur le code source et le texte en langage naturel. Ses données de formation intègrent plus de 1 000 000 000 $. 80 langages de programmation différents ainsi que du texte extrait des tickets et commits GitHub et des notebooks. |
@CogStack | NHS-LLM | médical | fr | pas clair | Un modèle conversationnel pour les soins de santé formés à l'aide d'OpenGPT. |
@pengxiao-chanson | LoiWGPT | légal | zh | LLaMA/ChatGLM | élargissez le vocabulaire avec des terminologies juridiques chinoises et des instructions affinées sur les données générées par l'auto-instruction. |
Duxiaoman | Xuanyuan | finance | zh | FLEUR-176B | Un grand modèle de discussion financière chinois avec des centaines de milliards de paramètres. |
CUHK | HuatuoGPT | médical | zh | pas clair | HuatuoGPT, un grand modèle linguistique (LLM) formé sur un vaste corpus médical chinois Notre objectif avec HuatuoGPT est. pour construire un « ChatGPT » plus professionnel pour les scénarios de consultation médicale. |
PCU | Avocat LLaMA | légal | zh | LAMA | continuer la pré-formation sur les données juridiques chinoises, l'enseignement axé sur les examens juridiques et le conseil juridique par paires. |
JEU | LexiLaw | légal | zh | ChatGLM-6B | formé sur un mélange de données générales (BELLE 1.5M) et de données juridiques |
JEU, etc. | taoli | éducation | zh | LAMA | Un grand modèle pour l'éducation chinoise internationale. Il étend le vocabulaire spécifique sur le modèle de base, et utilise l'ensemble de données propriétaires du domaine pour le réglage fin des instructions. |
NOUS | Chèvre | arithmétique | fr | LAMA | un modèle LLaMA affiné qui surpasse considérablement le GPT-4 sur une gamme de tâches arithmétiques. Affiné sur un ensemble de données généré synthétiquement, Goat atteint des performances de pointe sur la sous-tâche arithmétique du BIG-bench. |
CU/NYU | FinGPT | finance | fr | - | un cadre open source de bout en bout pour les grands modèles de langage financier (FinLLM). |
Microsoft | AssistantCodeur | génération de code | fr | Codeur étoile | formé avec 78 000 instructions de code évoluées surpasse Claude-Plus (+6,8) , Bard (+15,3) et InstructCodeT5+ (+22,3) sur les références HumanEval. |
UCA | Corne d'abondance | finance | zh | LAMA | affiner LLaMA sur les connaissances financières chinoises, |
PCU | ChatDroit | légal | zh | Ziya/Anima | Modèle de domaine juridique chinois. |
@michael-wzhu | ChatMed | médical | zh | LAMA | LLM médical chinois basé sur LLaMA-7B. |
QUEUE | Chat d'âme | santé mentale | zh | ChatGLM-6B | LLM de dialogue chinois dans le domaine de la santé mentale, basé sur ChatGLM-6B. |
@shibing624 | MédicalGPT | médical | zh | ChatGLM-6B | Formation de votre propre modèle GPT médical avec le pipeline de formation ChatGPT. |
BJTU | TransGPT | transport | zh | LLaMA-7B | Modèle de transport chinois. |
BAAI | AquilaCode | génération de code | multi | Aquila | AquilaCode-multi est un modèle multilingue qui prend en charge la génération de code de haute précision pour divers langages de programmation, notamment Python/C++/Java/Javascript/Go, etc. Il a obtenu des résultats impressionnants dans l'évaluation HumanEval (Python), avec des scores Pass@1, Pass@10 et Pass@100 de 26/45,7/71,6, respectivement dans HumanEval-X. évaluation de génération de code multilingue, il surpasse considérablement les autres modèles open source avec des paramètres similaires (au 19 juillet 2023). AquilaCode-py, quant à lui, est une version Python monolingue du modèle qui se concentre sur la génération de code Python. Il a également démontré d'excellentes performances dans l'évaluation HumanEval, avec des scores Pass@1, Pass@10 et Pass@100 de 28,8/50,6/76,9 (au 19 juillet 2023). |
Méta | CodeLLaMA | génération de code | multi | LLaMA-2 | une famille de grands modèles de langage pour le code basé sur Llama 2 offrant des performances de pointe parmi les modèles ouverts, des capacités de remplissage, prise en charge de contextes d'entrée volumineux et capacité de suivi d'instructions sans tir pour les tâches de programmation. |
UNSW, etc. | Darwin | sciences naturelles | fr | LLaMA-7B | le premier LLM open source pour les sciences naturelles, principalement en physique, chimie et science des matériaux. |
alibaba | EcoGPT | commerce électronique | fr/zh | BLOOMZ | Un modèle de langage étendu adapté aux instructions pour le commerce électronique. |
TIGER-AI-Lab | Mammouth | mathématiques | fr | LLaMA2/CodeLLaMA | une série de grands modèles de langage (LLM) open source spécialement conçus pour la résolution de problèmes mathématiques généraux. Les modèles MAmmoTH sont formés sur MathInstruct, un ensemble de données de réglage des instructions méticuleusement organisé, léger mais généralisable, MathInstruct est compilé à partir de 13 ensembles de données de justification mathématique, dont six sont nouvellement organisés par ce travail. Il se concentre uniquement sur l'utilisation hybride des logiques de chaîne de pensée (CoT) et de programme de pensée (PoT), et assure une couverture étendue de divers domaines mathématiques. |
SJTU | Abel | mathématiques | fr | LLaMA2 | Nous proposons la surveillance parentale *, une stratégie de garde d'enfants pour un réglage fin supervisé, Parental Oversight ne se limite pas à une méthode de traitement de données spécifique, elle définit plutôt la philosophie de traitement des données qui devrait guider le réglage fin supervisé à l'ère de l'IA générative (GAI). . |
FDU | DISC-LoiLLM | légal | zh | Baichuan-13B | FudanDISC a publié DISC-LawLLM, un système juridique chinois intelligent piloté par un grand modèle linguistique. Le système peut fournir divers services juridiques à différents groupes d'utilisateurs. De plus, DISC-Law-Eval est conçu pour évaluer le grand modèle de langage juridique sous des aspects objectifs et subjectifs. Ce modèle présente des avantages évidents par rapport aux grands modèles juridiques existants. L’équipe a également mis à disposition un ensemble de données de réglage fin supervisé (SFT) de haute qualité de 300 000, DISC-Law-SFT. |
HKU, etc. | ChatPsychiatre | santé mentale | fr | LLaMA-7B | Ce référentiel ouvre les sources du modèle LLaMA-7B optimisé par Instruct qui a été affiné avec les données d'instructions Domian de conseil. Pour construire notre ensemble de données de réglage des instructions de taille 8K, nous avons collecté des exemples réels de dialogues de conseil et utilisé GPT-4 comme extracteur et filtre. De plus, nous avons introduit un ensemble complet de mesures, spécifiquement adaptées au domaine LLM+Counseling, en incorporant des critères d'évaluation du conseil dans le domaine. Ces mesures permettent d'évaluer la performance dans la génération de contenu linguistique qui implique des compétences de conseil multidimensionnelles. |
CAS | ÉtoileWhisper | astronomique | zh | - | StarWhisper, un grand modèle astronomique, améliore considérablement la logique de raisonnement et l'intégrité du modèle grâce à la mise au point d'un corpus astrophysique labellisé par des experts, formation logique de textes longs et optimisation directe des préférences dans le CG-Eval publié conjointement par le Keguei AI Research Institute et LanguageX AI Lab, il a atteint la deuxième place au classement général, juste en dessous du GPT-4, et son raisonnement mathématique et ses capacités astronomiques sont proches ou dépassent le GPT 3.5 Turbo. |
ZhiPuAI | FinGLM | finance | zh | ChatGLM | solutions de SMP2023-ELMFT (L'évaluation du grand modèle de technologie financière). |
PCU, etc. | CodeShell | génération de code | fr/zh | - | CodeShell est un modèle de langage étendu (LLM) développé conjointement par le Knowledge Computing Lab de l'Université de Pékin et l'équipe d'IA de la Sichuan Tianfu Bank CodeShell comporte 7 milliards de paramètres, a été formé sur 500 milliards de jetons et a une longueur de fenêtre de contexte de 8 192. Sur les benchmarks d'évaluation de code faisant autorité (HumanEval et MBPP), CodeShell atteint les meilleures performances pour des modèles de cette envergure. |
FDU | DISC-FinLLM | finance | zh | Baichuan-13B-Chat | DISC-FinLLM est un grand modèle de langage dans le domaine financier. Il s'agit d'un système financier intelligent multi-expert composé de quatre modules pour différents scénarios financiers : conseil financier, analyse de textes financiers, calcul financier, récupération de connaissances financières et réponse aux questions. |
Recherche profonde | Codeur de recherche profonde | génération de code | fr/zh | - | Deepseek Coder comprend une série de modèles de langage de code formés à la fois à 87 % de code et à 13 % de langage naturel en anglais et en chinois, chaque modèle étant pré-entraîné sur des jetons 2T. Pour les capacités de codage, Deepseek Coder atteint des performances de pointe parmi les modèles de code open source sur plusieurs langages de programmation et divers benchmarks. |
Microsoft | MathOctopus | mathématiques | multi | LLaMA2 | Ce travail est pionnier dans l'exploration et la construction de puissants LLM de raisonnement mathématique multilingue (xMR). Pour y parvenir, nous réalisons les travaux suivants : 1. MGSM8KInstruct , le premier ensemble de données d'instructions de raisonnement mathématique multilingue, englobant dix langues distinctes, abordant ainsi le problème de la rareté des données d'entraînement dans les tâches xMR. 2. MSVAMP , un ensemble de données de test xMR hors domaine, pour mener une évaluation plus exhaustive et complète des capacités mathématiques multilingues du modèle. 3. MathOctopus , nos LLM de raisonnement mathématique multilingue efficaces, s'entraînant avec différentes stratégies, qui surpassent notamment les LLM open source conventionnels et présentent une supériorité sur ChatGPT dans des scénarios à quelques tirs. |
ITREC | Zh-MT-LLM | maritime | fr/zh | ChatGLM3-6b | Les données de formation utilisent les données du domaine maritime Zh-mt-sft organisées en trois segments principaux et les données de conversation générale 30w datamoss-003-sft-data Zh-mt-sft contiennent spécifiquement CrimeKgAssitant-1.8w, Zh-law-qa et. Zh-law-tribunal lié aux lois et réglementations maritimes Questions et réponses, Zh-edu-qa et Zh-edu-qb liés à l'éducation et à la formation maritimes, et Zh-mt-qa lié aux questions et réponses sur les connaissances spécialisées maritimes. |
@SmartFlowAI | ÉmoLLM | santé mentale | zh | - | EmoLLM est une série de grands modèles de santé mentale qui peuvent aider à comprendre les utilisateurs - à soutenir les utilisateurs - à aider les utilisateurs à créer des liens de conseil en santé mentale, affinés à partir des instructions LLM . |
quelques modèles médicaux : ici
quelques llms de domaine : Awesome-Domain-LLM
modèles de guérison : Awesome-Healthcare-Foundation-Models
donateur | modèle/projet | langue | modèle de base | caractéristique principale |
---|---|---|---|---|
Stanford | Alpaga | fr | LLaMA/OPT | utiliser les données de suivi d'instructions 52K générées par les techniques d'auto-instruction pour affiner 7B LLaMA, le modèle résultant, Alpaca, se comporte de manière similaire au modèle text-davinci-003 de la suite d'évaluation de suivi d'instructions Self-Instruct.L'alpaga a inspiré de nombreux modèles de suivi. |
LianJiaTech | BELLE | fr/zh | BLOOMZ-7B1-mt | peut-être le premier modèle chinois à suivre Alpaca. |
JEU | ChatGLM-6B | fr/zh | - | modèle chinois bien connu. |
Briques de données | Chariot | fr | GPT-J6B | utiliser les données Alpaca pour affiner un modèle vieux de 2 ans : GPT-J, qui présente une qualité étonnamment élevée instruction suivant un comportement non caractéristique du modèle de fondation sur lequel elle se base. |
@tloen | Alpaga-LoRA | fr | LLaMA-7B | formé en quelques heures sur un seul RTX 4090, reproduire les résultats de Stanford Alpaca en utilisant l'adaptation de bas rang (LoRA), et peut fonctionner sur un Raspberry pi. |
ColossalAI | Coati7B | fr/zh | LLaMA-7B | un grand modèle de langage développé par le projet ColossalChat |
Laboratoire d'IA de Shanghai | Adaptateur LLaMA | fr | LLaMA-7B | Affiner LLaMA pour suivre les instructions dans un délai d'une heure et 1,2 million de paramètres |
ÉtherCortex | Lama-X | fr | LAMA | Recherche universitaire ouverte sur l'amélioration de LLaMA en SOTA LLM. |
EnsembleOrdinateur | Kit de chat ouvert | fr | GPT-NeoX-20B | OpenChatKit fournit une base puissante et open source pour créer des chatbots spécialisés et généraux pour diverses applications. Le kit comprend des modèles de langage adaptés aux instructions, un modèle de modération et un système de récupération extensible pour inclure réponses à jour des référentiels personnalisés. |
nomic-ai | GPT4Tous | fr | LAMA | formé sur une collection massive de données d'assistant propres, y compris du code, des histoires et des dialogues |
@ymcui | Chinois-LLaMA-Alpaga | fr/zh | LLaMA-7B/13B | élargir le vocabulaire chinois basé sur le LLaMA original et utiliser les données chinoises pour la pré-formation secondaire, améliorer encore la compréhension sémantique de base du chinois. De plus, le projet utilise des données d'instructions chinoises. pour un réglage fin sur la base du LLaMA chinois, améliorant considérablement la compréhension et l'exécution des instructions du modèle. |
Université de Berkley Stanford CMU | Vigogne | fr | LLaMA-13B | GPT-4 impressionnant avec une qualité ChatGPT de 90 %. |
UCSD/SYSU | tapis | fr/zh | LAMA | affiné avec LoRA. Il utilise 100 000 boîtes de dialogue générées en laissant ChatGPT discuter avec lui-même. Les données d'Alpaca sont également utilisées pour améliorer ses performances. |
Université de Berkley | Koala | fr | LAMA | Plutôt que de maximiser la quantité en récupérant autant de données Web que possible, l'équipe se concentre sur la collecte d'un petit ensemble de données de haute qualité . |
@imClumsyPanda | langchain-ChatGLM | fr/zh | ChatGLM-6B | ChatGLM basé sur les connaissances locales avec langchain. |
@yangjianxin1 | Luciole | zh | bloom-1b4-zh bloom-2b6-zh | Réglage des instructions sur l'ensemble de données chinois. Élagage du vocabulaire, ZeRO et parallélisme tensoriel. sont utilisés pour réduire efficacement la consommation de mémoire et améliorer l’efficacité de la formation. |
Microsoft | GPT-4-LLM | fr/zh | LAMA | vise à partager les données générées par GPT-4 pour créer un LLM suivant les instructions avec apprentissage supervisé et apprentissage par renforcement. |
Visage câlin | PileLLaMA | fr | LAMA | formé sur les données StackExchange et l'objectif principal est de servir de tutoriel et de présentation pas à pas sur comment former un modèle avec RLHF et pas principalement les performances du modèle. |
Nébuleuse | ChatLLaMA | fr | - | une bibliothèque qui vous permet de créer des assistants hyper-personnalisés de type ChatGPT en utilisant vos propres données et le moins de calcul possible. |
@juncongmoo | ChatLLaMA | fr | LAMA | Modèle RLHF basé sur LLaMA, exécutable sur un seul GPU. |
@juncongmoo | minichatgpt | fr | GPT/OPT... | Pour former ChatGPT en 5 minutes avec ColossalAI. |
@LC1332 | Luotuo-Chinois-LLM | zh | LLaMA/ChatGLM | Instruction de modèles de langue chinoise affinés, avec colab fourni ! |
@Facico | Chinois-Vigogne | zh | LAMA | Un modèle basé sur LLaMA suivant les instructions chinoises, affiné avec Lora, inférence cpp prise en charge, colab fourni. |
@yanqiangmiffy | InstruireGLM | fr/zh | ChatGLM-6B | Le modèle de suivi d'instructions basé sur ChatGLM, affiné sur une variété de sources de données, prend en charge l'accélération à grande vitesse et LoRA. |
alibaba | Wombat | fr | LAMA | un nouveau paradigme d'apprentissage appelé RRHF, comme alternative au RLHF, est proposé, qui note les réponses générées par différentes politiques d'échantillonnage et apprend à les aligner sur les préférences humaines grâce à la perte de classement et aux performances. est comparable au RLHF, avec moins de modèles utilisés dans le processus. |
@WuJunde | alpaga-glassoff | fr | LAMA | une mini IA de chat acceptant les images peut fonctionner sur votre propre ordinateur portable, basée sur Stanford-alpaca et alpaca-lora. |
@JosephusCheung | Guanaco | multi | LLaMA-7B | Un modèle linguistique multilingue qui suit les instructions. |
@FreedomIntelligence | LLM Zoo | multi | BLOOMZ/LLaMA | un projet qui fournit des données, des modèles et des critères d'évaluation pour les grands modèles de langage. modèle sorti : Phoenix, Chimère |
SZU | Linly | fr/zh | LAMA | élargissez le vocabulaire chinois , des modèles entièrement affinés, les plus grands modèles chinois basés sur LLaMA, l'agrégation de données d'instructions chinoises, des détails reproductibles. |
@lamini-ai | lame | multi | - | générateur de données pour générer des instructions pour former des LLM qui suivent les instructions. |
Stabilité-IA | StableVigogne | fr | LAMA | une version d'instructions supplémentaires affinée et formée par RLHF de Vicuna v0 13b, avec de meilleures performances que Vicuna. |
Visage câlin | CâlinsChat | fr | LAMA | semble être la première accessible en tant que plate-forme qui semble similaire à ChatGPT. |
Microsoft | AssistantLM | fr | LAMA | formé avec 70 000 instructions évoluées, Evol-Instruct est une nouvelle méthode utilisant des LLM au lieu d'humains pour produire automatiquement en masse instructions en domaine ouvert de différents niveaux de difficulté et gamme de compétences, pour améliorer les performances des LLM. |
FDU | OuvertChinoisLLaMA | fr/zh | LLaMA-7B | préformer davantage LLaMA sur les données chinoises, améliorant ainsi les performances de LLaMA sur les tâches chinoises. |
@chenfeng357 | ouvrir-Chinois-ChatLLaMA | fr/zh | LAMA | Le code de formation complet du modèle open source Chinese-Llama, y compris le processus complet depuis l'instruction préalable à la formation et le RLHF. |
@FSoft-AI4Code | CodeCapybara | fr | LAMA | Modèle LLaMA Open Source qui suit le réglage des instructions pour la génération de code. |
@mbzuai-nlp | LaMini-LM | fr | LLaMA/Flan-T5... | Un troupeau diversifié de modèles distillés à partir d'instructions à grande échelle. |
NTU | Panda | fr/zh | LAMA | pré-formation supplémentaire sur les données chinoises, taille réelle des modèles LLaMA. |
IBM/CMU/MIT | Dromadaire | fr | LLaMA-65B | Auto-alignement basé sur des principes des modèles de langage à partir de zéro avec une supervision humaine minimale. |
@melodysdreamj | AssistantVicunaLM | multi | Vigogne | Ensemble de données du Wizard + extension de conversation de ChatGPT + méthode de réglage de Vicuna, obtenant une amélioration des performances d'environ 7 % par rapport à Vicuna. |
systèmes sambanova | BLOOMChat | multi | FLORAISON | BLOOMChat est un modèle de chat multilingue de 176 milliards de paramètres. Il s'agit d'instructions adaptées à partir de BLOOM (176B) sur. ensembles de données de conversation de style assistant et prend en charge la conversation, la réponse aux questions et les réponses génératives dans plusieurs langues. |
TII | Falcon-7B-Instruire | fr | Faucon-7B | un modèle causal de paramètres 7B uniquement construit par TII basé sur Falcon-7B et affiné sur un mélange d'ensembles de données de discussion/instruction. |
TII | Falcon-40B-Instruire | multi | Faucon-40B | un modèle causal de paramètres 40B uniquement avec décodeur construit par TII basé sur Falcon-40B et affiné sur un mélange de Baize. |
USTC, etc. | ExpertLLaMA | fr | LAMA | utilisez l'apprentissage en contexte pour rédiger automatiquement une identité d'expert personnalisée et trouver la qualité tout à fait satisfaisante. Nous ajoutons ensuite l’identité d’expert correspondante à chaque instruction pour produire des données de suivi d’instruction augmentées. Nous appelons le cadre global ExpertPrompting , pour plus de détails dans notre article. |
ZJU | CaMA | fr/zh | LAMA | formation supplémentaire sur les courpus chinois sans expansion du vocabulaire optimisé sur les tâches d'extraction d'informations (IE). Un script de pré-formation est disponible, qui comprend les transformations, la construction et le chargement de corpus à grande échelle, ainsi que le script de réglage fin des instructions LoRA. |
JEU | UltraChat | fr | LAMA | Premièrement, l'ensemble de données UltraChat fournit une riche ressource pour la formation des chatbots. Deuxièmement, en affinant le modèle LLaMA, les chercheurs ont réussi à créer un modèle de dialogue UltraLLaMA avec des performances supérieures. |
RUC | YuLan-Chat | fr/zh | LAMA | développé sur la base d'un réglage fin de LLaMA avec des instructions en anglais et en chinois de haute qualité. |
AI2 | Tulu | fr | LLaMA/Pythie/OPT | une suite de modèles LLaMa entièrement affinés sur un large éventail d'ensembles de données. |
KAIST | Frais personnels | fr | LAMA | LLM itératif à auto-révision renforcé par la génération d'auto-feedback. |
@lyogavin | Anima | fr/zh | LAMA | formé sur la base du guanaco 33B de QLoRA, affiné pour 10 000 étapes. |
JEU | ChatGLM2-6B | fr/zh | - | ChatGLM 2 -6B est la version de deuxième génération du modèle de chat open source bilingue (chinois-anglais) ChatGLM-6B. Il conserve le flux de conversation fluide et le faible seuil de déploiement du modèle de première génération, tout en introduisant les nouvelles fonctionnalités suivantes : -Des performances plus fortes - Contexte plus long - Inférence plus efficace - Licence plus ouverte |
Chat ouvert | Chat ouvert | fr | LLaMA, etc. | une série de modèles de langage open source affinés sur un ensemble de données restreint, mais diversifié et de haute qualité, de conversations à plusieurs tours. Plus précisément, nous utilisons uniquement environ 6 000 conversations GPT-4 directement filtrées à partir des ~ 90 000 conversations ShareGPT. Malgré la petite taille de l'ensemble de données, OpenLLM a démontré des performances remarquables. |
CAS | BayLing | multi | LAMA | BayLing est un LLM anglais/chinois équipé d'un alignement linguistique avancé, montrant une capacité supérieure en génération anglais/chinois, suivi des instructions et interaction multi-tours. |
stabilitéai | LibreWilly/LibreWilly2 | fr | LLaMA/LLaMA2 | FreeWilly est un modèle Llama65B affiné sur un ensemble de données de style Orca.FreeWilly2 est un modèle Llama2 70B affiné sur un ensemble de données de style Orca.FreeWilly2 surpasse Llama2 70B dans le classement Huggingface Open LLM. |
alibaba | Qwen-7B | fr/zh | - | Version à paramètres 7B de la grande série de modèles de langage, Qwen (abbr. Tongyi Qianwen), proposée par Alibaba Cloud. |
ZJU | ConnaîtreLM | fr/zh | LAMA | Avec le développement rapide de la technologie d'apprentissage profond, les grands modèles de langage tels que ChatGPT ont fait des progrès substantiels dans le domaine du traitement du langage naturel. Cependant, ces modèles expansifs se heurtent encore à plusieurs défis dans l’acquisition et la compréhension des connaissances, notamment la difficulté de mettre à jour les connaissances et les connaissances potentielles. divergences et préjugés, collectivement appelés erreurs de connaissances . Le projet KnowLM s'efforce de résoudre ces problèmes en lançant un cadre de modèle de langage connaissable à grande échelle open source et en publiant les modèles correspondants. |
NEU | TechGPT | fr/zh | LAMA | TechGPT renforce principalement les trois types de tâches suivants : - Diverses tâches d'extraction d'informations telles que l'extraction de triplets de relations avec la "construction de graphe de connaissances" comme noyau - Diverses tâches intelligentes de questions-réponses centrées sur la « compréhension écrite ». - Diverses tâches de génération de séquences telles que la génération de mots-clés avec la « compréhension du texte » comme noyau. |
@MiuLab | Taïwan-LLaMa | fr/zh | LLaMA2 | LLM chinois traditionnel pour Taiwan. |
Xwin-LM | Xwin-LM | fr | LLaMA2 | Xwin-LM vise à développer des technologies d'alignement open source pour les grands modèles de langage, y compris le réglage fin supervisé (SFT), modèles de récompense (RM), échantillonnage de rejet, apprentissage par renforcement à partir de commentaires humains (RLHF), etc. Notre première version, basée sur le Modèles de base Llama2, classés TOP-1 sur AlpacaEval. Il s'agit notamment du premier à dépasser GPT-4 sur cette référence. |
recherche sur le wengé | Yayi | fr/zh | LLaMA/LLaMA2 | YaYi a été affiné sur des millions de données de domaine de haute qualité construites artificiellement. Ces données de formation couvrent cinq domaines clés : publicité dans les médias, analyse de l'opinion publique, sécurité publique, contrôle des risques financiers et gouvernance urbaine, englobant plus d'une centaine de tâches d'enseignement du langage naturel. |
ÉtreindreVisage | zéphyr | fr | Mistral | Zephyr est une série de modèles de langage formés pour agir comme des assistants utiles. Zephyr-7B-α est le premier modèle de la série et est une version affinée de. mistralai/Mistral-7B-v0.1 qui a été formé sur un mélange d'ensembles de données synthétiques accessibles au public à l'aide de l'optimisation des préférences directes (DPO). |
Adhérer | Commande-R / Commande R+ | multi | - | Command-R a la capacité de génération multilingue évaluée en 10 langues et des capacités RAG hautement performantes. |
XAI | grok | fr | - | 314B MoE ; longueur du contexte : 8 192 |
briques de données | instruction dbrx | - | - | une architecture de mélange d'experts (MoE) à granularité fine avec 132 B de paramètres au total, dont 36 B de paramètres sont actifs sur n'importe quelle entrée. Elle a été pré-entraînée sur 12 T de jetons de données de texte et de code par rapport à d'autres modèles MoE ouverts comme Mixtral-. 8x7B et Grok-1, DBRX est à grain fin, ce qui signifie qu'il utilise un plus grand nombre d'experts plus petits, tandis que DBRX compte 16 experts et en choisit 4. Mixtral-8x7B et Grok-1 ont 8 experts et en choisissent 2. |
donateur | modèle/méthode | caractéristique principale | caractéristique principale |
---|---|---|---|
FusibleAI | FuseChat | Premièrement, il entreprend une fusion de connaissances par paires pour les LLM sources afin de dériver plusieurs LLM cibles de structure et de taille identiques via un réglage fin léger. Ensuite, ces LLM cibles sont fusionnés dans l'espace des paramètres, dans lequel nous proposons une nouvelle méthode VaRM pour déterminer les poids de fusion. basé sur le rapport de variation des matrices de paramètres avant et après réglage fin. | une fusion de trois LLM de chat importants avec des architectures et des échelles diverses, à savoir NH2-Mixtral-8x7B, NH2-Solar-10.7B et OpenChat-3.5-7B, atteint une performance moyenne de 8,22 sur MT-Bench, surperformant. divers LLM de chat puissants aux échelles 7B et 34B comme Starling-7B et YI-34B-CHAT, dépassant même GPT-3.5 (mars), Claude-2.1, et approchant Mixtral-8x7B-Istruct. |
arcee-ai | fusionner | Outils pour fusionner des modèles de grand langage pré-entraînés. | |
Sakanaai | Évoluer | Optimisation évolutive des recettes de fusion de modèles. |
(Peut-être les successeurs?)
donateur | méthode | caractéristique principale |
---|---|---|
Blinkdl | Rwkv-lm | RWKV est un RNN avec des performances LLM au niveau du transformateur. Il est donc de combiner le meilleur de RNN et de transformateur - de grandes performances, une inférence rapide, des sauvegardes VRAM, une formation rapide, une "infinie" CTX_LEN et une introduction à la phrase gratuite. |
MSRA | Retnet | Atteindre simultanément le parallélisme de la formation, l'inférence à faible coût et les bonnes performances. Ensuite, nous proposons le mécanisme de rétention pour la modélisation des séquences, qui prend en charge trois paradigmes de calcul, c'est-à-dire, parallèles, récurrents et récurrents de grosse dure. Plus précisément, la représentation parallèle permet la formation du parallélisme . latence et la mémoire GPU sans sacrifier les performances. où chaque morceau est encodé parallèle tout en résumant de manière récurrente les morceaux. Une formation parallèle, un déploiement à faible coût et une inférence efficace. |
Stanford | Bapcpack | ABACKPACK est un remplacement sans rendez-vous pour un transformateur qui fournit de nouveaux outils pour l'interprétabilité à la commande tout en permettant des modèles de langage solides. Les sacs à dos décomposent la signification prédictive des mots en composants non contextuellement et les agrégent par une somme pondérée, permettant des interventions précises et prévisibles. |
Stanford, etc. | Mixer Monarch (M2) | L'idée de base est de remplacer les principaux éléments d'un transformateur par des matrices monarques - qui sont une classe de matrices structurées qui généralisent la FFT et sont sub-quadratiques, Efficace du matériel et expressif. |
CMU, etc. | Mamba | Mamba est une nouvelle architecture de modèle d'espace d'État montrant des performances prometteuses sur les données dense des informations telles que la modélisation du langage, où les modèles sous-quadratiques précédents ne sont pas des transformateurs. et la mise en œuvre dans l'esprit de la Flashattention. |
Ensemblecomputer | Strippedhyena | StripedHyena est le premier modèle alternatif compétitif avec les meilleurs transformateurs open source de tailles similaires dans des évaluations de contexte court et long. Stripedhyena est une architecture hybride composée de blocs d'attention multi-têtes et de requêtes groupées et de collaborations arrangeées inhyena, différentes des transformateurs traditionnels uniquement du décodeur. 1. Décodage de mémoire coûteuse dans des blocs d'hyène via la représentation des convolutions en tant que modèles d'espace d'état (forme modale ou canonique), ou comme filtres tronqués. 2. LAFENCE FAIBLE, décodage plus rapide et débit plus élevé que les transformateurs. 3. Amélioration des lois sur la formation et la mise à l'échelle optimales, par rapport aux architectures de transformateurs optimisées telles que LLAMA-2. 4. Formé sur des séquences allant jusqu'à 32k, ce qui lui permet de traiter des invites plus longues. |
Microsoft | bgpt | BGPT prend en charge la modélisation générative via la prédiction d'octets suivante sur tout type de données et peut effectuer n'importe quelle tâche exécutable sur un ordinateur, montrant la capacité de simuler toutes les activités dans le monde numérique, avec son potentiel limité uniquement par les ressources informatiques et notre imagination. |
Esprit profond | Griffin-jax | JAX + Flax Implémentation de TheGriffin: Mélange des récidives linéaires fermées avec une attention locale pour des modèles de langage efficaces, pas du code officiel (le code officiel n'est pas encore publié); La couche RG-LRU, une nouvelle couche récurrente linéaire fermée, autour de laquelle nous concevons un nouveau bloc récurrent pour remplacer MQA. Modèle hybride qui entre les MLP avec un mélange de blocs récurrents et d'attention locale Griffin-3B surpasse Mamba-3B, et Griffin-7b et Griffin-14b réalisent les performances compétitives avec LLAMA-2, bien qu'elle soit formée sur près de 7 fois moins de jetons. |
AI21 | Jamba | Jamba est la première mise en œuvre de Mamba à l'échelle de la production. Jusqu'à 140 000 jetons sur un seul GPU de 80 Go. |
Méta | Mégalodon | Megalodon hérite de l'architecture du méga (moyenne mobile exponentielle avec une attention fermée) et introduit en outre plusieurs composants techniques pour améliorer sa capacité et sa stabilité, y compris la moyenne mobile exponentielle complexe (CEMA), la couche de normalisation à horaire, le mécanisme d'attention normalisé et la pré-normale avec deux -Hop Configuration résiduelle. |
donateur | modèle / projet | caractéristique principale |
---|---|---|
mistralai | Mixtral-8x7b | Le modèle de langue grande mixtral-8x7b (LLM) est un mélange génératif de pré-entraînement des experts. |
Shanghai Ai Lab, etc. | Lama-moe | Un modèle MOE petit et abordable basé sur LLAMA et Slimpajama. |
Nus, etc. | Ouverte | Une famille de modèles de langage de grande envergure (MOE) de grande langue. |
Flocon de neige | Arctique | L'Arctique utilise une architecture de transformateur hybride dense dense. |
donateur | projet | langue | modèle de base | caractéristique principale |
---|---|---|---|---|
Baihaiaien | Idpchat | en / zh | Lama-13b Diffusion stable | Modèle multimodal chinois ouvert, GPU unique coulant, facile à déployer, fourni par l'interface utilisateur. |
Kauste | MiniGPT-4 | en / zh | LAMA | Minigpt-4 aligne un encodeur visuel congelé de Blip-2 avec un LLM congelé, vicuna, en utilisant une seule couche de projection, et donne de nombreuses capacités émergentes en langue visuelle similaires à celles démontrées dans GPT-4. |
MSR, etc. | Llave | fr | LAMA | Le réglage de l'instruction visuelle est proposé, vers la construction de grands modèles de langage et de vision avec des capacités de niveau GPT-4. |
Nus / thu | Vpgtrans | fr | Lama / opt / Flan-T5 / Blip-2 ... | Transfert de VPG à travers les LLMS pour construire VL-LLMS à un coût nettement inférieur. Peut être réduit plus de 10 fois et les données d'entraînement peuvent être réduites à environ 10%. Deux nouveaux VL-llms sont publiés via des vpgtrans, dont VL-Llama et VL-Vicuna . VL-Llama est un lama de version multimodale en transférant le BLIP-2 OPT-6.7B à Llama via VPGTRANS. VL-vicuna est un chatbot multimodal de type GPT-4, basé sur le Vicuna LLM. |
Cas, etc. | X-llm | en / zh | ChatGLM-6B | X-LLM convertit les multi-modalités (images, discours, vidéos) en langues étrangères en utilisant des interfaces X2L et alimentez-les Un modèle grand langage (chatglm) pour accomplir un LLM multimodal, en réalisant des capacités de chat multimodales impressionnantes. |
NTU | Loutre | fr | OuvrirFlamingo | Un modèle multimodal basé sur OpenFlamingo (version open source de DeepMind's Flamingo), Formé sur Mimic-it et présentant une amélioration de la capacité de suivi des instructions et de l'apprentissage en contexte. De plus, optimiser la mise en œuvre d'Openflamingo, démocratisant le requis Ressources de formation des GPU 1x A100 aux GPU 4X RTX-3090. |
XMU | Lavine | fr | LAMA | Proposer une solution nouvelle et abordable pour le réglage de l'instruction en langue visuelle, à savoir l'adaptation du mélange de modalité (MMA). En particulier, le MMA est un régime d'optimisation de bout en bout, qui relie l'encodeur d'image et LLM via des adaptateurs légers. Pendant ce temps, nous proposons également un nouvel algorithme de routage dans le MMA, qui peut aider le modèle à déplacer automatiquement les chemins de raisonnement pour les instructions uniques et multimodales. |
Ustc | Pic | - | - | Les premiers travaux pour corriger l'hallucination dans les modèles multimodaux de grande langue. |
hpcaitech | Sora ouvert | - | - | Alternative open source à Openai Sora. |
Voir aussi: Awesome-Multimodal-Language-Models
donateur | données / projet | langue | caractéristique principale |
---|---|---|---|
Ensemblecomputer | Redpajama-data | fr | Une recette open source pour reproduire un ensemble de données de formation LLAMA. |
@orfèvre | Wikipédia | multi | Un wrapper pythonique pour l'API Wikipedia. |
Voir la collecte de données Alpaca-Cot
donateur | données | langue | caractéristique principale |
---|---|---|---|
force de vente | Dialogstudio | fr | Dialogstudio: vers la collecte de données unifiés les plus riches et les plus diversifiés et les modèles de l'ensemble de l'enseignement pour l'IA conversationnelle. |
donateur | méthode | caractéristique principale |
---|---|---|
UW, etc. | auto-instruction | Utilisation des propres générations du modèle pour créer une grande collection de données pédagogiques. |
@ Liuhc0428 | Instruction fiable | Utilisez Chatgpt pour générer quelques questions et réponses en fonction d'un texte donné. |
PCU | Instruct | Une nouvelle méthode, proposée inwizardlm, en utilisant des LLM au lieu des humains pour produire automatiquement en masse un domaine ouvert Instructions de divers niveaux de difficulté et gamme de compétences, pour améliorer les performances des LLM. |
Kaust, etc. | CHAMEAU | Un nouveau cadre d'agent communicatif nommé jeu de rôle est proposé, qui implique d'utiliser la création de l'incitation à guider les agents de chat vers l'achèvement des tâches tout en maintenant la cohérence avec les intentions humaines. Le jeu de rôle peut être utilisé pour générer des données conversationnelles dans une tâche / domaine spécifique. |
@Chatarena | Chatarena | Une bibliothèque qui fournit des environnements de jeux de langue multi-agents et facilite la recherche sur les agents LLM autonomes et leurs interactions sociales. Il fournit un cadre flexible pour définir plusieurs acteurs, environnements et interactions entre eux, sur la base du processus de décision de Markov. |
donateur | méthode | caractéristique principale |
---|---|---|
- | évaluation humaine | - |
OpenAI | Gpt-4 / chatppt | - |
PKU / CMU / MSRA ... | Pandalm | Évaluation du modèle de langage reproductible et automatisé. |
UCB | Arène de chatbot | Discutez avec deux modèles anonymes côte à côte et votez pour lequel est le meilleur, Utilisez ensuite le système de notation ELO pour calculer les performances relatives des modèles. |
Stanford | AlpagaEval | Ensemble de données GPT-4 / CLAUDE ONALPACAFARM. |
clueai | Supercluelyb | Version chinoise de Chatbot Arena développée par Clueai. |
Sjtu, etc. | Auto-j | Un nouveau juge génératif open source qui peut évaluer efficacement différents LLM sur la façon dont ils s'alignent sur la préférence humaine. |
CMU | CodebertsCore | Une métrique automatique pour la génération de code, basée sur Bertscore. En tant que Bertscore, CodebertsCore exploite les incorporations contextuelles pré-formées à partir d'un modèle tel que Codebert et correspond aux mots des candidats et des phrases de référence par similitude cosinus. Différemment de Bertscore, CodebertsCore code également une entrée en langage naturel ou un autre contexte avec le code généré, mais n'utilise pas ce contexte pour calculer les similitudes cosinus. |
Statut actuel de l'évaluation du grand modèle domestique
donateur | référence | caractéristique principale |
---|---|---|
Princeton | Banc SWE | Une référence pour évaluer les modèles de gros langues sur les problèmes de logiciels réels collectés auprès de GitHub. Un modèle de langue est chargé de générer un correctif qui résout le problème décrit. |
Microsoft | AGIEval | Une référence centrée sur l'homme spécialement conçue pour évaluer les capacités générales des modèles de fondation dans des tâches pertinentes à la cognition humaine et à la résolution de problèmes. |
clueai | Super-agent | Benchmark d'évaluation des agents basée sur les tâches indigènes chinoises. |
bytedance | Moustiquaire | GPT-Fathom est une suite d'évaluation LLM open-source et reproductible, l'analyse comparative de 10+ LLM de source ouverte et de source fermée ainsi que les modèles antérieurs d'OpenAI sur 20+ benchmarks organisés sous des paramètres alignés. |
OpenCompass, étreinte
donateur | projet | caractéristique principale |
---|---|---|
CAS | Alpaga | Étendez les données du COT à l'alpaga pour augmenter sa capacité de raisonnement. vise à construire une plate-forme d'instruction Finetuning (IFT) avec une vaste collection d'instructions (en particulier les ensembles de données COT) et une interface unifiée pour divers modèles de grandes langues. |
@hiyouga | ChatGlm économe | CHATGLM-6B à réglage fin efficace avec PEFT. |
@hiyouga | Tun-économe en lama | LAMA TUNING FINE avec PEFT (PT + SFT + RLHF avec Qlora). |
@jianzhnie | Lylms efficaces | Fintuning efficace de Qlora LLMS. |
Colossalaï | Colossalchat | Une solution à faible coût open source pour CloningChatgpt avec un pipeline RLHF complet. |
Microsoft | chat de profondeur | Formation RLHF facile, rapide et abordable de modèles de type Chatgpt à toutes les échelles. |
Laion-ai | Assistant ouvert | Un projet destiné à donner à chacun accès à un excellent modèle de langue basé sur un chat. |
Hkust | Lmflow | Une boîte à outils extensible, pratique et efficace pour les grands modèles d'apprentissage automatique, Conçu pour être convivial, rapide et fiable, et ACC Développer
Informations supplémentaires
Applications connexes
Recommandé pour vous
Actualités connexes
Tout
|