Mistral Grand 2 | Mistral IA | 123B | Mistral-Large est un modèle LLM (Large Language Model) dense et avancé de 123 B de paramètres doté de capacités de raisonnement, de connaissances et de codage de pointe. Il a une fenêtre contextuelle de 128 Ko. | Blog Faire un câlin au visage |
Lama 3.1 | Méta-IA | 8B, 70B, 405B | La famille Meta Llama 3.1 de grands modèles de langage multilingues (LLM) est une collection de modèles génératifs pré-entraînés et adaptés aux instructions dans les tailles 8B, 70B et 405B. Les modèles de texte uniquement optimisés pour les instructions Llama 3.1 sont optimisés pour les cas d'utilisation de dialogue multilingue et surpassent de nombreux modèles de discussion open source et fermés disponibles sur les références courantes de l'industrie. Ces modèles sont des modèles de langage auto-régressifs qui utilisent une architecture de transformateur optimisée. Les versions optimisées utilisent un réglage fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour s'aligner sur les préférences humaines en matière d'utilité et de sécurité. | Blog Faire un câlin au visage |
Mistral Némo | Nvidia Mistral IA | 12B | Mistral-Nemo Large Language Model est un modèle de texte génératif pré-entraîné de paramètres 12B formé conjointement par Mistral AI et NVIDIA, il surpasse considérablement les modèles existants plus petits ou de taille similaire. | Blog Faire un câlin au visage |
Némotron 4 | Nvidia | 340B | Le modèle de base de Nemotron 4 a été pré-entraîné sur un corpus de 9 000 milliards de jetons composé d'un assortiment diversifié de textes basés sur l'anglais, de plus de 50 langues naturelles et de plus de 40 langues de codage. | Visage câlin |
DCLM | Pomme | 7B | DCLM est un modèle de langage Transformer réservé au décodeur. Il a une longueur de contexte de 2 048 jetons. Il est formé sur des tokens 2,5T. Il n’a pas fait l’objet d’un alignement spécifique ni d’un réglage précis de la sécurité, les sorties doivent donc être utilisées avec prudence. | Visage câlin |
Gemme 2 | Google | 9B 27B | Gemma 2 est un grand modèle de langage texte-texte, uniquement décodeur, disponible en anglais, avec des pondérations ouvertes pour les variantes pré-entraînées et les variantes optimisées pour les instructions. Les modèles Gemma sont bien adaptés à une variété de tâches de génération de texte, notamment la réponse aux questions, le résumé et le raisonnement. | Visage câlin |
Caméléon | Méta-IA | 7B 30B | Chameleon est un modèle de base de fusion précoce mixte de FAIR. Il est disponible en 2 tailles : 7B et 30B. | Visage câlin Github |
Mistral 7B v3 | Mistral IA | 7B | Le Mistral-7B-v0.3 Large Language Model (LLM) est un Mistral-7B-v0.2 avec un vocabulaire étendu. | Visage câlin Github |
Arctique (Dense-MoE) | Flocon de neige | 480B Actif 17B | Arctic est une architecture de transformateur hybride MoE dense pré-entraînée à partir de zéro. Arctic combine un modèle de transformateur dense 10B avec un MLP MoE résiduel de 128x3,66B reLe Mistral-7B-v0.3 Large Language Model (LLM) est un Mistral-7B-v0.2 avec un vocabulaire étendu, résultant en un total de 480B et 17B de paramètres actifs. choisi à l’aide d’un gate top-2. | Blog Github de HuggingFace |
Lama 3 | Méta-IA | 8B 70B | Llama 3 est une famille de grands modèles de langage, une collection de modèles de texte génératifs pré-entraînés et adaptés aux instructions en tailles 8 et 70B. Il s'agit d'un modèle de langage auto-régressif qui utilise une architecture de transformateur optimisée. Les versions optimisées utilisent le réglage fin supervisé (SFT) et l'apprentissage par renforcement avec retour humain (RLHF). | Blog HuggingFace Github |
Vision Phi 3 | Microsoft | | Phi3-3-Vision est un modèle multimodal ouvert léger et de pointe, construit sur des ensembles de données comprenant - des données synthétiques et des sites Web filtrés accessibles au public - en mettant l'accent sur des données denses et raisonnantes de très haute qualité, à la fois sur le texte et la vision. . Il a une longueur de contexte de 128 Ko. | Visage câlin |
Ph 3 | Microsoft | 3,8B 7B 14B | Phi-3 est une collection de modèles. Disponible en différentes tailles : Phi3-mini, Phi3-small, Phi3-medium. Il s'agit d'un modèle ouvert léger et de pointe, entraîné à l'aide des ensembles de données Phi-3. Cet ensemble de données comprend à la fois des données synthétiques et des données de sites Web accessibles au public, en mettant l'accent sur des propriétés de haute qualité et riches en raisonnement. Les modèles Phi-3 sont les modèles de petits langages (SLM) les plus performants et les plus rentables disponibles, | Blog Câlins |
OuvrirELM | Pomme | 270M 450M 1.1B 3B | OpenELM, une famille de modèles de langage efficaces open source. OpenELM utilise une stratégie de mise à l'échelle par couche pour allouer efficacement les paramètres au sein de chaque couche du modèle de transformateur, conduisant à une précision améliorée. Formé sur RefinedWeb, PILE dédupliqué, un sous-ensemble de RedPajama et un sous-ensemble de Dolma v1.6, totalisant environ 1,8 billion de jetons. Sortie de modèles pré-entraînés et réglés pour les instructions avec les paramètres 270M, 450M, 1.1B et 3B. | HuggingFace OpenELM HuggingFace OpenELM-Instruct |
Recherche profonde V2 (MoE) | recherche profonde | 236B Actif 21B | DeepSeek-V2 est un modèle linguistique puissant de mélange d'experts (MoE) caractérisé par une formation économique et une inférence efficace. Il comprend 236 B paramètres au total, dont 21B sont activés pour chaque jeton. Par rapport au DeepSeek 67B, DeepSeek-V2 atteint des performances plus élevées et permet d'économiser 42,5 %. | Visage câlin Github |
Mixtral 8x22B (MoE) | Mistral IA | 176B Actif 40B | Mixtral-8x22B Large Language Model (LLM) est un mélange génératif clairsemé d'experts pré-entraînés. Il a une longueur de contenu de 65 000 jetons. | Blog Câlins |
Commande-R+ | Adhérer | 104B | C4AI Command R+ est une version de recherche ouverte sur les poids d'un modèle de paramètres de 104 milliards de milliards avec des capacités très avancées, notamment la génération augmentée de récupération (RAG) et l'utilisation d'outils pour automatiser des tâches sophistiquées. Command R+ est optimisé pour une variété de cas d’utilisation, notamment le raisonnement, le résumé et la réponse aux questions. | Visage câlin |
Jamba (MoE) | Laboratoires AI21 | 52B actif 12B | Jamba est un LLM hybride SSM-Transformer de pointe. Il offre des gains de débit par rapport aux modèles traditionnels basés sur Transformer. Il s'agit d'un modèle de texte génératif mixte d'experts (MoE) pré-entraîné, avec 12 B paramètres actifs et un total de 52 B paramètres pour tous les experts. Il prend en charge une longueur de contexte de 256 Ko et peut contenir jusqu'à 140 000 jetons sur un seul GPU de 80 Go. | Blog Câlins |
DBRX (MoE) | Briques de données | 132B Actif 36B | DBRX est un grand modèle de langage (LLM) basé sur un décodeur uniquement et basé sur un transformateur qui a été formé à l'aide de la prédiction du prochain jeton. Il utilise une architecture de mélange d'experts (MoE) à granularité fine avec 132 B de paramètres au total, dont 36 B sont actifs sur n'importe quelle entrée. Il a été pré-entraîné sur des jetons 12T de données texte et code. Comparé à d'autres modèles MoE ouverts comme Mixtral-8x7B et Grok-1, DBRX est à granularité fine, ce qui signifie qu'il utilise un plus grand nombre de petits experts. DBRX compte 16 experts et en choisit 4, tandis que Mixtral-8x7B et Grok-1 ont 8 experts et en choisissent 2. Cela fournit 65 fois plus de combinaisons possibles d'experts, ce qui améliore la qualité du modèle. | Blog Github de HuggingFace |
Grok 1.0 (MoE) | xAI | 314B | Grok 1.0 utilise un mélange de 8 experts (MoE). Grok 1.0 n'est pas adapté à des applications spécifiques telles que le dialogue, mais présente de solides performances par rapport à d'autres modèles comme GPT-3.5 et Llama 2. Il est plus grand que GPT-3/3.5. | Github étreignant le visage |
Gemme | Google | 2B 7B | Gemma est une famille de modèles ouverts légers et de pointe de Google, construits à partir des mêmes recherches et technologies utilisées pour créer les modèles Gemini. Il s'agit de grands modèles linguistiques texte-texte, uniquement décodeurs, disponibles en anglais, avec des pondérations ouvertes, des variantes pré-entraînées et des variantes optimisées pour les instructions. Les modèles Gemma sont bien adaptés à une variété de tâches de génération de texte, notamment la réponse aux questions, le résumé et le raisonnement. | Blog Github de Kaggle |
Gemma récurrente | Google | 2B | RecurrentGemma est une famille de modèles de langage ouverts construits sur une nouvelle architecture récurrente. Comme Gemma, les modèles RecurrentGemma sont bien adaptés à une variété de tâches de génération de texte, notamment la réponse aux questions, le résumé et le raisonnement. En raison de sa nouvelle architecture, RecurrentGemma nécessite moins de mémoire que Gemma et permet une inférence plus rapide lors de la génération de longues séquences. | CâlinsVisage Kaggle |
Mixtral 8x7B (MoE) | Mistral IA | 45B Actif 12B | Mixtral-8x7B Large Language Model (LLM) est un mélange génératif clairsemé d'experts pré-entraînés. Le Mixtral-8x7B surpasse le Llama 2 70B sur la plupart des benchmarks. | CâlinsVisage Kaggle Blog |
Qwen1.5-MoE (MoE) | Alibaba | 14,3B Actif 2,7B | Qwen1.5-MoE est un modèle de langage basé sur un décodeur MoE uniquement, pré-entraîné sur une grande quantité de données. Il utilise une architecture Mixture of Experts (MoE), où les modèles sont recyclés à partir de modèles de langage dense. Il dispose de 14,3 milliards de paramètres au total et de 2,7 milliards de paramètres activés pendant l'exécution, tout en atteignant des performances comparables à Qwen1.5-7B, il ne nécessite que 25 % des ressources de formation. | ÉtreindreVisage |
Mistral 7B v2 | Mistral IA | 7B | Mistral 7B v2 présente les changements suivants par rapport à Mistral 7B : - Fenêtre de contexte 32 000 (contre 8 000 contexte dans la v0.1), Corde-thêta = 1e6, Aucune attention sur la fenêtre coulissante. | CâlinsFace Github |
Mistral7B | Mistral IA | 7B | Le Mistral-7B-v0.1 Large Language Model (LLM) est un modèle de texte génératif pré-entraîné avec 7 milliards de paramètres. Mistral-7B-v0.1 surpasse Llama 2 13B sur la plupart des benchmarks. | Blog Github HuggingFace Kaggle |
Lama 2 | Méta-IA | 7B 13B 70B | Llama 2 est une collection de modèles de texte génératifs pré-entraînés et affinés allant de 7 milliards à 70 milliards de paramètres. Il s'agit d'un modèle de langage auto-régressif qui utilise une architecture de transformateur optimisée. Les versions optimisées utilisent un réglage fin supervisé (SFT) et un apprentissage par renforcement avec retour humain (RLHF) pour s'aligner sur les préférences humaines en matière d'utilité et de sécurité. | Blog Github de Kaggle |
Chariot v2 | Briques de données | 3B7B12B | Dolly v2 est un modèle de langage causal créé par Databricks, dérivé de Pythia-12b d'EleutherAI et affiné sur un corpus d'instructions d'enregistrement d'environ 15 000. | CâlinsFace Dolly3B HuggingFace Dolly7B CâlinsFace Dolly12B Kaggle Github |
Commande-R | Adhérer | 35B | Command-R est une version de recherche d'un modèle génératif hautement performant de 35 milliards de paramètres. Command-R est un grand modèle de langage avec des pondérations ouvertes optimisées pour une variété de cas d'utilisation, notamment le raisonnement, le résumé et la réponse aux questions. Command-R a la capacité de génération multilingue évaluée en 10 langues et des capacités RAG hautement performantes. | CâlinsVisage Kaggle |
Qwen1.5 | Alibaba | 0,5B 1,8B 4B 7B 14B 32B 72B | Qwen1.5 est un modèle de langage basé sur un transformateur uniquement et pré-entraîné sur une grande quantité de données. Il est basé sur l'architecture Transformer avec activation SwiGLU, biais d'attention QKV, attention aux requêtes de groupe, mélange d'attention par fenêtre glissante et d'attention totale, etc. | CâlinsFace Github |
Vigogne v1.5 | Lysmes | 7B 13B | Vicuna v1.5 est affiné à partir de Llama 2 avec un réglage fin des instructions supervisées. Les données de formation représentent environ 125 000 conversations collectées sur ShareGPT.com. La principale utilisation de Vicuna est la recherche sur de grands modèles de langage et des chatbots. | CâlinsVisage Vicuna7B CâlinsVisage Vicuna13B |
Ph 2 | Microsoft | 2,7B | Phi-2 est un transformateur doté de 2,7 milliards de paramètres. Il a été formé en utilisant les mêmes sources de données que Phi-1.5, complétées par une nouvelle source de données composée de divers textes synthétiques PNL et de sites Web filtrés. Lorsqu'il est évalué par rapport à des tests de bon sens, de compréhension du langage et de raisonnement logique, Phi-2 a présenté des performances presque à la pointe de la technologie parmi les modèles comportant moins de 13 milliards de paramètres. | CâlinsVisage Kaggle Blog |
Orque 2 | Microsoft | 7B 13B | Orca 2 est conçu uniquement à des fins de recherche et fournit une réponse en un seul tour pour des tâches telles que le raisonnement sur les données fournies par l'utilisateur, la compréhension en lecture, la résolution de problèmes mathématiques et le résumé de texte. Le modèle est conçu pour exceller particulièrement en raisonnement. Le modèle n'est pas optimisé pour le chat et n'a pas été formé avec RLHF ou DPO. | Blog Câlins |
Smaug | Boulier IA | 34B 72B | Smaug est créé à l'aide d'une nouvelle technique de réglage fin, DPO-Positive (DPOP), et de nouvelles versions de préférences par paires d'ARC, HellaSwag et MetaMath (ainsi que d'autres ensembles de données existants). | ÉtreindreVisage |
MPT | Mosaïqueml | 1B 7B 30B | MPT est un transformateur de type décodeur pré-entraîné à partir de zéro sur des jetons 1T de texte et de code anglais. Ces modèles utilisent une architecture de transformateur modifiée optimisée pour une formation et une inférence efficaces. Ces changements architecturaux incluent des implémentations de couches optimisées en termes de performances et l'élimination des limites de longueur de contexte en remplaçant les intégrations positionnelles par Attention with Linear Biases (ALiBi). | HuggingFace Kaggle Github |
Faucon | TLL | 7B 40B 180B | Falcon est un modèle de décodeur causal de paramètres 7B/40B/180B uniquement construit par TII et formé sur des jetons 1 000B/1 500B/3 500B de RefinedWeb améliorés avec des corpus organisés. | ÉtreindreVisage |
Yalm | Yandex | 100B | YaLM 100B est un réseau neuronal de type GPT pour générer et traiter du texte. Il est formé sur un cluster de 800 cartes graphiques A100 sur 65 jours. Il est conçu pour la génération et le traitement de texte. | CâlinsFace Github |
DéciLM | DéciAI | 6B 7B | DeciLM est un modèle de génération de texte uniquement par décodeur. Prenant en charge une longueur de séquence de 8 000 jetons, ce modèle très efficace utilise une attention de requête groupée (GQA) variable pour atteindre un équilibre supérieur entre précision et efficacité de calcul. | ÉtreindreVisage |
BERTE | Google | 110M à 350M | BERT est un modèle de transformateurs pré-entraîné sur un large corpus de données anglaises de manière auto-supervisée. Cela signifie qu'il a été pré-entraîné uniquement sur les textes bruts, sans qu'aucun humain ne les étiquete de quelque manière que ce soit avec un processus automatique pour générer des entrées et des étiquettes à partir de ces textes. | CâlinsFace Kaggle GitHub |
Olmo | AllenAI | 1B 7B | OLMo est une série de modèles de langage ouverts conçus pour permettre la science des modèles de langage. Les modèles OLMo sont formés sur l'ensemble de données Dolma. | CâlinsFace Github |
Chat ouvert3.5 | Chat ouvert | 7B | Openchat2.5 est le LLM 7B le plus performant. | CâlinsFace Github |
Floraison | Grande Science | 176B | BLOOM est un modèle de langage étendu (LLM) autorégressif, formé pour continuer le texte à partir d'une invite sur de grandes quantités de données textuelles à l'aide de ressources informatiques à l'échelle industrielle. | ÉtreindreVisage |
Hermès 2 Pro Mistral | Nous Recherche | 7B | Hermes 2 Pro sur Mistral 7B est le nouveau produit phare 7B Hermes. Hermes 2 Pro est une version améliorée et recyclée de Nous Hermes 2, composée d'une version mise à jour et nettoyée de l'ensemble de données OpenHermes 2.5, ainsi que d'un nouvel ensemble de données d'appel de fonction et de mode JSON développé en interne. Cette nouvelle version d'Hermes conserve ses excellentes capacités générales de tâches et de conversations - mais excelle également dans les appels de fonctions et les sorties structurées JSON. | ÉtreindreVisage |
Hermes 2 Mixtral 7x8B (MoE) | Nous Recherche | Actif 12B | Nous Hermes 2 Mixtral 8x7B DPO est le nouveau modèle phare de Nous Research formé sur le Mixtral 8x7B MoE LLM. Le modèle a été formé sur plus de 1 000 000 d’entrées de données générées principalement par GPT-4, ainsi que sur d’autres données de haute qualité provenant d’ensembles de données ouverts à travers le paysage de l’IA, atteignant ainsi des performances de pointe sur une variété de tâches. Il s'agit de la version SFT + DPO de Mixtral Hermes 2. | ÉtreindreVisage |
Merlinite | IBM | 7B | Merlinite-7b est un modèle dérivé de Mistral-7b formé avec la méthodologie LAB, utilisant Mixtral-8x7b-Instruct comme modèle d'enseignant. | ÉtreindreVisage |
Labradorite | IBM | 13B | Labradorite-13b est un modèle dérivé LLaMA-2-13b formé avec la méthodologie LAB, en utilisant Mixtral-8x7b-Instruct comme modèle d'enseignant. | ÉtreindreVisage |
Xgen | Force de vente | 7B | Xgen est un modèle de langage étendu qui a une longueur de contexte de 8K, 4K et est optimisé pour les tâches à longue séquence. | CâlinsFace Github |
Solaire | En coulisses | 10,7B | SOLAR-10.7B, un grand modèle de langage (LLM) avancé avec 10,7 milliards de paramètres, démontrant des performances supérieures dans diverses tâches de traitement du langage naturel (NLP). Il est compact, mais remarquablement puissant, et démontre des performances de pointe inégalées dans les modèles avec des paramètres inférieurs à 30B. | ÉtreindreVisage |
GPT-Neox | Éleuther IA | 20B | GPT-NeoX-20B est un modèle de langage autorégressif de 20 milliards de paramètres formé sur Pile à l'aide de la bibliothèque GPT-NeoX. Son architecture ressemble volontairement à celle du GPT-3, et est quasiment identique à celle du GPT-J-6B. | CâlinsVisage GitHub |
Flan-T5 | Google | 80M à 11B | FLAN-T5 est une version modifiée de T5 et possède le même nombre de paramètres, ces modèles ont été affinés sur plus de 1000 tâches supplémentaires couvrant également plus de langues. Différentes tailles : flan-t5-small, flan-t5-base, flan-t5-large, flan-t5-xxl | CâlinsVisage Kaggle |
OPTER | Méta-IA | 125M à 175B | Les OPT sont des transformateurs pré-entraînés pour décodeur uniquement allant de 125 M à 175 B de paramètres. Il a été principalement pré-entraîné avec du texte anglais, mais une petite quantité de données non anglaises est toujours présente dans le corpus de formation via CommonCrawl. | ÉtreindreVisage |
LM2 stable | IA de stabilité | 1,6B 12B | Les LM 2 stables sont des modèles de langage uniquement décodeurs, pré-entraînés sur 2 000 milliards de jetons de divers ensembles de données multilingues et de codes pour deux époques. | ÉtreindreVisage |
Zéphyr LM stable | IA de stabilité | 3B | Le modèle StableLM Zephyr 3B est un modèle de langage auto-régressif basé sur l'architecture du décodeur de transformateur. StableLM Zephyr 3B est un paramètre de 3 milliards qui a été formé sur un mélange d'ensembles de données accessibles au public et d'ensembles de données synthétiques à l'aide de l'optimisation directe des préférences (DPO). | ÉtreindreVisage |
Aya | Adhérer | 13B | Le modèle Aya est un modèle de langage génératif massivement multilingue autorégressif de style transformateur qui suit des instructions dans 101 langues. Il a la même architecture que mt5-xxl. | CâlinsVisage Kaggle Blog |
Némotron 3 | Nvidia | 8B | Nemotron-3 sont de grands modèles de base de langage permettant aux entreprises de créer des LLM personnalisés. Ce modèle de base comporte 8 milliards de paramètres et prend en charge une longueur de contexte de 4 096 jetons. Nemotron-3 est une famille de modèles de texte génératifs prêts pour l'entreprise et compatibles avec NVIDIA NeMo Framework. | ÉtreindreVisage |
Chat neuronal v3 | Intel | 7B | Neural Chat est un LLM de paramètres 7B affiné sur le processeur Intel Gaudi 2 de mistralai/Mistral-7B-v0.1 sur l'ensemble de données open source Open-Orca/SlimOrca. Le modèle a été aligné à l’aide de la méthode Direct Performance Optimization (DPO). | ÉtreindreVisage |
Yi | 01 IA | 6B 9B 34B | Les modèles de la série Yi constituent la prochaine génération de grands modèles de langage open source. Ils sont ciblés en tant que modèle linguistique bilingue et formés sur un corpus multilingue 3T, prometteur en matière de compréhension linguistique, de raisonnement de bon sens, de compréhension écrite, etc. | CâlinsFace Github |
Étourneau LM | Flux Nexus | 7B | Starling LM, un grand modèle de langage ouvert (LLM) formé par Reinforcement Learning from AI Feedback (RLAIF). Starling LM est formé à partir d'Openchat-3.5-0106 avec notre nouveau modèle de récompense Starling-RM-34B et la méthode d'optimisation des politiques de réglage fin des modèles de langage à partir des préférences humaines (PPO). | ÉtreindreVisage |
NexusRaven v2 | Flux Nexus | 13B | NexusRaven est une fonction open source et commercialement viable appelant LLM qui surpasse l'état de l'art en matière de capacités d'appel de fonctions. NexusRaven-V2 est capable de générer des appels de fonctions profondément imbriqués, des appels de fonctions parallèles et des appels simples simples. Il peut également justifier les appels de fonctions qu'il a générés. | ÉtreindreVisage |
LLM DeepSeek | IA de recherche profonde | 7B 67B | DeepSeek LLM est un modèle de langage avancé. Il a été formé à partir de zéro sur un vaste ensemble de données de 2 000 milliards de jetons en anglais et en chinois. | CâlinsFace Github |
Deepseek VL (multimodal) | IA de recherche profonde | 1.3B 7B | DeepSeek-VL, un modèle Vision-Language (VL) open source conçu pour les applications de vision et de compréhension du langage du monde réel. DeepSeek-VL possède des capacités générales de compréhension multimodale, capables de traiter des diagrammes logiques, des pages Web, la reconnaissance de formules, la littérature scientifique, des images naturelles et l'intelligence incarnée dans des scénarios complexes. Il s'agit d'un encodeur de vision hybride prenant en charge une entrée d'image 1024 x 1024 et est construit sur la base de la base DeepSeek-7b qui est formée sur un corpus approximatif de jetons de texte 2T. | CâlinsFace Github |
Lava 1.6 (Multimodal) | Lave HF | 7B 13B 34B | LLaVa combine un grand modèle de langage pré-entraîné avec un encodeur de vision pré-entraîné pour les cas d'utilisation de chatbot multimodal. Modèles disponibles : - Llava-v1.6-34b-hf, Llava-v1.6-Mistral-7b-hf, Llava-v1.6-Vicuna-7b-hf, Llava-v1.6-vicuna-13b-hf | Faire des câlins au visage |
Yi VL (multimodal) | 01 IA | 6B 34B | Le modèle Yi-VL est la version open source et multimodale de la série Yi Large Language Model (LLM), permettant la compréhension, la reconnaissance et les conversations à plusieurs tours sur les images. | CâlinsVisage YiVL6B CâlinsVisage YiVL34B |