
Les meilleures ressources de modèle de langue des grandes langues du monde sont constamment mises à jour
Vérifiez plus d'informations
[Lire en ligne]
Contenu
- Données
- Réglage fin
- Inférence
- Évaluation
- Vivre l'utilisation
- Rag de base de connaissances
- Agents
- Recherche
- Livres
- Cours
- Tutoriel
- Papier
- Conseils
Données
Note
Voici数据
nommées, mais aucun ensemble de données spécifique n'est fourni ici, mais une méthode pour le traitement de l'acquisition de données à grande échelle est fournie
Nous croyons toujours qu'il vaut mieux apprendre aux gens à pêcher que d'enseigner aux gens à pêcher
- Aotolabel: étiqueter, nettoyer et enrichir les ensembles de données de texte avec des LLM.
- Labelllm: la plate-forme d'annotation de données open source.
- Data-Juicer: Un système de traitement des données à guichet unique pour créer des données de qualité supérieure, plus judiciques et plus digestibles pour les LLM!
- Omniparser: une bibliothèque de streaming Golang ETL indigène et de transformation pour CSV, JSON, XML, EDI, texte, etc.
- Mineru: Mineru est un outil d'extraction de données à guichet ouvert, open-source et de haute qualité, prend en charge l'extraction PDF / page Web / livre électronique.
- PDF-Extrait-Kit: une boîte à outils complète pour l'extraction de contenu PDF de haute qualité.
- PARREA: Bibliothèque légère pour gratter les sites Web avec LLMS.
- Sparrow: Sparrow est une solution innovante open source pour une extraction et un traitement de données efficaces à partir de divers documents et images.
- Doculing: Transformez PDF en JSON ou Markdown avec facilité et vitesse.
- GOT-OCR2.0: modèle OCR.
- LLM Decontaminator: Repenser la référence et la contamination pour les modèles de langage avec des échantillons reformulés.
- Datatrove: Datatrove est une bibliothèque pour traiter, filtrer et déduir les données de texte à une très grande échelle.
- LLM-Swarm: Générez de grands ensembles de données synthétiques comme Cosmopedia.
- Distilabel: Distilabel est un cadre pour les données synthétiques et la rétroaction de l'IA pour les ingénieurs qui ont besoin de pipelines rapides, fiables et évolutifs basés sur des documents de recherche vérifiés.
- Common-Crawl-Pipeline-Creator: The Common Crawl Pipeline Creator.
- Table: détecter et extraire les tables vers Markdown et CSV.
- Zerox: Zero Shot PDF OCR avec GPT-4O-MINI.
- DocLayout-Yolo: Amélioration de l'analyse de mise en page des documents à travers diverses données synthétiques et une perception adaptative globale à locale.
- Tensorzero: faire améliorer les LLM par l'expérience.
- Promptwright: générer de grandes données synthétiques à l'aide d'un LLM local.
- PDF-Extrait-API: Document (PDF) Extraction et analyse API à l'aide de modèles pris en charge de la pointe des OCR modernes + Olllaa.
- PDF2HTMLEX: Convertissez PDF en HTML sans perdre de texte ou de format.
- Extrait: Extraction de données non structurée rapide et efficace.
↥ Retour en haut
Réglage fin
- LLAMA-FACTORY: Unifier le réglage fin efficace de plus de 100 LLMS.
- Usloth: 2-5x plus rapide 80% moins de mémoire LLM Finenetning.
- TRL: Apprentissage du renforcement du transformateur.
- Firefly: Firefly: un grand outil de formation de modèle qui soutient la formation des dizaines de grands modèles
- XUner: une boîte à outils efficace, flexible et complète pour les grands modèles de réglage fin.
- Torchtune: une bibliothèque native-pytorch pour le réglage fin LLM.
- SWIFT: Utilisez PEFT ou par-paramètre complet sur FineTune 200+ LLMS ou 15+ MLLMS.
- AutoTrain: une nouvelle façon de former, d'évaluer et de déployer automatiquement des modèles d'apprentissage automatique de pointe.
- OpenRLHF: un framework RLHF facile à utiliser, évolutif et haute performance (support 70B + Tuning complet & Lora & Mixtral & KTO).
- LUDWIG: Cadre à faible code pour la construction de LLMS personnalisés, réseaux de neurones et autres modèles d'IA.
- Mistral-Finetune: une base de code légers qui permet une finetuning économe en mémoire et performante des modèles de Mistral.
- AIKIT: affinez, construire et déployer facilement les LLMS open-source!
- H2o-llmstudio: H2O LLM Studio - un framework et une interface graphique sans code pour les LLM à réglage fin.
- Litgpt: Pretrain, Finetune, déploient plus de 20 LLM sur vos propres données.
- LLMBOX: une bibliothèque complète pour la mise en œuvre de LLMS, y compris un pipeline de formation unifié et une évaluation complète du modèle.
- Paddlenlp: bibliothèque NLP et LLM facile à utiliser et puissante.
- Workbench-Llamafactory: Il s'agit d'un projet d'exemple NVIDIA AI Workbench qui démontre un flux de travail de développement de modèle de bout en bout à l'aide de Llamafactory.
- OpenRLHF: un framework RLHF facile à utiliser, évolutif et haute performance (70b + PPO Tuning complet et itératif DPO & LORA & MIXTRAL).
- Usine Tinyllava: un cadre de grands modèles multimodaux à petite échelle.
- LLM-Foundry: Code de formation LLM pour les modèles de fondation Databricks.
- LMMS-Finetune: une base de code unifiée pour le finetuning (complet, LORA) de grands modèles multimodaux, supportant llava-1.5, qwen-vl, llava-interleave, llava-next-video, phi3-v etc.
- Simplifine: Simplifine vous permet d'invoquer la réintégration de LLM avec une seule ligne de code en utilisant tout ensemble de données ou modèle de visage étreint.
- Transformateur Lab: application open source pour Advanced LLM Engineering: interagir, se former, affiner et évaluer les modèles de grands langues sur votre propre ordinateur.
- LIGER-KERNEL: Neules Triton efficaces pour la formation LLM.
- ChatLearn: un cadre de formation flexible et efficace pour l'alignement à grande échelle.
- Nanotron: Formation minimaliste du modèle de grande langue 3D-Parallélisme.
- Tunage par procuration: réglage des modèles de langue par proxy.
- Alignement LLM efficace: boîte à outils d'alignement LLM efficace.
- Automatiquement avancé
- Meta Lingua: une base de code maigre, efficace et facile à maintenir pour rechercher les LLM.
- Vision-llm Alignemnt: Ce référentiel contient le code pour SFT, RLHF et DPO, conçu pour les LLM basés sur la vision, y compris les modèles LLAVA et les modèles LLAMA-3.2-Vision.
- Finetune-Qwen2-VL: démarrage rapide pour le réglage fin ou poursuivre le modèle QWEN2-VL pré-Train.
↥ Retour en haut
Inférence
- OLLAMA: Remontez en marche avec Llama 3, Mistral, Gemma et d'autres modèles de grande langue.
- Ouvrez WebUi: WebUI convivial pour les LLM (anciennement Olllama Webui).
- WEBUI GÉNÉRATION DE Texte: une interface utilisateur Web Gradio pour les modèles de grande langue.
- Xinference: une bibliothèque puissante et polyvalente conçue pour servir le langage, la reconnaissance de la parole et les modèles multimodaux.
- Langchain: construire des applications de raisonnement au contexte.
- Llamaindex: un cadre de données pour vos applications LLM.
- Lobat: un framework de chat LLMS / AI moderne à source moderne.
- Tensorrt-llm: Tensorrt-llm fournit aux utilisateurs une API Python facile à utiliser pour définir des modèles de grands langues (LLMS) et créer des moteurs Tensorrt qui contiennent des optimisations de pointe pour effectuer une inférence efficacement sur les GPU NVIDIA.
- VLLM: un moteur à référence et à service économe en haut et à la mémoire pour les LLM.
- Llamachat: Discutez avec vos modèles de lama préférés dans une application macOS native.
- Nvidia Chatrtx: Chatrtx est une application de démonstration qui vous permet de personnaliser un modèle GPT de grande langue (LLM) connecté à votre propre contenu - docs, notes ou autres données.
- LM Studio: Découvrez, téléchargez et exécutez les LLM locales.
- CHAT-WITH-MLX: discutez avec vos données nativement sur le silicium Apple à l'aide de MLX Framework.
- Prix LLM: Trouvez rapidement l'API des modèles de grande langue parfaits (LLM) pour votre budget! Utilisez notre outil gratuit pour un accès instantané aux derniers prix des principaux fournisseurs.
- Interprète ouvert: une interface en langage naturel pour les ordinateurs.
- Chat-eLlama: un chatbot open source basé sur LLMS.
- CHAT-UI: Base de code open source alimentant l'application HuggingChat.
- MEMGPT: Créez des agents LLM avec de la mémoire à long terme et des outils personnalisés.
- Koboldcpp: une simple façon à un seul fichier d'exécuter divers modèles GGML et GGUF avec l'interface utilisateur de Koboldai.
- LLMFARM: LLAMA et autres modèles de grande langue sur iOS et MacOS Offline à l'aide de la bibliothèque GGML.
- Enchanted: Enchanted est l'application iOS et macOS pour discuter avec des modèles de langue auto-hébergés privés tels que Llama2, Mistral ou Vicuna utilisant Olllama.
- Flowise: glisser-déposer pour construire votre flux LLM personnalisé.
- Jan: Jan est une alternative open source à Chatgpt qui fonctionne à 100% hors ligne sur votre ordinateur.
- LMDEPLOY: LMDEPLOY est une boîte à outils pour comprimer, déploier et servir LLMS.
- Routellm: un cadre pour servir et évaluer les routeurs LLM - économisez les coûts LLM sans compromettre la qualité!
- Minférence: sur le point d'accélérer l'inférence de LLMS à long contexte, de calculer l'attention, ce qui réduit l'attention, ce qui réduit la latence d'inférence jusqu'à 10x pour la pré-remplissage sur un A100 tout en maintenant la précision.
- MEM0: La couche de mémoire pour AI personnalisée.
- SGLANG: SGLANG est un autre cadre de service rapide pour les modèles de grands langues et les modèles de langage de vision.
- Airllm: Airllm optimise l'utilisation de la mémoire d'inférence, permettant à 70b de modèles de langage de grande envergure d'exécuter l'inférence sur une seule carte GPU de 4 Go sans quantification, distillation et élagage.
- LLMHUB: LLMHUB est une plate-forme de gestion légère conçue pour rationaliser le fonctionnement et l'interaction avec divers modèles de langage (LLM).
- Yuanchat
- Litellm: Appelez toutes les API LLM en utilisant le format OpenAI [ombratage, étreint, vertexai, ensemble, azure, openai, grooq etc.]
- Guidellm: Guidellm est un outil puissant pour évaluer et optimiser le déploiement de modèles de grande langue (LLM).
- LLM-Engines: un moteur d'inférence unifié pour les modèles de grande langue (LLM) comprenant des modèles open source (Vllm, Sglang, ensemble) et des modèles commerciaux (Openai, Mistral, Claude).
- OARC: OLLAMA_AGENT_ROLL_CAGE (OARC) est un agent Python local fusionnant Olllama LLM avec des modèles de discours Coqui-TTS, des classes Keras, une vision llava, une reconnaissance de chuchotement, et plus encore pour créer un agent Chatbot unifié pour l'automatisation locale et personnalisée.
- G1: Utilisation de LLAMA-3.1 70b sur le grooq pour créer des chaînes de raisonnement de type O1.
- MemoryScope: MemoryScope fournit des chatbots LLM avec des capacités de mémoire à long terme puissantes et flexibles, offrant un cadre pour créer de telles capacités.
- OpenLLM: exécutez tous les LLM open-source, tels que Llama 3.1, Gemma, en tant que point de terminaison API compatible OpenAI dans le cloud.
- Infinity: La base de données AI-Native conçue pour les applications LLM, offrant une recherche hybride incroyablement rapide d'une intégration dense, d'une introduction claire, d'un tenseur et d'un texte intégral.
- Optilmm: un proxy d'inférence optimisé compatible API OpenAI qui implémente plusieurs techniques de pointe qui peuvent améliorer la précision et les performances des LLM.
- Box lama: implémentation du serveur de référence LLM basé sur llama.cpp.
↥ Retour en haut
Évaluation
- LM-Evaluation-Garness: un cadre pour l'évaluation à quelques coups des modèles linguistiques.
- OpenCompass: OpenCompass est une plate-forme d'évaluation LLM, prenant en charge un large éventail de modèles (Llama3, Mistral, Internlm2, GPT-4, Llama2, Qwen, GLM, Claude, etc.) plus de plus de plus de plus de 100 ensembles de données.
- LLM-comparator: LLM Comparator est un outil de visualisation des données interactif pour évaluer et analyser les réponses LLM côte à côte, développées.
- Evalscope
- TEAVE: Une boîte à outils légère pour suivre et évaluer les applications LLM.
- Mixeval: dériver la sagesse de la foule des mélanges de référence LLM.
- Guide d'évaluation: si vous vous êtes déjà demandé comment vous assurer qu'un LLM fonctionne bien sur votre tâche spécifique, ce guide est pour vous!
- Benchmark Olllama: Benchmark LLM pour le débit via Olllama (LLMS local).
- VLMEVALKIT: boîte à outils d'évaluation open source des grands modèles de vision (LVLMS), support ~ 100 VLMS, 40+ repères.
LLM API 服务平台
:
- Grêle
- Flux à base de silicium
- Moteur volcanique
- Wen Xin Qianfan
- Dashscope
↥ Retour en haut
Vivre l'utilisation
- LMSYS Chatbot Arena: Benchmarking LLMS dans la nature
- Compassarena Sinan Mockup Arena
- Langya Bang
- Espaces étreintes
- Espaces WiseModel
- Poe
- Liste sauvage du grand modèle de Brother Lin
- Ouverte
- Anychat
↥ Retour en haut
Rag de base de connaissances
- N'importe quoi: l'application AI tout-en-un pour tout LLM avec des capacités d'agent de chiffon et d'agent AI.
- MAXKB: Un système de questions et réponses de base de connaissances basés sur le modèle de langue grande LLM. Hors de la boîte, supportez l'incorporation rapide dans les systèmes commerciaux tiers
- Ragflow: un moteur de chiffon open-source (récupération à la récupération) basé sur une compréhension approfondie des documents.
- Dify: une plate-forme de développement d'applications LLM open-source.
- FastGPT: Une plate-forme basée sur les connaissances construite sur le LLM, offre des capacités de traitement des données et d'invocation des modèles prêtes à l'emploi, permet une orchestration de flux de travail par la visualisation de flux.
- Langchain-Chatchat: une question et une réponse de base de connaissances locales basées sur différents modèles de langage grand tels que Langchain et ChatGlm
- Qanything: Question et réponse en fonction de tout.
- QUIVR: Un assistant de productivité personnelle (RAG) ⚡️?
- RAG-GPT: Rag-GPT, tirant parti de la technologie LLM et Rag, apprend des bases de connaissances personnalisées pour fournir des réponses contextuelles pour un large éventail de requêtes, garantissant une récupération rapide et précise d'informations.
- Verba: Chatbot de génération augmentée (RAG) de récupération propulsé par Weavate.
- Flashrag: une boîte à outils Python pour des recherches de chiffons efficaces.
- Graphrag: un système de génération (RAG) modulaire basé sur des graphiques.
- Lightrag: Lightrag aide les développeurs à la construction et à l'optimisation des pipelines Retriever-Agent-Generator.
- Graphrag-eLlama-UI: Graphrag utilisant Olllama avec UI Gradio et des fonctionnalités supplémentaires.
- Nano-Graphrag: une implémentation de graphrag simple et facile à maintenir.
- Techniques de chiffon: ce référentiel présente diverses techniques avancées pour les systèmes de génération auprès de la récupération (RAG).
- Ragas: Cadre d'évaluation pour vos pipelines de génération augmentée (RAG) de récupération.
- Kotaemon: une interface utilisateur de chiffon propre et personnalisée open source pour discuter avec vos documents.
- Ragapp: La façon la plus simple d'utiliser un chiffon agentique dans n'importe quelle entreprise.
- Turborag: Accélération de la génération de la récupération avec des caches KV précomputées pour du texte guné.
- Lightrag: Génération simple et rapide et auprès de la récupération.
- Ten: Le cadre AI-A-Agent de nouvelle génération, le premier cadre d'agent d'IA multimodal en temps réel au monde.
- Autorag: Rag Automl Tool pour trouver automatiquement un pipeline de chiffon optique pour vos données.
- KAG: KAG est un cadre de génération amélioré par les connaissances basé sur le moteur OpenSPG, qui est utilisé pour créer des services de prise de décision rigoureux et de récupération d'informations améliorés dans les connaissances.
- Fast-Graphrag: Rag qui s'adapte intelligemment à votre cas d'utilisation, aux données et aux requêtes.
- Minou
- DB-GPT Graphrag: DB-GPT GraphRag intègre à la fois les graphiques de connaissances basés sur les triplet et les graphiques de structure de documents tout en tirant parti des mécanismes de récupération de la communauté et des documents pour améliorer les capacités de chiffon, réalisant des performances comparables tout en consommant seulement 50% des jetons requis par Microsoft de GraphRag.
- Chonkie: La bibliothèque de Chunking de chiffons sans fioritures qui est légère, rapide et prête à répandre vos textes.
↥ Retour en haut
Agents
- Autogen: Autogen est un cadre qui permet le développement d'applications LLM en utilisant plusieurs agents qui peuvent s'entretenir les uns avec les autres pour résoudre les tâches.
- Crewai: Framework pour l'orchestration des jeux de rôle, des agents d'IA autonomes.
- Se ruiner
- AgentGPT: assembler, configurer et déployer des agents AI autonomes dans votre navigateur.
- Xagent: un agent LLM autonome pour la résolution de tâches complexes.
- MobileAgent: la puissante famille d'assistant de fonctionnement de l'appareil mobile.
- LEGENT: un cadre léger pour la construction d'agents basés sur LLM.
- Qwen-Agent: Framework Agent et applications construites sur QWEN2, avec des appels de fonction, un interprète de code, un chiffon et une extension Chrome.
- Linkai: plate-forme de construction intelligente à guichet unique
- Baidu Appbuilder
- AgentUniverse: AgentUniverse est un cadre multi-agent LLM qui permet aux développeurs de créer facilement des applications multi-agents.
- Lazyllm: outil de développement pour la construction d'applications à grande échelle multi-agents avec code bas
- AGENTSCOPE: Commencez à construire des applications multi-agents LLM à plus facilement.
- MOA: Le mélange d'agents (MOA) est une nouvelle approche qui tire parti des forces collectives de plusieurs LLM pour améliorer les performances, obtenant des résultats de pointe.
- Agcentiment: Cadre de développement des applications d'agent AI.
- Omagent: un cadre d'agent multimodal pour résoudre des tâches complexes.
- Tribu: Aucun outil de code pour créer et coordonner rapidement les équipes multi-agents.
- Camel: First LLM Multi-Agent Framework et une communauté open source dédiée à la recherche de la loi d'échelle des agents.
- Praisonai: Application Praisonai combine Autogen et Crewai ou des cadres similaires dans une solution à faible code pour construire et gérer des systèmes LLM multi-agents, en se concentrant sur la simplicité, la personnalisation et la collaboration efficace d'agent humain.
- IOA: un cadre open source pour les agents d'IA collaboratifs, permettant aux agents distribués, distribués pour faire équipe et s'attaquer aux tâches complexes grâce à une connectivité de type Internet.
- Llama-Agentic-System: Composants agentiques des API Llama Stack.
- Agent zéro: l'agent zéro n'est pas un cadre d'agent prédéfini.
- Agents: un cadre open source pour les agents de langue autonome autonomes centrés sur les données.
- AGENTSCOPE: Commencez à construire des applications multi-agents LLM à plus facilement.
- FASTAGENCE: Le moyen le plus rapide de mettre en production des workflows multi-agents.
- STALM: Cadre pour la construction, l'orchestration et le déploiement de systèmes multi-agents.
- Agent-S: un cadre d'agent ouvert qui utilise des ordinateurs comme un humain.
↥ Retour en haut
Recherche
- OpenSearch GPT: SearchGpt / Perplexity Clone, mais personnalisé pour vous.
- MindSearch: un cadre multi-agent basé sur LLM du moteur de recherche Web (comme perplexity.ai pro et searchgpt).
- Nanoperplexityai: la mise en œuvre de la source ouverte la plus simple de perplexity.ai.
- Curiosité: essayez de créer une expérience utilisateur de type perplexité.
↥ Retour en haut
Livres
- Modèle de langue à grande échelle: de la théorie à la pratique
- "Modèle de grande langue"
- "Dive de maquette à main dans les LLM"
- "Agent AI à la main"
- Construisez un grand modèle de langue (à partir de zéro)
- "Maquette multimodale"
- Manuel de l'IA génératif: une feuille de route pour l'apprentissage des ressources
- Comprendre l'apprentissage en profondeur
- "Livre illustré pour en savoir plus sur les transformateurs et les LLM"
- Building LLMS for Production: Amélioration de la capacité et de la fiabilité LLM avec l'invitation, le réglage fin et le chiffon
- "Guide pratique des grands modèles de langue: pratique des applications et mise en œuvre du scénario"
- "Modèles pratiques de langage"
- Traitement du langage naturel: théorie et pratique du grand modèle
- "Apprentissage à la main le renforcement"
- "Introduction à LLM pour les développeurs"
- "Modèle de base"
↥ Retour en haut
Cours
Centre de ressources LLM
- Stanford CS224N: Traitement du langage naturel avec apprentissage en profondeur
- NG: AI génératif pour tout le monde
- NG: Série de cours LLM
- Tutoriel ACL 2023: modèles et applications linguistiques basés sur la récupération
- Course LLM: cours pour accéder à des modèles de grande langue (LLM) avec des feuilles de route et des cahiers de colab.
- Microsoft: AI générative pour les débutants
- Microsoft: état de GPT
- Cours NLP HuggingFace
- Tsinghua NLP Liu Zhiyuan Team Big Mode Model Open Class
- Stanford CS25: Transformers United V4
- Stanford CS324: Modèles de grande langue
- Princeton COS 597G (automne 2022): Comprendre les modèles de grande langue
- Johns Hopkins CS 601.471 / 671 NLP: Modèles auto-supervisés
- Cours de Genai Li Hongyi
- Openai-Cookbook: Exemples et directives pour l'utilisation de l'API OpenAI.
- LLM sur LLMS: découvrez gratuitement LLM, LLMOPS et Vector DBS en concevant, en formation et en déploiement d'un système LLM conseiller financier en temps réel.
- Université de Waterloo CS 886: Récents avancés sur les modèles de fondation
- Mistral: commencer avec Mistral
- Stanford CS25: Transformers United V4
- Coursera: Project d'invite de l'application Chatgpt
- LANGGPT: Gérer tout le monde à devenir un expert rapide!
- Mistralai-Cookbook
- Introduction au printemps génératif de l'AI 2024
- Construire Nanogpt: Video + Code Leçon sur la construction de nanogpt à partir de zéro.
- LLM101N: Construisons un conteur.
- Graphiques de connaissances pour le chiffon
- LLMS de Scratch (version Datawhale)
- Openrag
- La route vers AGI
- Andrej Karpathy - Réseaux de neurones: zéro au héros
- Visualisation interactive du transformateur
- Andyingal / LLM Course
- Classe LM
- Google Advanced: AI génératif pour le chemin d'apprentissage des développeurs
- Anthropiques: tutoriel interactif ingénierie rapide
- LLMSbook
- Agents du modèle de grande langue
- Université Cohere LLM
- LLMS et transformateurs
- Vision Smol: recettes de rétrécissement, d'optimisation, de personnalisation des modèles de vision de pointe.
- Rag multimodal: discuter avec des vidéos
- Note d'entrevue LLMS
- Rag ++: de POC à la production: cours avancé de chiffon.
- Poids et biais ACA ACADEMY: Finetuning, bâtiment avec LLMS, sorties structurées et plus de cours LLM.
- Ingénierie rapide et tutoriels et ressources de l'IA
- Apprenez le chiffon à partir de zéro - Python AI Tutoriel d'un ingénieur de Langchain
- Évaluation LLM: un cours complet
↥ Retour en haut
Tutoriel
- Apprenez le développement d'applications de gros modèle
- Canal du développeur d'IA
- Station B: maison de thé Wulidun
- Station B: Cheney Muyu
- YTB: AI à tout moment
- Station B: Qi Nini
- Guide d'ingénierie rapide
- YTB: super métamorphose AI
- Station B: Techbeat Artificial Intelligence Community
- Station B: Huang Yihe
- Station B: Traitement du langage naturel d'apprentissage en profondeur
- Visualisation LLM
- Zhihu: pierre brute humaine
- Station B: Xiao Heihei parle de l'IA
- Station B: ingénieur de véhicules face au mur
- Station B: Vétéran de l'IA Wenzhe
- Modèles de grande langue (LLMS) avec des cahiers Colab
- YTB: technologie IBM
- YTB: Unify Reading Paper Group
- Puce Huyen
- Combien de vram
- Blog: Science Space (Su Jianlin)
- YTB: Hyung a gagné Chung
- Blog: Tejaswi Kashyap
- Blog: Blog de XiaoSheng
- Zhihu: YBQ
- Articles W&B
- Blog HuggingFace
- Blog: Gbyai
- Blog: MLABONNE
- Llm-action
- Blog: Lil'log (Oponai)
↥ Retour en haut
Papier
Note
? Huggingface Daily Papers, papiers sympas, papiers ML expliqués
- Hermes-3-technique-Report
- Le troupeau de la Llama 3 de modèles
- Rapport technique Qwen
- Rapport technique QWEN2
- Rapport technique QWEN2-VL
- Deepseek LLM: Échelle des modèles de langue open source avec long terme
- Deepseek-V2: un modèle de langue solide, économique et efficace
- Baichuan 2: Open Modèles de langue à grande échelle
- Datacomp-LM: à la recherche de la prochaine génération d'ensembles de formation pour les modèles de langue
- Olmo: accélérer la science des modèles de langue
- Map-Neo: série de modèles de grande langue bilingues hautement capables et transparentes
- Tiny LLM chinois: pré-formation d'un modèle de grande langue centré sur le chinois
- Rapport technique PHI-3: un modèle de langue hautement capable localement sur votre téléphone
- Jamba-1.5: Modèles de transformateur hybride-Mamba à grande échelle
- Jamba: un modèle de langue transformateur hybride-mamba
- Les manuels sont tout ce dont vous avez besoin
- Libérer la puissance du tsunami de données: une enquête complète sur l'évaluation et la sélection des données pour le réglage des modèles
data
langue - Olmoe: Modèles de langage ouverts de mélange de réseaux
- Papier de fusion du modèle
- Rapport technique de Baichuan-Omni
- Rapport technique 1.5-Pints: Pretepraining en jours, pas des mois - votre modèle de langue prospère sur des données de qualité
- Rapport technique de Baichuan Alignement
- HUNYUAN-LARGE: Un modèle MOE open source avec 52 milliards de paramètres activés par Tencent
- Molmo et Pixmo: poids ouverts et données ouvertes pour les modèles multimodaux de pointe
- Tülu 3: Pousser les frontières dans le modèle de langue ouverte après la formation
↥ Retour en haut
Conseils
- Ce que nous avons appris d'une année de construction avec LLMS (partie I)
- Ce que nous avons appris d'une année de construction avec LLMS (partie II)
- Ce que nous avons appris d'une année de construction avec LLMS (partie III): stratégie
- Facile à démarrer avec le modèle grand langage (LLM)
- LLMS pour la classification du texte: un guide de l'apprentissage supervisé
- Classification de texte non supervisée: catégoriser le langage naturel avec LLMS
- Classification du texte avec LLMS: un tour d'horizon des meilleures méthodes
- Prix LLM
- Uncensor tout LLM avec abstraction
- Tiny LLM Universe
- Zéro chatte
- Zéro-qwen-vl
- finetune-qwen2-vl
- MPP-lava
- build_minillm_from_scratch
- Minuscule LLM
- Minimind: 3 heures de formation d'un petit paramètre GPT avec seulement 26 m, et au moins une carte graphique 2G est nécessaire pour déduire la formation en inférence.
- LLM-Travel: Dédié à une compréhension approfondie, une discussion et une mise en œuvre de diverses technologies, principes et applications liés aux grands modèles
- Distillation des connaissances: enseignement LLM avec des données synthétiques
- Partie 1: Méthodes pour adapter des modèles de langue importants
- Partie 2: à affiner ou à ne pas affiner
- Partie 3: Comment affiner: Concentrez-vous sur des ensembles de données efficaces
- Reader-LM: Modèles de petits langues pour nettoyer et convertir le HTML à Markdown
- Expérience de construction d'application LLMS pendant un an
- LLM Training-Pretrain
- Pytorch-Llama: Llama 2 implémenté à partir de zéro à Pytorch.
- Optimisation des préférences pour les modèles de langage de vision avec Trl 【Modèle de support】
- Modèles de langage visuel à réglage fin utilisant SFTtrainer 【Docs】
- Un guide visuel du mélange d'experts (MOE)
- Jeu de rôles dans des modèles de grande langue comme Chatgpt
- Guide de formation distribuée: meilleures pratiques et guides sur la façon d'écrire le code de formation Pytorch distribué.
- Modèles de chat
- Top 20+ Questions d'entrevue de chiffon
↥ Retour en haut
Si vous trouvez ce projet utile, veuillez citer:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}