Un guide d'ingénierie open source pour l'apprentissage rapide en contexte d'EgoAlpha Lab.
Documents | ⚡️ Aire de jeux | ? Ingénierie rapide | ? Invite ChatGPT | ⛳ Guide d'utilisation des LLM
️ Shining ️ : il s'agit de ressources fraîches et mises à jour quotidiennement pour l'apprentissage en contexte et l'ingénierie rapide. À l'approche de l'intelligence générale artificielle (AGI), agissons et devenons un super apprenant afin de nous positionner à l'avant-garde de cette ère passionnante et de viser la grandeur personnelle et professionnelle.
Les ressources comprennent :
?Papiers? : Les derniers articles sur l'apprentissage en contexte , l'ingénierie rapide , les modèles d'agent et de base.
?Aire de jeux ? : Grands modèles de langage (LLM) qui permettent une expérimentation rapide.
?Ingénierie rapide ? : Techniques rapides pour exploiter de grands modèles de langage.
?Invite ChatGPT ? : Exemples rapides qui peuvent être appliqués dans notre travail et notre vie quotidienne.
?Guide d'utilisation des LLM ? : La méthode pour démarrer rapidement avec de grands modèles de langage en utilisant LangChain.
Dans le futur, il y aura probablement deux types de personnes sur Terre (peut-être même sur Mars, mais c'est une question pour Musk) :
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha publie le TrustGPT axé sur le raisonnement. Faites confiance au GPT doté des capacités de raisonnement les plus solides pour des réponses authentiques et fiables. Vous pouvez cliquer ici ou visiter directement les terrains de jeux pour en faire l'expérience.
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
Actualités historiques complètes ?
Vous pouvez cliquer directement sur le titre pour accéder à l'emplacement du lien PDF correspondant
Le mouvement rencontre l’attention : invites de mouvement vidéo ( 2024.07.03 )
Vers un modèle linguistique large de santé personnelle ( 2024.06.10 )
Husky : un agent linguistique unifié et open source pour le raisonnement en plusieurs étapes ( 2024.06.10 )
Vers l'apprentissage tout au long de la vie des grands modèles linguistiques : une enquête ( 2024.06.10 )
Vers l'équivalence sémantique de la tokenisation dans le LLM multimodal ( 2024.06.07 )
Les LLM rencontrent la génération et l'édition multimodales : une enquête ( 2024.05.29 )
Apprentissage d'outils avec de grands modèles de langage : une enquête ( 2024.05.28 )
Quand les LLM entrent dans le monde 3D : une enquête et une méta-analyse des tâches 3D via des modèles multimodaux en grand langage ( 2024.05.16 )
Estimation et quantification de l'incertitude pour les LLM : une approche simple supervisée ( 2024.04.24 )
Une enquête sur le mécanisme de mémoire des agents basés sur de grands modèles linguistiques ( 2024.04.21 )
Liste papier complète ? pour "Enquête" ?
LLaRA : Supercharger les données d'apprentissage des robots pour la politique vision-langage ( 2024.06.28 )
Récupération de la taille de l'ensemble de données à partir des poids LoRA ( 2024.06.27 )
Optimisation accélérée des invites en double phase ( 2024.06.19 )
Des RAG aux paramètres riches : étudier comment les modèles de langage utilisent des connaissances externes sur des informations paramétriques pour les requêtes factuelles ( 2024.06.18 )
VoCo-LLaMA : Vers une compression de la vision avec de grands modèles de langage ( 2024.06.18 )
LaMDA : réglage fin de grands modèles via une adaptation spectralement décomposée en basse dimension ( 2024.06.18 )
L'impact de l'initialisation sur la dynamique de réglage fin de LoRA ( 2024.06.12 )
Une étude empirique sur le réglage fin efficace des paramètres pour les grands modèles de langage multimodaux ( 2024.06.07 )
Attaques dérobées multi-contextes contre l'apprentissage par invite graphique ( 2024.05.28 )
Yuan 2.0-M32 : Mélange d'experts avec Attention Router ( 2024.05.28 )
Liste papier complète ? pour « Conception rapide » ?
Une étude empirique sur le réglage fin efficace des paramètres pour les grands modèles de langage multimodaux ( 2024.06.07 )
Cantor : Chaîne de pensée multimodale inspirante du MLLM ( 2024.04.24 )
nicolay-r à SemEval-2024 Tâche 3 : Utiliser Flan-T5 pour raisonner la cause des émotions dans les conversations avec une chaîne de pensée sur les états émotionnels ( 04/04/2024 )
La visualisation de la pensée suscite un raisonnement spatial dans de grands modèles linguistiques ( 2024.04.04 )
Les petits modèles de langage peuvent-ils aider les grands modèles de langage à mieux raisonner ? : Chaîne de pensée guidée par LM ( 2024.04.04 )
Visual CoT : libérer le raisonnement en chaîne de pensée dans les modèles de langage multimodaux ( 2024.03.25 )
Une approche d'incitation en chaîne de pensée avec des LLM pour évaluer les réponses des étudiants à l'évaluation formative en sciences ( 2024.03.21 )
NavCoT : Améliorer la navigation visuelle et linguistique basée sur le LLM via l'apprentissage du raisonnement démêlé ( 2024.03.12 )
ERA-CoT : Améliorer la chaîne de pensée grâce à l'analyse des relations entre entités ( 2024.03.11 )
La formation à la cohérence augmentée par les biais réduit le raisonnement biaisé dans la chaîne de pensée ( 2024.03.08 )
Liste papier complète ? pour « Chaîne de pensée » ?
LaMDA : réglage fin de grands modèles via une adaptation spectralement décomposée en basse dimension ( 2024.06.18 )
L'impact de l'initialisation sur la dynamique de réglage fin de LoRA ( 2024.06.12 )
Une étude empirique sur le réglage fin efficace des paramètres pour les grands modèles de langage multimodaux ( 2024.06.07 )
Tirer parti des jetons visuels pour les contextes de texte étendus dans l'apprentissage multimodal ( 2024.06.04 )
Apprendre à grok : émergence de l'apprentissage en contexte et de la composition des compétences dans les tâches arithmétiques modulaires ( 2024.06.04 )
Un contexte long n'est pas long du tout : un prospecteur de données à longue dépendance pour les grands modèles de langage ( 2024.05.28 )
Réglage efficace des invites par projection multi-espace et fusion d'invites ( 2024.05.19 )
MAML-en-LLM : Méta-formation agnostique des modèles LLM pour un apprentissage amélioré en contexte ( 2024.05.19 )
Améliorer la diversité de la génération de sens commun par de grands modèles linguistiques via l'apprentissage en contexte ( 2024.04.25 )
Des lignes de base aléatoires plus solides pour l'apprentissage en contexte ( 2024.04.19 )
Liste papier complète ? pour « l'apprentissage en contexte » ?
Mélange de récupération augmentée d'experts LoRA pour l'apprentissage automatique téléchargeable ( 2024.06.24 )
Amélioration des systèmes RAG : une enquête sur les stratégies d'optimisation pour les performances et l'évolutivité ( 2024.06.04 )
Amélioration de la robustesse au bruit des modèles de langage augmentés par récupération grâce à une formation contradictoire adaptative ( 2024.05.31 )
Accélération de l'inférence de la génération augmentée par récupération via une sélection de contexte clairsemée ( 2024.05.25 )
DocReLM : Maîtriser la récupération de documents avec un modèle linguistique ( 2024.05.19 )
UniRAG : Augmentation de la récupération universelle pour les grands modèles de langage multimodaux ( 2024.05.16 )
ChatHuman : compréhension humaine 3D basée sur le langage avec raisonnement par outils de récupération augmentés ( 07/05/2024 )
RAISONS : Une référence pour la récupération et les citations automatisées de phrases scientifiques à l'aide de LLM publics et propriétaires ( 03/05/2024 )
Invite de superposition : améliorer et accélérer la génération augmentée par récupération ( 2024.04.10 )
Démêler le NŒUD : Entremêler des connaissances et des compétences de raisonnement contradictoires dans de grands modèles de langage ( 2024.04.04 )
Liste papier complète ? pour « Récupération Augmentée Génération » ?
CELLO : Évaluation causale des modèles de vision et de langage à grande échelle ( 2024.06.27 )
PrExMe! Exploration rapide à grande échelle des LLM open source pour la traduction automatique et l'évaluation de la synthèse ( 2024.06.26 )
Revisiter l'évaluation de la compréhension des expressions de référence à l'ère des grands modèles multimodaux ( 2024.06.24 )
OR-Bench : une référence en matière de refus excessif pour les grands modèles linguistiques ( 2024.05.31 )
TimeChara : Évaluation des hallucinations de personnages ponctuels dans des modèles de langage étendus de jeu de rôle ( 2024.05.28 )
Les biais subtils nécessitent des mesures plus subtiles : métriques doubles pour évaluer les biais de représentation et d'affinité dans les grands modèles linguistiques ( 2024.05.23 )
HW-GPT-Bench : référence d'architecture sensible au matériel pour les modèles de langage ( 2024.05.16 )
Les LLM multimodaux luttent avec l'analyse de base du réseau visuel : une référence VNA ( 2024.05.10 )
Vibe-Eval: Une suite d'évaluation rigoureuse pour mesurer les progrès des modèles linguistiques multimodaux ( 2024.05.03 )
Évaluation causale des modèles linguistiques ( 2024.05.01 )
Liste papier complète ? pour « Évaluation et fiabilité » ?
Méthodes d'apprentissage coopératif multi-agents par renforcement profond pour les réseaux informatiques de périphérie mobile assistés par UAV ( 2024.07.03 )
L'apprentissage symbolique permet aux agents d'auto-évolution ( 2024.06.26 )
Attaques contradictoires contre des agents multimodaux ( 2024.06.18 )
DigiRL : Formation d'agents de contrôle des appareils dans la nature avec un apprentissage par renforcement autonome ( 2024.06.14 )
Transformer les données portables en informations sur la santé à l'aide d'agents de modèles linguistiques étendus ( 2024.06.10 )
Rêve neuromorphique : une voie vers un apprentissage efficace chez les agents artificiels ( 2024.05.24 )
Affiner les grands modèles de langage de vision en tant qu'agents décisionnels via l'apprentissage par renforcement ( 2024.05.16 )
Apprendre la communication multi-agents du point de vue de la modélisation graphique ( 2024.05.14 )
Schtroumpfs : tirer parti de plusieurs agents de compétence avec une efficacité contextuelle pour la planification des outils ( 09/05/2024 )
Révélation des disparités dans la gestion des tâches Web entre l'humain et l'agent Web ( 07/05/2024 )
Liste papier complète ? pour "Agent" ?
InternLM-XComposer-2.5 : un modèle de langage polyvalent à grande vision prenant en charge les entrées et sorties à contexte long ( 03/07/2024 )
LLaRA : Supercharger les données d'apprentissage des robots pour la politique vision-langage ( 2024.06.28 )
Web2Code : un ensemble de données page-to-code à grande échelle et un cadre d'évaluation pour les LLM multimodaux ( 2024.06.28 )
LLaVolta : modèles multimodaux efficaces via une compression de contexte visuel par étapes ( 2024.06.28 )
Cambrian-1 : Une exploration entièrement ouverte et centrée sur la vision des LLM multimodaux ( 2024.06.24 )
VoCo-LLaMA : Vers une compression de la vision avec de grands modèles de langage ( 2024.06.18 )
Au-delà de LLaVA-HD : plongée dans les grands modèles multimodaux haute résolution ( 2024.06.12 )
Une étude empirique sur le réglage fin efficace des paramètres pour les grands modèles de langage multimodaux ( 2024.06.07 )
Tirer parti des jetons visuels pour les contextes de texte étendus dans l'apprentissage multimodal ( 2024.06.04 )
DeCo : Découplage de la compression des jetons de l'abstraction sémantique dans les grands modèles multimodaux de langage ( 2024.05.31 )
Liste papier complète ? pour « Invite multimodale » ?
IncogniText : anonymisation de texte conditionnelle améliorant la confidentialité via la randomisation des attributs privés basée sur LLM ( 03/07/2024 )
Web2Code : un ensemble de données page-to-code à grande échelle et un cadre d'évaluation pour les LLM multimodaux ( 2024.06.28 )
OMG-LLaVA : relier le raisonnement et la compréhension au niveau de l'image, de l'objet et du pixel ( 2024.06.27 )
Optimisation contradictoire des moteurs de recherche pour les grands modèles linguistiques ( 2024.06.26 )
VideoLLM-online : modèle de vidéo en ligne en grand langage pour le streaming vidéo ( 2024.06.17 )
La régularisation des états cachés permet l'apprentissage d'un modèle de récompense généralisable pour les LLM ( 2024.06.14 )
Le modèle autorégressif bat la diffusion : Llama pour la génération d'images évolutives ( 2024.06.10 )
Les modèles linguistiques émulent certains profils cognitifs : une enquête sur la manière dont les mesures de prévisibilité interagissent avec les différences individuelles ( 07.06.2024 )
PaCE : Ingénierie conceptuelle parcimonieuse pour les grands modèles de langage ( 06/06/2024 )
Yuan 2.0-M32 : Mélange d'experts avec Attention Router ( 2024.05.28 )
Liste papier complète ? pour « Application rapide » ?
TheoremLlama : Transformer les LLM à usage général en experts Lean4 ( 2024.07.03 )
Compréhension de la forme 3D des piétons pour la ré-identification des personnes via l'apprentissage multi-vues ( 2024.07.01 )
L'effacement des jetons comme empreinte des éléments de vocabulaire implicites dans les LLM ( 2024.06.28 )
OMG-LLaVA : relier le raisonnement et la compréhension au niveau de l'image, de l'objet et du pixel ( 2024.06.27 )
Problèmes fondamentaux liés à l'édition de modèles : comment la révision des croyances rationnelles devrait-elle fonctionner dans les LLM ? ( 2024.06.27 )
Modèles mondiaux efficaces avec tokenisation contextuelle ( 2024.06.27 )
La robustesse remarquable des LLM : étapes d’inférence ? ( 2024.06.27 )
ResumeAtlas : Revisiter la classification des CV avec des ensembles de données à grande échelle et de grands modèles linguistiques ( 2024.06.26 )
AITTI : apprentissage d'un jeton inclusif adaptatif pour la génération de texte en image ( 2024.06.18 )
Dévoilement de modèles de langage de vision sans encodeur ( 2024.06.17 )
Liste papier complète ? pour les « Modèles de base » ?
Les grands modèles de langage (LLM) deviennent une technologie révolutionnaire qui façonne le développement de notre époque. Les développeurs peuvent créer des applications qui n'étaient auparavant possibles que dans notre imagination en créant des LLM. Cependant, l'utilisation de ces LLM s'accompagne souvent de certains obstacles techniques, et même au stade d'introduction, les gens peuvent être intimidés par la technologie de pointe : Avez-vous des questions comme celles-ci ?
S'il existait un didacticiel accessible à tous les publics, et pas seulement aux professionnels de l'informatique, il fournirait des conseils détaillés et complets pour démarrer et fonctionner rapidement en peu de temps, atteignant ainsi l'objectif de pouvoir utiliser les LLM de manière flexible. et de manière créative pour construire les programmes qu'ils envisagent. Et maintenant, rien que pour vous : le guide du débutant Langchain le plus détaillé et le plus complet, provenant du site officiel de Langchain mais avec des ajustements supplémentaires du contenu, accompagné des exemples de code les plus détaillés et annotés, enseignant le code ligne par ligne et phrase par phrase à tous les publics.
Cliquez ici? pour faire un tour rapide de la prise en main du LLM.
Ce dépôt est maintenu par EgoAlpha Lab. Les questions et discussions sont les bienvenues via [email protected]
.
Nous sommes disposés à engager des discussions avec des amis des communautés universitaires et industrielles et à explorer ensemble les derniers développements en matière d'ingénierie rapide et d'apprentissage en contexte.
Merci aux doctorants d'EgoAlpha Lab et aux autres travailleurs qui ont participé à ce repo. Nous améliorerons le projet dans la période de suivi et maintiendrons bien cette communauté. Nous souhaitons également exprimer notre sincère gratitude aux auteurs des ressources pertinentes. Vos efforts ont élargi nos horizons et nous ont permis de percevoir un monde plus merveilleux.