Pour un rapide coup d'œil aux différents cas d'utilisation et capacités d'Odin Runes, n'hésitez pas à explorer les odin runes wiki. Le wiki contient de nombreuses démos GIF courtes qui présentent les fonctionnalités et les fonctionnalités uniques des runes Odin. Il est régulièrement mis à jour avec un nouveau contenu pour vous tenir informé des dernières avancées et possibilités avec Odin Runes.
Découvrez le pouvoir des Odinrunes en action avec une démo engageante. Cliquez sur le bouton de lecture ci-dessous pour voir comment cet outil Java utile, entraîné par GPTS, stimule votre productivité et vous fait gagner un temps précieux. Pour des démos plus à jour et plus courtes, vérifiez le wiki ci-dessus, car la vidéo de démonstration ci-dessous ne contient pas les dernières mises à jour et fonctionnalités ajoutées.
Odin Runes propose une gamme de fonctionnalités puissantes qui améliorent votre interaction avec les modèles GPT:
Odin Runes offre plusieurs avantages par rapport aux clients GPT traditionnels:
Évitez le verrouillage des fournisseurs : En adoptant une approche multi-cloud, Odin Runes vous libère du verrouillage des fournisseurs. Vous n'êtes plus limité à un seul fournisseur GPT, vous donnant la liberté de choisir le fournisseur qui offre les meilleures performances, rentables ou fonctionnalités pour votre application spécifique. Cette flexibilité garantit que vous pouvez vous adapter aux exigences changeantes et tirer parti des progrès des différents fournisseurs de GPT. Odin Runes s'intègre actuellement à plusieurs fournisseurs de GPT, notamment le GPT-3.5-Turbo d'OpenAI, ainsi que Gemini-Pro de Google, et Chat-Bison via Vertexai de GCP. Restez à l'écoute pour les futures intégrations avec des fournisseurs GPT supplémentaires. De plus, Odin Runes offre la flexibilité d'intégrer vos propres fournisseurs GPT en mettant en œuvre l'interface Wellsofwisdom. Cela vous permet d'étendre les capacités de la plate-forme et d'incorporer votre fournisseur GPT préféré de manière transparente. Pour plus d'informations sur la façon d'intégrer votre propre fournisseur, veuillez regarder la démo fournie.
Expérience utilisateur améliorée : en intégrant de manière transparente les modèles GPT avec votre éditeur de texte préféré via Odin Runes, vous pouvez débloquer une multitude d'avantages. Vous aurez le pouvoir de tirer parti des fonctionnalités étendues de votre éditeur de texte de confiance, ce qui rend vos interactions avec les modèles GPT plus polyvalents et plus efficaces. Imaginez pouvoir utiliser de puissantes capacités d'édition de texte telles que la mise en évidence de la syntaxe, le pliage de code et les fonctionnalités de recherche et de repensation tout en conversant avec les modèles GPT. Cette intégration vous permet d'exploiter le plein potentiel des modèles GPT dans l'environnement familier de votre éditeur de texte. De plus, comme les sessions de chat sont stockées en tant que fichiers sur votre système de fichiers, vous pouvez profiter des fonctionnalités existantes du système d'exploitation comme Grep pour rechercher et gérer facilement vos conversations passées avec des modèles GPT.
Amélioration de la compréhension contextuelle : les runes Odin vous permet de fournir du contexte aux modèles GPT à travers diverses sources telles que le presse-papiers, la capture de la région d'écran basée sur l'OCR, la capture de région de défilement basée sur l'OCR et dynamiquement à partir d'un fichier. En enrichissant les conversations avec des informations pertinentes, les modèles GPT possèdent une meilleure compréhension du contexte, conduisant à des réponses plus précises et significatives. Cette compréhension contextuelle permet aux applications comme le résumé des documents, la génération de contenu, etc.
Contexte et gestion du chat sans effort : avec Odin Runes, la gestion du contexte et des chats devient transparente. Vous pouvez enregistrer et charger le contexte indépendamment, facilitant la réutilisation du contexte précédemment enregistré sur plusieurs conversations. De plus, la sauvegarde et le chargement des chats indépendamment permet une plus grande flexibilité et contrôler les conversations. Ce contexte sans effort et la gestion du chat rationalisent votre flux de travail et permet une interaction efficace avec les modèles GPT.
Intégration facile avec de nouveaux modèles : la conception modulaire d'Odin Runes offre une base solide pour intégrer les nouveaux modèles et fournisseurs GPT. L'ajout de prise en charge de nouveaux modèles est facilitée en étendant la base de code existante et en implémentant l'interface GPT personnalisée. Au fur et à mesure que le paysage des modèles GPT évolue, vous pouvez intégrer et expérimenter sans effort les modèles émergents sans avoir besoin de retravailler l'application entière.
La flexibilité avec les LLMS open-source : Odin Runes vous permet désormais de tirer parti d'Olllama pour exécuter plusieurs LLMs open-source localement. En intégrant Olllama dans Odin Runes, vous pouvez profiter de la gamme diversifiée de LLMS open-source disponibles dans le référentiel Olllama, en élargissant vos options pour les modèles de modèles de langage.
Pour installer et configurer les runes Odin, suivez ces étapes:
Clone le référentiel de votre machine locale:
git clone https://github.com/leonid20000/OdinRunes.git
Accédez au répertoire du projet:
cd OdinRunes
Construisez le projet à l'aide de maven:
mvn clean install
Assurez-vous que les dépendances nécessaires sont installées et ajoutées à votre projet. Vous pouvez trouver la liste des dépendances dans le fichier pom.xml
. (Maven vous aide avec ça)
Configurez les variables d'environnement requises:
GCLOUD_VERTEX_AI_ACCESS_TOKEN
: définissez cette variable d'environnement sur le jeton d'accès pour le vertex google cloud. Il est nécessaire d'authentifier les demandes à l'API Vertex AI. ( Requis pour utiliser les API GPT de Google. )
OPENAI_API_KEY_ODIN_FIRST
: Définissez cette variable d'environnement sur la touche API pour OpenAI. ( Requis pour utiliser les API GPT d'Openai. )
TESSDATA_PREFIX
: définissez cette variable d'environnement sur le chemin où se trouve le dossier tessdata
de Tesseract. Il est nécessaire pour que Tesseract localise les données linguistiques nécessaires pour l'OCR.
VERTEXAI_API_ENDPOINT
: définissez cette variable d'environnement sur le point de terminaison de l'API pour Google Cloud Vertex AI. Il spécifie l'emplacement du service Vertex AI pour faire des demandes d'API. ( Requis pour utiliser les API GPT de Google. )
VERTEXAI_PROJECT_ID
: définissez cette variable d'environnement sur l'ID du projet pour votre projet Google Cloud. Il est nécessaire de faire des demandes d'API au service Vertex AI. ( Requis pour utiliser les API GPT de Google. )
Une fois l'installation et la configuration terminées, vous pouvez exécuter les runes Odin. Vous pouvez exécuter les runes Odin en double-cliquant sur le fichier jar target/OdinRunes-1.5-SNAPSHOT-jar-with-dependencies.jar
ou alternativement en utilisant la commande suivante:
java -jar target/OdinRunes-1.5-SNAPSHOT-jar-with-dependencies.jar
Cela commencera l'application Odin Runes.
Félicitations! Vous avez réussi à installer et à configurer les runes Odin. Reportez-vous à la section d'utilisation dans le fichier readme.md pour des instructions sur la façon d'utiliser les runes Odin pour interagir avec les modèles GPT.
Pour tirer parti des capacités des runes d'Odin, vous devrez configurer les dépendances nécessaires (Maven vous aidera avec la plupart des pièces):
L'utilisation de runes Odin pour interagir avec les modèles GPT est simple. L'utilisation peut être divisée en différents scénarios:
Avant ou pendant une session de chat avec un modèle GPT souhaité, vous pouvez capturer et ajouter un contexte pertinent à partir de différentes sources. Odin Runes offre les options de capture de contexte suivantes (restez à l'écoute pour plus d'options):
Cliquez sur le bouton "Ajouter le contexte à partir du presse-papiers" pour capturer du texte à partir du presse-papiers. Le texte capturé sera affiché dans la section "Context" du panneau Paramètres.
Cliquez sur le bouton "Ajouter un contexte à partir de RegionShot" pour capturer du texte à partir d'une région spécifique à l'écran à l'aide de l'OCR. Cela vous permet de fournir un contexte précis à partir d'un domaine spécifique de votre écran.
Cliquez sur le bouton "Ajouter un contexte à partir de ScrollShot" pour capturer du texte à partir d'une région de défilement à l'écran à l'aide de l'OCR. Cela capture l'intégralité du contenu visible dans la région de défilement, vous permettant pratiquement de capturer le contexte de n'importe où.
Cliquez sur le bouton "Ajouter un contexte à partir du fichier" pour ajouter dynamiquement le contexte à partir d'un fichier. Toutes les modifications apportées au fichier par la suite seront automatiquement reflétées dans le contexte. Veuillez noter qu'actuellement, seuls les fichiers en texte clair sont pris en charge. La prise en charge d'autres formats de fichiers tels que PDF ou documents Word est en cours de développement, veuillez donc rester à l'écoute pour les mises à jour concernant ces types de fichiers.
Lorsque vous utilisez des runes Odin, vous avez la flexibilité de choisir le fournisseur GPT qui répond le mieux à vos besoins.
Odin Runes s'intègre actuellement à plusieurs fournisseurs de GPT, notamment le GPT-3.5-Turbo d'OpenAI, Gemini-Pro de Google, le bison de chat via Vertex AI de GCP et Ollama. Ollama est un outil open-source disponible sur https://github.com/ollama/ollama qui facilite l'exécution locale de plusieurs LLM à source ouverte (modèles de modèles de langage).
Pour choisir un fournisseur GPT, accédez au panneau des paramètres dans Odin Runes et configurez le fournisseur en fournissant les paramètres nécessaires.
Pour démarrer une session de chat, cliquez sur le bouton "CHAT", qui ouvrira votre éditeur de texte préféré. Vous pouvez maintenant lancer une conversation avec le modèle GPT.
Vous pouvez ajouter des invites au chat à l'aide de votre éditeur de texte. Tapez simplement vos invites et questions souhaitées, puis cliquez à nouveau sur le bouton "CHAT" dans Odin Runenes pour traiter l'invite. Les réponses du modèle GPT seront annexées à l'historique de chat en temps réel (afin que vous puissiez rédiger l'historique de chat en utilisant votre éditeur préféré pour voir les résultats en temps réel).
Enregistrez le contexte actuel dans un fichier à l'aide du bouton "Enregistrer le contexte" dans le panneau Paramètres. Cela vous permet de réutiliser le contexte dans différentes conversations.
Chargez un contexte précédemment enregistré à l'aide du bouton "Charge Context" dans le panneau Paramètres chaque fois que cela est nécessaire. Cela facilite l'utilisation active de différents contextes pré-capturés dans diverses sessions de chat.
Ce projet est autorisé sous la licence du MIT.
Pour améliorer votre compréhension et optimiser votre utilisation des runes Odin, envisagez de vous référer aux ressources suivantes:
Odin Runes est un travail open source de l'amour, un projet de week-end embrassant le pouvoir de la communauté. Envisagez de lui donner une étoile ?, Si vous pensez qu'elle en mérite. Votre étoile aide à reconnaître l'effort collectif derrière ce projet et motive de nouvelles améliorations.
Merci de faire partie de notre communauté open source! ?