Veuillez visiter https://insightai.dev/project pour notre solution gérée avec de nombreuses autres fonctionnalités !
Insight est une IA autonome capable de faire de la recherche médicale. Il a un agent patron qui prend un objectif et un résumé des tâches déjà accomplies et de leurs résultats et crée une liste de tâches. Un agent de travail récupère une tâche dans la liste et la termine, en enregistrant les résultats dans l'index Lama. Le patron est informé des résultats et modifie/redéfinit les priorités de la liste des tâches. Les travailleurs peuvent appeler les API pubmed et mygene (d'autres à venir). Les travailleurs obtiennent également le contexte de l'index des lamas pour les aider à accomplir leurs tâches.
INSIGHT peut également recharger et continuer les analyses, et également charger n'importe quel fichier de données lisible par l'homme et l'utiliser avec les autres résultats !
Vous pouvez également charger votre base de données Llama Index et lui parler, en posant des questions arbitraires sur vos données, en exécutant talk_to_index.py
Vous devrez spécifier le chemin d'accès à votre index au bas du fichier. Voir le bas de talk_to_index.py
pour un exemple.
N'hésitez pas à me contacter ou à contribuer si cela vous intéresse :) Mon email est [email protected]
graphique TB ;
API de sous-graphe ;
API1[API PUBMÉE] ;
API2[API MYGÈNE] ;
fin;
Patron((AGENT BOSS)) <--> GPT[LLM];
Lama[(LLAMA INDEX)] -->|Résumé des résultats| Chef;
Patron -->|Créer| File d'attente[LISTE DES TÂCHES] ;
Travailleur((AGENT DE TRAVAIL)) <--> GPT ;
File d'attente --> |Tirer| Travailleur;
Lama -->|Contexte de la tâche| Travailleur;
Travailleur --> Résultat[Résultat de la tâche] ;
Résultat --> |Texte| Lama;
Résultat -->|Code| Exécuteur{PYTHON EXECUTOR} ;
Exécuteur -> API1[PUBMED] ;
Exécuteur --> API2[MYGENE];
Exécuteur --> Exécution[Résultat de l'exécution] ;
Exécution --> Lama ;
Lama <--> TalkToIndex[Parler à l'index];
Utilisateur{{Utilisateur}} -->|Requête| Parler àIndex ;
TalkToIndex -->|Résultat| Utilisateur;
Inscrivez-vous à OpenAI
Exposer la variable d'environnement suivante
OU
Ajoutez votre clé API au fichier de configuration. SI VOUS FAITES CELA, NE LES COMMETTEZ AVEC AUCUN SYSTÈME DE CONTRÔLE DE VERSION !
exécutez pip install -r requirements.txt
exécutez python main.py
Le programme enregistre le résultat de chaque tâche et l'ajoute au répertoire de sortie out
Il crée également un fichier de démarques des résultats clés sur tous les résultats qui distille les données via les commandes suivantes :
Des commandes arbitraires peuvent être ajoutées. Ouvrez-le dans un éditeur de démarques pour la meilleure expérience.
Voici un exemple de structure de sortie
.
└── out /
├── Objective /
│ ├── Task 1/
│ │ ├── Result 1/
│ │ │ ├── Raw Result
│ │ │ └── Vector Embedding of Result
│ │ ├── Result 2/
│ │ │ ├── Raw Result
│ │ │ └── Vector Embedding of Result
│ │ ├── .
│ │ ├── .
│ │ ├── Summary of task results
│ │ └── API Call (If task was an API call)
│ ├── Task 2
│ ├── .
│ ├── .
│ ├── .
│ └── Task N
└── key_findings.md
ATTENTION AUX DÉPENSES !!
Actuellement, une exécution de quelques minutes ne devrait pas coûter plus de quelques centimes. Cela augmentera si vous utilisez un modèle plus puissant comme GPT-4