Estimez l'utilisation du jeton OpenAI pour la conclusion de discussions, y compris les fonctions, avec cet utilitaire Python !
Ce package est basé sur les jetons openai-chat-token de hmarr
. Pour l'instant (septembre 2023), il n'existe aucune documentation officielle d'openai sur la façon de prédire avec précision le nombre de jetons des fonctions. Ce package résout cela ! Utilisez-le pour obtenir une estimation très précise du nombre de jetons pour les discussions terminées et mieux gérer votre utilisation de l'API OpenAI.
Le plus souvent, c’est exact jusqu’au jeton.
Installez le package via pip
pip install openai-function-tokens
Importer la fonction d'estimation
from openai_function_tokens import estimate_tokens
Pour utiliser l'estimateur, appelez la estimate_tokens
:
estimate_tokens ( messages , functions = None , function_call = None )
Transmettez les messages
, et éventuellement functions
et function_call
, pour recevoir un nombre précis de jetons.
Merci à hmarr pour l'outil TypeScript original. Pour une meilleure compréhension de la logique de comptage de jetons, consultez son article de blog.
Appel de fonction
Comment appeler des fonctions avec des modèles de chat
Comment utiliser les fonctions avec une base de connaissances
Documentation du schéma JSON
Compter les jetons (uniquement les messages)
Les commentaires, suggestions et contributions sont très appréciés. Aidez-nous à rendre cet outil encore meilleur !