Estime o uso do token OpenAI para conclusões de bate-papo, incluindo funções, com este utilitário Python!
Este pacote é baseado nos tokens openai-chat-chat do hmarr
. No momento (setembro de 2023), não há documentação oficial da openai sobre como prever com precisão o número de tokens das funções. Este pacote resolve isso! Use-o para obter uma estimativa muito precisa da contagem de tokens para conclusões de bate-papo e gerenciar melhor o uso da API OpenAI.
Na maioria das vezes, está correto até o token.
Instale o pacote via pip
pip install openai-function-tokens
Importe a função de estimativa
from openai_function_tokens import estimate_tokens
Para usar o estimador, chame a função estimate_tokens
:
estimate_tokens ( messages , functions = None , function_call = None )
Passe as messages
e, opcionalmente, functions
e function_call
, para receber uma contagem precisa de tokens.
Agradecemos a hmarr pela ferramenta TypeScript original. Para uma melhor compreensão da lógica de contagem de tokens, confira a postagem do blog dele.
Chamada de função
Como chamar funções com modelos de chat
Como usar funções com uma base de conhecimento
Documentação do esquema JSON
Contando tokens (apenas mensagens)
Feedback, sugestões e contribuições são muito apreciados. Ajude a tornar esta ferramenta ainda melhor!