Intégration personnalisée Azure OpenAI Conversation pour Home Assistant
Cette intégration personnalisée ajoute un agent de conversation alimenté par Azure OpenAI dans Home Assistant, il est basé sur l'intégration OpenAI Conversation d'origine pour Home Assistant.
Cet agent de conversation n'est pas en mesure de contrôler votre maison. Il ne peut interroger que les informations fournies par Home Assistant. Pour pouvoir répondre aux questions sur votre maison, Home Assistant devra fournir à OpenAI les détails de votre maison, qui incluent les zones, les appareils et leurs états.
Versions de l'API Azure OpenAI prises en charge :
Versions de Home Assistant prises en charge : en raison des modifications importantes introduites par Home Assistant Core pour les assistants personnalisés, l'intégration d'Azure OpenAI Conversation est compatible avec les versions suivantes de Home Assistant :
Version de conversation Azure OpenAI | Version assistante à domicile |
---|---|
0.xy | 2023.4.x |
1.xy | 2023,5+ |
configuration.yaml
: conversation :
API Key
, API Base
et API Version
utilisées en suivant l'exemple ci-dessous et cliquez sur Soumettre :
- Clé API : 1234567890abcdef1234567890abcdef
- Base API : https://iotlabopenai.openai.azure.com/
- Version de l'API : 2023-03-15-aperçu
L'assistant personnalisé doit être ajouté depuis Paramètres -> Assistants vocaux. Une fois ajouté, vous pouvez sélectionner l'assistant personnalisé comme favori à utiliser par défaut :
Les options pour Azure OpenAI Conversation peuvent être définies via l’interface utilisateur, en procédant comme suit :
Options disponibles :
Modèle d'invite : texte de départ à partir duquel le modèle de langage IA doit générer un nouveau texte. Ce texte peut inclure des informations sur votre instance, vos appareils et vos zones Home Assistant et est rédigé à l'aide de modèles Home Assistant.
Modèle de complétion : nom du modèle de langage GPT déployé pour la génération de texte (c'est-à-dire- my-gpt35-model
). Vous pouvez trouver plus de détails sur les modèles disponibles dans la documentation Azure OpenAI.
Nombre maximum de jetons à renvoyer en réponse Nombre maximum de mots ou « jetons » que le modèle d'IA doit générer pour répondre à l'invite. Pour plus d’informations, consultez la documentation d’achèvement d’Azure OpenAI.
Température : valeur qui détermine le niveau de créativité et de prise de risque que le modèle doit utiliser lors de la génération de texte. Une température plus élevée signifie que le modèle est plus susceptible de générer des résultats inattendus, tandis qu'une température plus basse donne des résultats plus déterministes. Consultez la documentation d’achèvement d’Azure OpenAI pour plus d’informations.
Top P : alternative à la température, top_p détermine la proportion des choix de mots les plus probables que le modèle doit prendre en compte lors de la génération du texte. Un top_p plus élevé signifie que le modèle ne prendra en compte que les mots les plus probables, tandis qu'un top_p inférieur signifie qu'un plus large éventail de mots, y compris les moins probables, sera pris en compte. Pour plus d’informations, consultez la documentation d’achèvement d’Azure OpenAI.
Veuillez vous référer à l'historique des versions.
Même si ce serait bien d'avoir plus de développeurs, vous pouvez contribuer sans savoir coder. Vous pouvez déposer des demandes de bogues/de fonctionnalités, ou vous pouvez aider à d'autres tâches telles que les traductions de l'interface utilisateur et la mise à jour du README.
D'autres langues peuvent être ajoutées ici, les contributions sont les bienvenues :)
Langues disponibles :
Le fichier README sera utilisé pour la documentation, s'il est enrichi à l'avenir avec des automatisations ou d'autres ajustements, nous pouvons penser à un wiki à cet effet.
Avertissement : ne vous inquiétez pas de faire des erreurs, car nous pouvons revenir en arrière en utilisant l'historique ?.
GitHub | Achetez-moi un café |
---|---|
MIT - En fournissant une contribution, vous acceptez que la contribution soit sous licence MIT.