Integração personalizada de conversação Azure OpenAI para Home Assistant
Esta integração personalizada adiciona um agente de conversação desenvolvido pelo Azure OpenAI no Home Assistant, é baseado na integração original do OpenAI Conversation para Home Assistant.
Este agente de conversação não consegue controlar sua casa. Ele só pode consultar informações fornecidas pelo Home Assistant. Para poder responder perguntas sobre sua casa, o Home Assistant precisará fornecer à OpenAI os detalhes de sua casa, que incluem áreas, dispositivos e seus estados.
Versões suportadas da API Azure OpenAI:
Versões do Home Assistant suportadas: Devido às alterações significativas introduzidas pelo Home Assistant Core para assistentes personalizados, a integração do Azure OpenAI Conversation é compatível com as seguintes versões do Home Assistant:
Versão de conversa do Azure OpenAI | Versão do assistente doméstico |
---|---|
0.xy | 2023.4.x |
1.xy | 2023,5+ |
configuration.yaml
: conversation :
API Key
, API Base
e API Version
usada seguindo o exemplo abaixo e clique em enviar:
- Chave de API: 1234567890abcdef1234567890abcdef
- Base de API: https://iotlabopenai.openai.azure.com/
- Versão da API: visualização de 15/03/2023
O assistente personalizado precisa ser adicionado em Configurações -> Assistentes de voz. Depois de adicionado, você pode selecionar o assistente personalizado como favorito para ser usado por padrão:
As opções para Conversação Azure OpenAI podem ser definidas através da interface do utilizador, seguindo os seguintes passos:
Opções disponíveis:
Modelo de prompt: o texto inicial para o modelo de linguagem de IA a partir do qual gerar novo texto. Este texto pode incluir informações sobre sua instância, dispositivos e áreas do Home Assistant e foi escrito usando o Home Assistant Templating.
Modelo de conclusão: o nome do modelo de linguagem GPT implantado para geração de texto (ou seja, my-gpt35-model
). Você pode encontrar mais detalhes sobre os modelos disponíveis na documentação do Azure OpenAI.
Máximo de tokens a serem retornados em resposta O número máximo de palavras ou "tokens" que o modelo de IA deve gerar ao concluir o prompt. Para obter mais informações, consulte a documentação de conclusão do Azure OpenAI.
Temperatura: Um valor que determina o nível de criatividade e risco que o modelo deve usar ao gerar o texto. Uma temperatura mais alta significa que o modelo tem maior probabilidade de gerar resultados inesperados, enquanto uma temperatura mais baixa resulta em resultados mais determinísticos. Consulte a documentação de conclusão do Azure OpenAI para obter mais informações.
Top P: Uma alternativa à temperatura, top_p determina a proporção das escolhas de palavras mais prováveis que o modelo deve considerar ao gerar o texto. Um top_p mais alto significa que o modelo considerará apenas as palavras mais prováveis, enquanto um top_p mais baixo significa que uma gama mais ampla de palavras, incluindo as menos prováveis, será considerada. Para obter mais informações, consulte a documentação de conclusão do Azure OpenAI.
Consulte o histórico de lançamento.
Embora fosse bom ter mais desenvolvedores, você pode contribuir sem saber codificar. Você pode registrar bugs/solicitações de recursos ou ajudar em outras tarefas, como traduções de UI e atualização do README.
Mais idiomas podem ser adicionados aqui, contribuições são bem-vindas :)
Idiomas disponíveis:
O arquivo README será utilizado para Documentação, caso seja ampliado futuramente com automações ou outros ajustes, podemos pensar em um wiki para esse fim.
Isenção de responsabilidade: não se preocupe em cometer erros, pois podemos reverter usando o histórico?.
GitHub | Compre-me um café |
---|---|
MIT - Ao fornecer uma contribuição, você concorda que a contribuição está licenciada pelo MIT.