Chinês |
Acesso ao modelo de várias plataformas, formatos escaláveis e múltiplos de saída, plug-in de robô, fornecendo grandes serviços de bate-papo com modelos de idiomas.
Status do projeto: iterado constantemente para a versão oficial do 1.0 (atualmente inserida no estágio do candidato a liberação)
Predefinições | Modo de plug-in e saída de streaming | Saída de renderização de imagem |
---|---|---|
Podemos instalar esse plug-in diretamente sob Koishi para usar funções básicas sem configuração adicional.
Leia este documento para saber mais.
Atualmente, apoiamos os seguintes modelos/plataformas:
Modelo/plataforma | Método de acesso | característica | Coisas a serem observadas |
---|---|---|---|
Openai | Cliente local, acesso oficial da API | Personalidade personalizável, suporte de plug-in/navegação e outros modos de bate-papo | O acesso da API é cobrado |
Azure Openai | Cliente local, acesso oficial da API | Personalidade personalizável, suporte de plug-in/navegação e outros modos de bate-papo | O acesso da API é cobrado |
Google Gemini | Cliente local, acesso oficial da API | Velocidade rápida, o desempenho ultrapassa o GPT-3.5 | Precisa ter uma conta de acesso de gêmeos e pode cobrar |
Claude API | Cliente local, acesso oficial da API | Contexto extremamente grande, na maioria dos casos, pode exceder o GPT 3.5, requer chave da API, cobranças | Pode ser caro e não suporta a chamada de função |
Perguntas de Tongyi Qian | Cliente local, acesso oficial da API | Ali produz modelos domésticos com cotas grátis | O efeito de medição real é um pouco melhor que o de Zhishu |
Sabedoria | Cliente local, acesso oficial da API | Chatglm, os recém -chegados podem obter cota de token gratuita | O efeito de teste real é um pouco melhor do que a faísca de Iflytek |
Iflytek Spark | Cliente local, acesso oficial da API | Modelo doméstico, os recém -chegados podem obter uma cota de token gratuita | O efeito medido real é aproximadamente igual ao GPT 3.5 |
Palavras de Wen Xin | Cliente local, acesso oficial da API | Modelo da série Baidu | O efeito de teste real é um pouco pior do que a faísca de Iflytek |
Hunyuan Big Model | Cliente local, acesso oficial da API | Série Tencent de grandes modelos | O efeito de teste real é melhor que Wen Xinyiyan |
Ollama | Cliente local, acesso da API construído | A conhecida coleção de modelos de código aberto, suporta a implantação híbrida da CPU/GPU, pode ser construída localmente | Você precisa criar sua própria API de back -end e exigir determinadas configurações |
GPT grátis | Cliente local, acesso oficial da API | O encaminhamento local usa modelos GPT de outros sites, o projeto configura automaticamente sites, etc. Sem o registro manual necessário | Pode falhar a qualquer momento e ser instável |
Chatglm | Cliente local, acesso à API de back-end auto-construído | Pode ser construído localmente, arredondamento é livre de dinheiro | Você precisa criar sua própria API de back -end, que requer certas configurações. |
Rwkv | Cliente local, acesso da API construído | Modelo de código aberto bem conhecido, pode ser construído localmente | Você precisa criar sua própria API de back -end e exigir determinadas configurações |
Apoiamos o modelo para fornecer recursos de pesquisa de rede:
Começando com a versão 1.0.0-alpha.10
, usamos predefinições mais personalizáveis. A nova personalidade predefinida usa a YAML como o arquivo de configuração.
Você pode clicar aqui para ver nosso arquivo de personalidade que vem com o padrão: catgirl.yml
Nosso caminho de pasta predefinida padrão é你当前运行插件的koishi 目录的路径+/data/chathub/presets
.
Todos os arquivos predefinidos são carregados da pasta acima. Portanto, você pode adicionar e editar livremente arquivos predefinidos nesta pasta e, em seguida, usar o comando para alternar as predefinições de personalidade.
Para mais informações, consulte este documento.
Execute as seguintes instruções em qualquer projeto de modelo Koishi para clonar Chatluna:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
Você pode substituir ChatLunaLab/chatluna-koishi
pelo seu próprio endereço de projeto após o Fork.
Em seguida, edite o arquivo tsconfig.json
no diretório raiz do projeto de modelo e adicione o caminho do projeto Chatluna em compilerOptions.paths
.
{
"extends" : " ./tsconfig.base " ,
"compilerOptions" : {
"baseUrl" : " . " ,
"paths" : {
"koishi-plugin-chatluna-*" : [ " external/chatluna/packages/*/src " ]
}
}
}
Como o projeto em si é complexo, o uso inicial deve ser construído uma vez.
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
Terminar! Agora você pode iniciar o projeto de modelo com yarn dev
ou npm run dev
no projeto raiz e desenvolver Chatluna duas vezes.
Embora o Koishi suporte a substituição a quente do módulo (HMR), este projeto pode não ser totalmente compatível.
Se você tiver um bug ao usar o HMR para desenvolver este projeto, levante -o em questão e siga as etapas acima para reconstruir o projeto e reiniciar o Koishi para tentar corrigi -lo.
Atualmente, a capacidade de produção da equipe do projeto Chatluna é extremamente escassa e não há mais capacidade de produção para atingir os seguintes objetivos:
Bem -vindo a enviar uma solicitação de tração ou discuti -lo, e sua contribuição é altamente bem -vinda!
Este projeto foi desenvolvido pela Chatlunalab.
Chatluna (a seguir referido como este projeto) é uma estrutura de robô de diálogo baseada em grandes modelos de idiomas. Estamos comprometidos em trabalhar com a comunidade de código aberto para promover o desenvolvimento de tecnologia de modelo em larga escala. Pedimos fortemente aos desenvolvedores e outros usuários que cumpram o contrato de código aberto para garantir que a estrutura e o código deste projeto (e outros derivados com base nesse projeto promovidos pela comunidade) e derivados relacionados não sejam usados para nenhum objetivo que possa causar danos ao país e à sociedade, bem como serviços que não foram avaliados e registrados na segurança.
Este projeto não fornece suporte diretamente a nenhum serviço generativo de inteligência artificial, e os usuários precisam obter a API de algoritmo usada em organizações ou indivíduos que fornecem serviços de inteligência artificial de produção.
Se você usou este projeto, siga as leis e regulamentos da área local e use os algoritmos de serviço de inteligência artificial de produção disponíveis na área local.
Este projeto não é responsável pelos resultados gerados pelo algoritmo, e todos os resultados e operações são de responsabilidade do usuário.
O armazenamento de informações relevantes deste projeto é adquirido pelo usuário e o próprio projeto não fornece armazenamento de informações diretas.
Este projeto não assume riscos e responsabilidades decorrentes da segurança de dados, riscos de opinião pública causados pelos usuários ou pelo enganador, abuso, disseminação ou uso inadequado de qualquer modelo.
Este projeto também faz referência a outros projetos de código aberto ao escrevê -lo e agradecimentos especiais aos seguintes projetos:
Koishi-Plugin-Openai
nó-chatgpt-api
Poe-api
Bardo
Chathub
Agradecemos ao JetBrains por fornecer a este projeto uma licença de código aberto gratuito para IDEs como WebStorm.