Chino |
Acceso multiplataforma, escalable y múltiples formatos de salida, complemento de robot que proporciona grandes servicios de chat de modelo de idioma.
Estado del proyecto: iteró constantemente a la versión oficial de 1.0 (actualmente ingresó a la etapa candidata de lanzamiento)
Preajustes | Modo de enchufe y salida de transmisión | Salida de renderizado de imágenes |
---|---|---|
Podemos instalar este complemento directamente en Koishi para usar funciones básicas sin configuración adicional.
Lea este documento para obtener más información.
Actualmente admitimos los siguientes modelos/plataformas:
Modelo/plataforma | Método de acceso | característica | Cosas a tener en cuenta |
---|---|---|---|
Opadai | Cliente local, acceso oficial de API | Personalidad personalizable, modo de complemento/navegación de soporte y otros modos de chat | Se carga el acceso a la API |
Azure Openai | Cliente local, acceso oficial de API | Personalidad personalizable, modo de complemento/navegación de soporte y otros modos de chat | Se carga el acceso a la API |
Google Géminis | Cliente local, acceso oficial de API | Velocidad rápida, el rendimiento supera a GPT-3.5 | Necesita tener una cuenta de acceso de Géminis y puede cobrar |
API de Claude | Cliente local, acceso oficial de API | Contexto extremadamente grande, en la mayoría de los casos, puede exceder GPT 3.5, requiere la clave API, cargos | Puede ser costoso y no admite la llamada de función |
Preguntas tongyi qian | Cliente local, acceso oficial de API | Ali produce modelos nacionales con cuotas gratuitas | El efecto de medición real es ligeramente mejor que el de Zhishu |
Sabiduría | Cliente local, acceso oficial de API | Chatglm, los recién llegados pueden obtener una cuota de token gratis | El efecto de prueba real es un poco mejor que Iflytek Spark |
iflytek chispa | Cliente local, acceso oficial de API | Modelo doméstico, los recién llegados pueden obtener una cuota de token gratis | El efecto medido real es aproximadamente igual a GPT 3.5 |
Palabras de Wen Xin | Cliente local, acceso oficial de API | Modelo de modelo de la serie Baidu | El efecto de prueba real es un poco peor que Iflytek Spark |
Hunyuan Big Model | Cliente local, acceso oficial de API | Tencent Series of Big Models | El efecto de prueba real es mejor que wen xinyiyan |
Ollama | Cliente local, acceso a la API construido | La conocida colección de modelos de código abierto, admite la implementación híbrida de CPU/GPU, se puede construir localmente | Debe construir su propia API de backend y requerir ciertas configuraciones |
GPT gratis | Cliente local, acceso oficial de API | El reenvío local utiliza modelos GPT de otros sitios web, Project configura automáticamente sitios web, etc. sin requerido el registro manual | Puede fallar en cualquier momento y ser inestable |
Chatglm | Cliente local, acceso a la API de backend auto-construido | Se puede construir localmente, el redondeo está libre de dinero | Debe construir su propia API de backend, que requiere ciertas configuraciones. |
RWKV | Cliente local, acceso a la API construido | Conocido modelo de código abierto, se puede construir localmente | Debe construir su propia API de backend y requerir ciertas configuraciones |
Apoyamos el modelo para proporcionar capacidades de búsqueda de red:
Comenzando con la versión 1.0.0-alpha.10
, utilizamos preajustes más personalizables. La nueva personalidad Preset utiliza YAML como archivo de configuración.
Puede hacer clic aquí para ver nuestro archivo de personalidad que viene con predeterminado: Catgirl.yml
Nuestra ruta predeterminada de la carpeta preestablecida es你当前运行插件的koishi 目录的路径+/data/chathub/presets
.
Todos los archivos preestablecidos se cargan desde la carpeta anterior. Por lo tanto, puede agregar y editar libremente archivos preestablecidos en esta carpeta y luego usar el comando para cambiar los preajustes de personalidad.
Para obtener más información, consulte este documento.
Ejecute las siguientes instrucciones sobre cualquier proyecto de plantilla de Koishi para clonar chatluna:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
Puede reemplazar ChatLunaLab/chatluna-koishi
con su propia dirección de proyecto después de la bifurcación.
Luego edite el archivo tsconfig.json
en el directorio raíz del proyecto de plantilla y agregue la ruta del proyecto Chatluna en compilerOptions.paths
.
{
"extends" : " ./tsconfig.base " ,
"compilerOptions" : {
"baseUrl" : " . " ,
"paths" : {
"koishi-plugin-chatluna-*" : [ " external/chatluna/packages/*/src " ]
}
}
}
Dado que el proyecto en sí es complejo, el uso inicial debe construirse una vez.
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
¡Finalizar! Ahora puede iniciar el proyecto de plantilla con yarn dev
o npm run dev
en el proyecto root y desarrollar chatluna dos veces.
Aunque Koishi admite el reemplazo en caliente del módulo (HMR), este proyecto puede no ser completamente compatible.
Si tiene un error cuando está utilizando HMR para desarrollar este proyecto, plantelo en cuestión y siga los pasos anteriores para reconstruir el proyecto y reiniciar Koishi para intentar solucionarlo.
Actualmente, la capacidad de producción del equipo del proyecto Chatluna es extremadamente escasa, y no hay más capacidad de producción para lograr los siguientes objetivos:
Bienvenido a enviar una solicitud de extracción o discutirla, ¡y su contribución es muy bienvenida!
Este proyecto fue desarrollado por Chatlunalab.
Chatluna (en lo sucesivo denominado este proyecto) es un marco de robot de diálogo basado en modelos de idiomas grandes. Estamos comprometidos a trabajar con la comunidad de código abierto para promover el desarrollo de la tecnología modelo a gran escala. Llamamos firmemente a los desarrolladores y otros usuarios que cumplan con el acuerdo de código abierto para garantizar que el marco y el código de este proyecto (y otros derivados basados en este proyecto promovido por la comunidad) y los derivados relacionados no se utilicen para ningún propósito que puedan causar daño al país y la sociedad, así como los servicios que no han sido insuficientes y registrados.
Este proyecto no brinda apoyo directamente para ningún servicio generativo de inteligencia artificial, y los usuarios deben obtener la API de algoritmo utilizada de organizaciones o personas que brindan servicios de inteligencia artificial de producción.
Si ha utilizado este proyecto, siga las leyes y regulaciones del área local y use los algoritmos de servicio de inteligencia artificial de producción disponibles en el área local.
Este proyecto no es responsable de los resultados generados por el algoritmo, y todos los resultados y operaciones son responsabilidad del usuario.
El almacenamiento de información relevante de este proyecto es obtenido por el usuario, y el proyecto en sí no proporciona almacenamiento de información directa.
Este proyecto no asume ningún riesgo y responsabilidad que surja de la seguridad de los datos, los riesgos de opinión pública causados por los usuarios o los engañosos, el abuso, la difusión o el uso inadecuado de cualquier modelo.
Este proyecto también hace referencia a otros proyectos de código abierto al escribirlo, y un agradecimiento especial a los siguientes proyectos:
koishi-plugin-openai
nodo-chatgpt-api
Poe-Api
Bardo
chathub
Gracias a JetBrains por proporcionar a este proyecto una licencia de código abierto gratuita para IDES como Webstorm.