Regístrate (1k fragmentos gratis) | PDF2MD | Motor de búsqueda de noticias sobre hackers | Documentación | Conozca a un mantenedor | Discordia | Matriz
Solución todo en uno para búsqueda, recomendaciones y RAG
Enlaces rápidos
- Referencia de API + documentos
- Especificación abierta API
- SDK mecanografiado
- SDK de Python
Características
- Autohospedaje en su VPC o local : tenemos guías completas de autohospedaje para AWS, GCP, Kubernetes en general y Docker Compose disponibles en nuestra página de documentación aquí.
- ? Búsqueda de vectores semánticos densos : se integra con modelos de incrustación OpenAI o Jina y Qdrant para proporcionar búsqueda de vectores semánticos.
- ? Búsqueda neuronal y de texto completo tolerante a errores tipográficos : cada fragmento cargado se vectoriza con naver/ficient-splade-VI-BT-large-query para una búsqueda de vectores dispersos neuronales de calidad y tolerante a errores tipográficos.
- Resaltado de suboraciones : resalte las palabras u oraciones coincidentes dentro de un fragmento y colóquelas en negrita en la búsqueda para mejorar la experiencia de usuario para sus usuarios. ¡Un saludo a la caja de simsearch!
- ? Recomendaciones : busque fragmentos similares (o archivos si usa agrupación) con la API de recomendación. Muy útil si tiene una plataforma donde los usuarios prefieren, marcan o votan el contenido.
- ? Rutas API de RAG convenientes : nos integramos con OpenRouter para brindarle acceso a cualquier LLM que desee para RAG. Pruebe nuestras rutas para RAG totalmente administrado con administración de memoria basada en temas o seleccione su propio RAG de contexto.
- Traiga sus propios modelos : si lo desea, puede traer su propio modelo de incrustación de texto, SPLADE, reclasificación de codificadores cruzados y/o modelo de lenguaje grande (LLM) y conectarlo a nuestra infraestructura.
- Búsqueda híbrida con reclasificación entre codificadores : para obtener mejores resultados, utilice la búsqueda híbrida con optimización de reclasificación BAAI/bge-reranker-large.
- ? Sesgo de actualidad : sesgue fácilmente los resultados de búsqueda hacia lo más reciente para evitar la obsolescencia.
- Comercialización ajustable : ajuste la relevancia mediante señales como clics, complementos al carrito o citas.
- ?️ Filtrado : se admiten rango de fechas, coincidencia de subcadenas, etiquetas, numéricos y otros tipos de filtros.
- Agrupación : marque varios fragmentos como parte del mismo archivo y busque en el nivel del archivo de modo que el mismo resultado de nivel superior nunca aparezca dos veces.
¿Nos falta una característica que su caso de uso necesitaría? - ¡llámanos al 628-222-4090, crea una edición de Github o únete a la comunidad de Matrix y cuéntanoslo! Somos una empresa pequeña que todavía es muy práctica y está ansiosa por construir lo que necesita; servicios profesionales están disponibles.
Desarrollo local con Linux
Paquetes Debian/Ubuntu paquetes necesarios
sudo apt install curl
gcc
g++
make
pkg-config
python3
python3-pip
libpq-dev
libssl-dev
openssl
Paquetes Arch necesarios
sudo pacman -S base-devel postgresql-libs
Instalar NodeJS y Yarn
Puede instalar NVM utilizando su script de instalación.
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.5/install.sh | bash
Debe reiniciar la terminal para actualizar el perfil de bash con NVM. Luego, puede instalar la versión NodeJS LTS y Yarn.
nvm install --lts
npm install -g yarn
Crear directorio tmp del servidor
Instalar óxido
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
Instalar cargo-watch
cargo install cargo-watch
Configurar entornos
cp .env.analytics ./frontends/analytics/.env
cp .env.chat ./frontends/chat/.env
cp .env.search ./frontends/search/.env
cp .env.server ./server/.env
cp .env.dashboard ./frontends/dashboard/.env
Agregue su LLM_API_KEY
a ./server/.env
Aquí hay una guía para adquirirlo.
Pasos una vez que tengas la clave
- Abra el archivo
./server/.env
- Reemplace el valor de
LLM_API_KEY
para que sea su propia clave API de OpenAI. - Reemplace el valor de
OPENAI_API_KEY
para que sea su propia clave API de OpenAI.
Inicie los servicios del contenedor Docker necesarios para el desarrollo local
cat .env.chat .env.search .env.server .env.docker-compose > .env
./convenience.sh -l
Iniciar servicios para desarrolladores locales
Recomendamos gestionar esto a través de tmuxp, consulte la guía aquí o las pestañas del terminal.
cd clients/ts-sdk
yarn build
cd frontends
yarn
yarn dev
cd server
cargo watch -x run
cd server
cargo run --bin ingestion-worker
cd server
cargo run --bin file-worker
cd server
cargo run --bin delete-worker
Verificar la configuración de trabajo
- compruebe que puede ver redoc con la referencia de OpenAPI en localhost:8090/redoc
- crear una cuenta crear un conjunto de datos con datos de prueba en localhost:5173
- busque ese conjunto de datos con datos de prueba en localhost: 5174
Problemas de depuración con el desarrollador local
Comuníquese con nosotros en discordia para obtener ayuda. Estamos disponibles y estaremos encantados de ayudarte.
Depure diesel obteniendo el SQL generado exacto
diesel::debug_query(&query).to_string();
Configuración local para probar las funciones de Stripe
Instale la CLI de Stripe.
-
stripe login
-
stripe listen --forward-to localhost:8090/api/stripe/webhook
- establezca
STRIPE_WEBHOOK_SECRET
en server/.env
en el secreto de firma del webhook resultante -
stripe products create --name trieve --default-price-data.unit-amount 1200 --default-price-data.currency usd
-
stripe plans create --amount=1200 --currency=usd --interval=month --product={id from response of step 3}
Colaboradores