Inscrivez-vous (1 000 morceaux gratuits) | PDF2MD | Moteur de recherche d'actualités sur les hackers | Documents | Rencontrez un responsable | Discorde | Matrice
Solution tout-en-un pour la recherche, les recommandations et RAG
Liens rapides
- Référence API + documentation
- Spécification OpenAPI
- SDK dactylographié
- SDK Python
Caractéristiques
- Auto-hébergement dans votre VPC ou sur site : nous proposons des guides d'auto-hébergement complets pour AWS, GCP, Kubernetes en général et Docker Compose disponibles sur notre page de documentation ici.
- ? Recherche de vecteurs sémantiques denses : s'intègre aux modèles d'intégration OpenAI ou Jina et à Qdrant pour fournir une recherche de vecteurs sémantiques.
- ? Recherche de texte intégral/neurale tolérante aux fautes de frappe : chaque morceau téléchargé est vectorisé avec naver/efficient-splade-VI-BT-large-query pour une recherche de vecteurs clairsemés neuronaux de qualité et tolérante aux fautes de frappe.
- Mise en surbrillance des sous-phrases : mettez en surbrillance les mots ou les phrases correspondants dans un morceau et mettez-les en gras lors de la recherche pour améliorer l'UX de vos utilisateurs. Bravo à la caisse simsearch !
- ? Recommandations : recherchez des morceaux similaires (ou des fichiers si vous utilisez le regroupement) avec l'API de recommandation. Très utile si vous disposez d'une plate-forme sur laquelle les utilisateurs préfèrent le contenu, les marque-pages ou les votes positifs.
- ? Routes API RAG pratiques : nous nous intégrons à OpenRouter pour vous donner accès à n'importe quel LLM que vous souhaitez pour RAG. Essayez nos itinéraires pour un RAG entièrement géré avec une gestion de la mémoire basée sur des sujets ou sélectionnez votre propre RAG contextuel.
- Apportez vos propres modèles : si vous le souhaitez, vous pouvez apporter votre propre intégration de texte, SPLADE, reclassement d'encodeurs croisés et/ou modèle en grand langage (LLM) et le connecter à notre infrastructure.
- Recherche hybride avec reclassement multi-encodeurs : pour de meilleurs résultats, utilisez la recherche hybride avec l'optimisation de reclassement BAAI/bge-reranker-large.
- ? Biais de récence : biaisez facilement les résultats de recherche en fonction de ce qui était le plus récent pour éviter l'obsolescence
- Merchandising réglable : ajustez la pertinence à l'aide de signaux tels que les clics, les ajouts au panier ou les citations
- ?️ Filtrage : la plage de dates, la correspondance de sous-chaîne, la balise, le numérique et d'autres types de filtres sont pris en charge.
- Regroupement : marquez plusieurs morceaux comme faisant partie du même fichier et effectuez une recherche au niveau du fichier de telle sorte que le même résultat de niveau supérieur n'apparaisse jamais deux fois.
Manquons-nous une fonctionnalité dont votre cas d’utilisation aurait besoin ? - appelez-nous au 628-222-4090, créez un problème Github ou rejoignez la communauté Matrix et dites-le-nous ! Nous sommes une petite entreprise toujours très impliquée et désireuse de créer ce dont vous avez besoin ; des services professionnels sont disponibles.
Développement local avec Linux
Paquets Debian/Ubuntu paquets nécessaires
sudo apt install curl
gcc
g++
make
pkg-config
python3
python3-pip
libpq-dev
libssl-dev
openssl
Packages Arch nécessaires
sudo pacman -S base-devel postgresql-libs
Installer NodeJS et Yarn
Vous pouvez installer NVM à l'aide de son script d'installation.
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.5/install.sh | bash
Vous devez redémarrer le terminal pour mettre à jour le profil bash avec NVM. Ensuite, vous pouvez installer la version NodeJS LTS et Yarn.
nvm install --lts
npm install -g yarn
Créer le répertoire tmp du serveur
Installer la rouille
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
Installer la surveillance du fret
cargo install cargo-watch
Configurer les environnements
cp .env.analytics ./frontends/analytics/.env
cp .env.chat ./frontends/chat/.env
cp .env.search ./frontends/search/.env
cp .env.server ./server/.env
cp .env.dashboard ./frontends/dashboard/.env
Ajoutez votre LLM_API_KEY
à ./server/.env
Voici un guide pour l’acquérir.
Étapes une fois que vous avez la clé
- Ouvrez le fichier
./server/.env
- Remplacez la valeur de
LLM_API_KEY
par votre propre clé API OpenAI. - Remplacez la valeur de
OPENAI_API_KEY
par votre propre clé API OpenAI.
Démarrez les services de conteneur Docker nécessaires au développement local
cat .env.chat .env.search .env.server .env.docker-compose > .env
./convenience.sh -l
Démarrer les services pour le développement local
Nous vous recommandons de gérer cela via tmuxp, voir le guide ici ou les onglets du terminal.
cd clients/ts-sdk
yarn build
cd frontends
yarn
yarn dev
cd server
cargo watch -x run
cd server
cargo run --bin ingestion-worker
cd server
cargo run --bin file-worker
cd server
cargo run --bin delete-worker
Vérifier la configuration de travail
- vérifiez que vous pouvez voir redoc avec la référence OpenAPI sur localhost:8090/redoc
- créer un compte créer un ensemble de données avec des données de test sur localhost : 5173
- recherchez cet ensemble de données avec les données de test sur localhost : 5174
Problèmes de débogage avec le développement local
Contactez-nous sur Discord pour obtenir de l'aide. Nous sommes disponibles et plus qu'heureux de vous aider.
Déboguer le diesel en obtenant le SQL généré exact
diesel::debug_query(&query).to_string();
Configuration locale pour tester les fonctionnalités de Stripe
Installez Stripe CLI.
-
stripe login
-
stripe listen --forward-to localhost:8090/api/stripe/webhook
- définissez
STRIPE_WEBHOOK_SECRET
dans le server/.env
sur le secret de signature du webhook résultant -
stripe products create --name trieve --default-price-data.unit-amount 1200 --default-price-data.currency usd
-
stripe plans create --amount=1200 --currency=usd --interval=month --product={id from response of step 3}
Contributeurs