Anmelden (1.000 Stücke gratis) | PDF2MD | Hacker-News-Suchmaschine | Dokumentation | Treffen Sie einen Betreuer | Zwietracht | Matrix
Komplettlösung für Suche, Empfehlungen und RAG
Quicklinks
- API-Referenz + Dokumente
- OpenAPI-Spezifikation
- Typescript SDK
- Python-SDK
Merkmale
- Selbsthosting in Ihrer VPC oder vor Ort : Auf unserer Dokumentationsseite finden Sie hier vollständige Anleitungen zum Selbsthosting für AWS, GCP, Kubernetes im Allgemeinen und Docker Compose.
- ? Semantische dichte Vektorsuche : Integriert sich in OpenAI- oder Jina-Einbettungsmodelle und Qdrant, um eine semantische Vektorsuche bereitzustellen.
- ? Tippfehlertolerante Volltext-/Neuronale Suche : Jeder hochgeladene Block wird mit naver/efficient-splade-VI-BT-large-query vektorisiert, um eine typfehlertolerante, hochwertige neuronale Suche nach spärlichen Vektoren zu ermöglichen.
- Hervorhebung von Untersätzen : Markieren Sie die passenden Wörter oder Sätze innerhalb eines Abschnitts und fetten Sie sie bei der Suche ein, um die Benutzerfreundlichkeit für Ihre Benutzer zu verbessern. Ein großes Lob an die Simsearch-Kiste!
- ? Empfehlungen : Finden Sie mit der Empfehlungs-API ähnliche Blöcke (oder Dateien, wenn Sie eine Gruppierung verwenden). Sehr hilfreich, wenn Sie eine Plattform haben, auf der Benutzer Inhalte speichern, mit Lesezeichen versehen oder positiv bewerten können.
- ? Bequeme RAG-API-Routen : Wir integrieren OpenRouter, um Ihnen Zugriff auf jedes LLM zu ermöglichen, das Sie für RAG wünschen. Probieren Sie unsere Routen für vollständig verwaltete RAGs mit themenbasierter Speicherverwaltung aus oder wählen Sie Ihre eigene Kontext-RAG aus.
- Bringen Sie Ihre eigenen Modelle mit : Wenn Sie möchten, können Sie Ihr eigenes Texteinbettungs-, SPLADE-, Cross-Encoder-Re-Ranking- und/oder Large-Language-Modell (LLM) mitbringen und es in unsere Infrastruktur einbinden.
- Hybridsuche mit encoderübergreifender Neubewertung : Um die besten Ergebnisse zu erzielen, verwenden Sie die Hybridsuche mit BAAI/bge-reranker-large-Neubewertungsoptimierung.
- ? Aktualitätsbiasing : Richten Sie Suchergebnisse ganz einfach auf die Aktualität aus, um Veraltung zu vermeiden
- Optimierbares Merchandising : Passen Sie die Relevanz mithilfe von Signalen wie Klicks, Add-to-Carts oder Zitaten an
- ?️ Filterung : Datumsbereich, Teilzeichenfolgenübereinstimmung, Tag, numerisch und andere Filtertypen werden unterstützt.
- Gruppierung : Markieren Sie mehrere Blöcke als Teil derselben Datei und suchen Sie auf Dateiebene, sodass dasselbe Ergebnis der obersten Ebene nie zweimal angezeigt wird
Fehlt uns eine Funktion, die Ihr Anwendungsfall benötigen würde? - Rufen Sie uns unter 628-222-4090 an, erstellen Sie ein Github-Problem oder treten Sie der Matrix-Community bei und sagen Sie es uns! Wir sind ein kleines Unternehmen, das immer noch sehr praktisch ist und darauf bedacht ist, das zu bauen, was Sie brauchen; Professionelle Dienstleistungen stehen zur Verfügung.
Lokale Entwicklung mit Linux
Debian/Ubuntu-Pakete benötigte Pakete
sudo apt install curl
gcc
g++
make
pkg-config
python3
python3-pip
libpq-dev
libssl-dev
openssl
Arch-Pakete benötigt
sudo pacman -S base-devel postgresql-libs
Installieren Sie NodeJS und Yarn
Sie können NVM mithilfe seines Installationsskripts installieren.
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.5/install.sh | bash
Sie sollten das Terminal neu starten, um das Bash-Profil mit NVM zu aktualisieren. Anschließend können Sie die NodeJS LTS-Version und Yarn installieren.
nvm install --lts
npm install -g yarn
Erstellen Sie ein Server-TPP-Verzeichnis
Rost einbauen
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
Cargo-Watch installieren
cargo install cargo-watch
Umgebungen einrichten
cp .env.analytics ./frontends/analytics/.env
cp .env.chat ./frontends/chat/.env
cp .env.search ./frontends/search/.env
cp .env.server ./server/.env
cp .env.dashboard ./frontends/dashboard/.env
Fügen Sie Ihren LLM_API_KEY
zu ./server/.env
hinzu
Hier finden Sie eine Anleitung zum Erwerb.
Schritte, sobald Sie den Schlüssel haben
- Öffnen Sie die Datei
./server/.env
- Ersetzen Sie den Wert für
LLM_API_KEY
durch Ihren eigenen OpenAI-API-Schlüssel. - Ersetzen Sie den Wert für
OPENAI_API_KEY
durch Ihren eigenen OpenAI-API-Schlüssel.
Starten Sie die Docker-Containerdienste, die für die lokale Entwicklung erforderlich sind
cat .env.chat .env.search .env.server .env.docker-compose > .env
./convenience.sh -l
Starten Sie Dienste für lokale Entwickler
Wir empfehlen, dies über tmuxp zu verwalten, siehe Anleitung hier oder über Terminal-Registerkarten.
cd clients/ts-sdk
yarn build
cd frontends
yarn
yarn dev
cd server
cargo watch -x run
cd server
cargo run --bin ingestion-worker
cd server
cargo run --bin file-worker
cd server
cargo run --bin delete-worker
Überprüfen Sie die funktionierende Einrichtung
- Überprüfen Sie, ob Sie Redoc mit der OpenAPI-Referenz unter localhost:8090/redoc sehen können
- Erstellen Sie ein Konto und erstellen Sie einen Datensatz mit Testdaten unter localhost:5173
- Durchsuchen Sie diesen Datensatz mit Testdaten unter localhost:5174
Fehlerbehebung bei Problemen mit lokalen Entwicklern
Kontaktieren Sie uns auf Discord, um Hilfe zu erhalten. Wir stehen Ihnen zur Verfügung und helfen Ihnen gerne weiter.
Debuggen Sie Diesel, indem Sie das exakt generierte SQL abrufen
diesel::debug_query(&query).to_string();
Lokales Setup zum Testen von Stripe-Funktionen
Installieren Sie Stripe CLI.
-
stripe login
-
stripe listen --forward-to localhost:8090/api/stripe/webhook
- Setzen Sie
STRIPE_WEBHOOK_SECRET
in server/.env
auf das resultierende Webhook-Signaturgeheimnis -
stripe products create --name trieve --default-price-data.unit-amount 1200 --default-price-data.currency usd
-
stripe plans create --amount=1200 --currency=usd --interval=month --product={id from response of step 3}
Mitwirkende