organigramme LR
o4j[Ollama4j]
o[Serveur Ollama]
o4j -->|Communique avec| o;
m[Modèles]
sous-graphe Déploiement d'Ollama
direction TB
o -->|Gère| m
fin
Installation locale | Installation du menu Docker |
Télécharger pour macOS Télécharger pour Windows Installer sur Linux curl -fsSL https://ollama.com/install.sh | sh | Processeur uniquement docker run -d -p 11434:11434
-v ollama:/root/.ollama
--name ollama
ollama/ollama GPU NVIDIA docker run -d -p 11434:11434
--gpus=all
-v ollama:/root/.ollama
--name ollama
ollama/ollama |
Note
Nous publions maintenant les artefacts dans les référentiels de packages Maven Central et GitHub.
Suivez les versions ici et mettez à jour la version des dépendances en fonction de vos besoins.
Dans votre projet Maven, ajoutez cette dépendance :
< dependency >
< groupId >io.github.ollama4j</ groupId >
< artifactId >ollama4j</ artifactId >
< version >1.0.89</ version >
</ dependency >
GitHub Maven Packages
au pom.xml
de votre projet ou à votre settings.xml
: < repositories >
< repository >
< id >github</ id >
< name >GitHub Apache Maven Packages</ name >
< url >https://maven.pkg.github.com/ollama4j/ollama4j</ url >
< releases >
< enabled >true</ enabled >
</ releases >
< snapshots >
< enabled >true</ enabled >
</ snapshots >
</ repository >
</ repositories >
GitHub
à settings.xml. (Généralement disponible sur ~/.m2/settings.xml) < settings xmlns = " http://maven.apache.org/SETTINGS/1.0.0 "
xmlns : xsi = " http://www.w3.org/2001/XMLSchema-instance "
xsi : schemaLocation = " http://maven.apache.org/SETTINGS/1.0.0
http://maven.apache.org/xsd/settings-1.0.0.xsd " >
< servers >
< server >
< id >github</ id >
< username >YOUR-USERNAME</ username >
< password >YOUR-TOKEN</ password >
</ server >
</ servers >
</ settings >
< dependency >
< groupId >io.github.ollama4j</ groupId >
< artifactId >ollama4j</ artifactId >
< version >1.0.89</ version >
</ dependency >
dependencies {
implementation ' io.github.ollama4j:ollama4j:1.0.79 '
}
Conseil
Retrouvez les spécifications complètes de l'API sur le site Web.
Construire:
make build
Exécutez des tests unitaires :
make unit-tests
Exécutez des tests d'intégration :
make integration-tests
Les artefacts les plus récents sont publiés via le workflow GitHub Actions CI lorsqu'une nouvelle version est créée à partir de la branche main
.
Si vous aimez ou utilisez ce projet pour construire le vôtre, donnez-nous une étoile. C'est un moyen gratuit de montrer votre soutien.
# | Nom du projet | Description | Lien |
---|---|---|---|
1 | Faucheur de données | Une bibliothèque pour générer de fausses données | GitHub |
2 | Interface utilisateur Web Vaadin | UI-Tester pour les interactions avec Ollama via ollama4j | GitHub |
3 | ollama-traducteur | Un plugin Minecraft 1.20.6 Spigot qui traduit tous les messages dans une langue cible spécifique via Ollama | GitHub |
4 | Joueur IA | Un mod Minecraft qui ajoute un "second joueur" intelligent au jeu | GitHub, Sujet Reddit |
5 | Interface utilisateur Web Ollama4j | Une interface utilisateur Web pour Ollama écrite en Java à l'aide de Spring Boot, Vaadin et Ollama4j | GitHub |
6 | JnsCLI | Un outil de ligne de commande pour Jenkins qui gère les tâches, les builds et les configurations, avec une analyse des erreurs basée sur l'IA | GitHub |
7 | Katie Backend | Une plateforme de questions-réponses open source basée sur l'IA pour accéder aux connaissances du domaine privé | GitHub |
8 | Bot TeleLlama3 | Un bot Telegram questions-réponses | Repo |
9 | moqui-wechat | Un composant moqui-wechat | GitHub |
Les contributions sont les bienvenues ! Qu'il s'agisse de signaler un bug, de proposer une amélioration ou d'aider avec du code, toute sorte de contribution est très appréciée.
Le code est disponible sous licence MIT.
Si vous trouvez ce projet utile dans votre recherche, veuillez citer ce travail à
@misc{ollama4j2024,
author = {Amith Koujalgi},
title = {Ollama4j: A Java Library (Wrapper/Binding) for Ollama Server},
year = {2024},
month = {January},
url = {https://github.com/ollama4j/ollama4j}
}
La nomenclature et l'icône ont été reprises de l'incroyable projet Ollama.
Merci aux incroyables contributeurs