diagrama de flujo LR
o4j[Ollama4j]
o[Servidor Ollama]
o4j -->|Se comunica con| o;
m[Modelos]
subgrafo Despliegue de Ollama
dirección tuberculosis
o -->|Gestiona| metro
fin
Instalación local | Instalación de ventana acoplable |
Descargar para macOS Descargar para Windows Instalar en Linux curl -fsSL https://ollama.com/install.sh | sh | solo CPU docker run -d -p 11434:11434
-v ollama:/root/.ollama
--name ollama
ollama/ollama GPU NVIDIA docker run -d -p 11434:11434
--gpus=all
-v ollama:/root/.ollama
--name ollama
ollama/ollama |
Nota
Ahora estamos publicando los artefactos en los repositorios de paquetes de Maven Central y GitHub.
Realice un seguimiento de las versiones aquí y actualice la versión de dependencia según sus requisitos.
En su proyecto Maven, agregue esta dependencia:
< dependency >
< groupId >io.github.ollama4j</ groupId >
< artifactId >ollama4j</ artifactId >
< version >1.0.89</ version >
</ dependency >
GitHub Maven Packages
al pom.xml
de su proyecto o a su settings.xml
: < repositories >
< repository >
< id >github</ id >
< name >GitHub Apache Maven Packages</ name >
< url >https://maven.pkg.github.com/ollama4j/ollama4j</ url >
< releases >
< enabled >true</ enabled >
</ releases >
< snapshots >
< enabled >true</ enabled >
</ snapshots >
</ repository >
</ repositories >
GitHub
a settings.xml. (Generalmente disponible en ~/.m2/settings.xml) < settings xmlns = " http://maven.apache.org/SETTINGS/1.0.0 "
xmlns : xsi = " http://www.w3.org/2001/XMLSchema-instance "
xsi : schemaLocation = " http://maven.apache.org/SETTINGS/1.0.0
http://maven.apache.org/xsd/settings-1.0.0.xsd " >
< servers >
< server >
< id >github</ id >
< username >YOUR-USERNAME</ username >
< password >YOUR-TOKEN</ password >
</ server >
</ servers >
</ settings >
< dependency >
< groupId >io.github.ollama4j</ groupId >
< artifactId >ollama4j</ artifactId >
< version >1.0.89</ version >
</ dependency >
dependencies {
implementation ' io.github.ollama4j:ollama4j:1.0.79 '
}
Consejo
Encuentre las especificaciones API completas en el sitio web.
Construir:
make build
Ejecute pruebas unitarias:
make unit-tests
Ejecute pruebas de integración:
make integration-tests
Los artefactos más nuevos se publican a través del flujo de trabajo de CI de GitHub Actions cuando se crea una nueva versión desde la rama main
.
Si te gusta o estás utilizando este proyecto para construir el tuyo propio, danos una estrella. Es una forma gratuita de mostrar tu apoyo.
# | Nombre del proyecto | Descripción | Enlace |
---|---|---|---|
1 | falsificador de datos | Una biblioteca para generar datos falsos | GitHub |
2 | Interfaz de usuario web de Vaadin | UI-Tester para interacciones con Ollama vía ollama4j | GitHub |
3 | ollama-traductor | Un complemento Spigot de Minecraft 1.20.6 que traduce todos los mensajes a un idioma de destino específico a través de Ollama | GitHub |
4 | Jugador de IA | Un mod de Minecraft que añade un "segundo jugador" inteligente al juego | GitHub, Hilo de Reddit |
5 | Interfaz de usuario web de Ollama4j | Una interfaz de usuario web para Ollama escrita en Java usando Spring Boot, Vaadin y Ollama4j | GitHub |
6 | JnsCLI | Una herramienta de línea de comandos para Jenkins que gestiona trabajos, compilaciones y configuraciones, con análisis de errores impulsado por IA. | GitHub |
7 | Katie backend | Una plataforma de respuesta a preguntas basada en inteligencia artificial de código abierto para acceder al conocimiento del dominio privado | GitHub |
8 | TeleLlama3 Bot | Un bot de Telegram que responde preguntas | repositorio |
9 | moqui-wechat | Un componente moqui-wechat | GitHub |
¡Las contribuciones son bienvenidas! Ya sea para informar un error, proponer una mejora o ayudar con el código, cualquier tipo de contribución es muy apreciada.
El código está disponible bajo licencia MIT.
Si encuentra útil este proyecto en su investigación, cite este trabajo en
@misc{ollama4j2024,
author = {Amith Koujalgi},
title = {Ollama4j: A Java Library (Wrapper/Binding) for Ollama Server},
year = {2024},
month = {January},
url = {https://github.com/ollama4j/ollama4j}
}
La nomenclatura y el icono han sido adoptados del increíble proyecto Ollama.
Gracias a los increíbles contribuyentes.