fluxograma LR
o4j[Ollama4j]
o[Servidor Ollama]
o4j -->|Comunica-se com| o;
m[Modelos]
subgráfico Implantação Ollama
direção TB
o -->|Gerencia| eu
fim
Instalação local | Instalação do Docker |
Baixar para macOS Baixar para Windows Instalar no Linux curl -fsSL https://ollama.com/install.sh | sh | Somente CPU docker run -d -p 11434:11434
-v ollama:/root/.ollama
--name ollama
ollama/ollama GPU NVIDIA docker run -d -p 11434:11434
--gpus=all
-v ollama:/root/.ollama
--name ollama
ollama/ollama |
Observação
Agora estamos publicando os artefatos nos repositórios de pacotes Maven Central e GitHub.
Acompanhe os lançamentos aqui e atualize a versão da dependência de acordo com suas necessidades.
No seu projeto Maven, adicione esta dependência:
< dependency >
< groupId >io.github.ollama4j</ groupId >
< artifactId >ollama4j</ artifactId >
< version >1.0.89</ version >
</ dependency >
GitHub Maven Packages
ao pom.xml
ou settings.xml
do seu projeto: < repositories >
< repository >
< id >github</ id >
< name >GitHub Apache Maven Packages</ name >
< url >https://maven.pkg.github.com/ollama4j/ollama4j</ url >
< releases >
< enabled >true</ enabled >
</ releases >
< snapshots >
< enabled >true</ enabled >
</ snapshots >
</ repository >
</ repositories >
GitHub
a settings.xml. (Geralmente disponível em ~/.m2/settings.xml) < settings xmlns = " http://maven.apache.org/SETTINGS/1.0.0 "
xmlns : xsi = " http://www.w3.org/2001/XMLSchema-instance "
xsi : schemaLocation = " http://maven.apache.org/SETTINGS/1.0.0
http://maven.apache.org/xsd/settings-1.0.0.xsd " >
< servers >
< server >
< id >github</ id >
< username >YOUR-USERNAME</ username >
< password >YOUR-TOKEN</ password >
</ server >
</ servers >
</ settings >
< dependency >
< groupId >io.github.ollama4j</ groupId >
< artifactId >ollama4j</ artifactId >
< version >1.0.89</ version >
</ dependency >
dependencies {
implementation ' io.github.ollama4j:ollama4j:1.0.79 '
}
Dica
Encontre as especificações completas da API no site.
Construir:
make build
Execute testes de unidade:
make unit-tests
Execute testes de integração:
make integration-tests
Os artefatos mais recentes são publicados por meio do fluxo de trabalho de CI do GitHub Actions quando uma nova versão é criada a partir do branch main
.
Se você gosta ou está usando este projeto para construir o seu próprio, dê-nos uma estrela. É uma forma gratuita de mostrar seu apoio.
# | Nome do Projeto | Descrição | Link |
---|---|---|---|
1 | Falsificador de dados | Uma biblioteca para gerar dados falsos | GitHub |
2 | IU da Web Vaadin | UI-Tester para interações com Ollama via ollama4j | GitHub |
3 | ollama-tradutor | Um plugin Spigot do Minecraft 1.20.6 que traduz todas as mensagens para um idioma de destino específico via Ollama | GitHub |
4 | Jogador de IA | Um mod do Minecraft que adiciona um “segundo jogador” inteligente ao jogo | Github, Tópico Reddit |
5 | IU da Web Ollama4j | Uma UI web para Ollama escrita em Java usando Spring Boot, Vaadin e Ollama4j | GitHub |
6 | JnsCLI | Uma ferramenta de linha de comando para Jenkins que gerencia trabalhos, compilações e configurações, com análise de erros baseada em IA | GitHub |
7 | Back-end de Katie | Uma plataforma de resposta a perguntas baseada em IA de código aberto para acessar conhecimento de domínio privado | GitHub |
8 | Bot TeleLlama3 | Um bot do Telegram que responde perguntas | Repositório |
9 | moqui-wechat | Um componente moqui-wechat | GitHub |
Contribuições são muito bem-vindas! Seja relatando um bug, propondo uma melhoria ou ajudando com o código - qualquer tipo de contribuição é muito apreciada.
O código está disponível sob licença MIT.
Se você achar este projeto útil em sua pesquisa, cite este trabalho em
@misc{ollama4j2024,
author = {Amith Koujalgi},
title = {Ollama4j: A Java Library (Wrapper/Binding) for Ollama Server},
year = {2024},
month = {January},
url = {https://github.com/ollama4j/ollama4j}
}
A nomenclatura e o ícone foram adotados do incrível projeto Ollama.
Obrigado aos incríveis contribuidores