Página inicial | Documentação | Blogue | Discórdia | Twitter
Neum AI é uma plataforma de dados que ajuda os desenvolvedores a aproveitar seus dados para contextualizar modelos de linguagem grande por meio de geração aumentada de recuperação (RAG). Isso inclui extrair dados de fontes de dados existentes, como armazenamento de documentos e NoSQL, processar o conteúdo em embeddings de vetores e ingerir os embeddings de vetores em bancos de dados vetoriais para pesquisa de similaridade.
Ele fornece uma solução abrangente para RAG que pode ser dimensionada com seu aplicativo e reduzir o tempo gasto na integração de serviços como conectores de dados, incorporação de modelos e bancos de dados vetoriais.
Você pode entrar em contato com nossa equipe por e-mail ([email protected]), no discord ou agendando uma ligação conosco.
Inscreva-se hoje em dashboard.neum.ai. Consulte nosso guia de início rápido para começar.
O Neum AI Cloud oferece suporte a uma arquitetura distribuída em grande escala para executar milhões de documentos por meio de incorporação de vetores. Para o conjunto completo de recursos, consulte: Cloud vs Local
Instale o pacote neumai
:
pip install neumai
Para criar seus primeiros pipelines de dados, visite nosso início rápido.
Em um nível superior, um pipeline consiste em uma ou várias fontes das quais extrair dados, um conector incorporado para vetorizar o conteúdo e um conector coletor para armazenar esses vetores. Com este trecho de código criaremos tudo isso e executaremos um pipeline:
from neumai . DataConnectors . WebsiteConnector import WebsiteConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . HTMLLoader import HTMLLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = WebsiteConnector (
url = "https://www.neum.ai/post/retrieval-augmented-generation-at-scale" ,
selector = Selector (
to_metadata = [ 'url' ]
)
)
source = SourceConnector (
data_connector = website_connector ,
loader = HTMLLoader (),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "What are the challenges with scaling RAG?" ,
number_of_results = 3
)
for result in results :
print ( result . metadata )
from neumai . DataConnectors . PostgresConnector import PostgresConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . JSONLoader import JSONLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = PostgresConnector (
connection_string = 'postgres' ,
query = 'Select * from ...'
)
source = SourceConnector (
data_connector = website_connector ,
loader = JSONLoader (
id_key = '<your id key of your jsons>' ,
selector = Selector (
to_embed = [ 'property1_to_embed' , 'property2_to_embed' ],
to_metadata = [ 'property3_to_include_in_metadata_in_vector' ]
)
),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "..." ,
number_of_results = 3
)
for result in results :
print ( result . metadata )
from neumai . Client . NeumClient import NeumClient
client = NeumClient (
api_key = '<your neum api key, get it from https://dashboard.neum.ai' ,
)
client . create_pipeline ( pipeline = pipeline )
Se você estiver interessado em implantar Neum AI em sua própria nuvem, entre em contato conosco em [email protected].
Temos um exemplo de arquitetura de back-end publicado no GitHub que você pode usar como ponto de partida.
Para obter uma lista atualizada, visite nossos documentos
Nosso roteiro está evoluindo com as perguntas, então se faltar alguma coisa fique à vontade para abrir um problema ou nos enviar uma mensagem.
Conectores
Procurar
Extensibilidade
Experimental
Ferramentas adicionais para Neum AI podem ser encontradas aqui: