Домашняя страница | Документация | Блог | Раздор | Твиттер
Neum AI — это платформа данных, которая помогает разработчикам использовать свои данные для контекстуализации больших языковых моделей с помощью поисковой расширенной генерации (RAG). Это включает в себя извлечение данных из существующих источников данных, таких как хранилище документов и NoSQL, обработку содержимого в векторные вложения и вставку векторных вложений в векторные базы данных для поиска по сходству.
Он предоставляет вам комплексное решение для RAG, которое можно масштабировать вместе с вашим приложением и сократить время, затрачиваемое на интеграцию таких сервисов, как соединители данных, внедрение моделей и векторных баз данных.
Вы можете связаться с нашей командой по электронной почте ([email protected]), в Discord или запланировав звонок нам.
Зарегистрируйтесь сегодня на Dashboard.neum.ai. Чтобы начать работу, ознакомьтесь с нашим кратким руководством.
Neum AI Cloud поддерживает крупномасштабную распределенную архитектуру для обработки миллионов документов посредством векторного внедрения. Полный набор функций см. в разделе «Облако» или «Локально».
Установите пакет neumai
:
pip install neumai
Чтобы создать свои первые конвейеры данных, посетите наш краткий обзор.
На высоком уровне конвейер состоит из одного или нескольких источников для извлечения данных, одного соединителя внедрения для векторизации контента и одного соединителя приемника для хранения указанных векторов. С помощью этого фрагмента кода мы создадим все это и запустим конвейер:
from neumai . DataConnectors . WebsiteConnector import WebsiteConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . HTMLLoader import HTMLLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = WebsiteConnector (
url = "https://www.neum.ai/post/retrieval-augmented-generation-at-scale" ,
selector = Selector (
to_metadata = [ 'url' ]
)
)
source = SourceConnector (
data_connector = website_connector ,
loader = HTMLLoader (),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "What are the challenges with scaling RAG?" ,
number_of_results = 3
)
for result in results :
print ( result . metadata )
from neumai . DataConnectors . PostgresConnector import PostgresConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . JSONLoader import JSONLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = PostgresConnector (
connection_string = 'postgres' ,
query = 'Select * from ...'
)
source = SourceConnector (
data_connector = website_connector ,
loader = JSONLoader (
id_key = '<your id key of your jsons>' ,
selector = Selector (
to_embed = [ 'property1_to_embed' , 'property2_to_embed' ],
to_metadata = [ 'property3_to_include_in_metadata_in_vector' ]
)
),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "..." ,
number_of_results = 3
)
for result in results :
print ( result . metadata )
from neumai . Client . NeumClient import NeumClient
client = NeumClient (
api_key = '<your neum api key, get it from https://dashboard.neum.ai' ,
)
client . create_pipeline ( pipeline = pipeline )
Если вы заинтересованы в развертывании Neum AI в своем собственном облаке, свяжитесь с нами по адресу [email protected].
У нас есть образец серверной архитектуры, опубликованный на GitHub, который вы можете использовать в качестве отправной точки.
Актуальный список можно найти в нашей документации.
Наша дорожная карта развивается вместе с запросами, поэтому, если что-то не хватает, не стесняйтесь открыть проблему или отправить нам сообщение.
Разъемы
Поиск
Расширяемость
Экспериментальный
Дополнительные инструменты для Neum AI можно найти здесь: