LocalFilesystemMemory عبارة عن طبقة فوق GPTSimpleVectorIndex الخاص بمؤشر Llama والتي تلخص تفاصيل إدارة الفهارس المحفوظة على القرص. يفترض / ينشئ بنية دليل لتخزين الفهارس ويوفر واجهة بسيطة لإدارتها.
مثال باستخدام بعض ملفات ويكيبيديا التي يمكنك العثور عليها في هذا الريبو:
from llama_index import SimpleDirectoryReader
from gpt_memory import LocalFilesystemMemory
phil = SimpleDirectoryReader ( "gpt_memory/examples/phil" )
animals = SimpleDirectoryReader ( "gpt_memory/examples/animals" )
phil_docs = phil . load_data ()
animal_docs = animals . load_data ()
memory = LocalFilesystemMemory ( "example" )
memory . create_index ( "phil" , phil_docs )
memory . create_index ( "animals" , animal_docs )
query = "What is a capybara?"
print ( memory . query ( query ))
العوائد: A capybara is a giant cavy rodent native to South America, which is the largest living rodent and a member of the genus Hydrochoerus. It inhabits savannas and dense forests, lives near bodies of water, and is a highly social species that can be found in groups as large as 100 individuals. The capybara is hunted for its meat and hide and also for grease from its thick fatty skin, but it is not considered a threatened species.
memory.query(prompt)
: نقطة الدخول الرئيسية لطرح سؤال.memory.create_index(name, docs, description=None)
: الطريقة الرئيسية لإنشاء فهرس. يمكن أن تكون المستندات عبارة عن سلاسل، أو قوائم سلاسل، أو قوائم كائنات مستند GPTIndex.memory.update_index(name, docs)
: تحديث الفهرس بمستندات جديدة.memory.delete_index(name)
: حذف فهرس.تحت الغطاء، تستخدم هذه الوظائف:
memory.get_index(name)
memory.query_index(name, prompt)
memory.find_most_relevant_index(prompt)
تحت الغطاء، بنية الدليل هي كما يلي:
- index_folder/
- metadata.json
- indexes/
- index_1.json
- index_2.json
- ...
يحتوي ملف metadata.json على المعلومات التالية:
{
"index_count": 2,
"index_descriptions": [
{
"name": "index_1",
"description": "Description of index generated by GPT Index.",
},
{
"name": "index_2",
"description": "Description of index generated by GPT Index.",
},
]
}