شعار ontogpt" style="max-width: 100%;">
ontogpt عبارة عن حزمة Python لاستخراج المعلومات المنظمة من النص باستخدام نماذج اللغة الكبيرة (LLMs)، ومطالبات التعليمات ، والأساس القائم على علم الوجود.
لمزيد من التفاصيل، يرجى الاطلاع على الوثائق الكاملة.
يعمل ontogpt على سطر الأوامر، على الرغم من وجود واجهة تطبيق ويب بسيطة أيضًا (راجع قسم Web Application
أدناه).
تأكد من تثبيت Python 3.9 أو أحدث.
التثبيت مع pip
:
pip install ontogpt
قم بتعيين مفتاح OpenAI API الخاص بك:
runoak set-apikey -e openai < your openai api key >
راجع قائمة جميع أوامر ontogpt :
ontogpt --help
جرب مثالاً بسيطًا لاستخراج المعلومات:
echo " One treatment for high blood pressure is carvedilol. " > example.txt
ontogpt extract -i example.txt -t drug
سوف يقوم ontogpt باسترداد الأنطولوجيات الضرورية وإخراج النتائج إلى سطر الأوامر. سيوفر مخرجاتك جميع الكائنات المستخرجة تحت العنوان extracted_object
.
يوجد تطبيق ويب أساسي لتشغيل ontogpt وعرض النتائج.
أولاً، قم بتثبيت التبعيات المطلوبة باستخدام pip
عن طريق تشغيل الأمر التالي:
pip install ontogpt [web]
ثم قم بتشغيل هذا الأمر لبدء تطبيق الويب:
web- ontogpt
ملاحظة: لا نوصي باستضافة تطبيق الويب هذا بشكل عام دون مصادقة.
يستخدم ontogpt حزمة litellm
(https://litellm.vercel.app/) للتفاعل مع LLMs.
وهذا يعني أن معظم واجهات برمجة التطبيقات مدعومة، بما في ذلك OpenAI وAzure وAnthropic وMistral وReplicate وغيرها.
يمكن العثور على اسم النموذج المطلوب استخدامه من الأمر ontogpt list-models
- استخدم الاسم الموجود في العمود الأول مع خيار --model
.
في معظم الحالات، سيتطلب ذلك تعيين مفتاح API لخدمة معينة على النحو الوارد أعلاه:
runoak set-apikey -e anthropic-key < your anthropic api key >
تتطلب بعض نقاط النهاية، مثل نماذج OpenAI من خلال Azure، إعداد تفاصيل إضافية. يمكن تعيين هذه بالمثل:
runoak set-apikey -e azure-key < your azure api key >
runoak set-apikey -e azure-base < your azure endpoint url >
runoak set-apikey -e azure-version < your azure api version, e.g. " 2023-05-15 " >
يمكن أيضًا تعيين هذه التفاصيل كمتغيرات بيئة على النحو التالي:
export AZURE_API_KEY= " my-azure-api-key "
export AZURE_API_BASE= " https://example-endpoint.openai.azure.com "
export AZURE_API_VERSION= " 2023-05-15 "
يمكن استرداد LLMs المفتوحة وتشغيلها من خلال حزمة ollama
(https://ollama.com/).
ستحتاج إلى تثبيت ollama
(راجع GitHub repo)، وقد تحتاج إلى تشغيله كخدمة باستخدام أمر مثل ollama serve
أو sudo systemctl start ollama
.
ثم قم باسترداد نموذج باستخدام ollama pull <modelname>
، على سبيل المثال، ollama pull llama3
.
يمكن بعد ذلك استخدام النموذج في ontogpt عن طريق إضافة اسمه ببادئة ollama/
، على سبيل المثال، ollama/llama3
، بالإضافة إلى خيار --model
.
قد لا يتم إدراج بعض نماذج ollama في ontogpt list-models
، ولكن يمكن رؤية القائمة الكاملة لبرامج LLM التي تم تنزيلها باستخدام أمر ollama list
.
تم تقييم وظائف ontogpt على بيانات الاختبار. يرجى الاطلاع على الوثائق الكاملة للحصول على تفاصيل حول هذه التقييمات وكيفية إعادة إنتاجها.
يتم وصف نهج استخراج المعلومات المستخدم في ontogpt ، SPIRES، بشكل أكبر في: Caufield JH، Hegde H، Emonet V، Harris NL، Joachimiak MP، Matentzoglu N، et al. الاستجواب السريع المنظم والاستخراج التكراري للدلالات (SPIRES): طريقة لملء قواعد المعرفة باستخدام التعلم الصفري. المعلوماتية الحيوية ، المجلد 40، العدد 3، مارس 2024، btae104، https://doi.org/10.1093/bioinformatics/btae104.
هذا المشروع جزء من مبادرة الملك. كما نعرب عن امتناننا لأبحاث Bosch لدعمها لهذا المشروع البحثي.