قم بإضافة تعليقات توضيحية للأوراق تلقائيًا باستخدام LLMs
يقوم annotateai
تلقائيًا بتعليق الأوراق باستخدام نماذج اللغة الكبيرة (LLMs). في حين أن ماجستير إدارة الأعمال يمكنه تلخيص الأوراق البحثية وأوراق البحث وبناء نص مولد حول الأوراق، يركز هذا المشروع على تزويد القراء البشريين بالسياق أثناء قراءتهم.
تقوم المكالمة ذات الخط الواحد بما يلي:
يقرأ الورقة
يجد العنوان والمفاهيم الأساسية الهامة
يتصفح كل صفحة ويجد الأقسام التي تركز بشكل أفضل على المفاهيم الأساسية
يقرأ القسم ويبني موضوعًا قصيرًا وموجزًا
يعلق على الورقة ويسلط الضوء على تلك الأقسام
أسهل طريقة للتثبيت هي عبر النقطة وPyPI
pip install annotateai
بايثون 3.9+ مدعوم. يوصى باستخدام بيئة بايثون الافتراضية.
يمكن أيضًا تثبيت annotateai
مباشرة من GitHub للوصول إلى أحدث الميزات التي لم يتم إصدارها.
pip install git+https://github.com/neuml/annotateai
يمكن annotateai
إضافة تعليقات توضيحية إلى أي ملف PDF ولكنه يعمل بشكل جيد بشكل خاص مع الأوراق الطبية والعلمية. يوضح ما يلي سلسلة من الأمثلة باستخدام أوراق من arXiv.
يعمل هذا المشروع أيضًا بشكل جيد مع الأبحاث الصادرة عن PubMed وbioRxiv وmedRxiv!
قم بتثبيت ما يلي.
# قم بتغيير autoawq[kernels] إلى "autoawq autoawq-kernels" إذا ظهر خطأ فلاش-attnpip install annotateai autoawq[kernels]# يجب على مستخدمي macOS تشغيل هذا بدلاً من ذلكpip install annotateai llama-cpp-python
معلمة الإدخال الأساسية هي المسار إلى LLM. هذا المشروع مدعوم من txtai وهو يدعم أي LLM مدعوم من txtai.
from annotateai import Annotate# يعمل هذا النموذج بشكل جيد مع الأدبيات الطبية والعلميةannotate = Annotate("NeuML/Llama-3.1_OpenScholar-8B-AWQ")# يجب على مستخدمي macOS تشغيل هذا بدلاً من ذلكannotate = Annotate( "bartowski/Llama-3.1_OpenScholar-8B-GGUF/Llama-3.1_OpenScholar-8B-Q4_K_M.gguf")
اقترحت هذه الورقة RAG قبل أن يعلم معظمنا أننا بحاجة إليها.
علق ("https://arxiv.org/pdf/2005.11401")
المصدر: https://arxiv.org/pdf/2005.11401
تبني هذه الورقة أكبر نموذج لتوليد الفيديو مفتوح المصدر. إنه رائج في Papers With Code اعتبارًا من ديسمبر 2024.
قم بالتعليق ("https://arxiv.org/pdf/2412.03603v2")
المصدر: https://arxiv.org/pdf/2412.03603v2
تم تقديم هذه الورقة في 38th Conference on Neural Information Processing Systems (NeurIPS 2024) Track on Datasets and Benchmarks
.
قم بالتعليق ("https://arxiv.org/pdf/2406.14657")
المصدر: https://arxiv.org/pdf/2406.14657
كما ذكرنا سابقًا، يدعم هذا المشروع أي LLM مدعوم من txtai. بعض الأمثلة أدناه.
pip install txtai[pipeline-llm]
# LLM API Servicesannotate = Annotate("gpt-4o")annotate = Annotate("claude-3-5-sonnet-20240620")# Ollama endpointannotate = Annotate("ollama/llama3.1")# llama.cpp GGUF from Hugging الوجه Hubannotate = التعليق التوضيحي( "bartowski/Llama-3.1_OpenScholar-8B-GGUF/Llama-3.1_OpenScholar-8B-Q4_K_M.gguf")
الوضع الافتراضي لمثيل annotate
هو إنشاء المفاهيم الأساسية للبحث عنها تلقائيًا. ولكن يمكن توفير هذه المفاهيم عبر معلمة keywords
.
علق ("https://arxiv.org/pdf/2005.11401"، الكلمات الرئيسية = ["الهلوسة"، "llm"])
يعد هذا مفيدًا في المواقف التي يكون لدينا فيها مجموعة كبيرة من الأوراق ونريدها أن تحدد مجموعة محددة من المفاهيم للمساعدة في المراجعة.
يمكن تعطيل شريط التقدم على النحو التالي:
قم بالتعليق ("https://arxiv.org/pdf/2005.11401"، التقدم = خطأ)
neuml/annotateai هو تطبيق ويب متاح على Docker Hub.
يمكن تشغيل هذا بالإعدادات الافتراضية على النحو التالي.
docker run -d --gpus=all -it -p 8501:8501 neuml/annotateai
يمكن أيضًا تعيين LLM عبر معلمات ENV.
docker run -d --gpus=all -it -p 8501:8501 -e LLM=bartowski/Llama-3.2-1B-Instruct-GGUF/Llama-3.2-1B-Instruct-Q4_K_M.gguf neuml/annotateai
يمكن العثور على رمز هذا التطبيق في مجلد التطبيق.
تقديم AnnotateAI