ใส่คำอธิบายประกอบในเอกสารโดยอัตโนมัติโดยใช้ LLM
annotateai
จะใส่คำอธิบายประกอบในเอกสารโดยอัตโนมัติโดยใช้ Large Language Models (LLM) แม้ว่า LLM จะสามารถสรุปรายงาน ค้นหารายงาน และสร้างข้อความเชิงสร้างสรรค์เกี่ยวกับรายงานได้ แต่โครงการนี้มุ่งเน้นไปที่การให้บริบทแก่ผู้อ่านที่เป็นมนุษย์ในขณะที่พวกเขาอ่าน
การโทรสายเดียวทำหน้าที่ดังต่อไปนี้:
อ่านกระดาษ
ค้นหาชื่อเรื่องและแนวคิดสำคัญที่สำคัญ
อ่านแต่ละหน้าและค้นหาส่วนที่เน้นแนวคิดหลักได้ดีที่สุด
อ่านหัวข้อและสร้างหัวข้อสั้นๆ ที่กระชับ
ใส่คำอธิบายประกอบในกระดาษและเน้นส่วนเหล่านั้น
วิธีติดตั้งที่ง่ายที่สุดคือผ่าน pip และ PyPI
pip install annotateai
รองรับ Python 3.9+ แนะนำให้ใช้สภาพแวดล้อมเสมือน Python
annotateai
ยังสามารถติดตั้งได้โดยตรงจาก GitHub เพื่อเข้าถึงฟีเจอร์ล่าสุดที่ยังไม่ได้เผยแพร่
pip install git+https://github.com/neuml/annotateai
annotateai
สามารถใส่คำอธิบายประกอบ PDF ใดก็ได้ แต่ใช้งานได้ดีโดยเฉพาะกับเอกสารทางการแพทย์และวิทยาศาสตร์ ต่อไปนี้แสดงชุดตัวอย่างโดยใช้เอกสารจาก arXiv
โปรเจ็กต์นี้ยังทำงานได้ดีกับเอกสารจาก PubMed, bioRxiv และ medRxiv!
ติดตั้งดังต่อไปนี้
# เปลี่ยน autoawq[kernels] เป็น "autoawq autoawq-kernels" หากมีข้อผิดพลาดเกิดขึ้น pip install annotateai autoawq[kernels]# ผู้ใช้ macOS ควรเรียกใช้สิ่งนี้แทนpip install annotateai llama-cpp-python
พารามิเตอร์อินพุตหลักคือเส้นทางไปยัง LLM โปรเจ็กต์นี้ได้รับการสนับสนุนโดย txtai และรองรับ LLM ใดๆ ก็ตามที่รองรับ txtai
จาก annotateai import Annotate# แบบจำลองนี้ทำงานได้ดีกับวรรณกรรมทางการแพทย์และวิทยาศาสตร์annotate = Annotate("NeuML/Llama-3.1_OpenScholar-8B-AWQ")# ผู้ใช้ macOS ควรเรียกใช้สิ่งนี้แทนannotate = Annotate( "bartowski/Llama-3.1_OpenScholar-8B- GGUF/Llama-3.1_OpenScholar-8B-Q4_K_M.gguf")
บทความนี้เสนอ RAG ก่อนที่พวกเราส่วนใหญ่จะรู้ว่าเราต้องการมัน
คำอธิบายประกอบ ("https://arxiv.org/pdf/2005.11401")
ที่มา: https://arxiv.org/pdf/2005.11401
เอกสารนี้สร้างโมเดลการสร้างวิดีโอโอเพ่นซอร์สที่ใหญ่ที่สุด กำลังมาแรงใน Papers With Code ณ เดือนธันวาคม 2024
คำอธิบายประกอบ ("https://arxiv.org/pdf/2412.03603v2")
ที่มา: https://arxiv.org/pdf/2412.03603v2
บทความนี้ถูกนำเสนอในการ 38th Conference on Neural Information Processing Systems (NeurIPS 2024) Track on Datasets and Benchmarks
คำอธิบายประกอบ ("https://arxiv.org/pdf/2406.14657")
ที่มา: https://arxiv.org/pdf/2406.14657
ตามที่กล่าวไว้ก่อนหน้านี้ โปรเจ็กต์นี้รองรับ LLM ใดๆ ก็ตามที่รองรับ txtai ตัวอย่างบางส่วนด้านล่าง
pip install txtai[pipeline-llm]
# LLM API servicesannotate = คำอธิบายประกอบ ("gpt-4o") คำอธิบายประกอบ = คำอธิบายประกอบ ("claude-3-5-sonnet-20240620")# Ollama endpointannotate = คำอธิบายประกอบ ("ollama/llama3.1")# llama.cpp GGUF จาก Hugging ใบหน้า Hubannotate = คำอธิบายประกอบ ( "bartowski/Llama-3.1_OpenScholar-8B-GGUF/Llama-3.1_OpenScholar-8B-Q4_K_M.gguf")
โหมดเริ่มต้นสำหรับ annotate
ซ์คำอธิบายประกอบคือการสร้างแนวคิดหลักเพื่อค้นหาโดยอัตโนมัติ แต่แนวคิดเหล่านี้สามารถระบุได้ผ่านพารามิเตอร์ keywords
คำอธิบายประกอบ ("https://arxiv.org/pdf/2005.11401", keywords=["ภาพหลอน", "llm"])
สิ่งนี้มีประโยชน์สำหรับสถานการณ์ที่เรามีเอกสารจำนวนมาก และเราต้องการให้ระบุชุดแนวคิดเฉพาะเพื่อช่วยในการทบทวน
แถบความคืบหน้าสามารถปิดใช้งานได้ดังนี้:
คำอธิบายประกอบ ("https://arxiv.org/pdf/2005.11401", ความคืบหน้า=False)
neuml/annotateai เป็นเว็บแอปพลิเคชันบน Docker Hub
ซึ่งสามารถรันได้ด้วยการตั้งค่าเริ่มต้นดังต่อไปนี้
docker run -d --gpus=all -it -p 8501:8501 neuml/annotateai
LLM ยังสามารถตั้งค่าผ่านพารามิเตอร์ ENV ได้อีกด้วย
docker run -d --gpus=all -it -p 8501:8501 -e LLM=bartowski/Llama-3.2-1B-Instruct-GGUF/Llama-3.2-1B-Instruct-Q4_K_M.gguf neuml/annotateai
รหัสสำหรับแอปพลิเคชันนี้สามารถพบได้ในโฟลเดอร์แอป
ขอแนะนำ AnnotateAI