Secara otomatis membubuhi keterangan pada makalah menggunakan LLM
annotateai
secara otomatis memberi anotasi pada makalah menggunakan Model Bahasa Besar (LLM). Meskipun LLM dapat merangkum makalah, mencari makalah, dan membuat teks generatif tentang makalah, proyek ini berfokus pada menyediakan konteks kepada pembaca manusia saat mereka membaca.
Panggilan satu saluran melakukan hal berikut:
Membaca koran
Menemukan judul dan konsep kunci penting
Telusuri setiap halaman dan temukan bagian yang paling menekankan konsep-konsep utama
Membaca bagian tersebut dan membuat topik pendek yang ringkas
Beri anotasi pada makalah dan soroti bagian tersebut
Cara termudah untuk menginstal adalah melalui pip dan PyPI
pip install annotateai
Python 3.9+ didukung. Disarankan menggunakan lingkungan virtual Python.
annotateai
juga dapat diinstal langsung dari GitHub untuk mengakses fitur-fitur terbaru yang belum dirilis.
pip install git+https://github.com/neuml/annotateai
annotateai
dapat memberi anotasi pada PDF apa pun, tetapi ini berfungsi sangat baik untuk makalah medis dan ilmiah. Berikut ini adalah rangkaian contoh penggunaan makalah dari arXiv.
Proyek ini juga berfungsi baik dengan makalah dari PubMed, bioRxiv, dan medRxiv!
Instal yang berikut ini.
# Ubah autoawq[kernels] menjadi "autoawq autoawq-kernels" jika terjadi kesalahan flash-attnpip install annotateai autoawq[kernels]# pengguna macOS harus menjalankan ini sebagai gantinyapip install annotateai llama-cpp-python
Parameter masukan utama adalah jalur menuju LLM. Proyek ini didukung oleh txtai dan mendukung semua LLM yang didukung txtai.
from annotateai import Annotate# Model ini berfungsi baik dengan literatur medis dan ilmiahannotate = Annotate("NeuML/Llama-3.1_OpenScholar-8B-AWQ")# pengguna macOS harus menjalankan ini sebagai gantinyaannotate = Annotate( "bartowski/Llama-3.1_OpenScholar-8B- GGUF/Llama-3.1_OpenScholar-8B-Q4_K_M.gguf")
Makalah ini mengusulkan RAG sebelum sebagian besar dari kita menyadari bahwa kita membutuhkannya.
membubuhi keterangan("https://arxiv.org/pdf/2005.11401")
Sumber: https://arxiv.org/pdf/2005.11401
Makalah ini membangun model pembuatan video sumber terbuka terbesar. Ini sedang tren di Papers With Code pada Des 2024.
membubuhi keterangan("https://arxiv.org/pdf/2412.03603v2")
Sumber: https://arxiv.org/pdf/2412.03603v2
Makalah ini dipresentasikan pada 38th Conference on Neural Information Processing Systems (NeurIPS 2024) Track on Datasets and Benchmarks
.
membubuhi keterangan("https://arxiv.org/pdf/2406.14657")
Sumber: https://arxiv.org/pdf/2406.14657
Seperti disebutkan sebelumnya, proyek ini mendukung LLM apa pun yang didukung txtai. Beberapa contoh di bawah ini.
pip install txtai[pipeline-llm]
# LLM API servicesannotate = Annotate("gpt-4o")annotate = Annotate("claude-3-5-sonnet-20240620")# Ollama endpointannotate = Annotate("ollama/llama3.1")# llama.cpp GGUF dari Hugging Wajah Hubannotate = Anotasi( "bartowski/Llama-3.1_OpenScholar-8B-GGUF/Llama-3.1_OpenScholar-8B-Q4_K_M.gguf")
Mode default untuk instance annotate
adalah secara otomatis menghasilkan konsep-konsep kunci yang akan dicari. Namun konsep ini dapat diberikan melalui parameter keywords
.
membubuhi keterangan("https://arxiv.org/pdf/2005.11401", kata kunci=["halusinasi", "llm"])
Hal ini berguna dalam situasi ketika kita memiliki sejumlah besar makalah dan kita ingin makalah tersebut mengidentifikasi serangkaian konsep tertentu untuk membantu peninjauan.
Bilah kemajuan dapat dinonaktifkan sebagai berikut:
membubuhi keterangan("https://arxiv.org/pdf/2005.11401", kemajuan=False)
neuml/annotateai adalah aplikasi web yang tersedia di Docker Hub.
Ini dapat dijalankan dengan pengaturan default sebagai berikut.
docker run -d --gpus=all -it -p 8501:8501 neuml/annotateai
LLM juga dapat diatur melalui parameter ENV.
docker run -d --gpus=all -it -p 8501:8501 -e LLM=bartowski/Llama-3.2-1B-Instruct-GGUF/Llama-3.2-1B-Instruct-Q4_K_M.gguf neuml/annotateai
Kode untuk aplikasi ini dapat ditemukan di folder aplikasi.
Memperkenalkan AnnotateAI