Ontogpt โลโก้" style="max-width: 100%;">
ontogpt เป็นแพ็คเกจ Python สำหรับการดึงข้อมูลที่มีโครงสร้างจากข้อความที่มีโมเดลภาษาขนาดใหญ่ (LLM) พร้อมต์คำสั่ง และการต่อสายดินตามภววิทยา
สำหรับรายละเอียดเพิ่มเติม โปรดดูเอกสารฉบับเต็ม
ontogpt ทำงานบนบรรทัดคำสั่ง แม้ว่าจะมีอินเทอร์เฟซเว็บแอปขั้นต่ำด้วย (ดูหัวข้อ Web Application
ด้านล่าง)
ตรวจสอบให้แน่ใจว่าคุณได้ติดตั้ง Python 3.9 ขึ้นไป
ติดตั้งด้วย pip
:
pip install ontogpt
ตั้งค่าคีย์ OpenAI API ของคุณ:
runoak set-apikey -e openai < your openai api key >
ดูรายการคำสั่ง ontogpt ทั้งหมด:
ontogpt --help
ลองตัวอย่างง่ายๆ ของการดึงข้อมูล:
echo " One treatment for high blood pressure is carvedilol. " > example.txt
ontogpt extract -i example.txt -t drug
ontogpt จะดึงข้อมูล Ontology ที่จำเป็นและผลลัพธ์ที่ส่งออกไปยังบรรทัดคำสั่ง ผลลัพธ์ของคุณจะจัดเตรียมอ็อบเจ็กต์ที่แยกออกมาทั้งหมดภายใต้หัวข้อ extracted_object
มีเว็บแอปพลิเคชัน Bare Bones สำหรับเรียกใช้ ontogpt และดูผลลัพธ์
ขั้นแรก ให้ติดตั้งการขึ้นต่อกันที่จำเป็นด้วย pip
โดยรันคำสั่งต่อไปนี้:
pip install ontogpt [web]
จากนั้นรันคำสั่งนี้เพื่อเริ่มเว็บแอปพลิเคชัน:
web- ontogpt
หมายเหตุ: เราไม่แนะนำให้โฮสต์ webapp นี้แบบสาธารณะโดยไม่มีการตรวจสอบสิทธิ์
ontogpt ใช้แพ็คเกจ litellm
(https://litellm.vercel.app/) เพื่อเชื่อมต่อกับ LLM
ซึ่งหมายความว่า API ส่วนใหญ่ได้รับการสนับสนุน รวมถึง OpenAI, Azure, Anthropic, Mistral, Replicate และอื่นๆ อีกมากมาย
ชื่อรุ่นที่จะใช้อาจพบได้จากคำสั่ง ontogpt list-models
- ใช้ชื่อในคอลัมน์แรกพร้อมกับตัวเลือก --model
ในกรณีส่วนใหญ่ จะต้องมีการตั้งค่าคีย์ API สำหรับบริการเฉพาะดังที่กล่าวข้างต้น:
runoak set-apikey -e anthropic-key < your anthropic api key >
ตำแหน่งข้อมูลบางอย่าง เช่น โมเดล OpenAI ผ่าน Azure จำเป็นต้องมีการตั้งค่ารายละเอียดเพิ่มเติม สิ่งเหล่านี้อาจถูกตั้งค่าในทำนองเดียวกัน:
runoak set-apikey -e azure-key < your azure api key >
runoak set-apikey -e azure-base < your azure endpoint url >
runoak set-apikey -e azure-version < your azure api version, e.g. " 2023-05-15 " >
รายละเอียดเหล่านี้อาจถูกตั้งค่าเป็นตัวแปรสภาพแวดล้อมดังต่อไปนี้:
export AZURE_API_KEY= " my-azure-api-key "
export AZURE_API_BASE= " https://example-endpoint.openai.azure.com "
export AZURE_API_VERSION= " 2023-05-15 "
Open LLM อาจดึงข้อมูลและเรียกใช้ผ่านแพ็คเกจ ollama
(https://ollama.com/)
คุณจะต้องติดตั้ง ollama
(ดู GitHub repo) และคุณอาจต้องเริ่มต้นเป็นบริการด้วยคำสั่งเช่น ollama serve
หรือ sudo systemctl start ollama
จากนั้นดึงข้อมูลโมเดลที่มี ollama pull <modelname>
เช่น ollama pull llama3
จากนั้นโมเดลอาจถูกใช้ใน ontogpt โดยนำหน้าชื่อด้วย ollama/
เช่น ollama/llama3
พร้อมด้วยตัวเลือก --model
โมเดลโอลามะบางรุ่นอาจไม่แสดงรายการอยู่ใน ontogpt list-models
แต่สามารถดูรายการ LLM ที่ดาวน์โหลดทั้งหมดได้ด้วยคำสั่ง ollama list
ฟังก์ชั่นของ ontogpt ได้รับการประเมินจากข้อมูลทดสอบ โปรดดูเอกสารฉบับเต็มสำหรับรายละเอียดเกี่ยวกับการประเมินเหล่านี้และวิธีการทำซ้ำ
วิธีการดึงข้อมูลที่ใช้ใน ontogpt , SPIRES มีอธิบายเพิ่มเติมใน: Caufield JH, Hegde H, Emonet V, Harris NL, Joachimiak MP, Matentzoglu N, และคณะ การซักถามแบบมีโครงสร้างพร้อมท์และการแยกความหมายแบบเรียกซ้ำ (SPIRES): วิธีการเติมฐานความรู้โดยใช้การเรียนรู้แบบ Zero-Shot ชีวสารสนเทศศาสตร์ เล่มที่ 40 ฉบับที่ 3 มีนาคม 2567 btae104 https://doi.org/10.1093/bioinformatics/btae104
โครงการนี้เป็นส่วนหนึ่งของโครงการริเริ่มพระมหากษัตริย์ นอกจากนี้เรายังขอขอบคุณฝ่ายวิจัยของ Bosch ที่ให้การสนับสนุนโครงการวิจัยนี้