ovllm_node_addon
1.0.0
นี่คือส่วนเสริม Node.js สำหรับ OpenVINO GenAI LLM ทดสอบโดยใช้ TinyLLama chat 1.1 OpenVINO int4 model บน Windows 11 (Intel Core i7 CPU)
ดูวิดีโอ YouTube ด้านล่างสำหรับการสาธิต:
รันคำสั่งต่อไปนี้เพื่อสร้าง:
npm install
node-gyp configure
node-gyp build
หากต้องการทดสอบส่วนเสริม Node.js OpenVINO LLM ให้รันสคริปต์ index.js
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4
ปิดใช้งานการสตรีม
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4 nostream
รุ่นที่รองรับอยู่ที่นี่