ovllm_node_addon
1.0.0
Dies ist ein Node.js-Addon für OpenVINO GenAI LLM. Getestet mit TinyLLama Chat 1.1 OpenVINO int4-Modell unter Windows 11 (Intel Core i7 CPU).
Sehen Sie sich das folgende YouTube-Video als Demo an:
Führen Sie zum Erstellen die folgenden Befehle aus:
npm install
node-gyp configure
node-gyp build
Um das Node.js OpenVINO LLM-Add-on zu testen, führen Sie das index.js
-Skript aus.
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4
Streaming deaktivieren
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4 nostream
Unterstützte Modelle finden Sie hier