ovllm_node_addon
1.0.0
Il s'agit d'un module complémentaire Node.js pour OpenVINO GenAI LLM. Testé avec le modèle TinyLLama chat 1.1 OpenVINO int4 sur Windows 11 (processeur Intel Core i7).
Regardez la vidéo YouTube ci-dessous pour une démo :
Exécutez les commandes suivantes pour créer :
npm install
node-gyp configure
node-gyp build
Pour tester le module complémentaire Node.js OpenVINO LLM, exécutez le script index.js
.
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4
Désactiver la diffusion en continu
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4 nostream
Les modèles pris en charge sont ici