ovllm_node_addon
1.0.0
Este é um complemento Node.js para OpenVINO GenAI LLM. Testado usando o modelo TinyLLama chat 1.1 OpenVINO int4 no Windows 11 (CPU Intel Core i7).
Assista abaixo ao vídeo do YouTube para demonstração:
Execute os seguintes comandos para compilar:
npm install
node-gyp configure
node-gyp build
Para testar o complemento Node.js OpenVINO LLM, execute o script index.js
.
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4
Desativar streaming
node index.js D:/demo/TinyLlama-1.1B-Chat-v1.0-openvino-int4 nostream
Os modelos suportados estão aqui