歡迎來到 ZySec AI,這裡是人工智慧與網路安全的結合。 ZySec 計畫由創新的 ZySec 7B 模型提供支持,正在透過人工智慧驅動的解決方案重塑網路安全格局。
ZySec 的使命是讓像您這樣的安全專業人員能夠使用人工智慧!
ZySec AI 在網路安全與人工智慧的整合方面處於領先地位。我們的願景是改變安全專業人員利用科技的方式。 ZySec AI 不只是一個工具;這是一種增強安全營運的整體方法,將人工智慧的創新能力與網路安全的獨特挑戰相結合,同時優先考慮隱私。
注意:ZySec AI 設計為無需網路連線即可運行,確保完全隱私。唯一的例外是可選的互聯網研究功能。
ZySec 7B是 ZySec AI 的基石,建立在 HuggingFace 的 Zephyr 語言模型系列之上。它專為網路安全而定制,提供專家級的知識和見解。該模型經過 30 多個獨特領域的廣泛訓練,確保其在網路安全領域的有效性和可靠性。
您可以靈活地在電腦上本地運行 ZySec AI 應用程序,也可以在 GPU 實例上遠端運行 ZySec AI 應用程序,具體取決於您的偏好和資源可用性。
本地部署:適合開發、測試或輕度使用。按照前面部分中的說明在本機上設定並執行應用程式。
GPU執行個體上的遠端部署:為了獲得更好的效能,特別是在處理更大的工作負載或需要更快的處理時,請考慮在 GPU 執行個體上部署。使用 VLLM(超大型語言模型)部署模式可在 GPU 環境中達到最佳效能。
以下是可以部署在 GPU 執行個體上以增強效能的模型:Hugging Face 上的 ZySec-7B-v1。該模型專門針對基於 GPU 的部署進行了最佳化,與基於 CPU 的設定相比,效能顯著提高。
複製儲存庫:首先將 ZySec AI 儲存庫從 GitHub 複製到本機。
克隆項目
git clone https://github.com/ZySec-AI/ZySec.git
啟動應用程式伺服器:根據您的要求修改 config.cfg 檔案。預設情況下,腳本將下載模型並使用 llama-cpp-python[server] 執行本機實例:
chmod +x start.sh
./start.sh
您可以根據您的喜好在同一台電腦上本機運行,也可以在 GPU 執行個體上遠端運行。為了獲得更好的效能,在 GPU 執行個體中使用 VLLM 部署模式。
ZySec AI 根據 Apache 授權版本 2.0 (Apache-2.0) 發布,這是一種寬鬆的開源授權。此授權可讓您根據授權條款自由使用、修改、散佈和銷售您自己的本作品版本。
?查看 Apache 許可證,版本 2.0
特別感謝 HuggingFace 和 LangChain 社群對 AI 領域的啟發和貢獻。他們的開創性工作繼續激發 ZySec AI 等項目的靈感。
Venkatesh Siddi是網路安全領域的著名專家,將人工智慧和機器學習融入複雜的安全挑戰中。他的專業知識涵蓋大數據、雲端安全和創新技術設計。