欢迎来到 ZySec AI,这里是人工智能与网络安全的结合。 ZySec 项目由创新的 ZySec 7B 模型提供支持,正在通过人工智能驱动的解决方案重塑网络安全格局。
ZySec 的使命是让像您这样的安全专业人士能够使用人工智能!
ZySec AI 在网络安全与人工智能的整合方面处于领先地位。我们的愿景是改变安全专业人员利用技术的方式。 ZySec AI 不仅仅是一个工具;这是一种增强安全运营的整体方法,将人工智能的创新能力与网络安全的独特挑战相结合,同时优先考虑隐私。
注意:ZySec AI 设计为无需互联网连接即可运行,确保完全隐私。唯一的例外是可选的互联网研究功能。
ZySec 7B是 ZySec AI 的基石,建立在 HuggingFace 的 Zephyr 语言模型系列之上。它专为网络安全而定制,提供专家级的知识和见解。该模型经过 30 多个独特领域的广泛训练,确保其在网络安全领域的有效性和可靠性。
您可以灵活地在计算机上本地运行 ZySec AI 应用程序,也可以在 GPU 实例上远程运行 ZySec AI 应用程序,具体取决于您的偏好和资源可用性。
本地部署:适合开发、测试或轻度使用。按照前面部分中的说明在本地计算机上设置并运行应用程序。
GPU 实例上的远程部署:为了获得更好的性能,特别是在处理更大的工作负载或需要更快的处理时,请考虑在 GPU 实例上部署。使用 VLLM(超大型语言模型)部署模式可在 GPU 环境中实现最佳性能。
以下是可以部署在 GPU 实例上以增强性能的模型:Hugging Face 上的 ZySec-7B-v1。该模型专门针对基于 GPU 的部署进行了优化,与基于 CPU 的设置相比,性能显着提高。
克隆存储库:首先将 ZySec AI 存储库从 GitHub 克隆到本地计算机。
克隆项目
git clone https://github.com/ZySec-AI/ZySec.git
启动应用程序服务器:根据您的要求修改 config.cfg 文件。默认情况下,脚本将下载模型并使用 llama-cpp-python[server] 运行本地实例:
chmod +x start.sh
./start.sh
您可以根据您的喜好在同一台计算机上本地运行,也可以在 GPU 实例上远程运行。为了获得更好的性能,在 GPU 实例中使用 VLLM 部署模式。
ZySec AI 根据 Apache 许可证版本 2.0 (Apache-2.0) 发布,这是一种宽松的开源许可证。该许可证允许您根据许可证条款自由使用、修改、分发和销售您自己的本作品版本。
?查看 Apache 许可证,版本 2.0
特别感谢 HuggingFace 和 LangChain 社区对 AI 领域的启发和贡献。他们的开创性工作继续激发 ZySec AI 等项目的灵感。
Venkatesh Siddi是网络安全领域的著名专家,将人工智能和机器学习融入复杂的安全挑战中。他的专业知识涵盖大数据、云安全和创新技术设计。