基于节点的图像处理 GUI 旨在使链接图像处理任务变得简单且可定制。 chaiNNer 诞生于一款人工智能升级应用程序,现已发展成为一款极其灵活且功能强大的程序化图像处理应用程序。
ChaiNNer 为您提供了很少有其他人可以做到的图像处理工作流程的定制级别。您不仅可以完全控制处理管道,而且只需将几个节点连接在一起就可以完成极其复杂的任务。
ChaiNNer 也是跨平台的,这意味着您可以在 Windows、MacOS 和 Linux 上运行它。
如需帮助、建议或只是闲逛,您可以加入 chaiNNer Discord 服务器
请记住:chaiNNer 仍在进行中且处于 alpha 阶段。虽然它正在慢慢地达到我们想要的程度,但需要相当长的时间才能拥有我们想要添加的所有可能的功能。如果您精通 TypeScript、React 或 Python,请随时为该项目做出贡献并帮助我们更接近这一目标。
从 Github 版本页面下载最新版本并运行最适合您系统的安装程序。就这么简单。
您甚至不需要安装 Python,因为 chaiNNer 将在启动时下载一个独立的集成 Python 版本。从那里,您可以通过依赖项管理器安装所有其他依赖项。
如果您确实希望仍使用系统 Python 安装,则可以打开系统 Python 设置。然而,更推荐使用集成Python。如果您确实希望使用系统 Python,我们建议使用 Python 3.11,但我们也尝试支持 3.8、3.9 和 3.10。
如果您想测试最新的更改和调整,请尝试我们的夜间构建
虽然由于所有可能的选项,乍一看可能有点吓人,但 chaiNNer 使用起来非常简单。例如,为了执行高档操作,您需要执行以下操作:
不过,在达到这一点之前,您需要从依赖管理器安装一个神经网络框架。您可以通过右上角的按钮访问它。 ChaiNNer 提供对 PyTorch(具有选定模型架构)、NCNN 和 ONNX 的支持。对于 Nvidia 用户来说,PyTorch 将是升级的首选方式。对于AMD用户来说,NCNN将是升级的首选方式。
所有其他 Python 依赖项都会自动安装,chaiNNer 甚至还带有自己的集成 Python 支持,因此您无需修改现有的 Python 配置。
然后,您所要做的就是在选择面板中拖放(或双击)节点名称,将它们带入编辑器中。然后,从一个节点手柄拖动到另一个节点手柄以连接节点。每个手柄都根据其特定类型进行颜色编码,连接时只会显示兼容的连接。这使得您很容易知道在哪里连接什么。
在编辑器中设置工作链后,您可以按顶部栏中的绿色“运行”按钮来运行您创建的链。您将看到节点之间的连接变为动画,并在处理完成后开始取消动画。您可以分别使用红色“停止”和黄色“暂停”按钮停止或暂停处理。
不要忘记,您还可以使用 chaiNNer 完成许多非升级任务!
要选择多个节点,请按住 Shift 键并在要选择的所有节点周围拖动。您还可以通过单击单个节点来选择它。选择节点后,您可以按退格键或删除键将其从编辑器中删除。
要对图像文件夹执行批处理,请使用“加载图像”节点。要处理视频,请使用“加载视频”节点。但值得注意的是,您不能在链中同时使用“加载图像”和“加载视频”节点(或执行批量迭代的任何两个节点)。但是,您可以组合链中的输出(收集器)节点,例如使用“保存图像”与“加载视频”,以及“保存视频”与“加载图像”。
您可以在编辑器视口中右键单击以显示可供选择的内联节点列表。您还可以通过将连接拖到编辑器而不是建立实际连接来获取此菜单,它将显示兼容的节点以自动创建连接。
不支持 MacOS 版本 10.x 及更低版本。
Windows 8.1 及更低版本也不支持。
Apple Silicon Mac 应该支持几乎所有内容。虽然,ONNX仅支持CPU Execution Provider,并且NCNN有时无法正常工作。
一些使用非 Nvidia GPU 的 NCNN 用户可能会得到全黑输出。我不知道该如何解决这个问题,因为这似乎是由于内存不足导致图形驱动程序崩溃。如果您遇到这种情况,请尝试手动设置平铺量。
要使用剪贴板节点,Linux 用户需要安装 xclip,或者对于 wayland 用户,需要安装 wl-copy。
对于 PyTorch 推理,仅官方支持 Nvidia GPU。如果您没有 Nvidia GPU,则必须在 CPU 模式下使用 PyTorch。这是因为 PyTorch 仅支持 Nvidia 的 CUDA。 Apple Silicon Mac 上的 MacOS 用户还可以利用 PyTorch 的 MPS 模式,该模式应该与 chaiNNer 配合使用。
但是,如果您有支持 NCNN 的 AMD 或 Intel GPU,chaiNNer 现在支持 NCNN 推理。您可以使用任何现有的 NCNN .bin/.param 模型文件(仅测试了与 ESRGAN 相关的 SR 模型),或使用 chaiNNer 将 PyTorch 或 ONNX 模型转换为 NCNN。
对于 NCNN,请确保在设置中选择要使用的 GPU。它可能默认为您的集成显卡!
对于 Nvidia GPU,ONNX 也是一个可以使用的选项。 ONNX 将在非 Nvidia GPU 上使用 CPU 模式,类似于 PyTorch。
ChaiNNer 目前支持有限数量的神经网络架构。未来将支持更多架构。
从 v0.21.0 开始,chaiNNer 使用我们名为 Spandrel 的新包来支持 Pytorch 模型架构。有关支持的列表,请查看那里的列表。
有关故障排除信息,请查看故障排除文档。
我在 GitHub 上提供了 chaiNNer 的预构建版本。但是,如果您想自己构建 chaiNNer,只需运行npm install
(确保至少安装了 npm v7)来安装所有 Nodejs 依赖项,然后npm run make
来构建应用程序。
有关常见问题解答信息,请查看常见问题解答文档。