Basic UI for GPT J 6B with low vram
1.0.0
通过使用 ram、vram 和固定内存在低 vram 系统上运行 GPT-J-6B 的存储库。
使用 - pip install git+https://github.com/finetuneanon/transformers@gpt-neo-localattention3
使用链接 - https://drive.google.com/file/d/1tboTvohQifN6f1JiSV8hnciyNKvj9pvm/view?usp=sharing 下载已按此处所述保存的模型 - https://github.com/arrmansa/ saving-and -加载大型模型-pytorch
16 GB DDR4 内存。 1070 8GB GPU。
ram 上有 23 个块 (ram_blocks = 23),其中 18 个位于共享/固定内存上 (max_shared_ram_blocks = 18)。
模型(输入)的单次运行需要 6.5 秒。
35 秒在 2000 个上下文中生成 25 个令牌。 (1.4 秒/令牌)
16 GB DDR4 内存。 1060 6GB GPU。
ram 上有 26 个块 (ram_blocks = 26),其中 18 个位于共享/固定内存上 (max_shared_ram_blocks = 18)。
40 秒在 2000 个上下文中生成 25 个令牌。 (1.6 秒/令牌)