跳转至

xFormers

译者:片刻小哥哥

项目地址:https://huggingface.apachecn.org/docs/diffusers/optimization/xformers

原始地址:https://huggingface.co/docs/diffusers/optimization/xformers

我们推荐 xFormers 用于推理和训练。在我们的测试中,在注意力块中执行的优化可以提高速度并减少内存消耗。

从以下位置安装 xFormers

pip install xformers

xFormers 软件包需要最新版本的 PyTorch。如果您需要使用以前版本的 PyTorch,那么我们建议 从源安装 xFormers

xFormers安装后,您可以使用 enable_xformers_memory_efficient_attention() 为了更快的推理和减少内存消耗,如下所示 部分

根据这个 问题 , xFormers v0.0.16 无法用于某些 GPU 中的训练(fine-tune 或 DreamBooth)。如果您发现此问题,请安装问题评论中所示的开发版本。


我们一直在努力

apachecn/AiLearning

【布客】中文翻译组