您可以通过 Google Colab 无需任何安装即可使用 fastai。事实上,本文档的每一页都可以作为交互式笔记本使用 - 单击任何页面顶部的“在 colab 中打开”将其打开(请务必将 Colab 运行时更改为“GPU”以使其运行速度更快!)有关更多信息,请参阅有关使用 Colab 的 fast.ai 文档。
只要您运行的是 Linux 或 Windows(注意:不支持 Mac),您就可以使用 conda 在自己的计算机上安装 fastai(强烈推荐)。对于 Windows,请参阅“在 Windows 上运行”以获取重要说明。
我们建议使用 miniconda(或 miniforge)。首先使用此处显示的 conda 行安装 PyTorch,然后运行:
conda install -c fastai fastai
要使用 pip 安装,请使用: pip install fastai
。
如果您打算自己开发 fastai,或者想要处于最前沿,您可以使用可编辑安装(如果您这样做,您还应该使用 fastcore 的可编辑安装来配合它。)首先安装 PyTorch,然后:
git clone https://github.com/fastai/fastai
pip install -e "fastai[dev]"
开始使用 fastai(和深度学习)的最佳方法是阅读本书并完成免费课程。
要了解 fastai 的功能,请查看快速入门,其中展示了如何使用大约 5 行代码来构建图像分类器、图像分割模型、文本情感模型、推荐系统和表格模型。对于每个应用程序,代码都大致相同。
通读教程,了解如何在您自己的数据集上训练您自己的模型。使用导航侧边栏查看 fastai 文档。每个类、函数和方法都记录在这里。
要了解图书馆的设计和动机,请阅读同行评审的论文。
fastai 是一个深度学习库,它为从业者提供高级组件,可以快速轻松地提供标准深度学习领域最先进的结果,并为研究人员提供可以混合和匹配构建的低级组件新方法。它的目标是在不牺牲易用性、灵活性或性能的情况下实现这两件事。这要归功于精心分层的架构,它以解耦抽象的形式表达了许多深度学习和数据处理技术的共同底层模式。利用底层 Python 语言的活力和 PyTorch 库的灵活性,可以简洁、清晰地表达这些抽象。法泰包括:
fastai 围绕两个主要设计目标进行组织:平易近人且快速高效,同时也具有深度可破解性和可配置性。它构建在较低级别 API 的层次结构之上,这些 API 提供可组合的构建块。这样,想要重写部分高级 API 或添加特定行为以满足其需求的用户无需学习如何使用最低级别。
从普通的 PyTorch、Ignite 或任何其他基于 PyTorch 的库迁移非常容易,甚至可以将 fastai 与其他库结合使用。一般来说,您将能够使用所有现有的数据处理代码,但能够减少培训所需的代码量,并更轻松地利用现代最佳实践。以下是来自一些流行库的迁移指南,可以帮助您顺利完成迁移:
由于 Jupyter 和 Windows 上的 python 多处理问题, Dataloader
的num_workers
自动重置为 0,以避免 Jupyter 挂起。这使得 Windows 上的 Jupyter 中的计算机视觉等任务比 Linux 上慢很多倍。如果您从脚本使用 fastai,则不存在此限制。
请参阅此示例以充分利用 Windows 上的 fastai API。
我们建议改用 Windows Subsystem for Linux (WSL) - 如果您这样做,则可以使用常规 Linux 安装方法,并且num_workers
不会出现任何问题。
要并行运行测试,请启动:
nbdev_test
为了通过所有测试,您需要安装在 settings.ini 中作为 dev_requirements 的一部分指定的依赖项
pip install -e .[dev]
测试是使用nbdev
编写的,例如请参阅test_eq
的文档。
克隆此存储库后,请确保已在终端中运行nbdev_install_hooks
。这将安装 Jupyter 和 git hooks 以自动清理、信任和修复笔记本中的合并冲突。
在存储库中进行更改后,您应该运行nbdev_prepare
并进行其他必要的更改,以便通过所有测试。
对于那些对此项目的官方 docker 容器感兴趣的人,可以在这里找到它们。