Google Colab을 이용하면 별도의 설치 없이 fastai를 사용할 수 있습니다. 실제로 이 문서의 모든 페이지는 대화형 노트북으로도 사용할 수 있습니다. 페이지 상단에 있는 'Colab에서 열기'를 클릭하여 엽니다. (빠른 실행을 위해서는 Colab 런타임을 'GPU'로 변경하세요!) 자세한 내용은 Colab 사용에 대한 fast.ai 설명서를 참조하세요.
Linux 또는 Windows를 실행하는 한 conda를 사용하여 자신의 컴퓨터에 fastai를 설치할 수 있습니다(강력 권장). (주의: Mac은 지원되지 않음) Windows의 경우 중요한 참고 사항은 "Windows에서 실행"을 참조하세요.
miniconda(또는 miniforge)를 사용하는 것이 좋습니다. 먼저 여기에 표시된 conda 라인을 사용하여 PyTorch를 설치한 후 다음을 실행하세요.
conda install -c fastai fastai
pip로 설치하려면 pip install fastai
사용하세요.
fastai를 직접 개발할 계획이거나 최첨단에 서고 싶다면 편집 가능한 설치를 사용할 수 있습니다. (이렇게 하려면 편집 가능한 fastcore 설치도 함께 사용해야 합니다.) 먼저 PyTorch를 설치한 다음 :
git clone https://github.com/fastai/fastai
pip install -e "fastai[dev]"
fastai(및 딥 러닝)를 시작하는 가장 좋은 방법은 책을 읽고 무료 과정을 완료하는 것입니다.
fastai로 가능한 것이 무엇인지 알아보려면 약 5줄의 코드를 사용하여 이미지 분류자, 이미지 분할 모델, 텍스트 감정 모델, 추천 시스템 및 표 형식 모델을 구축하는 방법을 보여주는 빠른 시작을 살펴보세요. 각 애플리케이션의 코드는 거의 동일합니다.
튜토리얼을 읽고 자신의 데이터 세트에서 자신의 모델을 훈련하는 방법을 알아보세요. fastai 문서를 살펴보려면 탐색 사이드바를 사용하세요. 모든 클래스, 함수 및 메서드가 여기에 문서화되어 있습니다.
도서관의 디자인과 동기에 대해 알아보려면 동료 검토 논문을 읽어보세요.
fastai는 표준 딥러닝 도메인에서 최첨단 결과를 빠르고 쉽게 제공할 수 있는 상위 수준 구성요소를 실무자에게 제공하고, 연구자들에게는 혼합 및 일치하여 구축할 수 있는 하위 수준 구성요소를 제공하는 딥러닝 라이브러리입니다. 새로운 접근법. 사용 편의성, 유연성 또는 성능을 크게 저하하지 않고 두 가지 작업을 모두 수행하는 것을 목표로 합니다. 이는 분리된 추상화 측면에서 많은 딥 러닝 및 데이터 처리 기술의 공통 기본 패턴을 표현하는 신중하게 계층화된 아키텍처 덕분에 가능합니다. 이러한 추상화는 기본 Python 언어의 역동성과 PyTorch 라이브러리의 유연성을 활용하여 간결하고 명확하게 표현될 수 있습니다. fastai에는 다음이 포함됩니다:
fastai는 두 가지 주요 설계 목표를 중심으로 구성되었습니다. 즉, 접근하기 쉽고 빠르게 생산성을 높이는 동시에 해킹 및 구성이 가능하다는 것입니다. 이는 구성 가능한 빌딩 블록을 제공하는 하위 수준 API 계층 구조 위에 구축됩니다. 이렇게 하면 상위 수준 API의 일부를 다시 작성하거나 필요에 맞게 특정 동작을 추가하려는 사용자가 가장 낮은 수준을 사용하는 방법을 배울 필요가 없습니다.
일반 PyTorch, Ignite 또는 기타 PyTorch 기반 라이브러리에서 마이그레이션하거나 다른 라이브러리와 함께 fastai를 사용하는 것은 매우 쉽습니다. 일반적으로 기존 데이터 처리 코드를 모두 사용할 수 있지만 교육에 필요한 코드의 양을 줄이고 최신 모범 사례를 보다 쉽게 활용할 수 있습니다. 다음은 귀하의 여정에 도움이 되는 일부 인기 라이브러리의 마이그레이션 가이드입니다.
Jupyter 및 Windows의 Python 다중 처리 문제로 인해 Dataloader
의 num_workers
Jupyter 중단을 방지하기 위해 자동으로 0으로 재설정됩니다. 이로 인해 Windows의 Jupyter에서 컴퓨터 비전과 같은 작업이 Linux보다 몇 배나 느려집니다. 스크립트에서 fastai를 사용하는 경우에는 이 제한이 존재하지 않습니다.
Windows에서 fastai API를 완전히 활용하려면 이 예를 참조하세요.
대신 WSL(Linux용 Windows 하위 시스템)을 사용하는 것이 좋습니다. 그렇게 하면 일반 Linux 설치 접근 방식을 사용할 수 있으며 num_workers
에 문제가 없습니다.
테스트를 병렬로 실행하려면 다음을 실행하세요.
nbdev_test
모든 테스트를 통과하려면 settings.ini의 dev_requirements의 일부로 지정된 종속성을 설치해야 합니다.
pip install -e .[dev]
테스트는 nbdev
사용하여 작성됩니다. 예를 들어 test_eq
에 대한 설명서를 참조하세요.
이 저장소를 복제한 후 터미널에서 nbdev_install_hooks
실행했는지 확인하세요. 이렇게 하면 Jupyter 및 git 후크가 설치되어 노트북의 병합 충돌을 자동으로 정리하고 신뢰하며 수정합니다.
저장소를 변경한 후 모든 테스트를 통과하려면 nbdev_prepare
실행하고 추가로 필요한 변경을 수행해야 합니다.
이 프로젝트의 공식 Docker 컨테이너에 관심이 있는 경우 여기에서 찾을 수 있습니다.