คุณสามารถใช้ fastai โดยไม่ต้องติดตั้งใดๆ โดยใช้ Google Colab อันที่จริง ทุกหน้าของเอกสารนี้สามารถใช้เป็นสมุดบันทึกแบบโต้ตอบได้ คลิก "เปิดใน colab" ที่ด้านบนของหน้าใดก็ได้เพื่อเปิด (อย่าลืมเปลี่ยนรันไทม์ของ Colab เป็น "GPU" เพื่อให้ทำงานเร็ว!) ดูเอกสารประกอบ fast.ai เกี่ยวกับการใช้ Colab สำหรับข้อมูลเพิ่มเติม
คุณสามารถติดตั้ง fastai บนเครื่องของคุณเองด้วย conda (แนะนำอย่างยิ่ง) ตราบใดที่คุณใช้ Linux หรือ Windows (หมายเหตุ: ไม่รองรับ Mac) สำหรับ Windows โปรดดูหมายเหตุสำคัญที่ "การทำงานบน Windows"
เราแนะนำให้ใช้ miniconda (หรือ miniforge) ขั้นแรกให้ติดตั้ง PyTorch โดยใช้บรรทัด conda ที่แสดงไว้ที่นี่ จากนั้นเรียกใช้:
conda install -c fastai fastai
หากต้องการติดตั้งด้วย pip ให้ใช้: pip install fastai
หากคุณวางแผนที่จะพัฒนา fastai ด้วยตัวเอง หรือต้องการก้าวล้ำหน้า คุณสามารถใช้การติดตั้งที่แก้ไขได้ (หากทำเช่นนี้ คุณควรใช้การติดตั้ง fastcore ที่แก้ไขได้เพื่อดำเนินการด้วย) ขั้นแรกให้ติดตั้ง PyTorch จากนั้น : :
git clone https://github.com/fastai/fastai
pip install -e "fastai[dev]"
วิธีที่ดีที่สุดในการเริ่มต้นใช้งาน fastai (และการเรียนรู้เชิงลึก) คือการอ่านหนังสือและเรียนหลักสูตรฟรี
หากต้องการดูสิ่งที่เป็นไปได้ด้วย fastai โปรดดูที่ Quick Start ซึ่งแสดงวิธีใช้โค้ดประมาณ 5 บรรทัดเพื่อสร้างตัวแยกประเภทรูปภาพ โมเดลการแบ่งส่วนรูปภาพ โมเดลความรู้สึกของข้อความ ระบบการแนะนำ และโมเดลแบบตาราง สำหรับแต่ละแอปพลิเคชัน รหัสจะเหมือนกันมาก
อ่านบทช่วยสอนโดยละเอียดเพื่อเรียนรู้วิธีฝึกโมเดลของคุณเองบนชุดข้อมูลของคุณเอง ใช้แถบนำทางด้านข้างเพื่อดูเอกสาร fastai ทุกคลาส ฟังก์ชัน และเมธอดได้รับการบันทึกไว้ที่นี่
หากต้องการเรียนรู้เกี่ยวกับการออกแบบและแรงจูงใจของห้องสมุด โปรดอ่านรายงานที่มีการทบทวนโดยผู้ทรงคุณวุฒิ
fastai เป็นห้องสมุดการเรียนรู้เชิงลึกที่ให้ผู้ปฏิบัติงานมีส่วนประกอบระดับสูงที่สามารถให้ผลลัพธ์ที่ล้ำสมัยอย่างรวดเร็วและง่ายดายในโดเมนการเรียนรู้เชิงลึกมาตรฐาน และมอบส่วนประกอบระดับต่ำให้กับนักวิจัยที่สามารถผสมและจับคู่เพื่อสร้าง แนวทางใหม่ โดยมีจุดมุ่งหมายที่จะทำทั้งสองสิ่งโดยไม่กระทบต่อความง่ายในการใช้งาน ความยืดหยุ่น หรือประสิทธิภาพ สิ่งนี้เป็นไปได้ด้วยสถาปัตยกรรมที่แบ่งชั้นอย่างระมัดระวัง ซึ่งแสดงรูปแบบพื้นฐานทั่วไปของการเรียนรู้เชิงลึกและเทคนิคการประมวลผลข้อมูลมากมายในแง่ของนามธรรมที่แยกออกจากกัน นามธรรมเหล่านี้สามารถแสดงออกได้อย่างกระชับและชัดเจนโดยใช้ประโยชน์จากไดนามิกของภาษา Python พื้นฐานและความยืดหยุ่นของไลบรารี PyTorch fastai รวมถึง:
fastai ได้รับการจัดระเบียบตามเป้าหมายการออกแบบหลักสองประการ: เพื่อให้เข้าถึงได้และมีประสิทธิภาพอย่างรวดเร็ว ขณะเดียวกันก็เจาะลึกและกำหนดค่าได้ มันถูกสร้างขึ้นบนลำดับชั้นของ API ระดับล่างซึ่งมีแบบเอกสารสำเร็จรูปที่ประกอบได้ ด้วยวิธีนี้ ผู้ใช้ที่ต้องการเขียนส่วนหนึ่งของ API ระดับสูงใหม่หรือเพิ่มพฤติกรรมเฉพาะเพื่อให้เหมาะกับความต้องการของตน ไม่จำเป็นต้องเรียนรู้วิธีใช้ระดับต่ำสุด
ง่ายมากที่จะโยกย้ายจาก PyTorch, Ignite หรือไลบรารี่ที่ใช้ PyTorch อื่นๆ หรือแม้แต่ใช้ fastai ร่วมกับไลบรารีอื่นๆ โดยทั่วไป คุณจะสามารถใช้โค้ดประมวลผลข้อมูลที่มีอยู่ทั้งหมดได้ แต่จะสามารถลดจำนวนโค้ดที่คุณต้องการสำหรับการฝึกอบรม และใช้ประโยชน์จากแนวทางปฏิบัติที่ดีที่สุดสมัยใหม่ได้ง่ายขึ้น ต่อไปนี้เป็นคำแนะนำในการโยกย้ายจากห้องสมุดยอดนิยมบางแห่งเพื่อช่วยคุณในการเดินทาง:
เนื่องจากปัญหาการประมวลผลหลายตัวของ Python บน Jupyter และ Windows ทำให้ num_workers
ของ Dataloader
ถูกรีเซ็ตเป็น 0 โดยอัตโนมัติเพื่อหลีกเลี่ยงไม่ให้ Jupyter หยุดทำงาน ซึ่งทำให้งานต่างๆ เช่น คอมพิวเตอร์วิทัศน์ใน Jupyter บน Windows ทำงานช้ากว่าบน Linux หลายเท่า ข้อจำกัดนี้ไม่มีอยู่หากคุณใช้ fastai จากสคริปต์
ดูตัวอย่างนี้เพื่อใช้ประโยชน์จาก fastai API บน Windows ได้อย่างเต็มที่
เราขอแนะนำให้ใช้ Windows Subsystem for Linux (WSL) แทน หากคุณทำเช่นนั้น คุณสามารถใช้วิธีการติดตั้ง Linux แบบปกติได้ และคุณจะไม่มีปัญหาใดๆ กับ num_workers
หากต้องการรันการทดสอบแบบขนาน ให้เปิด:
nbdev_test
เพื่อให้การทดสอบทั้งหมดผ่าน คุณจะต้องติดตั้งการขึ้นต่อกันที่ระบุเป็นส่วนหนึ่งของ dev_requirements ใน settings.ini
pip install -e .[dev]
การทดสอบเขียนโดยใช้ nbdev
ดูเอกสารประกอบสำหรับ test_eq
หลังจากที่คุณโคลนที่เก็บนี้แล้ว ตรวจสอบให้แน่ใจว่าคุณได้รัน nbdev_install_hooks
ในเทอร์มินัลของคุณ การดำเนินการนี้จะติดตั้ง Jupyter และ git hooks เพื่อล้าง เชื่อถือ และแก้ไขข้อขัดแย้งในการผสานในโน้ตบุ๊กโดยอัตโนมัติ
หลังจากทำการเปลี่ยนแปลงใน repo คุณควรรัน nbdev_prepare
และทำการเปลี่ยนแปลงเพิ่มเติมและจำเป็นเพื่อที่จะผ่านการทดสอบทั้งหมด
สำหรับผู้ที่สนใจคอนเทนเนอร์นักเทียบท่าอย่างเป็นทางการสำหรับโครงการนี้ สามารถพบได้ที่นี่