Instalasi | Dokumentasi | Catatan Rilis
AutoGluon mengotomatiskan tugas pembelajaran mesin yang memungkinkan Anda dengan mudah mencapai kinerja prediktif yang kuat dalam aplikasi Anda. Hanya dengan beberapa baris kode, Anda dapat melatih dan menerapkan pembelajaran mesin dengan akurasi tinggi dan model pembelajaran mendalam pada gambar, teks, deret waktu, dan data tabular.
AutoGluon didukung di Python 3.9 - 3.12 dan tersedia di Linux, MacOS, dan Windows.
Anda dapat menginstal AutoGluon dengan:
pip install autogluon
Kunjungi Panduan Instalasi kami untuk petunjuk rinci, termasuk dukungan GPU, instalasi Conda, dan dependensi opsional.
Bangun model ML menyeluruh yang akurat hanya dalam 3 baris kode!
from autogluon . tabular import TabularPredictor
predictor = TabularPredictor ( label = "class" ). fit ( "train.csv" )
predictions = predictor . predict ( "test.csv" )
Tugas AutoGluon | Mulai cepat | API |
---|---|---|
Prediktor Tabel | ||
MultiModalPredictor | ||
Prediktor Rangkaian Waktu |
Di bawah ini adalah daftar tutorial dan pembicaraan terkini tentang AutoGluon. Daftar lengkap tersedia di sini.
Judul | Format | Lokasi | Tanggal |
---|---|---|---|
AutoGluon: Menuju Pembelajaran Mesin Otomatis Tanpa Kode | tutorial | AutoML 2024 | 2024/09/09 |
AutoGluon 1.0: Menghancurkan Batasan AutoML dengan Garis Kode Nol | tutorial | AutoML 2023 | 2023/09/12 |
AutoGluon: Kisahnya | Siniar | Podcast AutoML | 2023/09/05 |
AutoGluon: AutoML untuk Data Tabular, Multimodal, dan Time Series | tutorial | PyData Berlin | 2023/06/20 |
Memecahkan Masalah ML yang Kompleks dalam beberapa Baris Kode dengan AutoGluon | tutorial | PyData Seattle | 2023/06/20 |
Revolusi AutoML | tutorial | Sekolah AutoML Musim Gugur 2022 | 2022/10/18 |
Jika Anda menggunakan AutoGluon dalam publikasi ilmiah, silakan merujuk ke panduan kutipan kami.
Kami secara aktif menerima kontribusi kode untuk proyek AutoGluon. Jika Anda tertarik berkontribusi pada AutoGluon, silakan baca Panduan Berkontribusi untuk memulai.
Perpustakaan ini dilisensikan di bawah Lisensi Apache 2.0.