L2C
1.0.0
กลยุทธ์การจัดกลุ่มด้วยโครงข่ายประสาทเทียมเชิงลึก บทความในบล็อกนี้มีภาพรวมทั่วไป
พื้นที่เก็บข้อมูลนี้จัดเตรียมการใช้งาน PyTorch ของ Transfer Learning Schemes (L2C) และเกณฑ์การเรียนรู้สองประการที่เป็นประโยชน์สำหรับการทำคลัสเตอร์เชิงลึก:
*เปลี่ยนชื่อจาก CCL
พื้นที่เก็บข้อมูลนี้ครอบคลุมข้อมูลอ้างอิงต่อไปนี้:
@inproceedings{Hsu19_MCL,
title = {Multi-class classification without multi-class labels},
author = {Yen-Chang Hsu, Zhaoyang Lv, Joel Schlosser, Phillip Odom, Zsolt Kira},
booktitle = {International Conference on Learning Representations (ICLR)},
year = {2019},
url = {https://openreview.net/forum?id=SJzR2iRcK7}
}
@inproceedings{Hsu18_L2C,
title = {Learning to cluster in order to transfer across domains and tasks},
author = {Yen-Chang Hsu and Zhaoyang Lv and Zsolt Kira},
booktitle = {International Conference on Learning Representations (ICLR)},
year = {2018},
url = {https://openreview.net/forum?id=ByRWCqvT-}
}
@inproceedings{Hsu16_KCL,
title = {Neural network-based clustering using pairwise constraints},
author = {Yen-Chang Hsu and Zsolt Kira},
booktitle = {ICLR workshop},
year = {2016},
url = {https://arxiv.org/abs/1511.06321}
}
พื้นที่เก็บข้อมูลนี้รองรับ PyTorch 1.0, python 2.7, 3.6 และ 3.7
pip install -r requirements.txt
# A quick trial:
python demo.py # Default Dataset:MNIST, Network:LeNet, Loss:MCL
python demo.py --loss KCL
# Lookup available options:
python demo.py -h
# For more examples:
./scripts/exp_supervised_MCL_vs_KCL.sh
# Learn the Similarity Prediction Network (SPN) with Omniglot_background and then transfer to the 20 alphabets in Omniglot_evaluation.
# Default loss is MCL with an unknown number of clusters (Set a large cluster number, i.e., k=100)
# It takes about half an hour to finish.
python demo_omniglot_transfer.py
# An example of using KCL and set k=gt_#cluster
python demo_omniglot_transfer.py --loss KCL --num_cluster -1
# Lookup available options:
python demo_omniglot_transfer.py -h
# Other examples:
./scripts/exp_unsupervised_transfer_Omniglot.sh
ชุดข้อมูล | gt #คลาส | เคซีแอล (k=100) | MCL (k=100) | KCL (k=gt) | MCL (k=gt) |
---|---|---|---|---|---|
เทวทูต | 20 | 73.2% | 82.2% | 89.0% | 91.7% |
Atemayar_Qelisayer | 26 | 73.3% | 89.2% | 82.5% | 86.0% |
แอตแลนติส | 26 | 65.5% | 83.3% | 89.4% | 93.5% |
ออเรค_เบช | 26 | 88.4% | 92.8% | 91.5% | 92.4% |
อเวสตา | 26 | 79.0% | 85.8% | 85.4% | 86.1% |
จีอีซ | 26 | 77.1% | 84.0% | 85.4% | 86.6% |
กลาโกลิติก | 45 | 83.9% | 85.3% | 84.9% | 87.4% |
กูร์มูกี | 45 | 78.8% | 78.7% | 77.0% | 78.0% |
กันนาดา | 41 | 64.6% | 81.1% | 73.3% | 81.2% |
เคเบิล | 26 | 91.4% | 95.1% | 94.7% | 94.3% |
มาลายาลัม | 47 | 73.5% | 75.0% | 72.7% | 73.0% |
มณีปุรี | 40 | 82.8% | 81.2% | 85.8% | 81.5% |
มองโกเลีย | 30 | 84.7% | 89.0% | 88.3% | 90.2% |
Old_Church_Slavonic_ซีริลลิก | 45 | 89.9% | 90.7% | 88.7% | 89.8% |
โอริยา | 46 | 56.5% | 73.4% | 63.2% | 75.3% |
สิลเฮติ | 28 | 61.8% | 68.2% | 69.8% | 80.6% |
ซีรีแอค_เซอร์โต | 23 | 72.1% | 82.0% | 85.8% | 89.8% |
เต็งวาร์ | 25 | 67.7% | 76.4% | 82.5% | 85.5% |
ทิเบต | 42 | 81.8% | 80.2% | 84.3% | 81.9% |
ยูล็อก | 26 | 53.3% | 77.1% | 73.0% | 89.1% |
--เฉลี่ย-- | 75.0% | 82.5% | 82.4% | 85.7% |
พื้นผิวการสูญเสียของ MCL นั้นคล้ายคลึงกับ cross-entropy (CE) มากกว่า KCL ตามเชิงประจักษ์ MCL มาบรรจบกันเร็วกว่า KCL สำหรับรายละเอียด โปรดดูเอกสาร ICLR
@article{Hsu18_InsSeg,
title = {Learning to Cluster for Proposal-Free Instance Segmentation},
author = {Yen-Chang Hsu, Zheng Xu, Zsolt Kira, Jiawei Huang},
booktitle = {accepted to the International Joint Conference on Neural Networks (IJCNN)},
year = {2018},
url = {https://arxiv.org/abs/1803.06459}
}
งานนี้ได้รับการสนับสนุนจากมูลนิธิวิทยาศาสตร์แห่งชาติและโครงการริเริ่มหุ่นยนต์แห่งชาติ (ให้สิทธิ์ # IIS-1426998) และโปรแกรมเครื่องเรียนรู้ตลอดชีวิต (L2M) ของ DARPA ภายใต้ข้อตกลงความร่วมมือ HR0011-18-2-001