SwatchBharatUrbanCrawler
1.0.0
هذا هو الزاحف الذي يزحف إلى موقع الويب الكامل https://sbmurban.org/rrr-centers ويستخرج المعلومات الكاملة.
__VIEWSTATE
(استخدم https://blog.scrapinghub.com/2016/04/20/scrapy-tips-from-the-pros-april-2016 -الإصدار كبرنامج تعليمي حول كيفية الزحف إلى مواقع ASP.NET).URL
المحدد.الافتراض=> لإجراء طلب النشر كل 5 دقائق، يمكننا وضع المشروع في ScrapingHub، وجدولته للزحف كل 5 دقائق. تم إنشاء الزاحف بحيث يقوم بتقديم طلب POST عند إكمال الزحف، وسيتم نشر البيانات تلقائيًا.
الافتراضات => لقد قمت بإنشاء ملف CSV واحد فقط والذي تم عرض جدوله في المهمة التي تحتوي على جميع المعلومات. حيث يمكن استخراج جميع المعلومات الأخرى بسهولة من هذا الملف.
git clone https://github.com/sagar-sehgal/SwatchBharaturban_Crawler
virtualenv venv --python=python3
source venv/bin/activate
cd SwatchBharaturban_Crawler
pip install -r requirements.txt
scrapy crawl swatchbharaturban_crawler
سيتم تخزين البيانات التي تم الزحف إليها في ملف swatchbharaturban_crawler/data/swatchbharat_data.csv
.