ملاحظة: سيتم إصدار صور Docker في الأسابيع المقبلة.
Spidex هو ماسح ضوئي للاستطلاع المستمر، والذي يعطي الأولوية لإثبات التعرض للشبكة. يقوم بإجراء مسح واسع النطاق موجه نحو المنفذ ويجمع المعلومات من كل جهاز متصل بالإنترنت.
المحرك مسؤول عن التحليل الشامل لعناوين IP المستلمة كوسائط. يقوم بجمع معلومات عامة عن كل هدف، مثل: المنافذ المفتوحة، الموقع الجغرافي، تقنيات الويب واللافتات.
يقوم أيضًا بتخزين تقرير لكل دورة فحص، يحتوي على: وقت التنفيذ، والأجهزة التي تم العثور عليها، وتاريخ البدء/الانتهاء.
يؤدي تنفيذ المواضيع وقوائم الانتظار إلى زيادة الأداء أثناء المسح. وبهذه الطريقة، يتم إرسال الطلبات بالتوازي ويتم تقليل وقت التنفيذ لكل دورة بشكل كبير. يبلغ حاليًا الحد الأقصى لعدد المواضيع 450/500.
options:
-h, --help show this help message and exit
-r RANGE, --range RANGE
Start IPv4 address
-t THREADS, --threads THREADS
Number of threads [Default: 50]
-f, FILE, --file File path with IPv4 ranges
-ti TIMEOUT, --timeout TIMEOUT
Socket timeout [Default: 0.5]
-p, --top-ports Scan only 20 most used ports
-a, --all-ports Scan 1000 most used ports
-c CUSTOM [CUSTOM ...], --custom-ports CUSTOM [CUSTOM ...]
Scan custom ports directly from terminal
-l, --logs Add a log file, useful in debugging
قم بفحص نطاق عناوين IPv4 واحد فقط باستخدام المنافذ الأكثر استخدامًا بشكل افتراضي:
python3 engine.py -r 192.168.0.0,192.168.0.255 -t 150 --top-ports
المسح الضوئي من ملف نصي بنطاقات عناوين IPv4 متعددة ومهلة المقبس بالثواني:
python3 engine.py -m ranges.csv -t 200 -ti 5 --all-ports
المسح باستخدام CIDR وخيار المنافذ والسجلات المخصصة:
python3 engine.py -r 192.168.0.0/255 -t 350 -C 80 21 22 --logs
وهو يتألف من تطبيق Flask، الذي يسمح بتخزين وإجراء أي عملية على النتائج التي يرسلها محرك البحث. يستخدم MongoDB كقاعدة بيانات، وهو مثالي لأن البيانات غير منظمة.
طريقة | طريق | وصف |
---|---|---|
بريد | واجهة برمجة التطبيقات/إرسال/جهاز | إرسال نتيجة واحدة |
يحصل | واجهة برمجة التطبيقات/الأجهزة | الحصول على كافة النتائج |
يحصل | واجهة برمجة التطبيقات/الجهاز/ip | احصل على نتيجة واحدة عن طريق عنوان IP |
يمسح | واجهة برمجة التطبيقات/حذف/جهاز/ip | احذف واحدة |
بريد | واجهة برمجة التطبيقات/إرسال/تقرير | إرسال تقرير المسح |
يحصل | واجهة برمجة التطبيقات/التقارير | الحصول على كافة التقارير |
يتم نشر كلا المكونين باستخدام Docker، لتسهيل التثبيت ولتجنب تلويث البيئة بالتبعيات. يمكنك تنزيل الصور من DockerHub.
بالنسبة للنشر الأساسي، قم بتعيين متغيرات البيئة لكل صورة، في ملفات Docker Compose
MONGO_INITDB_ROOT_USERNAME: USERNAME
MONGO_INITDB_ROOT_PASSWORD: PASSWORD
DB_SERVER_NAME: MONGODB_SERVER
DB_USERNAME: MONGODB_USER
DB_PASSWORD: MONGODB_PASSWORD
SERVER_ADDRESS: API_SERVER
يتيح التكامل بين Elasticsearch وKibana الحصول على واجهة رسومية لتصور البيانات ومعالجتها بطريقة فعالة.
لا يوجد لدى المشروع حاليًا طريقة لإدراج البيانات تلقائيًا. ولكن يمكنك استخدام أدوات مثل: Mongo-to-elastic-dump، وإنشاء بعض الرسوم البيانية المثيرة للاهتمام في جهازك المحلي بعد دورة المسح الكاملة.
إذا كانت لديك أفكار أو ميزات مستقبلية، فلا تتردد في المشاركة لمواصلة جعل هذا المشروع رائعًا.
تم إنشاء هذا المشروع لأغراض الاختبار التعليمي والأخلاقي فقط. يعد استخدام هذا البرنامج لمهاجمة الأهداف دون موافقة متبادلة مسبقة أمرًا غير قانوني. تقع على عاتق المستخدم النهائي مسؤولية الالتزام بجميع القوانين المحلية وقوانين الولاية والقوانين الفيدرالية المعمول بها. لا يتحمل المطورون أي مسؤولية وليسوا مسؤولين عن أي سوء استخدام أو ضرر ناتج عن هذا البرنامج.
أباتشي 2.0