注意:Docker 映像將在未來幾週內發布。
Spidex 是一種連續偵察掃描儀,優先證明網路暴露。它執行大規模的面向連接埠的掃描,並從連接到互聯網的每個設備收集資訊。
此引擎負責大量分析作為參數接收的 IP 位址。它收集有關每個目標的公共信息,例如:開放端口、地理位置、網路技術和橫幅。
也儲存每個掃描週期的報告,其中包含:執行時間、找到的設備以及開始/結束日期。
線程和佇列的實作提高了掃描期間的效能。這樣,請求是並行發送的,每個週期的執行時間顯著減少。目前它的線程限制為 450/500。
options:
-h, --help show this help message and exit
-r RANGE, --range RANGE
Start IPv4 address
-t THREADS, --threads THREADS
Number of threads [Default: 50]
-f, FILE, --file File path with IPv4 ranges
-ti TIMEOUT, --timeout TIMEOUT
Socket timeout [Default: 0.5]
-p, --top-ports Scan only 20 most used ports
-a, --all-ports Scan 1000 most used ports
-c CUSTOM [CUSTOM ...], --custom-ports CUSTOM [CUSTOM ...]
Scan custom ports directly from terminal
-l, --logs Add a log file, useful in debugging
預設僅掃描最常用連接埠的單一 IPv4 位址範圍:
python3 engine.py -r 192.168.0.0,192.168.0.255 -t 150 --top-ports
從具有多個 IPv4 位址範圍和套接字逾時秒數的文字檔案進行掃描:
python3 engine.py -m ranges.csv -t 200 -ti 5 --all-ports
使用 CIDR、自訂連接埠和日誌選項進行掃描:
python3 engine.py -r 192.168.0.0/255 -t 350 -C 80 21 22 --logs
它由一個 Flask 應用程式組成,允許儲存搜尋引擎發送的結果並對其執行任何操作。它使用MongoDB作為資料庫,它是理想的,因為資料不是結構化的。
方法 | 路線 | 描述 |
---|---|---|
郵政 | api/提交/設備 | 提交單一結果 |
得到 | API/設備 | 取得所有結果 |
得到 | API/設備/IP | 透過IP位址取得單一結果 |
刪除 | api/刪除/設備/ip | 刪除一個 |
郵政 | API/提交/報告 | 提交報告掃描 |
得到 | API/報告 | 獲取所有報告 |
這兩個元件的部署都是使用 Docker 執行的,以便於安裝並避免依賴項污染環境。您可以從 DockerHub 下載映像。
對於基本部署,請在 Docker Compose 檔案中為每個映像設定環境變量
MONGO_INITDB_ROOT_USERNAME: USERNAME
MONGO_INITDB_ROOT_PASSWORD: PASSWORD
DB_SERVER_NAME: MONGODB_SERVER
DB_USERNAME: MONGODB_USER
DB_PASSWORD: MONGODB_PASSWORD
SERVER_ADDRESS: API_SERVER
Elasticsearch 和 Kibana 的整合允許透過圖形介面以有效的方式視覺化和操作資料。
目前項目還沒有自動插入資料的方法。但是您可以使用諸如 Mongo-to-elastic-dump 之類的工具,並在完成掃描週期後在本機中產生一些有趣的圖表。
如果您有想法或未來的功能,請隨時參與以繼續使該專案更加出色。
該項目僅用於教育和道德測試目的。未經雙方事先同意,使用該軟體攻擊目標是非法的。最終使用者有責任遵守所有適用的地方、州和聯邦法律。開發者不承擔任何責任,也不對本程式造成的任何誤用或損壞負責。
阿帕契2.0