该脚本旨在从公共数据库和文件下载并验证 HTTP/s 和 SOCKS5 代理。它提供以下主要功能:
可配置线程:根据系统的能力使用usage_level
设置从1到3调整线程数。
抓取代理:自动从各种在线来源抓取 HTTP/s 和 SOCKS5 代理。
检查代理:验证抓取代理的功能以确保它们可以运行。
系统监控:在控制台标题中显示脚本的CPU和RAM使用情况,以进行实时性能监控。
安装:
克隆存储库或下载 .zip 文件。
导航到项目目录。
运行脚本:
使用以下命令执行脚本:
启动.bat
或者
蟒蛇主.py
配置:
该脚本使用config.json
文件来管理设置。
调整usage_level
,并指定 HTTP/s 和 SOCKS5 代理的 URL 列表。
仅用于教育和研究目的:
该脚本仅用于教育和研究目的。请按照适用法律负责任地使用它。
Python 3.8+
运行脚本时会自动安装所有必需的包。
config.json
{“usage_level”:2,“http_links”:[“https://api.proxyscrape.com/?request=getproxies&proxytype=https&timeout=10000&country=all&ssl=all&anonymity=all”, “https://api.proxyscrape.com/v2/?request=getproxies&protocol=http&timeout=10000&country=all&ssl=all&anonymity=all” ], "socks5_links": [ "https://raw.githubusercontent.com/B4RC0DE-TM/proxy-list/main/SOCKS5.txt", "https://raw.githubusercontent.com/saschazesiger/Free-Proxies/主/代理/socks5.txt” ] }
通过遵循本文档,您应该能够轻松设置、运行和理解 Proxy Scraper 和 Checker 脚本。
仅用于教育和研究目的!
generate_random_folder_name(length=32)
生成具有指定长度的随机文件夹名称。
remove_old_folders(base_folder=".")
删除基础文件夹中具有 32 个字符名称的旧文件夹。
get_time_rn()
返回格式为 HH:MM:SS 的当前时间。
get_usage_level_str(level)
将使用级别整数转换为字符串表示形式。
update_title(http_selected, socks5_selected, usage_level)
使用当前 CPU、RAM 使用情况和验证计数更新控制台标题。
center_text(text, width)
将文本在给定宽度内居中。
ui()
清除控制台并使用 ASCII 艺术显示主 UI。
scrape_proxy_links(link, proxy_type)
从给定链接中抓取代理,如果失败,最多重试 3 次。
check_proxy_link(link)
检查代理链接是否可访问。
clean_proxy_links()
通过删除不可访问的链接来清理代理链接。
scrape_proxies(proxy_list, proxy_type, file_name)
从提供的链接列表中抓取代理并将其保存到文件中。
check_proxy_http(proxy)
通过向 httpbin.org 发出请求来检查 HTTP/s 代理的有效性。
check_proxy_socks5(proxy)
通过连接到 google.com 检查 SOCKS5 代理的有效性。
check_http_proxies(proxies)
检查 HTTP/s 代理列表的有效性。
check_socks5_proxies(proxies)
检查 SOCKS5 代理列表的有效性。
signal_handler(sig, frame)
处理 SIGINT 信号 (Ctrl+C) 以正常退出。
set_process_priority()
将进程优先级设置为高以获得更好的性能。
loading_animation()
验证代理链接时显示加载动画。
clear_console()
清除控制台屏幕。
continuously_update_title()
不断更新控制台标题的当前状态。