下載番茄小說,透過Python實現請勿濫用,且用且珍惜
1.c.exe用於偵測番茄小說網頁結構變化
2.s.exe用於小說內容搜索,可搭配番茄小說下載器使用
3.f.exe以檔案大小來分割小說文件,可搭配番茄小說下載器使用
輸入小說目錄頁完整連結或id下載
輸入id或連結直接下載
輸入1以更新,讀取record.json
中的id進行更新
輸入2進行搜尋
輸入3進行批次下載
輸入4進入設置,可調整內文段首佔位符,調整延時,小說儲存位置,保存模式
輸入5進行備份下載的小說以及下載格式、段首空格等
輸入6退出程序
config.json
檔案刪除系統(System) | 運行情況(Operation) |
---|---|
windows 7 | 可運行 |
windows 10 | 可運行 |
windows 11 | 可運行 |
mac OS X 10.1 | 可運行 |
mac OS X 10.2 | 可運行 |
mac OS X 10.3 | 可運行 |
mac OS X 10.4 | 可運行 |
mac OS X 10.5 | 可運行 |
mac OS X 10.6 | 可運行 |
mac OS X 10.7 | 可運行 |
mac OS X 10.8 | 可運行 |
mac OS X 10.9 | 可運行 |
Kali Linux 2024.3 | 可運行 |
報錯: The above exception was the direct cause of the following exception: urllib3.exceptions.ProxyError: ('Unable to connect to proxy', FileNotFoundError(2, 'No such file or directory')) The above exception was the direct cause of the following exception: Traceback (most recent call last): File "requestsadapters. py", line 667, in send File "urllib3connectionpool. py", line 843, in urlopen File "urllib3utilretry. py", line 519, in increment urllib3. exceptions. MaxRetryError: HTTPSConnectionPool(host='fanqienovel. com', port=443): Max retries exceeded with url: /page/7143038691944959011 (Caused by ProxyError('Unable to connect to proxy', FileNotFoundError(2, 'No such file or dire ctory')))
......
網路錯誤,請檢查網路連線(如:關閉代理、加速)
Web版實現的功能
網頁伺服器下載完直接讓你下載小說檔案到本地,所以能遠端放在容器或虛擬機器中運作。
有進度條,漂亮!
能透過id 下載小說,也能用名字搜尋小說,更能更新之前下載的小說。
簡潔的UI 介面。
隊列設計,可以把好幾本書加入隊列,批量下載。
(而且把原本的程式碼重構了一下,至於變好還是變壞我不好說,主要是之前的程式碼搞成web 不太方便)
Web 版目前沒有exe 文件,你有兩種方式在運行web 版。
Python 運行
用Git 克隆這個專案或直接下載專案的zip並解壓縮。進入專案資料夾,新虛擬環境,並用pip install -r requirements.txt
來安裝這個專案的python 依賴。
接著進入src
目錄,用python 執行server.py
,並依照指示用瀏覽器開啟http://localhost:12930
。 (注意: python
版本3.8及以下版本下載項目zip
或git
時, src
目錄中,將原來的main.py
刪除,再把main2.py
名稱改為main.py
)
Docker 運行
用Git 克隆這個專案或直接下載專案的zip並解壓縮。進入項目資料夾。
直接使用docker compose up
(或docker compose up -d
在後台運行) 建置並啟動映像。啟動後用瀏覽器存取http://localhost:12930
。
下載的小說和個人資料( data
資料夾) 會存在docker 磁碟區裡面,分別叫做fanqie_data
和fanqie_downloads
。如果你想要修改成某個特定的目錄,可以修改docker-compose.yaml
檔案中的持久化使用者資料部分。
若各位使用者有什麼意見或程序有什麼錯誤,歡迎在lssues中討論
此程序旨在用於與Python網路爬蟲和網頁處理技術相關的教育和研究目的。不應將其用於任何非法活動或侵犯他人權利的行為。使用者對使用此程序引發的任何法律責任和風險負有責任,作者和專案貢獻者不對因使用程序而導致的任何損失或損害承擔責任
在使用此程序之前,請確保遵守相關法律法規以及網站的使用政策,並在有任何疑問或擔憂時諮詢法律顧問
This program is designed for educational and research purposes related to Python web crawlers and web page processing technologies. It should not be used for any illegal activities or acts that violate the rights of ares.reslem User use of this program. The author and project contributors are not responsible for any losses or damages resulting from the use of the program.
Before using this program, please ensure compliance with relevant laws and regulations and the website's usage policies. Consult a legal advisor if you have any questions or concerns.
本程式遵循AGPL-3.0開源。使用本程式原始碼時請註明來源,並同樣使用此協定。
作者:Yck (ying-ck) & Yqy(qxqycb) & Lingo(lingo34)