sparkler
1.0.0
Web クローラーは、検索エンジンやナレッジ ベースなどのアプリケーションを構築するために Web からリソースを取得するボット プログラムです。Sparkler (Spark-Crawler の短縮形) は、分散コンピューティングの最近の進歩を利用する新しい Web クローラーです。 Spark、Kafka、Lucene/Solr、Tika、pf4j などのさまざまな Apache プロジェクトを統合することによる情報検索ドメイン。 Sparkler は、Apache Nutch の進化版であり、Apache Spark Cluster 上で実行される、拡張可能でスケーラブルな高性能 Web クローラーです。
Sparkler は Apache Incubator に提案されています。提案文書を確認し、ここで提案を提供してください後で、最終的には実行されます!
スパークラーを使用するには、docker をインストールし、以下のコマンドを実行します。
# Step 0. Get the image
docker pull ghcr.io/uscdatascience/sparkler/sparkler:main
# Step 1. Create a volume for elastic
docker volume create elastic
# Step 1. Inject seed urls
docker run -v elastic:/elasticsearch-7.17.0/data ghcr.io/uscdatascience/sparkler/sparkler:main inject -id myid -su ' http://www.bbc.com/news '
# Step 3. Start the crawl job
docker run -v elastic:/elasticsearch-7.17.0/data ghcr.io/uscdatascience/sparkler/sparkler:main crawl -id myid -tn 100 -i 2 # id=1, top 100 URLs, do -i=2 iterations
1. Follow Steps 0-1
2. Create a file name seed-urls.txt using Emacs editor as follows:
a. emacs sparkler/bin/seed-urls.txt
b. copy paste your urls
c. Ctrl+x Ctrl+s to save
d. Ctrl+x Ctrl+c to quit the editor [Reference: http://mally.stanford.edu/~sr/computing/emacs.html]
* Note: You can use Vim and Nano editors also or use: echo -e " http://example1.comnhttp://example2.com " >> seedfile.txt command.
3. Inject seed urls using the following command, (assuming you are in sparkler/bin directory)
$bash sparkler.sh inject -id 1 -sf seed-urls.txt
4. Start the crawl job.
すべての新しい URL の最後までクロールするには、 -i -1
を使用します。例: /data/sparkler/bin/sparkler.sh crawl -id 1 -i -1
ご質問やご提案は、メーリング リスト [email protected] で受け付けています。または、Slack チャネルを使用してサポートを受けることもできます http://irds.usc.edu/sparkler/#slack