-
Linux wget は、コマンドラインで使用されるファイルをダウンロードするためのツールです。これは、ソフトウェアをダウンロードしたり、リモート サーバーからローカル サーバーにバックアップを復元したりする必要が多い Linux ユーザー、特にネットワーク管理者にとって不可欠なツールです。仮想ホストを使用する場合、そのようなトランザクションを処理するには、リモート サーバーからコンピューターのディスクにトランザクションをダウンロードし、ftp ツールを使用してサーバーにアップロードするだけです。これは時間とエネルギーの無駄であり、それに対してできることは何もありません。 Linux VPS の場合は、アップロード手順を経ずにサーバーに直接ダウンロードできます。 wget ツールはサイズは小さいですが、完全な機能を備えており、ブレークポイント ダウンロード機能をサポートし、FTP および HTTP ダウンロード方法をサポートし、プロキシ サーバーをサポートし、セットアップが簡単で便利です。以下に、wget の使い方を例を挙げて説明します。
1. wget を使用して単一のファイルをダウンロードする
次の例では、インターネットからファイルをダウンロードし、現在のディレクトリに保存します。
wget http://cn.WordPRess.org/wordpress-3.1-zh_CN.zip
ダウンロード プロセス中、(ダウンロード完了率、ダウンロードされたバイト数、現在のダウンロード速度、ダウンロードの残り時間) を含む進行状況バーが表示されます。
2. wget -O を使用してダウンロードし、別のファイル名で保存します。
デフォルトでは、wget は「/」の後の最後の文字をコマンドに使用します。通常、ファイル名は正しくありません。 エラー: 次の例では、ファイルをダウンロードし、download.php?id=1080 という名前で保存します。
wget http://www.zhumaohai.com/download?id=1
ダウンロードしたファイルはzip形式ですが、download.php?id=1080コマンドで終了します。 正解: この問題を解決するには、パラメータ -O を使用してファイル名を指定します。
wget -O wordpress.zip http://www.zhumaohai.com/download.php?id=1080
3. wget --limit -rate を使用してダウンロード速度を制限します
wget を実行すると、デフォルトでダウンロード可能なすべての帯域幅が占有されます。ただし、大きなファイルをダウンロードし、他のファイルもダウンロードする必要がある場合は、速度を制限する必要があります。
wget --limit-rate=300k http://cn.wordpress.org/wordpress-3.1-zh_CN.zip
4. wget -c を使用して、ブレークポイントからアップロードを再開します。
wget -c を使用して、中断されたファイルのダウンロードを再開します。
wget -c http://cn.wordpress.org/wordpress-3.1-zh_CN.zip
大きなファイルをダウンロードするときに、ネットワークなどの理由でダウンロードが突然中断された場合に、ファイルを再ダウンロードすることなくダウンロードを続行できるので、非常に役立ちます。中断されたダウンロードを続行する必要がある場合は、-c パラメーターを使用できます。
5. wget -b バックグラウンドダウンロードを使用する
非常に大きなファイルをダウンロードする場合、パラメータ -b を使用してバックグラウンドでダウンロードできます。
wget -b http://cn.wordpress.org/wordpress-3.1-zh_CN.zip
バックグラウンドで続行、pid 1840。
出力は「wget-log」に書き込まれます。
次のコマンドを使用して、ダウンロードの進行状況を確認できます
tail -f wget-log
6. 偽装エージェント名ダウンロード
Web サイトによっては、プロキシ名がブラウザではないと判断して、ダウンロード リクエストを拒否する場合があります。ただし、 --user-agent パラメータを使用してこれを偽装することができます。
wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML、Gecko など) Chrome/10.0.648.204 Safari/534.16" ダウンロード リンク
7. wget --spider を使用してダウンロード リンクをテストします
スケジュールされたダウンロードを実行する予定がある場合は、スケジュールされた時刻にダウンロード リンクが有効かどうかをテストする必要があります。 --spider パラメータを追加して確認できます。
wget --spider URL
ダウンロードリンクが正しければ表示されます
wget --spider URL
スパイダー モードが有効になっています。リモート ファイルが存在するかどうかを確認します。
HTTP リクエストが送信され、応答を待機しています。 200 OK 長さ: 指定されていない [text/html] リモート ファイルが存在し、さらにリンクが含まれている可能性がありますが、再帰が無効になっており、取得できません。
これにより、スケジュールされた時間にダウンロードが確実に続行されますが、間違ったリンクを指定すると、次のエラーが表示されます。
wget --スパイダー URL
スパイダーモードが有効になりました。
リモート ファイルが存在するかどうかを確認します。HTTP リクエストが送信され、応答を待っています。 。 404 Not Found リモート ファイルが存在しません -- リンクが切れています。 ! !
スパイダー パラメータは次の状況で使用できます。
7.1 スケジュールされたダウンロードの前に確認する
7.2 Web サイトが定期的に利用可能かどうかを確認する
7.3 Web サイトのページ上のデッドリンクを確認する
8. wget --tries を使用して再試行回数を増やします。
ネットワークに問題がある場合や、大きなファイルをダウンロードした場合にも失敗する可能性があります。デフォルトでは、wget は接続とファイルのダウンロードを 20 回再試行します。必要に応じて、 --tries を使用して再試行の回数を増やすことができます。
wget --tries=40 URL
9. wget -i を使用して複数のファイルをダウンロードする
まず、ダウンロードリンクファイルを保存します
cat>filelist.txt url1 url2 url3 url4
次に、このファイルとパラメータ -i を使用してダウンロードします
wget -i ファイルリスト.txt
10. wget --mirror を使用して Web サイトをミラーリングします。
以下の例では、Web サイト全体をローカルにダウンロードします。
wget --mirror -p --convert-links -P ./ローカル URL
--miror: アカウント開設ミラーのダウンロード
-p: 通常の HTML ページ表示用にすべてのファイルをダウンロードします。
--convert-links: ダウンロード後、ローカル リンクに変換します。
-P ./LOCAL: すべてのファイルとディレクトリをローカルの指定されたディレクトリに保存します
11. wget --reject を使用して、指定した形式のダウンロードをフィルタリングします
Web サイトをダウンロードしたいが、画像はダウンロードしたくない場合は、次のコマンドを使用できます。
wget --reject=gif URL
12. wget -o を使用してダウンロード情報をログ ファイルに保存します
ダウンロード情報をターミナルに直接表示せず、ログ ファイルに表示したい場合は、次のコマンドを使用できます。
wget -o download.log URL
13. wget -Q を使用して、ダウンロード ファイルの合計サイズを制限します
ダウンロードするファイルが 5M を超えてダウンロードを終了する場合は、次のコマンドを使用できます。
wget -Q5m -i ファイルリスト.txt
注: このパラメータは単一ファイルのダウンロードでは機能せず、再帰的ダウンロードでのみ機能します。
14. wget -r -A を使用して、指定した形式のファイルをダウンロードします
この機能は次のような場合に使用できます。
Web サイトからすべての画像をダウンロードする
Web サイトからすべてのビデオをダウンロードする
Web サイトのすべての PDF ファイルをダウンロードする
wget -r -A.pdf URL
15. wget FTP ダウンロードを使用する
wget を使用して FTP リンクのダウンロードを完了できます。 wgetを使用した匿名ftpダウンロード
wget ftp-url
wget ユーザー名とパスワード認証を使用した FTP ダウンロード
wget --ftp-user=USERNAME --ftp-password=PASSWORD URL
記事の出典: http://www.zhumaohai.com/転載する場合は著作権を保持してください。
Zhu Maohai 氏の貢献に感謝します