Das Beispiel dieses Artikels zeigt die Methode, Java zu verwenden, um Reptilien zum Erfassen der Webseiteninhalte der Website zu verwenden. Teilen Sie es für alle für Ihre Referenz. Die Einzelheiten sind wie folgt:
Vor kurzem habe ich Java zum Studium der Klettertechnik verwendet. Der andere ist selbst von Java besitzt.
Der Code ist wie folgt:
// Die erste Methode // Diese Methode besteht darin, das von Apache, einfache und bequeme // bereitgestellte Paket zu verwenden, aber die folgenden Pakete werden verwendet: Commons-codec -.4.jar // Commons-httpclient-3.1.jar // Commons -Logging -1.0.4.jarpublic String createHttpclient (String -URL, String -Param) {httpclient client {// if (param! -Generatd block // e1.printstacktrace (); SetRequestbody (Daten); Sie können das Abmelden und das Studium abbrechen. "); // Entfernen Sie das Label System.out.println (p) mit HTML -Sprache in der Webseite;} catch (Ausnahme E) {E.printstacktrace (); ist Javas eigene URL, um die Website in der Website zu erfassen, und String GetPageContent (String Strurl, String Strpostrequest, int maxLength) {// ingbuffer (); setProperty ("sun.net.client.defaultimeout", "5000"); Länge ()> 0) {hconnect.setDooutput (true); Inhalt BufferedReader Rd = New BufferedReader H; ) ch); String S = Buffer.ToString (); ]*> "," "); System.out.println (s); rd.close (); Rückgabe "Fehler: Lesen Sie die Webseite fehlgeschlagen! "// null zurückgeben;}}
Dann schreiben Sie eine Testklasse:
Public static void main (String [] args) {String url = "//www.vevb.com"; Schlüsselwort);/ die erste Methode // P.GetPageContent (URL, "Post", 100500);
Haha, schau dir die Konsole an, bekommst du den Inhalt der Webseite
Es ist zu hoffen, dass dieser Artikel für Java -Programmdesign aller hilfreich ist.