สำหรับ SEOr บันทึก IIS ของเซิร์ฟเวอร์เป็นบันทึกอ้างอิงการเพิ่มประสิทธิภาพที่สำคัญมาก เนื่องจากเราสามารถดูสถานะของการรวบรวมข้อมูลสไปเดอร์ของเครื่องมือค้นหาได้จากที่นี่ และเรายังสามารถเข้าใจเงื่อนไขบางประการของเว็บไซต์ได้ และเรายังสามารถวิเคราะห์พฤติกรรมของ ผู้ใช้บางรายไม่จำเป็นต้องใช้โค้ดของบุคคลที่สามสำหรับสถิติ แน่นอนว่า บันทึก IIS บางส่วนถูกจำกัดโดยผู้ให้บริการพื้นที่ของ IDC และต้องเปิดดูก่อนจึงจะสามารถดูได้ ในกรณีนี้ ขอแนะนำให้คุณดาวน์โหลดซอร์สโค้ดบางส่วนเพื่อติดตั้งทางออนไลน์ ต่อไปผู้เขียนจะอธิบายรายละเอียดว่า Server IIS ช่วยเว็บไซต์ได้อย่างไร!
(1) ตรวจสอบจำนวนครั้งที่แมงมุมคลาน
สไปเดอร์ของเครื่องมือค้นหาคือโรบอตที่ใช้ในการรวบรวมข้อมูลในเว็บไซต์ของเราและส่งเนื้อหาที่รวบรวมข้อมูลไปยังฐานข้อมูลของเครื่องมือค้นหา ดังนั้นเราจึงทราบจำนวนครั้งที่สไปเดอร์รวบรวมข้อมูลและรู้โดยอ้อมว่าไซต์ของเราถูกค้นหาหรือไม่ . นอกจากนี้ การเปรียบเทียบต้นกำเนิดของสไปเดอร์ทำให้เราเข้าใจได้อย่างถ่องแท้ว่าลิงก์ภายนอกใดมีประโยชน์ต่อไซต์ของเรามากกว่า และสไปเดอร์ตัวใดที่มีคุณค่ามากกว่า นอกจากนี้เรายังสามารถเข้าใจได้ว่าสไปเดอร์เนื้อหาไซต์ใดของเราชอบและเลียนแบบลิงก์เหล่านี้เสมอ
สำหรับสไปเดอร์โปรแกรมค้นหาที่เป็นอันตรายเหล่านั้น เราต้องบล็อกพวกมัน เพราะมีแมงมุมหลายประเภท หากวันหนึ่งเราพบแมงมุมที่ไม่รู้จักคลานอยู่บนเว็บไซต์ของเราเป็นจำนวนมาก เราควรบล็อกพวกมัน ผู้เขียนยังสูญเสียอำนาจผู้เขียนยังเรียกร้องให้ทุกคนพยายามไม่ใช้ซอฟต์แวร์ที่ดึงดูดสไปเดอร์ให้รวบรวมข้อมูลเว็บไซต์ของตนเอง
สไปเดอร์ของเครื่องมือค้นหาจำนวนมากรวบรวมข้อมูลเว็บไซต์ของเรา ซึ่งไม่ต้องสงสัยเลยว่าใช้ทรัพยากรจำนวนหนึ่งบนเซิร์ฟเวอร์ของเรา อย่างไรก็ตาม การรวบรวมข้อมูลสไปเดอร์จำนวนมากมีประโยชน์มากต่อน้ำหนักของไซต์ของเรา ดังนั้นฉันขอแนะนำให้ทุกคนเลือกสิ่งที่ดีกว่า เซิร์ฟเวอร์เพื่อหลีกเลี่ยงการล่มสลายในช่วงเวลาสำคัญ นอกจากนี้ เราได้เรียนรู้จากการประกาศอย่างเป็นทางการว่าแฮกเกอร์จำนวนมากใช้โหมดการรวบรวมข้อมูลแบบสไปเดอร์เพื่อขโมยแหล่งข้อมูลเว็บไซต์ ดังนั้นเราจึงต้องให้ความสนใจกับสิ่งเหล่านี้ด้วย!
(2) ตรวจสอบขอบเขตที่สไปเดอร์คลานหน้าเว็บ
โดยทั่วไปแล้ว สิ่งที่สไปเดอร์ให้ความสำคัญมากที่สุดคือหน้าแรกของเว็บไซต์ของเรา ดังนั้นภาพรวมของหน้าแรกจึงได้รับการอัปเดตบ่อยที่สุด และหากหน้าเว็บภายในปรากฏบ่อยครั้ง ก็จะบรรลุถึงสิ่งที่เรามักเรียกว่าการรวบรวมแบบทันที หากหน้าเว็บบางหน้าของเราไม่ได้ถูกรวบรวมข้อมูลโดยสไปเดอร์ เราสามารถตรวจสอบผ่านบันทึกของ ISS ได้ว่าเราได้ห้ามการรวบรวมข้อมูลของแมงมุมหรือไม่ นอกจากนี้ ผู้เขียนเข้าใจดีว่าผู้ดูแลเว็บจำนวนมากมักจะใช้ที่อยู่หน้าแรกในกระบวนการสร้างลิงก์ภายนอก ในที่นี้ ผู้เขียนเรียกร้องให้ทุกคนสร้างลิงก์ภายนอกเพิ่มเติมไปยังคอลัมน์และหน้าบทความ ซึ่งจะช่วยได้มากในการรวมของเรา และจากสิ่งเหล่านี้ เรายังเข้าใจเงื่อนไขบางประการของเว็บไซต์ของเราได้ เช่น หน้าที่ใดที่สไปเดอร์เข้ามา หน้าเว็บใดที่ถูกรวบรวมข้อมูลค่อนข้างบ่อย หน้าเว็บใดที่ถูกรวบรวมข้อมูลครั้งเดียวแต่ไม่ถูกรวบรวมข้อมูลอีกครั้งหรือรวมอยู่ด้วย ดังนั้นเราจึงสรุป หลังจากนั้น คุณ สามารถเข้าใจได้อย่างแม่นยำมากขึ้นว่าสไปเดอร์ชอบเนื้อหาใด และคุณยังสามารถดูได้ว่าสไปเดอร์สนใจเนื้อหาของเราหรือกำลังรวบรวมข้อมูลเนื่องจากลิงก์ภายนอกหรือไม่
(3) การวิเคราะห์โค้ด http ของเว็บไซต์
เมื่อสไปเดอร์รวบรวมข้อมูลและรวบรวมข้อมูลเนื้อหาในเว็บไซต์ของเรา โดยปกติแล้วจะทิ้งรหัสสถานะ http ไว้ เมื่อส่งคืน โดยปกติจะแสดง 200 ซึ่งหมายความว่าอาจไม่เผยแพร่โดยตรง ซึ่งหมายความว่าต้องใช้เวลาตรวจสอบ
ต่อไปนี้เป็นคำถามและคำตอบสองข้อที่ผู้เขียนได้ถามเกี่ยวกับเรื่องนี้ ฉันหวังว่ามันจะเป็นประโยชน์กับผู้ดูแลเว็บทุกคน
1. เมื่อหน้านั้นไม่มีอยู่บนเว็บไซต์ ควรจะส่งคืน 404 หรือ 200?
ก่อนอื่นคำตอบคือต้องคืนค่า 404 อย่างแน่นอน เพราะทุกคนรู้ดีว่าหน้า 404 สามารถบอกเครื่องมือค้นหาได้ว่าหน้านี้เป็นหน้าแสดงข้อผิดพลาดและไม่สามารถเข้าถึงได้ แต่ถ้าเป็น 200 ก็จะแตกต่างออกไปเพราะว่า หมายความว่าสามารถเข้าใช้งานหน้านี้ได้ แต่เมื่อสไปเดอร์คลานเข้ามาพบว่าไม่สามารถเข้าถึงได้
2. เมื่อเว็บไซต์อยู่ระหว่างการปรับปรุงหรือยื่นรหัสสถานะใดควรส่งคืน?
คำตอบคือ สถานะ 503 เพราะ 503 สามารถบอกเครื่องมือค้นหาได้ว่าเว็บไซต์ของเราไม่สามารถเข้าถึงได้ชั่วคราวและจะถูกกู้คืนภายในระยะเวลาหนึ่ง หากเป็นรหัสสถานะอื่นเครื่องมือค้นหาอาจไม่สามารถเข้าถึงได้ โดยเฉพาะหน้า 404 ซึ่งจะทำให้ เครื่องมือค้นหาจะคิดโดยตรงว่าเว็บไซต์ไม่มีอยู่อีกต่อไป
จริงๆ แล้วหน้า 404 มีประโยชน์มากสำหรับไซต์ของเรา ดังนั้น ฉันขอแนะนำให้คุณอย่าลืมสร้างหน้า 404 สำหรับไซต์ของคุณ
(4) ใช้เครื่องมือระดับมืออาชีพสำหรับการวิเคราะห์บันทึก
ไม่ต้องสงสัยเลยว่ามูลค่า PV เป็นการแสดงถึงประสบการณ์ของผู้ใช้เว็บไซต์ เมื่ออัตราตีกลับของเว็บไซต์ของเราสูงเกินไป เว็บไซต์จะอยู่ในสถานะที่ไม่สามารถเปิดได้หรือเนื้อหาไม่ดี การจัดอันดับเว็บไซต์ก็จะเห็นได้ชัดในตัวเอง เป็นไปไม่ได้ที่จะดูว่าหน้าใดมีการเข้าชมสูงกว่า เพื่อให้เราสามารถเข้าใจความต้องการของผู้ใช้ผ่านการสำรวจและทำการปรับปรุง แต่หากเว็บไซต์ของเราไม่สามารถเปิดได้เป็นเวลานานหรือเข้าถึงได้ช้า เราสามารถตรวจสอบจากบันทึกได้ว่าถูกโจมตีโดยทราฟฟิกที่เป็นอันตรายหรือไม่ เมื่อเผชิญกับสถานการณ์ดังกล่าว เราต้องประนีประนอม รายงานกรณี หรือ เปลี่ยนเซิร์ฟเวอร์โดยตรง
สำหรับเว็บไซต์ หากผู้ใช้ไม่คลิกไซต์ของคุณ แสดงว่าไซต์ของคุณไม่น่าดึงดูด และเครื่องมือค้นหาก็จะคิดว่าไซต์ของคุณไม่ใช่เว็บไซต์ที่ดี ดังนั้นจึงเป็นเรื่องสำคัญมากที่ต้องทำสตูดิโอสร้างประสบการณ์ผู้ใช้ที่ดี . สุดท้ายนี้ ฉันขอแนะนำเครื่องมือวิเคราะห์บันทึก IIS ระดับมืออาชีพอีกสองเครื่องมือ:
1. .awstats,
2. เว็บบาไลเซอร์
เครื่องมือทั้งสองนี้สามารถวิเคราะห์รหัสสถานะบางส่วน (⊙o⊙) ของเว็บไซต์ได้!
สรุป: บันทึก IIS ของเว็บไซต์มีประโยชน์มากในทุกด้านของการเพิ่มประสิทธิภาพเว็บไซต์และประสบการณ์ผู้ใช้ ช่วยให้เราสามารถเรียนรู้เพิ่มเติมเกี่ยวกับไซต์ของเรา และใส่ใจกับรายละเอียดเล็กๆ น้อยๆ ที่เรามองข้ามไป ด้วยวิธีนี้ ไซต์ของเราจะเป็นไปตามธรรมชาติ ได้รับการสนับสนุนจากเครื่องมือค้นหา และเราสามารถส่งมันเพื่อรับความเข้าใจที่เกี่ยวข้องก่อนที่ไซต์ของเราจะถูกลดระดับหรือถูกลดระดับ ในเวลานี้ เราสามารถทำการปรับปรุงตามเป้าหมาย ซึ่งมักจะสามารถหลีกเลี่ยงได้ บทความนี้ถูกแบ่งปันโดย Name Network http://www.name2012.com ฉันหวังว่าเพื่อนๆ ที่พิมพ์ซ้ำจะจำลิงค์และลิขสิทธิ์ไว้ นั่นคือทั้งหมดสำหรับการแบ่งปันกับคุณในวันนี้ ฉันจะสื่อสารกับคุณมากขึ้นบนแพลตฟอร์มนี้ในอนาคต แล้วพบกันใหม่ครั้งหน้า
บรรณาธิการรับผิดชอบ: พื้นที่ส่วนตัวของผู้เขียน Chen Long ที่ name2012.com