เมื่อเสิร์ชเอ็นจิ้นรวบรวมข้อมูลหน้าต่างๆ พวกเขาไม่ได้ดูหน้าจากหน้าเว็บเหมือนที่คนมอง แต่ดูจากโค้ดของหน้า! คลิกขวาที่เมาส์แล้วดูไฟล์ต้นฉบับ เราก็จะเห็นโค้ด HTML ของสิ่งที่แก้ไขแล้ว หน้าเว็บ นี่คือสิ่งที่สไปเดอร์ต้องการอ่านเนื้อหาที่ดึงมาจะถูกอ่านตั้งแต่ต้นจนจบ บางคนยังบอกด้วยว่าอ่านจากบนลงล่าง จากซ้ายไปขวาของหน้า ฉันคิดว่าการอ่านจากด้านหน้าของโค้ด HTML ไปจนจบเป็นวิทยาศาสตร์มากกว่า
ทำไมต้องทำให้โค้ดง่ายขึ้น?
สไปเดอร์อ่านรหัสจากบนลงล่าง หากคุณมีรหัสจำนวนมากที่ไม่เกี่ยวข้องกับข้อความ สไปเดอร์ต้องอ่านก่อน ความสามารถของแมงมุมนั้นมีจำกัด มันอาจจะเหนื่อยและออกไปก่อนอ่านข้อความ ในกรณีนี้ ไม่ต้องพูดถึงการจัดอันดับ คุณต้องรู้ว่าสไปเดอร์มีความสามารถที่จำกัด เราไม่ควรทำให้สไปเดอร์ต้องอับอาย ใช้โค้ดที่มีความคล่องตัวมากที่สุด ปล่อยให้ข้อความสะท้อนให้เห็นโดยเร็วที่สุด และปล่อยให้สไปเดอร์คลานได้สำเร็จ
จะปรับปรุงโค้ดได้อย่างไร?
1) ปรับปรุงโค้ด โดยทั่วไปแล้ว เพจของเราใช้ DIV+CSS หลายๆ คนบอกว่าการใช้ DIV+CSS นั้นดีสำหรับ SEO แต่การใช้ DIV จะต้องอยู่ในอันดับที่ดีกว่า TABLE สิ่งที่สำคัญที่สุดเกี่ยวกับการใช้ DIV+CSS คือการปรับปรุงโค้ด ซึ่งเป็นประโยชน์ต่อการรวบรวมข้อมูลของเครื่องมือค้นหา!
2) การทำให้โค้ดที่ไม่เกี่ยวข้องออกไปภายนอก
ตัวอย่างเช่น โค้ด CSS ของเราควรอยู่ภายนอก CSS เช่นเดียวกับโค้ดโฆษณาบางส่วน และโค้ดเอฟเฟกต์พิเศษควรอยู่ภายนอก JS! เพียงเรียกมันในโค้ดของหน้าเว็บ ซึ่งจะทำให้โค้ดของหน้าเว็บง่ายขึ้นอย่างมาก
3) ข้อมูลส่วนหัวของหน้าภายใน
ในหน้าภายในของเว็บไซต์ เช่น หน้าบทความและหน้าช่อง ข้อมูลส่วนหัว (โลโก้ โฆษณายอดนิยม ช่องค้นหายอดนิยม) เหล่านี้เป็นข้อมูลที่ไม่เกี่ยวข้องกับหน้าบทความนี้ และสามารถเรียกออกมาเพื่อให้คุณ ข้อความหลักใน More ส่งต่อในโค้ด แน่นอนว่าคุณต้องแน่ใจว่าการนำทางขั้นพื้นฐาน เช่น การกลับไปที่หน้าแรก ลิงก์ไปยังแต่ละคอลัมน์ และลิงก์ภายในไปยังบทความล่าสุด บทความที่เกี่ยวข้อง บทความยอดนิยม ฯลฯ แต่ฉันคิดว่ารหัสเหล่านี้ควรอยู่ใต้ข้อความ และสิ่งแรกที่สะท้อนให้เห็นในหน้าบทความควรเป็น ชื่อและเนื้อหาของบทความ - ประการที่สองคือข้อมูลลิงก์ที่เกี่ยวข้องเหล่านี้ สิ่งนี้ช่วยลดความซับซ้อนของโค้ดของเว็บไซต์อย่างมากซึ่งเอื้อต่อการแข่งขันคำหลักหางยาวในหน้าภายใน!
4) รหัสซ้ำซ้อนที่สร้างโดยตัวโปรแกรมเอง
โดยเฉพาะโปรแกรมที่เขียนด้วย .NET จะสร้างโค้ดขยะจำนวนมากโดยอัตโนมัติ โค้ดเหล่านี้ไม่เพียงแต่ลดความเร็วของหน้าเว็บลงอย่างมาก แต่ยังทำให้สไปเดอร์เหนื่อยจนต้องนอนราบอีกด้วย ในบริษัทของเรา ครั้งหนึ่งมีเว็บไซต์ .NET ที่เขียนโดยโปรแกรมเมอร์ ส่งผลให้มีโค้ดซ้ำซ้อนจำนวนมากบนหน้าเว็บ ในขณะนั้น คนประมาทไม่ได้ให้ความสนใจ ต่อมาเพจชุดนี้ไม่เพียงแต่ทำให้ความเร็วลดลงเท่านั้น แต่ต่อมาถูกลบโดย Baidu ในเครื่องมือค้นหา โค้ดที่ซ้ำซ้อนจำนวนมากทำให้เกิดปัญหาความคล้ายคลึงกันของหน้าในหน้าเว็บชุดนี้ ซึ่งทำให้ Baidu ลบผลลัพธ์ซึ่งได้รับการแก้ไขทันที ดังนั้นเราจึงต้องให้ความสำคัญกับปัญหาเหล่านี้เป็นอย่างมาก!
มาสรุป 4 ประเด็นนี้กันก่อน กล่าวสั้นๆ ก็คือ โค้ดหน้าเว็บของเราควรมีความคล่องตัวสูง เนื้อหาที่ไม่เกี่ยวข้องควรถูกวางไว้ภายนอก เนื้อหาหลักของหน้าเว็บควรอยู่ในระดับสูง และเนื้อหาที่เกี่ยวข้องควรล้าหลังเรา ต้องเข้าใจพันธกิจของหน้าเว็บแต่ละหน้า ตัวอย่างเช่น สำหรับหน้าบทความ ข้อมูลยอดนิยม เช่น โลโก้ด้านบนเป็นโค้ดที่ซ้ำซ้อน และควรอ้างอิงถึงหลักการนี้เพื่อปรับปรุงโค้ด
ผู้เขียน: Dai Renguang@blackhumor
ที่อยู่บล็อก: http://www.dairenguang.com
URL บทความนี้: http://www.dairenguang.com/note/20090720535.htm
เมื่อพิมพ์ซ้ำภายใต้ลิขสิทธิ์ ผู้แต่ง แหล่งที่มาต้นฉบับ และคำชี้แจงนี้จะต้องระบุในรูปแบบของลิงก์