SEO มีความเกี่ยวข้องอย่างใกล้ชิดกับเทคโนโลยี หลายคนคิดว่า SEO ไม่ต้องการเทคโนโลยี ในทางวิทยาศาสตร์หากมีอะไรผิดพลาด ในสายตาของหลายๆ คน SEO ไม่ได้เป็นอะไรมากไปกว่าการเผยแพร่บทความและส่งลิงก์ภายนอกทุกวัน หากคุณเข้าใจ SEO ในลักษณะนี้ แสดงว่าระดับของคุณยังอยู่ในขั้นเริ่มต้น แม้ว่าเสิร์ชเอ็นจิ้นจะเป็นเทคโนโลยี แต่ก็เป็นสิ่งที่ทรงพลังมาก ดังนั้นหากเราต้องการได้รับการเข้าชมที่สอดคล้องกันเราจะต้องมีทักษะบางอย่างหรืออย่างน้อยก็เข้าใจหลักการของมัน แล้วเราควรใส่ใจกับประเด็นใดบ้าง หน้าเว็บไซต์ตรงตามข้อกำหนดทางเทคนิคของ SEO หรือไม่?
1. ใช้เบราว์เซอร์ข้อความเพื่อตรวจสอบหน้าเว็บของคุณเพื่อดูว่าลิงก์ URL ที่สำคัญในหน้าเว็บสามารถบันทึกโดยเบราว์เซอร์ข้อความได้หรือไม่
เบราว์เซอร์ข้อความที่ใช้กันทั่วไปคือ lynx คุณสามารถติดตั้งได้ในสภาพแวดล้อม Linux เมื่อเรียกดูหน้าเว็บของคุณ เบราว์เซอร์จะเกือบจะเหมือนกับที่สไปเดอร์ของเครื่องมือค้นหาเห็น ดังนั้นเราจึงมักใช้เพื่อทดสอบความสามารถในการรวบรวมข้อมูลของหน้าเว็บ หากลิงก์สำคัญในเพจของคุณใช้ JS, Ajax และเทคโนโลยีอื่นๆ เบราว์เซอร์ lynx จะไม่เห็นลิงก์เหล่านี้ และเครื่องมือค้นหาเดียวกันก็ไม่สามารถรวบรวมข้อมูลลิงก์เหล่านี้ได้ ดังนั้นก่อนที่เว็บไซต์จะออนไลน์ คุณสามารถใช้เบราว์เซอร์ข้อความเพื่อตรวจสอบหน้าเว็บหลักเพื่อดูว่ามีการใช้เทคโนโลยีใด ๆ ที่ไม่เป็นมิตรกับเครื่องมือค้นหาหรือไม่
2. อนุญาตให้สไปเดอร์ของเครื่องมือค้นหารวบรวมข้อมูลไซต์ของคุณโดยไม่ต้องใช้รหัสเซสชันหรือพารามิเตอร์ที่สามารถติดตามเส้นทางไปยังไซต์ได้
รหัสเซสชันบางรายการมีประสิทธิภาพมากในการติดตามพฤติกรรมการเข้าถึงของผู้ใช้ แต่ไม่ใช่ความคิดที่ดีสำหรับเครื่องมือค้นหา หากใช้เทคนิคเหล่านี้ หน้าเว็บของคุณอาจไม่ได้รับการจัดทำดัชนีอย่างสมบูรณ์เนื่องจากโปรแกรมเครื่องมือค้นหา ไม่สามารถตัดออกได้ว่าเว็บเหล่านั้น หน้าเว็บที่ดูแตกต่างจาก URL แต่มีเนื้อหาเว็บเหมือนกันทุกประการ มันไม่เป็นมิตรกับการรวม
3. ตรวจสอบให้แน่ใจว่าเว็บเซิร์ฟเวอร์ของคุณรองรับส่วนหัว HTTP If-Modified-Since
หากเซิร์ฟเวอร์ของคุณรองรับส่วนหัว if-modified-since-HTTP เมื่อสไปเดอร์ของเครื่องมือค้นหารวบรวมข้อมูลหน้าเว็บของคุณ อันดับแรกเซิร์ฟเวอร์จะตรวจสอบค่าส่วนหัว If-Modified-Since HTTP ไม่ว่าหน้าเว็บของคุณมีการเปลี่ยนแปลงนับตั้งแต่รวบรวมข้อมูลครั้งล่าสุดหรือไม่ หากไม่มีการเปลี่ยนแปลง ไม่จำเป็นต้องดาวน์โหลดเนื้อหาหน้าเดียวกัน ช่วยประหยัดทรัพยากรของสไปเดอร์ และประหยัดแบนด์วิธของเซิร์ฟเวอร์ของคุณ เพื่อให้สไปเดอร์สามารถรวบรวมข้อมูลหน้าอื่นๆ ได้มากขึ้น
4. ตั้งค่าไฟล์โรบ็อตที่เหมาะสม
วิธีที่ดีที่สุดคือตั้งค่าไฟล์ robots สำหรับแต่ละเว็บไซต์ หากเว็บไซต์ของคุณไม่มีเนื้อหาใดๆ และไม่ต้องการให้เครื่องมือค้นหาจัดทำดัชนี คุณสามารถสร้างไฟล์เปล่าชื่อ robots และอัปโหลดไปยังไดเร็กทอรีรากของเว็บไซต์ของคุณ เมื่อใช้ไฟล์โรบ็อต เราสามารถให้เครื่องมือค้นหารวบรวมข้อมูลบางไดเร็กทอรีได้ แต่ไม่สามารถรวบรวมข้อมูลไดเร็กทอรีบางไดเร็กทอรีได้ ตัวอย่างเช่น ไฟล์เทมเพลตบางไฟล์สามารถถูกห้ามไม่ให้ถูกรวบรวมข้อมูลโดยเครื่องมือค้นหา เมื่อตั้งค่าไฟล์โรบ็อต เราต้องระมัดระวังเพื่อหลีกเลี่ยงการแบนไฟล์สำคัญบางไฟล์ เราสามารถใช้ Google Webmaster Tools ในการทดสอบได้
5. ดำเนินการทดสอบความเข้ากันได้บนเว็บไซต์เพื่อให้แน่ใจว่าแสดงได้อย่างถูกต้องในทุกเบราว์เซอร์
ก่อนที่เราจะเปิดตัวเว็บไซต์ ควรทำการทดสอบการสืบค้นหลายๆ ครั้งเพื่อให้แน่ใจว่าเนื้อหาเว็บสามารถแสดงได้อย่างถูกต้องบนเบราว์เซอร์ทั้งหมด ตัวอย่างเช่น IE มีการทดสอบเครื่องมือ IE ที่สามารถทดสอบเอฟเฟกต์การแสดงผลของ IE เวอร์ชันต่างๆ ได้ Google Chrome ยังมีปลั๊กอินที่คล้ายกันที่สามารถทดสอบความเข้ากันได้ของเบราว์เซอร์ได้ หลังจากการทดสอบเสร็จสิ้น จะสามารถแสดงผลได้ตามปกติก่อนจะออนไลน์ ในระหว่างการบำรุงรักษาประจำวัน คุณสามารถทดสอบความเข้ากันได้ของการแสดงหน้าเว็บได้บ่อยครั้ง
6. ใช้เครื่องมือทดสอบส่วนหน้าบ่อยครั้งเพื่อทดสอบประสิทธิภาพของหน้าเว็บ
ตัวอย่างเช่น เราสามารถใช้เครื่องมือวัดความเร็วหน้าเว็บของ Google และความเร็วของ Yahoo เพื่อทดสอบประสิทธิภาพของหน้าเว็บได้ หน้าสุดท้าย เช่น เปิดใช้งาน GZip เปิดใช้งาน Keep-alive ใช้เทคโนโลยี CSS sPRites รวม JS และ CSS เป็นต้น เนื้อหาข้างต้นเผยแพร่ครั้งแรกบน admin5 โดย China Beauty Talent Network www.mrrencai.com โปรดเก็บ URL ไว้สำหรับการพิมพ์ซ้ำ ขอขอบคุณ!
บรรณาธิการบริหาร: พื้นที่ส่วนตัวของผู้เขียน Yangyang Keepmove