SEO (1) ความรู้พื้นฐาน
SEO (2) เขียน URL ใหม่
SEO (3) การเปลี่ยนเส้นทางเนื้อหา
SEO (4) เนื้อหาที่ซ้ำกัน
SEO (5) HTML และ JavaScript
SEO (6) เว็บฟีด
SEO (7) แฮ็ค SEO
SEO (8) แผนผังเว็บไซต์
SEO (9) ลิงก์เหยื่อ
SEO (10) การปลอมตัว การกำหนดเป้าหมายทางภูมิศาสตร์ และการกระจาย IP
ซีรี่ส์นี้ถือได้ว่าเป็นหนึ่งในบันทึกการอ่านของฉัน - "การเพิ่มประสิทธิภาพกลไกค้นหาอย่างมืออาชีพด้วย ASP.NET: คู่มือสำหรับนักพัฒนาเกี่ยวกับ SEO" ใน WROX Red Book Series ฉันคิดว่ามันค่อนข้างดี อย่างแรกคือมันเป็นระบบและเชื่อถือได้มากกว่า อย่างที่สองคือมันแตกต่างจากการแนะนำทางทฤษฎีทั่วไปของ SEO โดยเน้นที่การนำเทคโนโลยี asp.net ไปใช้! แนะนำเลย. นอกจากนี้ เนื่องจากเป็นหนังสือของชาวต่างชาติ เครื่องมือค้นหาจึงไม่มี Baidu อยู่ด้วย แต่มุ่งเป้าไปที่ Google และ Yahoo เป็นหลัก
บางทีโปรแกรมเมอร์หลายคนอาจไม่เห็นคุณค่าหรือเข้าใจ SEO มากนัก แต่สำหรับเว็บมาสเตอร์ระดับรากหญ้าจำนวนนับไม่ถ้วน (รวมถึงเว็บมาสเตอร์ที่เป็นสแปมด้วย 555) และองค์กรขนาดเล็กและขนาดกลางจำนวนมากที่ต้องการทำการตลาดออนไลน์ SEO เป็นเพียงทักษะพื้นฐานในการเริ่มต้น แต่เกี่ยวกับความรู้พื้นฐานของ SEO ฉันจะหยุดที่นี่เพราะมีบทความที่คล้ายกันมากเกินไปบนอินเทอร์เน็ต ฉันจะมุ่งเน้นไปที่ด้านเทคนิค
แต่ฉันยังคงหวังที่จะแบ่งปันประสบการณ์ของตัวเองกับคุณ:
เมื่อคุณอ่านข้อมูล SEO จำนวนหนึ่ง คุณจะพบว่ามีความคิดเห็นที่แตกต่างกันในเรื่องเดียวกันและไม่มีความเห็นพ้องต้องกัน
จริงๆ แล้วมีสาเหตุหลักมาจากสาเหตุต่อไปนี้:
1. เทคนิค SEO หลายอย่าง "เป็นการคาดเดา" และถือเป็นการสรุปประสบการณ์ได้มากที่สุด เนื่องจากเป็นไปไม่ได้ที่เครื่องมือค้นหาจะเปิดเผยอัลกอริธึมการจัดอันดับของตนโดยสมบูรณ์ จึงเป็นเรื่องของความคิดเห็น
2.แล้วมีข้อความที่เชื่อถือได้หรือไม่? ยังมีคำแนะนำอยู่บ้าง ทั้ง Baidu และ Google มีคำแนะนำ "การเพิ่มประสิทธิภาพเว็บไซต์" ที่คล้ายกัน Baidu ดำเนินการค่อนข้างง่าย โปรดดูที่ http://www.baidu.com/search/guide.html ในขณะที่ Google ได้สร้าง "การเพิ่มประสิทธิภาพเว็บไซต์" แบบพิเศษ คำแนะนำ "ศูนย์ผู้ดูแลระบบ" ดูที่ http://www.google.com/intl/zh-CN/webmasters/ มีบล็อก ฟอรัม และเครื่องมือที่มีประโยชน์มาก อย่างไรก็ตาม ยังมีอีกหลายคนที่ไม่เชื่อเรื่อง "ข้าราชการ" หรือคิดว่ามี "ช่องโหว่" ให้เอารัดเอาเปรียบ...
3. "ในขณะที่ถนนสูงขึ้น ปีศาจก็เช่นกัน" เป็นเรื่องจริงที่หลายๆ คนหันไปหา "ช่องโหว่" ของเครื่องมือค้นหา แต่เครื่องมือค้นหาไม่ได้โง่ และมักจะปรับเปลี่ยนอยู่เสมอ ดังนั้นบางครั้งฉันก็รู้สึกว่า ประวัติความเป็นมาของ SEO มันเหมือนกับประวัติศาสตร์การต่อสู้ระหว่าง SEOers และเครื่องมือค้นหา มีเทคนิค SEO บางอย่างที่ "ล้าสมัย" และ "ไม่ถูกต้อง" อยู่เสมอ แต่ก็มีเทคนิค SEO ใหม่ๆ ที่จะเกิดขึ้นอยู่เสมอ...
4. นอกจากนี้ เครื่องมือค้นหายังมีการพัฒนาเทคโนโลยีการค้นหาอย่างต่อเนื่อง ตัวอย่างเช่น ในตอนแรกเครื่องมือค้นหาจะรวมหน้าเว็บแบบไดนามิกได้ยาก แต่ตอนนี้ปัญหานี้เกือบจะได้รับการแก้ไขแล้ว (URLRewrite จะมีการหารือในรายละเอียดเพิ่มเติมในภายหลัง) ถนน).
โดยพื้นฐานแล้ว การทำ SEO มี 2 กลยุทธ์ ประการแรกคือการยืนอยู่หน้าเครื่องมือค้นหาเสมอ มองหาช่องโหว่ที่สามารถนำไปใช้ประโยชน์ได้ "ต่อสู้กับท้องฟ้า โลก และเครื่องมือค้นหา มันสนุกไม่รู้จบ"; และติดตามผลการค้นหา วิธีที่เครื่องยนต์แนะนำคือการทำทีละขั้นตอนและทำอย่างสม่ำเสมอ
ผมเลือกแบบที่ 2 เพราะคิดว่าสติปัญญามีจำกัด 555 และกำลังก็จำกัดด้วย นอกจากนี้ ฉันยังค่อยๆ ปรับทัศนคติของฉันต่อ SEO และ "มีหัวใจปกติ" ฉันแค่ไม่ทำสิ่งโง่ๆ หรือสิ่งเลวร้าย นั่นคือ การเพิ่มประสิทธิภาพสำหรับเครื่องมือค้นหาและผู้ใช้ ท้ายที่สุดแล้ว เว็บไซต์สำหรับผู้ใหญ่ไม่สามารถพึ่งพาเครื่องมือค้นหาได้ทั้งหมด ชื่อเสียงของ Baidu แย่ลงเรื่อยๆ Google ขู่ว่าจะถอนตัวออกจากจีน ยังคงจำเป็นต้องสร้างความเข้มแข็งให้กับตนเอง สร้างคุณลักษณะของตนเอง มอบคุณค่าให้กับลูกค้า และสร้างแบรนด์ของเราเอง
เอาล่ะ มาดูกันว่าหนังสือเล่มนี้พูดถึงพื้นฐานของ SEO อย่างไร!
1. ค่าลิงค์ ลิงก์อ้างอิงถึง URL ตัวอย่างเช่น เนื่องจากบล็อกของ Lao Zhao ได้รับการอัปเดตบ่อยครั้ง เป็นต้นฉบับทั้งหมด และมีเนื้อหาที่ยอดเยี่ยม จึงมักถูกอ้างอิงโดยหน้าเว็บอื่นๆ มากมาย (เช่น บล็อกของฉัน) เมื่อเวลาผ่านไป URL ของบล็อกของ Lao Zhao จะกลายเป็น มี "คุณค่า" มาก จึงควรทะนุถนอมไว้ หากวันหนึ่ง Lao Zhao สร้างบล็อกใหม่และคัดลอกเนื้อหาของบล็อกเดิมไปยังบล็อกใหม่ แม้ว่าเนื้อหาของบล็อกใหม่และบล็อกเก่าจะเหมือนกันทุกประการหากไม่มีมาตรการพิเศษบางประการ: 1. เครื่องมือค้นหาไม่ทราบความสัมพันธ์ระหว่างบล็อกใหม่ของ Lao Zhao และบล็อกเก่า 2. ลิงก์ก่อนหน้าทั้งหมดที่ชี้ไปที่ บล็อกเก่าของ Lao Zhao ไม่ได้ สามารถใช้ได้อีก ดังนั้น URL ของบล็อกใหม่จึงไม่สามารถสืบทอด "ค่า" ของ URL บล็อกดั้งเดิมได้ วัตถุประสงค์หลักของ "การเปลี่ยนเส้นทางเนื้อหา" ในภายหลังในชุดนี้คือเพื่อรักษาคุณค่าของลิงก์เหล่านี้
2. เพจแรงก์. พูดง่ายๆ ก็คือการประเมินการให้คะแนนของ Google เกี่ยวกับมูลค่าของลิงก์หน้าเว็บแต่ละลิงก์ ยิ่งค่าลิงก์สูง ระดับก็จะยิ่งสูงขึ้น และภายใต้เงื่อนไขเดียวกัน อันดับของเครื่องมือค้นหาก็จะยิ่งสูงขึ้น แน่นอนว่าตอนนี้บางคนเชื่อว่าความสำคัญของ PageRank นั้นค่อยๆ ลดลง
3. ความพร้อมใช้งานและการเข้าถึง
ปัจจัยที่ส่งผลต่อการจัดอันดับของเครื่องมือค้นหา:
ปัจจัยภายใน:
1. ปัจจัยที่มองเห็นได้ในหน้า:
ชื่อเรื่อง: โปรดทราบว่าแต่ละหน้าจะต้องมีชื่อเรื่อง แต่ไม่ควรเหมือนกัน
heading: เช่น <h1><h2>...แท็ก title จะทำให้เครื่องมือค้นหาให้ความสำคัญกับเนื้อหามากขึ้น
เนื้อหาของหน้า: “เหมาะสม” (ฉันไม่รู้ว่าสิ่งใดถือว่าเหมาะสม!) ความหนาแน่นของคำหลัก
คำเตือนลิงก์: ระวังอย่าชี้ไปที่ไซต์สแปม
คำหลักใน URL และชื่อโดเมน: เว็บไซต์จีนสามารถเพิกเฉยต่อรายการนี้ได้
โครงสร้างลิงก์ภายในและจุดยึด: พวกมันสามารถนำทาง Google Spiders ไปยังลิงก์ที่ลึกกว่าได้ แต่คุณยังต้องระวังอย่าให้ลิงก์ลึกเกินไป โทโพโลยีลิงก์ของเว็บไซต์ควรแบนราบที่สุดเท่าที่จะเป็นไปได้ แทนที่จะเป็นแนวตั้ง
โทโพโลยีไซต์โดยรวม: ยังคงเป็นแบบเรียบๆ และเนื้อหามีความเกี่ยวข้อง
2. ปัจจัยในหน้ามองไม่เห็น:
คำอธิบายเมตา:
เมตาคีย์:
กาลครั้งหนึ่งนี่เป็นทักษะ ตอนนี้ มันเป็นสามัญสำนึก หากเพจของคุณไม่มีองค์ประกอบทั้งสองนี้ จะทำให้คนอื่นเชื่อว่าคุณกำลังทำ SEO ได้ยาก
Alt และ title: ค่อนข้างมีประโยชน์สำหรับรูปภาพ
โครงสร้างหน้า: "การใช้หน่วยโครงสร้างบล็อกตามที่คุณต้องการอาจเป็นอันตรายได้" ความเข้าใจของฉันคือ <h1>, <div> และ <p> มีค่าความหมายที่แน่นอนสำหรับสไปเดอร์ ตัวอย่างเช่น สไปเดอร์จะคิดว่า <h1> หมายถึงชื่อเรื่องมีน้ำหนักมากขึ้นเมื่อสร้างดัชนีคำหลัก
3. ปัจจัยด้านเวลา: แน่นอนว่าเว็บไซต์ที่มีประวัติยาวนาน รวมถึงเพจ ชื่อโดเมน และลิงก์ จะมีมูลค่าสูงกว่าอย่างแน่นอน
ปัจจัยภายนอก:
1. ลิงก์ขาเข้า: ปริมาณ คุณภาพ ความเกี่ยวข้อง ตำแหน่งที่ตั้ง ฯลฯ ระวังอย่าพยายามหลอกลวง Google Spider "การแลกเปลี่ยนลิงก์" และอื่นๆ
2. ความเข้ากันได้ของมาตรฐานเว็บ: ดูเหมือนว่าจะมีความสำคัญมากขึ้นเรื่อยๆ ในตอนนี้!
ปัจจัยที่เป็นอันตราย:
1. เอฟเฟกต์ Google Sandbox: เผยแพร่อย่างกว้างขวางแต่ไม่มีหลักฐานที่เชื่อถือได้ พูดง่ายๆ ก็คือ Google จะสังเกตเว็บไซต์ใหม่ๆ เป็นระยะเวลาหนึ่ง (ปกติแล้วจะเป็นเวลา 6 เดือน) ในช่วงเวลานี้ เว็บไซต์ใหม่จะไม่รวมอยู่ในจำนวนมาก
2. การลงโทษชื่อโดเมนที่หมดอายุ: การใช้ชื่อโดเมนที่หมดอายุเพื่อเปิดเว็บไซต์ใหม่สามารถใช้เพื่อหลีกเลี่ยงการลงโทษชื่อโดเมนในอดีตได้ ไม่ได้แล้ว!
3. การลงโทษเนื้อหาที่ซ้ำกัน: สิ่งนี้สำคัญมาก! ควรหลีกเลี่ยงเนื้อหาที่ซ้ำกันจำนวนมากในไซต์ และจะมีบทเฉพาะเพื่ออธิบายเรื่องนี้ในภายหลัง
4. ดัชนีเสริมของ Google: