في الآونة الأخيرة، واجهت العديد من مواقع الأصدقاء نفس المشكلة، أي أن عنوان موقع الويب ووصفه في نتائج بحث Baidu يتم عرضهما بشكل غير طبيعي وغير كامل، ولا تحتوي لقطة موقع الويب على وصف، ولا يمكن معاينة لقطة موقع الويب، ولكن موقع الويب يتم تحديث اللقطة كل يوم، بخصوص هذه المشكلة، ما السبب؟ هنا سيتحدث معكم المؤلف عن أسباب هذه المشكلة وحلولها.
1. المشكلة التي يسببها ملف robots.txt
بشكل عام، يحدث هذا عند تعيين عنوان URL محدد على "nofollow, noindex" في ملف Robots.txt، على الرغم من أن هذه التعليمات تخبر محرك البحث بعدم متابعة هذا الرابط وإدراجه. ولكن إذا كان هناك عدد معين من الروابط الخارجية التي تشير إلى هذا الرابط، فقد تقوم محركات البحث بتضمين عنوان URL. في هذا الوقت، قد يكون العنوان عنوان URL وقد يكون الوصف فارغًا. بالطبع، يحدث هذا الموقف غالبًا مع محرك بحث GOOGLE. من النادر أن تقوم بايدو بتضمين روابط "nofollow، noindex"، لكن هذا الاحتمال غير مستبعد.
قام المؤلف بتحسين موقع ويب لأحد العملاء قبل شهر، وحدثت هذه المشكلة أيضًا بسبب تعديل ملف robots.txt، مما أدى إلى الحصول على لقطات غير كاملة لعنوان موقع الويب ووصفه، وأنا أبحث عن السبب لعدة أيام ولم أر أي نتائج، اعتقدت أنها قد تكون مشكلة في ملف robots.txt، لكنني اكتشفته بالصدفة لاحقًا، لذلك قمت بتعديله على الفور. ونتيجة لذلك، عاد موقع الويب إلى وضعه الطبيعي في اليوم التالي، لذلك يوصى الأصدقاء الذين لديهم هذه المشكلة بالتحقق من ملف robots.txt.
2. التغييرات في محتوى موقع الويب والعنوان
يعد هذا موقفًا أكثر خطورة، كما هو الحال بعد تعديل كل أو معظم العنوان أو الوصف أو مسار URL لموقع الويب الخاص بك وتعديله. سيؤدي ذلك إلى موت عدد كبير من الصفحات وسيفقد ثقة محركات البحث بعد اختفاء الصفحة من محرك البحث، سيبدأ محرك البحث في تضمين الصفحة مرة أخرى بسبب الروابط الخارجية للصفحة. من المحتمل أيضًا أن يكون الوصف فارغًا.
بعد مراجعة موقع الويب أو إجراء تغييرات واسعة النطاق، يوصى بإعداد الروبوتات لمنع الزحف إلى صفحات الخطأ وإنتاج صفحات خطأ 404، وهذا يمكن أن يقلل من خسارة المستخدم من ناحية، ومن ناحية أخرى، يمكن أن يخبر العناكب بذلك وهذا عنوان خاطئ ومحظور، ويقوم العنكبوت بالزحف إلى صفحات ويب غير موجودة، ويستمر خلال هذه الفترة في تحديث المحتوى الأصلي والروابط الخارجية عالية الجودة للموقع.
3. قدرة بايدو على التقاط البيانات غير كافية
وقد لوحظ أن هذا الموقف يحدث بشكل رئيسي لأن قدرة بايدو على التقاط البيانات ليست قوية بما فيه الكفاية. خاصة بالنسبة لمواقع الويب التي تستخدم CDN، بشكل عام، يقوم زاحف Baidu بتخزين عنوان IP الخاص بالخادم المطابق لاسم المجال لأكثر من يوم واحد. عندما يزحف العنكبوت إلى موقع الويب، فإنه لا يقوم بتخزين سجل DNS وفقًا لبروتوكول DNS، ولكنه يخزن مؤقتًا سجل DNS لأكثر من يوم واحد، لذلك عندما يزحف العنكبوت إلى موقع الويب، فإنه لا يقوم بتخزين سجل DNS مؤقتًا وفقًا لبروتوكول DNS إذا قام CDN بتغيير IP، فسيستمر Baidu Spider في الزحف إلى عنوان IP القديم للخادم الذي لا يمكن الوصول إليه خلال يوم واحد. سيؤدي هذا إلى عدم الزحف إلى بيانات عقدة معينة، ولن يتم عرض عنوان موقع الويب ووصفه بشكل صحيح.
ولا تزال قدرات بايدو في تحليل البيانات ومعالجتها بحاجة إلى التعزيز. لا داعي للذعر على مشرفي المواقع الذين يواجهون هذا الموقف، حيث سيعود الوضع عادةً إلى طبيعته خلال أسبوع.
أخيرًا، اسمحوا لي أن أخبر أصدقائي مشرفي الموقع أنه إذا لم تجد أي مشاكل عند فحص موقع الويب نفسه والعوامل خارج الموقع، فلا داعي للذعر، فمن المرجح أن تكون المشكلة في Baidu نفسه أو في الظروف العادية سيتم استعادتها في غضون أسبوع. خلال هذا الوقت يجب عليك الاستمرار في تحليل ما يجري داخل موقعك وخارجه.
هذه المقالة ساهم بها مسؤول الموقع http://www.gzhj-gb.com وآمل أن تكون مفيدة للجميع. ومرحبًا بكم في إعادة طباعتها. يرجى الإشارة إلى المصدر لإعادة الطباعة. شكرًا لكم على تعاونكم.
رئيس التحرير: المساحة الشخصية للمؤلف يانغ يانغ لانجلي تاوجين