Поисковые системы начали очищать от спама на сайтах web2.0 Недавно веб-мастер Baidu выпустил «Стратегию борьбы со спамом Web2.0», чтобы ограничить распространение спама, массовых сообщений, внешних SEO-ссылок и другого спама на web2. 0, механизм защиты от спама web2.0 постепенно сформировался в рамках оптимизации рейтинга в поисковых системах, и операторам веб-сайтов рекомендуется участвовать в стратегиях борьбы со спамом.
Во-первых, давайте поговорим о преимуществах сайтов web2.0: организация информации исходит от пользователей, и пользователи могут взаимодействовать друг с другом, образуя платформу разработки для совместного использования ресурсов. Недостатки сайтов web2.0: он снижает технический порог для пользователей. участвовать в выпуске и обмене сетевой информацией, и пользователи могут свободно создавать контент, который вас интересует, а поисковые системы не могут судить, является ли он ценным.
Публикационный мусор Web 2.0 в основном будет генерировать ненужную информацию:
1. Открыт для пользователей. Будь то текущие блоги, форумы, b2b, секретная информация, Weibo или SNS, пользователям разрешено регистрироваться для общения, публикации и создания контента. Другими словами, информация на сайте web2.0 формируется пользователями. Спонтанная организация. Его открытость привела к притоку большого количества внешней информации, которая сама по себе не требует слишком большого количества программ и основ создания веб-сайтов. Источником распространения web2 стали популяризация построения информации и открытость для пользователей. 0 информации.
2. Коммуникабельность и социальность являются важными факторами в создании информации Web2.0. Web2.0 основан на контенте, создаваемом пользователями, и представляет собой информационную модель, основанную на мудрости общественности. с точки зрения пользователя. Да, если пользователи создают большое количество бесполезного контента и ссылок, это также будет источником спам-информации. Информация агрегируется разными пользователями и разными способами, и такие поисковые системы не могут судить, действительно ли она ценна. информация.
Поисковые системы начали очищать ненужные внешние ссылки. Что касается текущих сайтов Web2.0, поисковая система Baidu отмечает:
1. Сбор большого количества контента веб-сайта был сокращен. Среди них сбор и копирование веб-сайтов находятся в нестабильном состоянии. Сбор и копирование контента веб-сайта могут столкнуться с вторичной проверкой сайта поисковыми системами.
2. Количество внешних ссылок на веб-сайте, как правило, высокое, а иногда и низкое. Поисковые системы могут рассматривать ссылки с нерелевантных сайтов как спам-ссылки низкого качества, и такое суждение может напрямую привести к высокому уровню потерь внешних ссылок на веб-сайт или сокращению их количества. власть.
Текущая «антиспамовая стратегия web2.0» Шэньчжэньского SEO для поисковой системы Baidu выявила, что Baidu представляет две тенденции в отношении контента и внешних ссылок:
1. Веб-сайты с авторитетным контентом с большей вероятностью получат доверие и рейтинг в поисковых системах.
2. Роль релевантных внешних ссылок становится всё сильнее и сильнее, а большое количество импортированных ссылок с релевантных сайтов может улучшить рейтинг веб-сайта по ключевым словам. Внешние ссылки с низкой релевантностью будут удалены из доменов, связанных с Baidu, или нерелевантные ссылки не будут участвовать в расчете рейтинга.
3. Согласно пункту 2, если веб-сайту не хватает разнообразия доменных имен и якорному тексту не хватает разнообразия при изменении внешних ссылок, это может привести к нестабильному рейтингу ключевых слов и с большей вероятностью будет понижено в рейтинге поисковыми системами.
Эта статья была первоначально написана Shenzhen SEO-оптимизацией веб-сайта. При перепечатке укажите SEO-оптимизацию в Шэньчжэне .
(Редактор: Чэнь Лун) Личное пространство автора Соэре