La agitación del sitio K el 28 de junio todavía está fresca en mi mente, y una gran cantidad de sitios K no se han restaurado. Hoy, el administrador de la comunidad de webmasters de Baidu, Lee, publicó otra publicación, diciendo que la actualización del algoritmo no ha terminado. es el siguiente:
La diferencia esta vez con el "incidente 6.28" es que todos fueron informados de antemano que el algoritmo se actualizaría y es posible que haya una ola de sitios K en el futuro. Por otro lado, varios de "baja calidad". Se destacaron los estándares para la adaptación al algoritmo.
1. El contenido se recopila al azar, las oraciones no son claras y los lectores no pueden obtener la información que necesitan.
2. Aunque el contenido es legible, la mayoría de los artículos se recopilan y copian de otros sitios web y no tienen contenido original.
3. La página web se intercala con palabras clave o artículos que no están relacionados con el tema, en un intento de engañar a los motores de búsqueda, y no proporciona una ayuda sustancial a los usuarios que buscan palabras clave relacionadas.
4. Fingir ser un sitio web oficial para engañar a los usuarios y hacer declaraciones falsas en el título y las metaetiquetas.
5. El sitio web contiene una gran cantidad de contenido ilegal o fraudulento, que puede causar pérdidas a la seguridad de la propiedad de los usuarios.
A partir de estos anuncios, el autor tiene algunas opiniones y agradece los intercambios.
1. Baidu ha aumentado su algoritmo para identificar el contenido original de los artículos. Después del incidente anterior del sitio web de 6.28K, Baidu declaró en muchos sentidos que tiene un algoritmo preliminar de identificación de contenido original y lo está mejorando constantemente (la Clínica de citas para webmasters de Baidu abrió sus puertas el 10 de agosto). mencionado muchas veces en Japón y China). Queda por ver qué tan fuerte es esta capacidad de identificar la originalidad.
2. Los sitios web con contenido semi-recopilado todavía tienen espacio para sobrevivir. El algoritmo de Baidu tiene una gran capacidad de reconocimiento original y el algoritmo es muy preciso. Para algunos webmasters, especialmente los webmasters individuales, asegurarse de que el sitio tenga una cierta proporción de contenido original aún puede ganar un lugar en Baidu.
3. Las palabras clave y la densidad de palabras clave siguen siendo el centro de atención. Cuando se volvió inútil y el relleno de palabras clave se convirtió en el método de trampa más obsoleto, Baidu reiteró específicamente este punto. El autor cree que trabajar con palabras clave desempeñará un papel importante en el ranking de la página.
4. Los sitios de phishing fraudulentos se han convertido en el foco de atención de todos. Baidu ha sido difamado por sitios web fraudulentos y de phishing una y otra vez, por lo que tiene sentido trabajar duro para hacerlo bien. Me pregunto si el webmaster estará implicado en el proceso de elección de una alianza publicitaria porque la publicidad de afiliados es ilegal.
"Según nuestra evaluación, esta actualización del algoritmo mejorará la experiencia de búsqueda para entre el 4% y el 5% de las palabras clave, y la precisión del algoritmo ha alcanzado un nivel muy alto". Esto es lo que dijo Baidu sobre el algoritmo que se actualizará esta vez. Estimar. No sé cuál será el resultado, esperemos y veremos. Este artículo fue creado originalmente por el webmaster del sitio web de Promoción de Inversiones ( www.zsw365.com ). ¡Puede conservar el enlace para reimprimirlo!
(Editor a cargo: momo) El espacio personal del autor