[Introduction] L'analyse de sites Web est encore nouvelle, il peut donc y avoir divers biais dans notre compréhension. Cet article résume divers malentendus courants concernant l’analyse de sites Web que j’ai trouvés dans mon travail. Il s'agit de la deuxième partie, et cette partie aborde un territoire plus détaillé. Pour la première partie, veuillez consulter : Les dix principaux malentendus et alternatives à l'analyse de sites Web (1)
【texte】
Continuons à parler des malentendus courants dans l’analyse de sites Web.
Mythe 6 : Plus le taux de rebond est élevé, plus la qualité de la page est mauvaise.
Généralement, tout le monde pense que le taux de rebond est utilisé pour mesurer la qualité des pages. D’une manière générale, c’est exact, mais on ne peut pas dire qu’un taux de rebond élevé doit être dû à une mauvaise qualité de page.
Tout d’abord, le taux de rebond n’est pas seulement déterminé par la qualité de la page, mais également affecté par la qualité du trafic. Pour prendre un exemple extrême, si le texte de votre page est très tentant, mais que tous les visiteurs ne comprennent pas le chinois, votre page de destination aura toujours un taux de rebond élevé. Par conséquent, nous ne pouvons pas toujours blâmer la page elle-même pour les problèmes.
Deuxièmement, certaines pages de destination elles-mêmes ont très peu de trafic. Par exemple, il n'y a que 10 visites par mois, et 6 d'entre elles partent immédiatement. Un taux de rebond de 60 % n'est pas statistiquement significatif.
Par conséquent, lorsque nous constatons un taux de rebond élevé, nous devons analyser deux aspects en même temps. Ma méthode de réflexion la plus couramment utilisée est la suivante :
1. Vérifiez la correspondance : quels sont les attributs de la source de trafic du site Web ? Pourquoi viennent-ils sur votre site Web ? Quel contenu leur est fourni par la page Web ? Cela ne nécessite aucun outil d'analyse de site Web, en tant que propriétaire ? du site Internet (site Tout le monde doit en être conscient. Concernant le problème de correspondance, veuillez vous référer à mon autre article : Le deuxième des 10 malentendus majeurs qui affectent le taux de conversion des sites Web (Partie 1). Lorsque les attributs du trafic lui-même ne correspondent pas au contenu de la page de destination, le taux de rebond sera souvent plus élevé.
2. Vérifiez s'il y a une fraude routière. Ce problème se produit principalement sur les sites Web des annonceurs de marques. Pour les sites de commerce électronique, chaque trafic vaut un centime. S'il y a tricherie, c'est un problème sérieux. Le trafic frauduleux est faux, et un trafic frauduleux de niveau relativement faible entraînera certainement un taux de rebond élevé. L'analyse de sites Web est le meilleur outil pour détecter la triche. Un ami a mentionné un jour ses exploits en matière de fraude routière. J'espère vraiment qu'il pourra "revenir à son ancien métier". Il attaquera et je défendrai, et nous serons "les meilleurs".
Un moyen courant de détecter la fraude routière consiste à segmenter les sources de trafic. Bien sûr, il existe d'autres méthodes de réparation, que je n'ose pas annoncer imprudemment comme mon atout. Dans ce domaine, les maîtres sont aussi bons que les démons ! J'espère que personne ne veut me traquer.
3. Vérifiez la page. S'il n'y a rien de mal avec le trafic lui-même et qu'il s'agit bien de votre groupe cible, alors il n'y a rien à dire, vérifiez simplement la qualité de la page. Bien entendu, vous devez toujours faire attention à la méthode lorsque vous consultez la page. Il est recommandé de suivre les étapes suivantes :
Tout problème technique pouvant exister sur la page, tel qu'un chargement lent, un affichage anormal, des programmes et plug-ins invalides, etc.
Cartes thermiques – Utilisées pour découvrir les points d'intérêt potentiels pour vos visiteurs, ainsi que les points où vous pensiez qu'ils seraient intéressés mais n'avez pas obtenu les résultats souhaités.
Analyse de la demande des visiteurs - analyse de recherche interne, analyse de recherche externe, questionnaires (tels que le questionnaire 4Q), trajectoires de souris. En fait, la carte thermique mentionnée ci-dessus est en fait une sorte de méthode d'analyse de la demande. Si la demande ne correspond pas au contenu de la page, le taux de rebond doit être élevé, indiquant que la qualité de la page est médiocre.
Analyse sous-pliée (sous-pli fait référence au contenu de la page qui ne peut pas être affiché sur le premier écran et doit être extrait pour être affiché. Omniture SiteCatalyst a un très bon rapport de données sous-pli) - le contenu attrayant n'est-il pas directement affiché sur la page ? Au-dessus de la ligne de flottaison pour une partie importante des visiteurs ? ;
Les éléments de la page qui guident les utilisateurs, en particulier l'appel à l'action (élément qui appelle les utilisateurs à agir, comme cliquer sur le bouton d'inscription), sont-ils suffisamment conviviaux ? Veuillez vous référer à mon autre article pour ce contenu : 10 malentendus qui affectent ? Taux de conversion des sites Web (Partie 1)) et le sixième point du Top 10 des malentendus affectant les taux de conversion des sites Web (Partie 2).
Maintenant, j'espère que vous pourrez mieux comprendre le taux de rebond.
Malentendu 7 : Confusion entre outils d’analyse de sites web et outils de veille publicitaire
Les outils d'analyse de sites Web et les outils de surveillance de la publicité ne se concentrent généralement pas sur un seul outil. Bien que notre pays dispose de tels outils « intégrés », en général, les outils d'analyse de sites Web et les outils de surveillance de la publicité sont des « puits et des rivières », chacun avec ses propres caractéristiques. le ciel et la terre.
Inutile de dire que les outils d'analyse de sites Web, Google Analytics, Omniture, WebTrends, CoreMetrics, XiTi, etc., surveillent le comportement des visiteurs au sein du site Web (Sur site). De plus, ces outils fournissent des modèles de base communs pour afficher les données comportementales surveillées.
Les outils de surveillance de la publicité, désignent ici les outils de surveillance de la publicité affichée sur Internet, sont utilisés pour surveiller l'affichage (ImPRession) des publicités, les clics, le nombre de cookies correspondant aux publicités (utilisés pour analyser la fréquence d'affichage et les clics des publicités) et l'emplacement. de publicités. Site Internet (éditeur), etc. Les outils typiques de surveillance de la publicité incluent DoubleClick, que Google a acquis avec succès après un procès avec Microsoft il y a quelques années, Atlas de Microsoft, OpenX gratuit, Eyeblaster développé par une société israélienne, Allyes et AdMaster en Chine, etc.
D'après mon expérience, les outils d'analyse de sites Web se concentrent sur l'analyse post-surveillance, qui est plus difficile à analyser ; les outils de surveillance des publicités se concentrent sur la clarification du format et des concepts associés de la publicité en ligne (tels que la diffusion d'annonces et le suivi des publicités) et sur la transformation de ces concepts en D'une manière générale, les réglages spécifiques de l'outil ne sont pas difficiles, et l'analyse n'est pas difficile. Après tout, l’interaction qui peut être effectuée sur une publicité est bien moindre que l’interaction sur un site Web. Bien sûr, la publicité Richmedia (rich media) est également plus complexe et nécessite une mise en œuvre minutieuse, mais à mon avis, comparée aux outils de surveillance publicitaire et aux outils d'analyse de sites Web, ces derniers sont un outil plus « haut de gamme ».
Les outils d'analyse de sites Web sont souvent combinés avec des outils de surveillance des publicités (notez qu'ils ne sont pas combinés). Certaines unions sont de simples unions, comme le Link Tag implémenté par le code UTM de Google Analytics et l'outil Saint d'Omniture ; d'autres sont des intégrations de systèmes très puissantes, comme l'outil Genesis fourni par Omniture, qui peut être intégré à des systèmes tels que DoubleClick et Eyeblaser. Intégrez les données de l'outil de surveillance publicitaire directement dans l'outil d'analyse du site Web. Cet outil peut également être intégré à l'ERP, au CRM, au système de gestion des ventes de l'entreprise.
Bien sûr, si nous comprenons l'analyse de sites Web dans une perspective plus large, les outils nécessaires à l'analyse de sites Web incluent certains outils d'analyse de sites Web de veille concurrentielle, tels qu'Alexa, iUserTracker d'iResearch, le célèbre étranger Compete.com, Google Trends pour site Web, ainsi que Google DoubleClick Ad Planner et plus encore.
La dernière chose que je souhaite souligner est que les outils de surveillance des publicités peuvent également mettre en œuvre une partie de la fonction de surveillance du trafic du site Web, c'est-à-dire le nombre de clics sur les publicités qui sont réellement convertis en pages vues. Les outils d'analyse de site Web peuvent également surveiller l'exposition des publicités ou les clics. Tant que vous comprenez le fonctionnement des outils d'analyse de site Web, vous pouvez trouver un moyen de charger l'annonce tout en demandant également un pixel 1 × 1 sur le serveur de l'outil d'analyse de site Web. Pour plus de détails, veuillez cliquer sur : Surveillance « Cloud » : analyse de site Web vertical (Google Analytics pour Taobao). Philosophiquement parlant, il n’y a pas d’absolu en tout, et cela est également vrai pour les outils d’analyse de sites Web et les outils de surveillance publicitaire.
Mythe 8 : Le choix d'un outil d'analyse de site Web est la première étape de l'analyse de site Web
Les outils d’analyse de sites Web sont constamment mis en avant par les utilisateurs, et à juste titre. Si un ouvrier veut bien faire son travail, il doit d’abord affûter ses outils. Mais avant de choisir un outil d’analyse de site Web, attendez une minute !
Comprendre l'entreprise est la première étape de l'analyse d'un site Web.
Par exemple, Aviva (pas Aviva Chine), ils me demandent toujours : dites-moi s'il vous plaît ce que nous devons surveiller, et il m'est parfois difficile de répondre. Pour une compagnie d'assurance, je pense qu'elle comprend mieux que moi le caractère unique de sa propre entreprise, par exemple ce qui est le plus important, obtenir un devis ou récupérer un devis - quel comportement d'utilisateur en ligne est le plus significatif pour son activité réelle. Il n'est peut-être pas utile de transférer directement la méthode d'Allianz.
Si vous comprenez clairement les points clés de votre entreprise, alors l'analyse du site Web représente la moitié de la bataille. Le reste est constitué de problèmes techniques : l'analyste du site Web trouvera les comportements clés sur le site Web qui correspondent à ces points commerciaux, puis ciblera ces comportements clés. Choisissez simplement un outil d’analyse de site Web ciblé. Il n'y a rien d'extraordinaire sur le site, il y a toujours un outil adapté à vos besoins. Et comprendre ce dont vous avez réellement besoin est la chose la plus importante. À cet égard, j’ai vu un site Web immobilier en ligne faire du très bon travail car ils savent ce qu’ils veulent, ce qui représente en réalité la moitié de la bataille.
En ce qui concerne les outils, je voudrais dire quelques mots. J'insiste toujours sur le fait que les outils ne sont que le début de l'analyse d'un site Web. C'est comme acheter de la viande et des légumes au marché humide et les rapporter à la maison, mais ce ne sont pas des spécialités chinoises. Vous devez utiliser votre propre sagesse et votre expérience pour préparer des plats qui satisfont votre femme et vos enfants. Les analystes de sites Web constituent une industrie très, très prometteuse, surtout aujourd'hui, alors que le marketing Internet chinois passe progressivement d'un marketing étendu à un marketing sophistiqué. Dans le passé, les gens se concentraient uniquement sur l'argent investi dans le marketing et sur l'argent reçu après la vente des produits. Aujourd'hui, les gens se rendent compte qu'il existe en fait de nombreux endroits dans le processus entre les deux extrémités qui peuvent être artificiellement promus ou contrôlés. Gagner 5 % est un profit, et gagner 10 % est un profit. Pourquoi ne pas gagner plus ? L'analyse de sites Web vous permet de gagner plus - bien sûr, vous avez besoin d'un analyste fiable pour vous aider à analyser et à optimiser ce processus. Les outils ne vous donnent que les matières premières et les maîtres en font des plats exquis.
Mythe 9 : Le trafic direct est un trafic direct
Le trafic direct est un bon trafic. De manière générale, ce trafic représente des personnes réellement intéressées par votre site Web. Google Analytics peut enregistrer automatiquement le trafic direct, tout comme d'autres outils d'analyse de sites Web.
Cependant, ne pensez pas que tout ce trafic soit réellement du trafic direct. Pour Google Analytics : toutes les sources de trafic (référents) qui ne peuvent pas être identifiées sont classées comme trafic direct. À cet égard, Omniture est plus rigoureux pour le trafic dont la source ne peut être identifiée, il s'agit d'un trafic direct ou non identifié, évitant ainsi les malentendus. Si vous utilisez GA pour surveiller les sources de trafic et que vous dépensez de l'argent pour acheter du trafic mais ne marquez pas le trafic acheté, une grande quantité de trafic direct est susceptible d'apparaître. Cela signifie en fait que votre analyse des sources de trafic est fondamentalement impossible et que vous ne pouvez donc plus optimiser votre stratégie d'achat de trafic. Par conséquent, assurez-vous de garder votre trafic direct pur.
Mythe 10 : Les cookies tiers sont inférieurs aux cookies propriétaires
Les cookies sont nécessaires à l'analyse du site Web à l'aide du balisage des pages et servent de lien entre les visiteurs et les outils d'analyse. Les cookies sont divisés en cookies tiers et cookies propriétaires. Il est bon que tout le monde comprenne la différence entre les deux. Autrement dit, les cookies tiers sont inter-domaines. puis visite Sohu, sont toujours enregistrés en tant que visiteur ; et le cookie propriétaire ne peut pas traverser le domaine, et le cookie appartenant à Sina ne peut lui appartenir que si le visiteur visite Sohu immédiatement, alors ce cookie propriétaire ne peut pas être enregistré. le comportement des utilisateurs visitant Sohu.
Une fois que vous aurez compris cela, vous comprendrez que les cookies tiers ne sont pas nécessairement inférieurs aux cookies propriétaires. L'avantage des cookies tiers est qu'ils peuvent surveiller le comportement des visites sur plusieurs sites Web. Pour nos amis qui analysent les effets marketing, cette fonctionnalité est un grand avantage. Les cookies propriétaires ne sont pas si merveilleux.
Par conséquent, je dois souligner que les cookies propriétaires ne sont certainement pas aussi puissants sur le plan fonctionnel que les cookies tiers, et que les cookies tiers sont en fait une très bonne solution. Alors, pourquoi de nombreux experts étrangers recommandent-ils encore l’utilisation de cookies propriétaires ? Il n’y a aucune autre raison pour laquelle les cookies tiers ont suscité des inquiétudes au sein du public en raison de leurs fonctions puissantes. Les cookies propriétaires sont moins critiqués car ils ne peuvent enregistrer que le comportement des visiteurs sur un site Web. C’est pourquoi de nombreuses personnes ont réglé leur navigateur sur un niveau de sécurité plus élevé et désactivé les cookies tiers.
Cependant, en Chine, certaines choses ne sont pas comme ça et les gens ne se soucient pas tellement de la vie privée. Par conséquent, la situation de l’interdiction des cookies tiers en Chine n’est pas si pessimiste. Dans quelle mesure les visiteurs de votre site Web prennent-ils en charge les cookies ? Il est recommandé d'essayer l'analyse JYC. Cet outil peut non seulement analyser combien de personnes ont désactivé les cookies (propriétaires et tiers), mais également voir si javaScript est désactivé. Pour plus de détails sur mon expérience, veuillez cliquer sur : Quel est l'impact de Javascript et des cookies sur GA ?
Eh bien, cet épisode est à nouveau terminé. Mais cette série n'est pas encore terminée. Dans le prochain épisode, je présenterai d'autres questions fréquemment posées : le journal de fichiers est-il la méthode d'analyse de site Web la plus précise ? Plus le temps passé sur le site est long et plus la profondeur de la page est importante ? L'analyse de site Web a-t-elle un sens pour une analyse individuelle (par rapport à une analyse globale et par échantillonnage) ? Quelle est la compréhension de la récence ? Comment configurer le filtrage dans GA (peut-être un sujet spécial) ? , il y en a pas mal !
Source de l'article : Analyse de sites Web en Chine
Rédacteur en chef : Yang