Digerz

Audit

Audit de sites des Grandes écoles : attention à la partie cachée de l’iceberg

A l’occasion de la sortie du nouveau site de Dauphine PSL, nous avons décidé de nous arrêter sur l'univers des grandes écoles. Dans le cadre de cette analyse, nous avons observé plusieurs facettes digitales des sites officiels de 4 grands établissements français : Sciences Po, Normale Sup, Dauphine et l'ESCP.

Pour obtenir les données présentes dans cet article nous avons utilisé des moyens humains et techniques. Ce mini audit s’appuie sur l’analyse de 5000 pages de chacun des sites observés sur leur version avec et sans « www. » (et pas l’ensemble du nom de domaine). Voici en une image le résumé de cette étude.

 

Les erreurs techniques SEO

Quand on pense au référencement d’un site, on a souvent en tête de travailler principalement les mots-clés. Certes, cette phase est indispensable mais ce n’est pas la seule, loin de là… Vous pouvez avoir la charte sémantique la mieux optimisée pour le SEO, si votre site comporte des erreurs techniques qui empêchent un référencement optimal, cela ne servira à rien. Voici quelques erreurs (non hiérarchisées) sur les 4 sites observés.

 

1. Sciences Po (4 942 erreurs)

– 1 249 contenus non-sécurisés. Si votre site Web contient des éléments qui ne sont pas sécurisés en HTTPS, cela peut entraîner des problèmes de sécurité. De plus, les navigateurs avertiront les utilisateurs avant de charger du contenu non sécurisé, et cela peut avoir un impact négatif sur l’expérience utilisateur et réduire la confiance des visiteurs dans votre site.

– 1 141 descriptions meta en double. Une balise <meta description> est un bref récapitulatif du contenu d’une page Web qui aide les moteurs de recherche à comprendre de quoi traite votre page et que les utilisateurs pourront voir dans les résultats de recherche. Les descriptions Meta en double sur différentes pages constituent une occasion manquée d’utiliser des mots clés plus pertinents. De plus, les descriptions Meta en double permettent difficilement aux moteurs de recherche et aux utilisateurs de faire une distinction entre les différentes pages Web. Il vaut mieux n’avoir aucune description Meta que d’en avoir en double.

 

2. ENS (13 385 erreurs)

– 541 pages ont une vitesse de chargement lente. La vitesse de chargement d’une page est l’un des facteurs de classement les plus importants. Plus votre page se charge vite, plus elle peut obtenir un bon classement. De plus, les pages qui se chargent vite ont un effet positif sur l’expérience utilisateur et peuvent augmenter votre taux de conversion. Veuillez noter que « la vitesse de chargement » se réfère généralement au temps qu’il faut à une page Web pour être pleinement rendue par un navigateur.

– 400 conflits d’attributs hreflang dans le code source de page. Un attribut hreflang aide les moteurs de recherche a comprendre quelle page afficher aux visiteurs en fonction de leur emplacement. L’utilisation de ces attributs est utile si vous gérez un site Internet multilingue et souhaitez que les utilisateurs d’autres pays trouvent votre contenu dans la langue de leur choix. Il est important de correctement mettre en œuvre les attributs hreflang, sinon les moteurs de recherche ne seront pas en mesure d’afficher la bonne version linguistique de votre page à l’audience concernée.

 

3. ESCP (9 336 erreurs)

– 2 969 liens rompus. Les liens externes rompus dirigent les utilisateurs d’un site à l’autre et les amènent vers des pages Web inexistantes. Plusieurs liens rompus nuisent à l’expérience utilisateur et peuvent aggraver votre référencement parce que les robots peuvent penser que votre site fait l’objet d’une mauvaise maintenance ou qu’il est mal codé.

– 24 problèmes avec des fichiers Javascript et CSS internes corrompus. Un fichier JavaScript ou CSS corrompu est un problème qui doit être surveillé sur votre site Web. Tout script qui a cessé de fonctionner sur votre site Web peut compromettre votre classement car les moteurs de recherche ne peuvent pas correctement afficher et indexer vos pages Web. De plus, les fichiers JS et CSS corrompus peuvent provoquer des erreurs sur le site Web, ce qui gâche forcément votre expérience utilisateur.

 

4. Dauphine (6 761 erreurs)

– 2 827 balises de titre en double. Les balises <title> en double permettent difficilement aux moteurs de recherche de déterminer les pages d’un site Web pertinentes pour une requête de recherche spécifique, et celle à placer en priorité dans les résultats de recherche. Les pages avec des titres en double ont moins de chance d’être bien classées et courent le risque d’être interdites. De plus, les balises <title> identiques induisent les utilisateurs en erreur sur les pages Web à suivre.

– 2 453 contenus dupliqués. Les pages Web sont considérées en double si elles contiennent du contenu identique ou presque identique. Trop de contenu en double peut perdre les moteurs de recherche quant à savoir quelle page indexer et à laquelle donner priorité dans les résultats de recherche. L’utilisation de contenu en double sur plusieurs pages peut entraîner une perte de trafic et un mauvais placement dans les résultats de recherche, voire une interdiction de votre page par les moteurs de recherche. Veuillez noter que SEMrushBot peut marquer vos pages Web en double s’il y a trop de texte dans la navigation de votre site Web par rapport à la quantité de texte unique présente sur votre page.

 

Les problèmes sont assez similaires sur l’ensemble des sites analysés : contenus, meta description, et balises titres en doubles, problème de gestion des langues ou liens rompus sont les erreurs les plus fréquentes. Il est néanmoins à noter que certains problèmes sont présents sur toutes les pages, expliquant parfois un nombre d’anomalies excessivement élevé. Par ailleurs, certaines « erreurs » sont commises sciemment dans le but de privilégier une fonctionnalité ergonomique ou un élément design.

 

Les mot-clés

Un « mot-clé » au sens des moteurs de recherche n’est pas forcément un mot unique, il s’agit en fait de la totalité des mots qui ont été tapés dans la barre de recherche. Parler de « phrase-clé » semblerait donc plus approprié, mais « mot-clé » est la terminologie qui est utilisée. Un mot-clé est caractérisé en fonction de 3 critères :

– le volume de recherche qu’il génère sur les moteurs de recherche

– sa précision ou pertinence

– la compétition à laquelle on doit faire face pour bien se classer pour ce mot-clé

Pour le besoin de notre analyse, un « mot clé » a été défini comme une requête en français qui apparaît dans les 100 premières recherches organiques de Google. Dans ce contexte, Sciences Po et l’ENS caracolent en tête. Il est important de noter que 60% du trafic généré par ces mots clés inclus le nom de l’école, d’où l’importance de bien travailler la notoriété de marque pour ces établissements (online ou offline). On peut répartir ces mots-clés en 3 typologies distinctes :

– les mots-clés génériques en général composé de 1 mot comme « doctorat » : volume élevé, précision faible, compétition élevée

– les mots-clés intermédiaires en général composé de 2-3 mots comme « doctorat en sociologie » : volume moyen, précision moyenne, compétition moyenne

– les mots-clés de niche (« Long-tail keyword » en anglais) composés de 3 mots et plus, comme « doctorat en sociologie à Paris » : volume faible, précision grande, compétition faible

 

Le volume de recherche des mots-clés génériques peut paraître alléchant, mais en général il est très difficile de se faire une place dans les premiers rangs des résultats des pages de recherche quand on se bat contre des concurrents ayant plus de moyens pour investir en adwords par exemple. Dans la plupart des cas, une bien meilleure stratégie consiste donc à travailler en profondeur la recherche de mots-clés pour identifier des mots-clés intermédiaires et des mots-clés de niche qui permettront de cibler des recherches plus précises, moins coûteuses, et d’obtenir un retour sur investissement bien meilleur.

 

Les backlinks

Un Backlink est un lien provenant d’un site extérieur et pointant vers votre site. Quand ces liens sont de qualité, il s’agit d’une denrée précieuse pour votre référencement. On peut même affirmer qu’ils sont cruciaux et qu’à partir du moment où l’aspect technique et éditorial du site atteint un niveau ne serait-ce qu’acceptable, ce sont ces liens qui feront la différence dans les SERPs.

Parmi les écoles analysées, 3 d’entre-elles bénéficient d’un nombre significatif de backlink de qualité (entre 63k et 141k). Dans ce domaine, Dauphine semble en retrait avec « seulement » 4k backlinks pour 700 domaines référents et un taux élevé liens jugé toxiques (10%).

Les backlinks demeurent un des critères les plus importants pour l’algorithme déterminant le positionnement organique sur Google. Ainsi, la construction de liens et la maintenance des backlinks doivent absolument faire partie de toute stratégie SEO. Malheureusement, cette approche est complexe à mettre en place. Bien sûr, il existe des procédés faciles pour construire des liens, mais afin de mettre en place une véritable stratégie, vous devrez effectuer une analyse approfondie des opportunités de backlinks de votre secteur, avoir une tournure d’esprit orientée vers les RP, et effectuer un suivi de vos actions.

Ces liens externes sont caractérisés par 3 facteurs :

– la qualité du lien : cela dépend de la fiabilité et de la réputation du site extérieur (de son domaine)

– le texte du lien lui-même : il faut tout faire pour que le texte du lien comporte au moins le nom de l’école mais encore mieux : quelques-uns des mots-clés prioritaires

– un meta tag « follow » : lorsqu’un lien comporte un méta tag « nofollow », il ne sera pas indexé par les moteurs de recherche, alors que s’il a un tag « follow », il le sera.

Comme pour les contenus, la priorité pour les liens externes est de privilégier la qualité sur la quantité, et d’essayer d’en ajouter de nouveaux régulièrement. Des backlinks de mauvaise qualité contribuent à faire baisser le référencement d’un site. Deux solutions s’offrent alors à vous pour traiter ces liens externes « toxiques » :

– Demandez à Google d’ignorer vos backlinks toxiques (outil Disavow).

– Envoyez les demandes de suppression de backlinks aux propriétaires de domaine

 

L’Ergonomie et les fonctionnalités

Les 4 établissements observés ont bien compris l’importance du digital auprès de leurs différentes cibles, qu’il s’agisse des étudiants (anciens, actuels ou futurs), des entreprises, des journalistes, voir des enseignants. En effet, d’un point de vue ergonomique les plateformes digitales développées sont plutôt intuitives et le parcours utilisateur assez cohérent. Une place intéressante est accordée aux anciens élèves avec notamment des portraits sur le site de l’ENS, des pushs bien visibles vers des espaces Alumni ou des informations assez amusantes comme la possibilité de retrouver le dossier de Jacques Chirac du côté Sciences Po

En revanche sur l’ensemble des sites, des efforts peuvent être réalisés en termes de design et d’expérience utilisateur dès qu’on rentre dans les profondeurs des sites. Le contenu existe (et c’est déjà très bien) mais parfois le maillage interne peut-être approximatif et la mise en avant peu esthétique. Ce point est particulièrement important car ces pages concernent souvent des utilisateurs intéressés par le contenu qu’il faut donc particulièrement soignés.

Dans ce contexte de surabondance des contenus, il est indispensable de faciliter la navigation des Internautes pour ne pas les perdre. Avec son « menu burger » qui impose une multitude de clics pour accéder aux informations recherchées, Dauphine ne prend malheureusement pas en compte ce principe. Sur desktop, il est en effet préférable d’éviter le menu burger, certes plus esthétique mais beaucoup moins explicite pour une partie des internautes : « Ce qui n’est pas vu n’est pas connu ».

On peut également regretter, sur l’ensemble des sites observés, le peu de fonctionnalités interactives ou immersives destinées à enrichir l’expérience des visiteurs (vidéos à 360°, chat…), autant de petites choses qui peuvent apporter une réelle valeur ajoutée.

 

La technique

Même si, nous l’avons vu, l’ergonomie et le design est plutôt réussi, il n’en est pas de même de l’aspect technique : la face cachée de l’iceberg… Sans rentrer dans des détails trop techniques, nous pouvons résumer ainsi l’analyse technique des sites observés : Hormis Dauphine qui s’en sort plutôt convenablement, la structure technique des autres plateformes est très largement optimisable.

Précision pour les lecteurs moins à l’aise avec les éléments techniques : c’est une erreur de penser que l’essentiel réside dans l’apparence et que le codage d’un site est un élément secondaire. En effet, Google accorde une importance toute particulière à la performance des sites sur desktop et mobile (de plus en plus). Sans un développement de qualité, cette performance ne sera pas optimale (cf les piètres scores obtenus par les sites analysés) et donc le référencement sur les moteurs de recherche sera dégradé.

NB : Page speed et W3C, kezako ?

Page speed (desktop ou mobile), est un outil de Google qui analyse le contenu d’une page Web, lui donne un score sur 100 et génère des suggestions pour accroître la vitesse de la page.

W3C : Le World Wide Web Consortium (W3C), est un organisme de standardisation chargé de promouvoir la compatibilité des technologies web et qui est en mesure d’analyser le bon codage d’un site Internet