Slide
fond-nb-mag

La santé d’un site internet

ss-sante-site-internet
fond-nb-mag

Temps de lec­ture : 7 minutes

Comme pour nous, un site internet dis­pose d’un capital de départ quand il est créé, et en fonc­tion de ce que l’on en fait, il peut perdre des points et être en mau­vaise santé.

La bonne santé d’un site internet consiste à aller cher­cher une per­for­mance, une opti­mi­sa­tion SEO et à cor­riger les erreurs qui font dimi­nuer la performance.

L’enjeu est donc de garder le site en bonne santé, et pour cela il existe des bonnes pra­tiques et d’autres qui sont à éviter.

 

Le rôle des uti­li­sa­teurs dans le référencement

 

 

Plus de 90% du trafic des recherches en France pro­vient de Google. Les per­sonnes qui visitent votre site vont avoir un rôle à jouer impor­tant dans votre stra­tégie de réfé­ren­ce­ment. On va donc parler du nombre de visites, de la durée des visites et donc du taux de rebond.

Le nombre de visites et de visi­teurs peut vous donner une idée de votre posi­tion­ne­ment dans le moteur de recherche Google et donc de votre noto­riété. Appa­raître dans les pre­miers résul­tats vous garantit un nombre de clics consé­quents. En effet, selon une étude de Back­linko, les 5 pre­miers résul­tats concentrent plus de 75% des clics.

Après qu’un uti­li­sa­teur ait cliqué sur votre site, le but est de le retenir le plus long­temps pos­sible. Si l’internaute reste moins d’une minute, vous pouvez en déduire qu’il y a un pro­blème sur vos contenus (pas assez inté­res­sants ou trop courts). Il faut bien-sûr ana­lyser chaque page pour com­prendre et résoudre un pro­blème. Cette durée de visite est exprimée par un indi­ca­teur nommé taux de rebond. Il est exprimé en pour­cen­tage et plus le taux est bas, plus les uti­li­sa­teurs s’intéressent à votre contenu et reste alors sur la page.

Ce taux de rebond est visible par Google, qui n’hésitera pas à vous péna­liser sur le réfé­ren­ce­ment si ce taux est trop élevé. La santé du site en prendra un coup.

 

 

Les lignes de codes qui par­ti­cipent au SEO

 

 

Le SEO s’appuie sur le contenu des pages, mais aussi sur les balises titres et les metas des­crip­tions. Ces lignes de codes sont impor­tantes pour les algo­rithmes de Google.

La balise titre appa­raît dans les résul­tats de recherches Google. Il ne faut pas qu’elle soit trop longue (70 carac­tères maximum) pour éviter qu’elle soit tron­quée. La meta des­crip­tion est le des­criptif qu’on trouve sous les titres quand on fait une recherche. Google peut décider de pio­cher dans la page pour mettre un titre si on ne le lui soumet pas.

 

 

Demander le réfé­ren­ce­ment à Google

 

 

Des solu­tions existent en cas de pro­blème de réfé­ren­ce­ment. Nous avons le fichier robots.txt, qui consiste à indi­quer à Google les pages qu’il peut réfé­rencer ou non. C’est un fichier texte qu’on trouve à la racine du site et qui interdit aux robots l’indexation de cer­taines pages.

En paral­lèle, le sitemap permet au moteur de recherche de voir toutes les URLs internes d’un site. Il résume la struc­tu­ra­tion du site que l’on peut sou­mettre à Google s’il y a un pro­blème de référencement.

 

 

Les liens

 

Les liens internes

 

 

Les liens internes sont impor­tants pour être valo­risé par Google. On en parle dans notre article « les erreurs SEO à éviter » car oublier le maillage interne est une erreur qu’on peut faci­le­ment cor­riger. Ils font partis des fac­teurs de clas­se­ment les plus impor­tants des algo­rithmes de Google. Le lien interne consiste à ren­voyer l’utilisateur vers d’autres pages du même site.

L’exemple par­fait est Wiki­pédia. Dans toutes leurs pages, des mots sont cli­quables et emmènent sur une autre page leur appar­te­nant. Et c’est concluant : ils font tou­jours partis des pre­miers résultats.

Ces liens vont donc par­ti­ciper à faire aug­menter la durée de visite des inter­nautes sur le site, ce qui est valo­risé par Google.

Ils ont aussi des avan­tages pour les uti­li­sa­teurs du site. Ils faci­litent la recherche d’information et la navi­ga­tion sur le site.

 

 

Les back­links

 

 

Le back­link est un lien sur une page d’un site poin­tant vers un autre site. Cette action consiste à indi­quer à l’internaute l’emplacement externe d’une infor­ma­tion, ou encore à recom­mander un autre contenu.

Les algo­rithmes de Google appré­cient cela et uti­lisent cela pour déter­miner le clas­se­ment des résul­tats dans le moteur de recherche. Sa popu­la­rité aug­mente donc aux yeux de Google.

Cepen­dant, cette stra­tégie de net­lin­king n’est pas tou­jours simple à contrôler. Cer­tains back­links peuvent se retrouver sur des sites qui ne cor­res­pondent pas à l’image de notre site. Dans ce cas, il faut réussir à contacter la struc­ture pour les faire enlever. Si au contraire ce sont des back­links de qua­lité, il faut les appuyer et les déve­lopper. Il faut donc être vigi­lant avec ses back­links. Et là aussi, on ne recherche pas la quan­tité mais la qua­lité ! Inutile donc de vou­loir abso­lu­ment coller des back­links à tout va, sans aucun lien par­ti­cu­lier avec le sujet.

 

 

Les liens rompus

 

 

Il arrive qu’en cli­quant sur un lien, l’internaute se retrouve sur une page web où est affiché un mes­sage d’erreur ou une erreur 404. C’est ce qu’on appelle un lien rompu ou « lien mort ». Et comme tous les autres types de liens cités plus haut, le lien rompu peut nuire au référencement.

Plu­sieurs cas sont pos­sibles quant à l’apparition de liens morts. Des pannes liées à des mises à jour, des chan­ge­ments de struc­tu­ra­tion ou sim­ple­ment la sup­pres­sion d’une page ou d’un article.

 

 

Les pages

 

Le contenu dupliqué

 

 

Le contenu dupliqué ou « dupli­cate content » est un contenu iden­tique qui se retrouve sur plu­sieurs sites internet ou sur plu­sieurs pages d’un même site. En d’autres termes, ceci se rap­proche du plagiat.

Google va le voir et va com­mencer par ana­lyser si ce contenu dupliqué a pour but de mani­puler son algo­rithme ou s’il n’est pas inten­tionnel. Si la pra­tique du contenu dupliqué est volon­taire, il va péna­liser les sites en fai­sait chuter leur posi­tion­ne­ment dans les résul­tats de recherche. Dans les cas les plus extrêmes, le site peut dis­pa­raître des résul­tats (c’est-à-dire que Google sup­prime sim­ple­ment le site de son index. Le Dupli­cate Content est une erreur à éviter en SEO, comme vous pouvez le lire ici !

Les algo­rithmes de Google ont un seul but : pro­poser les meilleurs résul­tats qua­li­fiés aux uti­li­sa­teurs tout en évi­tant de sto­cker du contenu similaire.

 

 

L’accessibilité des pages

 

 

Les algo­rithmes de Google prennent aussi en compte l’accessibilité des pages web. On va d’abord parler de la pro­fon­deur des pages. C’est le nombre de clics dont vous avez besoin pour accéder à une page depuis la page d’accueil. La pro­fon­deur ne doit pas dépasser 3 clics, car au-delà Google aura du mal à trouver ces pages et à les véri­fier. Les robots n’arrivent alors pas à les atteindre et ne les indexent pas, ce qui péna­lise le clas­se­ment du site dans les résul­tats de recherche.

Qui dit acces­si­bi­lité dit pages cachés. C’est une page qui est réfé­rencée, mais qui n’apparaît pas dans la navi­ga­tion du site. Le but est de faire plu­sieurs pages avec des mots-clés simi­laires. Cepen­dant, cette pra­tique n’est pas appré­ciée par Google et plombe alors la santé du site.

Au-delà de l’accessibilité en lien avec les robots de Google, l’accessibilité numé­rique pour les per­sonnes en situa­tion d’handicap est aussi à prendre en compte. Ceci permet à l’entreprise de tou­cher un public plus large et de contri­buer à l’inclusivité dans la société. Cette acces­si­bi­lité ren­voie donc à la pos­si­bi­lité de navi­guer avec les touches du cla­vier, ou encore à la lisi­bi­lité des textes.

 

 

Explorer les pages pour régler les problèmes

 

 

Pour pou­voir iden­ti­fier les pro­blèmes si votre site est en mau­vaise santé, il existe des outils payants et gra­tuits pour explorer les pages. Jus­te­ment, nous avons écrit un article sur les outils gra­tuits ici !

Ces outils vont donc nous per­mettre de déter­miner les erreurs 400 ou 500, pour les tra­cker et les cor­riger par la suite. Cer­tains pro­blèmes sont momen­tanés et donc assez simple à régler. Pour des pro­blèmes de sup­pres­sion de pages, il faudra alors redi­riger ces pages vers des pages exis­tantes. On usera alors de redi­rec­tion tem­po­raire ou permanente.

 

 

La sécu­rité aux yeux de Google

 

La sécu­rité du site

 

 

Sur des nou­veaux sites ou des refontes de sites, il arrive que l’URL soit encore en http. Mais le http n’est pas une solu­tion sécu­risée pour le site. Il faut alors migrer son site http en https. C’est impor­tant pour la sécu­rité mais aussi parce que c’est un cri­tère de clas­se­ment auprès des algo­rithmes de Google.

Le pro­blème avec le http c’est qu’en cas de pira­tage, vos don­nées per­son­nelles peuvent être col­lectés. Si vous êtes sur un site d’information en train de lire un article, aucune donnée n’est échangée donc la gra­vité est moindre. Si au contraire vous êtes sur le site de votre banque, il est cru­cial qu’il soit en https.

Avec votre navi­ga­teur (Chrome, Mozilla, Safari), il est simple de voir si un site est sécu­risé ou non. Un cadenas fermé ou ouvert s’affiche. La confiance des visi­teurs peut faci­le­ment être impactée, en sachant qu’ils sont de plus en plus sou­cieux de la sécurité.

 

En Conclu­sion

 

 

Pour résumer, un site doit être suivi régu­liè­re­ment pour veiller à sa bonne santé. Tout repose sur les algo­rithmes de Google pour que le site appa­raisse dans les meilleurs résultats.

Pour faire un petit check-up de votre site internet, nous serions ravi d’en dis­cuter autour d’un thé ou café !

Par­tagez cet article sur :