Méthodologie du Référencement Naturel

Etape 1 : Audit du site


Cette étape permet de mieux optimiser votre site et de le rendre davantage compatible aux contraintes des moteurs de recherche. Nous listerons lors de cet audit l’ensemble des facteurs bloquants et gênants à la bonne prise en compte de votre site au sein des moteurs de recherche. Ainsi que les marges d’améliorations.

Analyse des pages les plus pertinentes par rapport à l’IDM (indice de densité d’un mot clé). Analyse des critères bloquants les moteurs de recherche :il existe un certain nombre de facteurs dits bloquants qui pourraient empêcher ces pages d’être référencées correctement (Flash, pages dynamiques, Javascripts, etc). Analyse d’autres critères comme l’IPP (indice de popularité d’une page). Il faut savoir que l’indice de popularité est un critère important pour un bon positionnement dans les moteurs.  A l’issue de cet audit nous vous fournirons une liste de mots clés que nous jugerons pertinents par rapport au contenu de votre site.

Etape 2 : choix des mots clés


A l’issue de l’audit nous déterminerons avec le technicien référenceur une liste de mots clés que nous jugerons pertinents par rapport au contenu de votre site et permettant d’acquérir une bonne visibilité au sein des moteurs de recherche. Cette liste de mots clés sera composée de couples de mots ou expressions pouvant être saisis par les internautes lors d’une requête concernant vos produits et services sur un moteur de recherche.  Il est clairement défini qu’il est impossible de garantir à l’avance le positionnement d’un site sur tel ou tel mot clé et sur tel ou tel moteur . Et encore moins sur des mots clés ultra concurentiels, comme Internet, Web, Auto…

La liste définitive, sur laquelle nous lancerons le référencement de votre site, permettra d’obtenir une forte amélioration de votre visibilité au sein des moteurs de recherche, d’acquérir des positions et de générer du trafic ciblé, qualifié.

Etape 3 : optimisation des pages


Les outils de recherche servent à trouver une information ou un site à partir d’une requête (mot clé) ou à partir d’une navigation dans les thématiques (catégories).

Les moteurs de recherche (Google, MSN, Yahoo…) : Ils utilisent des Crawlers, Spiders ou plus simplement des logiciels qui parcourent le web. Ceux-ci analysent le code source de vos pages, le contenu de vos pages et les classent dans leurs bases de données.

C’est pourquoi il est important d’optimiser son site en fonction des critères des moteurs de recherche :

– Optimisation de l’IDM (Indice de Densité de Mot dans la page) des mots clés par rapport aux pages choisies.

– Formatage des diverses balises prises en compte par les moteurs. (Title, balise Metas, alt, etc).

– Analyse de résultat de densité d’un mot clé

– Test de la réactivité des pages.

– Optimisation des pages existantes.

– Si nécessaire création de pages à contenu optimisée pour le référencement en tenant compte des contraintes des moteurs de recherche. Ces pages serons chartée et optimisées sur des mots clés pertinents découlant de la liste définis au préalable. Des liens pourront être proposés vers les pages importantes de votre site en adéquation avec la requête effectuée par l’internaute au départ.

Une fois les pages optimisées, elles vous seront transmises par email, vous devrez les publier sur votre serveur en suivant les instructions de notre technicien. Il est aussi possible de les publier directement depuis nos machines, pour cela il faut nous fournir l’accès FTP.

Etape 4 : référencement manuel


Cette étape permet d’indiquer aux différents outils de recherche l’existence de votre site. Nous soumettrons manuellement l’ensemble de vos pages et procédons à des contrôles afin de vérifier la bonne prise en compte au sein des moteurs de recherche. Plusieurs soumissions et contrôles seront réalisés, en respectant les délais et contraintes de chaque moteur et annuaire.  Nous travaillons sur les principaux moteurs de recherche qui génèrent le plus de trafic (Google, Yahoo, Msn, Orange, Altavista, Voila, Lycos, etc… ). Nous pouvons également proposer des prestations de référencement via l’international en fonction des versions linguistique de votre site, sur des listes de moteurs adaptées par pays.

Etape 5 : contrôles et rapports de positionnement


Nous réaliserons en interne chaque mois un contrôle de présence de votre site sur les outils de recherche. Vous recevrez un rapport détaillé et complet sur le positionnement de celui-ci.

Etape 6 : linking / popularité


Parce que la popularité d’un site est un point déterminant dans sa visibilité au sein des moteurs de recherche, nous proposons systématiquement et mettons en place des liens via notre réseau de site et portail partenaires.

Le fonctionnement d’un robot


Pour indexer un site, les moteurs de recherche envoient un robot (ou crawler) qui :

  1. Accède au site par son nom de domaine racine
  2. Suit les liens
  3. Analyse le contenu des pages

Le moteur calcule ensuite la popularité du site.

Optimiser l’architecture de son site pour les moteurs de recherche


Les principaux éléments d’architecture auxquels les moteurs de recherche sont sensibles :

  1. La structure technique du site
  2. Le format des pages
  3. Le linking interne
  4. La configuration du serveur

La structure technique du site :


SYNTAXE DES URLS :

Les pages dynamiques sont indexables sous plusieurs conditions :

  1. Limiter le nombre de caractères
  2. Eviter (ou limiter) les caractères exotiques : &, ?, #, ;, …
  3. Bien avoir une URL spécifique par page

Avoir des URLs stables dans le temps

  1. Notamment ne pas faire remonter de variables de session
  2. Exemple : www.monsite.com/page.php?sessionID=1318603543160134

Il faut donc privilégier :

  1. Les pages statiques
  2. Les modules de réécriture d’URLs pour les sites dynamiques

LA REDIRECTION :

Les redirections sont mal gérées par les robots de moteur de recherche :

De www.monsite.com vers www.monsite.com/home.asp

Il y a deux types de redirection :

  1. Par page (Meta refresh=0 ou javascript)
  2. Serveur

Quelque soit la méthode employée, il est préférable d’éviter les redirections.

SOUS-DOMAINES / RÉPERTOIRES :

Les répertoires et sous domaines sont gérés différemment par les moteurs :

  1. Répertoire : http://www.monsite.com/repertoire/
  2. Sous-domaine : http://sousdomaine.monsite.com

Les répertoires sont considérés comme une section du site.

Les sous-domaines sont considérés comme des sites à part entière :

  1. Calcul d’une popularité propre
  2. Indexation différenciée

A moins d’avoir un contenu très spécifique qui mérite une forte différenciation, il est préférable de passer par une organisation en répertoires.

COOKIES ET DÉTECTION :

Derniers éléments de structure à prendre en compte :

  1. La politique d’acceptation de cookies
  2. Les systèmes de détection de la configuration (résolution, browser, langue, IP, …)

Certains sites conditionnent l’accès au site par l’acceptation d’un cookie. Ne pas rendre l’acceptation des cookies obligatoire.

Les systèmes de détection de configuration sont également à proscrire :

  1. Soit parce qu’ils font appel à des javascript
  2. Soit parce qu’ils détectent l’IP et que les robots sont pour la plupart US

Le format des pages :


FRAMESET, FORMULAIRES, LISTES :

Pages en frameset et/ou iframe :

  1. Indexation individuelle de chaque page du frameset
  2. Diffusion réduite de la popularité interne
  3. Il est préférable d’éviter l’utilisation des framesets (ou iframe) pour privilégier les pages pleines
  • Les robots ne sont pas capables de remplir un formulaire.
  • Les pages après formulaires (notamment identification) ne seront donc pas indexées.
  • Les moteurs ne font pas de choix dans une liste déroulante.
  • Certains peuvent lire le contenu des listes mais ils n’accèdent pas aux pages cibles.

LE JAVASCRIPT :

Un javascript se traduit, dans la majorité des cas, chez un moteur de recherche par :

  1. Des lignes de code sans signification
  2. D’où l’intérêt d’exclure les javascript dans un fichier .js

En conséquence, il faut absolument éviter :

  1. Les menus en javascript
  2. Les liens en javascript
  3. L’intégration de contenu dans un javascript

LE CONTENU :

Les pages doivent toutes intégrer un contenu texte contenant vos mots clés :

  1. Sélectionner des mots clés précis pour chaque page
  2. Les mots clés doivent être intégrés dans des paragraphes construits
  3. Pas de texte caché
  • Chaque page doit intégrer des balises titre et Meta personnalisées selon le contenu
  • Chaque contenu doit être unique : pas de répétition de contenu entre plusieurs pages
  • CSS, externalisé dans un .css, mais pour que l’outil identifie les mises en avant de mots clés (gras, H1, …), ces balises doivent être dans le code HTML directement

Dans le cas de sites multi-langues :

  1. Prévoir un contenu spécifique par langue (pas de mélange)
  2. Chaque version linguistique (et chaque page) doit avoir sa propre adresse

LES IMAGES :

Une image se traduit chez un moteur de recherche par une absence de texte visible. En conséquence, il faut absolument éviter :

  1. Les sites composées exclusivement d’images
  2. L’intégration de contenu dans une image
  • Les images ne doivent pas remplacer le texte et doivent uniquement servir à illustration du contenu.
  • Il est pertinent de renseigner les balises ALT … mais elles ne compenseront jamais une absence de contenu textuel.

LE FLASH :

Une animation Flash se traduit chez un moteur de recherche par :

  1. Une absence de texte visible
  2. Une absence de liens

En conséquence, il faut absolument éviter :

  1. Les sites 100% flash
  2. Les menus en flash
  3. L’intégration de contenu dans une animation Flash

Le Flash doit être utilisé comme une image : pour simple illustration d’un contenu texte.

LA VÉRIFICATION DU CODE :

Outiref, pour analyser : http://www.outiref.com

  1. les balises title et Meta
  2. la présence de texte
  3. la présence de flash, alt, commentaires
  4. la densité des mots clés

Spider Simulator : http://www.spider-simulator.com

  1. voir les liens suivis
  2. les images présentes
  3. les infos serveur

Le linking interne :


FORMAT DES LIENS :

La qualité du linking interne est stratégique pour plusieurs raisons :

  1. Il permet l’indexation de la totalité des pages (ou du moins d’une majorité)
  2. Il sert à la redistribution de la popularité interne
  3. Il sert à la pré-qualification des pages

En conséquence, il faut :

  1. Privilégier les liens au format HREF (<a href=”lien.htm”>texte</a>)
  2. Idéalement, ces liens doivent être placés sur du texte avec en intitulé de lien, un mot clé représentatif de la page cible.

La configuration du serveur :


GESTION DES ERREURS 404 :

  • Pour les pages remplacées : mettre en place une redirection permanente (301) de l’ancienne page vers la nouvelle
  • Pour les pages supprimées : mettre une page d’erreur 404 personnalisée

Fichier Robots.txt :

  1. Sert à bloquer l’indexation de certaines parties du site
  2. Utilisation de la balise : meta name=”robots”

ESPACE SECURISE HTTPS :

  • Les pages en https sont mal indexées et sont prises en compte par peu d’outils (Google et Yahoo principalement)
  • Réserver l’utilisation du SSL aux seules pages qui en ont fondamentalement besoin

Conclusion :


Un bon référencement naturel c’est :

  • Une bonne architecture de site ! …mais aussi un bon contenu (choix des mots clés)
  • Un respect total des règles fixées par les outils : JAMAIS de Spam !
  • Ne pas seulement travailler pour les moteurs, le site doit avant tout être pensé pour le visiteur en terme d’efficacité et d’ergonomie.
Partager