Notre Blog

Quelques news du monde du webdesign et du webmastering.

Il est important  de pouvoir se comprendre... et de comprendre
Nous avons reuni ci dessous quelques articles wikidepia  qui vous permettront d'avoir les idées plus claires sur le référencement ...  Bonne digestion.

Le Référencement

Sur le Web, faire un lien d'une page A vers une ressource B, c'est y faire référence et donc référencer la ressource B depuis la page A. Par vulgarisation, l'action générique d'inscription dans les moteurs de recherche a été appelée référencement. Aujourd'hui, sa pratique s'articule autour des outils de recherche, plus particulièrement des moteurs et des annuaires de recherche, en tentant d'améliorer le positionnement des sites (et donc leur visibilité) dans leurs pages de résultats.

Pourtant, le référencement web s'articule par la mise en place des deux stratégies distinctes et complémentaires : le référencement naturel (ou organique) et le référencement payant (ou liens sponsorisés).

 

La première stratégie passe par une phase d'indexation (prise en compte) du site par les outils de recherche (parfois après inscription), une phase de notation du site par le moteur de recherche puis par une phase de positionnement de ce site dans les résultats naturels des outils de recherche lors d'une recherche faite par les internautes. D'aucuns font ainsi la distinction entre référencement (être présent dans une base de données) et positionnement (y être visible). La seconde stratégie s'apparente à de l'achat d'espace, où des budgets de publicité sont investis sous forme d'enchères.

Référencement web sur les outils de recherche

La position sur les moteurs de recherche est une des principales sources de création de trafic sur un site web aujourd'hui (dit trafic organique). En effet, il permet aux internautes d'accéder à un site sans connaître son adresse. Un bon référencement sur le Web est essentiel puisque « 34 % des internautes cliquent sur le premier lien naturel d'une page de résultats »  L'afflux principal provient des moteurs de recherche, mais nombre de visiteurs passent également par des annuaires. On trouve également de plus en plus de sites de bookmarks (marque-pages), qui permettent aux internautes de conserver les adresses de leurs sites préférés, commerciaux ou non.


Référencement

Comme précédemment précisé, deux phases se distinguent : l'inscription dans les outils de recherche et l'amélioration du positionnement d'un site. Or les outils de recherche sont classés en deux catégories : les annuaires et les moteurs.


Le processus d'un bon référencement

Les objectifs à atteindre doivent être définis dès le début d'un projet afin de mettre en place des stratégies adaptées, ce qui fournira un meilleur retour sur investissement initial. Les étapes sont :

  •     Recherche de mots clés pertinents et analyse des volumes de recherche.
  • Détection des expressions clés dites de longue-traîne (offrant moins de trafic organique, mais un environnement concurrentiel plus abordable)
  • Notation du site et sa mise en adéquation avec les moteurs de recherche.
  • Analyse du contexte et des concurrents.
  • Élaboration de la stratégie.
  • Suivi de la Règle des 2N (notation, notoriété) en matière de référencement
  • Optimisation des pages du site internet
  • Netlinking : tissage de liens sur la Toile.
  • Suivi et reporting grâce à un outil de statistiques de site web.

L’étape de netlinking (tissage de liens), est cruciale dans le référencement. Cette étape consiste à créer des liens externes de bonne qualité qui pointent vers le site à référencer. Plusieurs paramètres sont pris en compte par les moteurs de recherche (chaque moteur basant son classement sur son propre algorithme et régulièrement mis à jour). Le Netlinking peut également s'effectuer par admission sur des sites spécialisés, c'est-à-dire des annuaires de liens. Correspondant à une ou plusieurs catégories et autres critères de l'annuaire, le site peut prétendre à l'obtention d'un lien externe. De plus quelques paramètres pris en compte (la source des liens, la position du lien dans la page, le texte d'ancrage, le taux de visites, etc.). Le Netlinking est ainsi l’étape qui nécessite le plus de travail.

Par ailleurs, le tissage de liens servant à manipuler volontairement la popularité de son site web est une pratique violant les consignes des moteurs de recherche. Initialement, la prise en compte des liens offre moteurs de recherche un indicateur de fiabilité des pages web proposées aux utilisateurs. Alors que la popularité est un facteur de positionnement important, c'est un facteur aisément manipulable, c'est pourquoi les moteurs de recherche, à l'image de Google, renforcent régulièrement leur algorithmes de classement par l'utilisation de filtres (Google Penguin) destinés à neutraliser le Webspam.

Inscriptions sur les annuaires

Brièvement, un annuaire Web est un site classant de façon thématique les sites qu’il sélectionne lui-même ou qui lui sont soumis. Des éditeurs analysent alors le contenu des pages et créent des résumés de leurs contenus dans le but d’orienter les visiteurs. Les annuaires proposent une recherche par catégories et sous-catégories. Il existe des milliers d’annuaires dits spécialisés ou généralistes (exemple : Dmoz ou Yahoo! Directory).

Pour inclure son site sur les annuaires, il n’existe qu’une technique : la soumission manuelle de son URL aux différents annuaires qui se laissent par la suite (ou pas) le droit de valider ou non la soumission.

Les critères d’acceptation d’un site sur un annuaire sont larges, citons :

  • Le contenu du site : le site doit correspondre à une thématique entrant dans une catégorie de l’annuaire.
  • L'objet du site: est-ce un référencement de site pour les entreprises ou un référencement de site amateur ?
  • La qualité du site : est-ce un site ayant suffisamment de contenu ? Ce contenu est-il régulièrement mis à jour ? Y a-t-il beaucoup de visiteurs sur ce site ? Le site bénéficie-t-il d'ancienneté ?

Pour juger de la qualité du site, le Page Rank est souvent l’indicateur le plus fiable sinon le plus utilisé.

    Autres paramètres pris en compte : mise à jour des contenus, mise en place d'un lien retour, absence d’erreurs 404 et de redirections.

Il est bien sûr « recommandé » de soumettre son site sur des annuaires à fort ou moyen Page Rank afin qu’il apparaisse plus souvent sur les résultats de Google.

Dernière technique la plus « fastidieuse » car très systématique : il s’agit de positionner - ou tenter de positionner – son site sur tous les sites contenant un lien référent (appelé aussi backlink) vers un concurrent. Pour cela, il existe des recherches spécifiques comme link:http://nomdusite.fr sur Google capable de repérer les backlinks d’un concurrent donné, mais il y a aussi des logiciels qui récupèrent les backlinks d'un site.

Ces "soumissions" n'entraînent pas systématiquement "inscriptions". Les inscriptions dans les annuaires doivent être visibles dans les moteurs de recherche pour être utiles. Les acceptations des sites peuvent prendre de 2 à 12 semaines pour être validées dans Google. Cette démarche de soumission peut être sous-traitée à des sociétés de net linking à condition de vérifier que les liens restent déposés de manière "manuelle", dans des annuaires "pertinents". Enfin, les inscriptions doivent être réalisées à un rythme et un volume régulier.

Toutes ces techniques contribuent si elles sont bien menées à améliorer son positionnement sur les moteurs de recherche.


Inscriptions sur les moteurs de recherche

Il s'agit d'ajouter des pages web à l'index d'un moteur de recherche. Les principaux moteurs de recherche sont capables de détecter les nouveaux documents sur le web (et les nouveaux sites). Cette phase n'est donc plus aussi demandeuse de ressources qu'auparavant, bien qu'il soit toujours conseillé de soumettre aux outils de recherche, via des formulaires qu'ils proposent, une liste des URL du site (ou sitemaps) pour en faciliter son exploitation par les moteurs. Le référencement se fait ainsi plus rapidement.

Positionnement dans les résultats des moteurs de recherche

Le positionnement d'une ressource (et donc sa visibilité) dans les résultats de recherche est la conséquence d'un contenu qui, selon le moteur, répond à la recherche d'un internaute et est considéré par ses tiers comme une référence sur son domaine.

Pour cela, il est avant tout nécessaire :

  •  d'identifier ce que recherchent les internautes (= quels sont les mots clés utilisés)
  • d'adapter sa ligne éditoriale en fonction du lexique utilisé par les internautes et donc d'organiser les contenus d'un site en fonction des besoins/recherches des internautes
  • de rédiger habilement les URL de ces contenus, de les transférer efficacement (HTTP) et de formater (HTML) correctement l'information.

La visibilité d'un document sera ainsi naturelle et dépend directement de la qualité du contenu apporté. En effet, un contenu de qualité est souvent référencé par d'autres sites : le contenu, parce que populaire ou considéré comme la référence sur son domaine, sera ainsi positionné en tant que tel (comme la référence/en première position) dans les résultats de recherches.

C'est le principe même du référencement naturel.


Quelques critères de positionnement d'une page web sur une expression donnée

Il existe plusieurs centaines de paramètres utilisés par les algorithmes de positionnement, voici une liste des plus importants communément admis :

  •     La popularité de la page
  • La pertinence des pages liantes
  • Le texte des liens entrants
  • La pertinence de la page
  • L'indice de confiance de la page
  • L'ancienneté du site web
  • L'autorité du nom de domaine
  • Le PR (Page Rank) de la page
  • La présence dans les annuaires locaux

Tous ces critères ont pour but de veiller à ce que les résultats de recherche pour une expression donnée soit composés des pages pertinentes les plus populaires sur le sujet.

Certain de ces critères sont complexes, le meilleur exemple est le critère de la popularité d'une page, lui-même fonction de la popularité de ses propres pages liantes.

L'aspect récursif des algorithmes sur plusieurs critères majeures comme la popularité ou l'indice de confiance rend difficile toutes manipulations des résultats.

Il est à noter également que la priorité actuelle vise à lutter contre le spam, l'algorithme veille donc à s'assurer que la popularité des pages positionnées a bien été acquise de manière naturelle.

Ainsi, une page obtenant simultanément un nombre anormalement élevé de liens se verra sanctionnée par l'algorithme.


Méthodologie d'optimisation

De façon chronologique :
Lors de la soumission dans les outils de recherche et les annuaires

Équivalent du mot indexation.

Donner des informations détaillées aux moteurs de recherche et annuaires pour qu'ils indexent la page ou le site qui intéresse le demandeur.

Ces informations peuvent varier d'un outil à l'autre, certaines indexations sont gratuites, d'autres payantes, tandis que certains outils demanderont des liens en retour (liens réciproques / liens mutuels).

Positionnement

Techniques visant à se positionner dans les premiers résultats, généralement les deux premières pages, lors de recherches sur certains mots-clés :

    Créer des contenus en totale adéquation avec une qualité qui respecte les chartes des moteurs de recherches.
    Créer des liens externes sur des sites traitant du sujet en incluant le mot-clé dans le lien (backlink).

Techniques interdites (par exemple par Google)

    Afficher un contenu différent aux moteurs de recherches et leurs bot à l'aide d'un script en JavaScript (technique appelée cloaking), avec une page masquée.

(Technique qui est réprimandée par les moteurs de recherches. Le site sera placé sur une liste noire s'il est repéré, comme l'affaire BMW en Allemagne où la firme automobile a été blacklistée par Google qui l'a éliminée de son index en janvier 2006 durant deux jours.

  • Textes masqués ou liens
  • Mots clés répétés
  • Inadéquation entre le contenu de la page et sa description
  • Redirection trompeuse
  • Site ou page répété(e) (duplication du contenu)
  • Page satellite (doorway très prisé en France)

Suivi de positionnement et d'indexation

    Suivi d'indexation pour vérifier que le moteur connaît toujours la page qui nous intéresse. Il n'est pratiquement plus utile de soumettre des sites aux moteurs et encore moins de les soumettre s'ils sont déjà indexés.
    Suivi de positionnement pour optimiser par la suite par rapport aux mots-clés qui nous intéressent.
    Le suivi d'indexation dans les annuaires thématiques et généralistes doit être réalisé fréquemment afin de conserver la popularité acquise, voire de l'optimiser en augmentant le nombre et la qualité des liens en retour (backlink) vers le site à positionner.


Concours

Les concours permettent aux référenceurs professionnels mais également aux amateurs de mesurer leurs acquis. Le but de ces concours est d'arriver premier dans les moteurs de recherche principaux, comme Google, MSN, Yahoo, Ask... avec un mot clef donné, ces mots clefs sont généralement choisis avec précaution afin de ne pas interférer avec de véritables mots clefs utilisés dans d'autres contextes plus "sérieux". Exemples de mots clefs de précédents concours : mangeur de cigogne, sorcier glouton, chocoku, tiger l'osmose, cobraoupouaout, zurtouij, etc.

C'est un bon moyen pour les référenceurs de s'améliorer, de se mesurer aux autres et ainsi de proposer un service de plus en plus pointu aux clients désireux d'une bonne position dans les moteurs de recherche.

Ces concours mettent en exergue les écarts existants entre le comportement attendu d'un moteur de recherche sur l'indexation d'un mot et le comportement réel de ce même moteur.

Politique de liens (Link building)

Tous les liens n'ont pas la même valeur aux yeux des moteurs de recherche (popularité de liens). Nombre de webmasters utilisent les échanges de liens afin de gagner des visiteurs et du PageRank. Par ailleurs, Google a également instauré un BlockRank dans sa formule pour bloquer les sites qui ne respectent pas les directives. L'échange de liens permet, outre l'amélioration du positionnement dans les moteurs, d'augmenter, dans une certaine mesure, la popularité et le nombre de visiteurs directement de site à site.

Depuis quelques années, Google a également lancé un nouveau critère de positionnement dans son algorithme : le TrustRank. Outre le fait d'obtenir des liens entrants vers des pages web, il faut désormais obtenir des liens de qualité, notamment en provenance de sites réputés (sites institutionnels, réseaux sociaux, etc.). De ce fait, le nombre de liens entrants n'est plus l'ingrédient principal d'un référencement réussi : c'est plutôt la qualité des liens acquis qui prime. Ce critère vise clairement à limiter l'utilisation de techniques malencontreuses ou de triches pour obtenir des liens en nombre de mauvaise qualité (ferme de liens, soumission automatique à des annuaires de recherche par centaines, etc.).

Un link building de qualité se repère par quelques critères stricts :

  • Liens provenant de sites à fort PageRank (et si possible à fort TrustRank, en théorie)
  • Liens provenant de pages dont la source propose une thématique équivalente à celle de la page web ciblée
  • Liens issus directement du contenu d'une page plutôt que du bas de page (footer)comme dans la plupart des échanges de liens (netlinking)
  • Liens ayant une ancre réfléchie pour optimiser une requête (bien choisir l'intitulé du lien si possible)
  • Liens ayant des ancres variées faisant appel aux synonymes, pluriels et autres déclinaisons possibles
  • Liens placés sur des pages ne contenant pas plus de 100 liens

Listes noires (blacklist)

Les techniques frauduleuses (fermes de liens, cloaking et autres) sont surveillées, et parfois réprimandées, par les moteurs de recherche qui perfectionnent chaque jour leurs algorithmes afin d'éliminer les sites trichant pour leur positionnement.

Lorsque des fraudes sont constatées (par un robot, par un humain, ou par un concurrent), la page ou le site en question est placé sur une liste noire (désindexation du moteur de recherche, ce qui pénalise grandement le site) pour une durée de quelques mois, définitive ou jusqu'à ce que le site respecte les conditions d'indexation de l'outil.

Google a mis en place un « bac à sable » (sandbox) qui est un avertissement avant la mise sur liste noire, mais aussi un moyen d'empêcher les nouveaux sites de grimper trop rapidement sur certains mots-clés dans les résultats de recherche.

Google par ailleurs, propose une page en 93 langues pour maintenir la qualité de l'index avec un rapport de spam lié aux pratiques interdites citées ci-dessus, ce qui permettra d'entrer un jour dans le référencement éthique.


Référencement payant

Le référencement payant, en anglais (en)Search Engine Advertising (SEA), est une discipline proche du SEO et du Search Engine Marketing (SEM), qui lui sont généralement associées.

Elle consiste en la mise en place de réponses subventionnées (payantes, aux enchères ou à coût fixe) dans les Page de résultats d'un moteur de recherche (SERP), par opposition au référencement gratuit, dit naturel.

    L'achat de liens sponsorisés consiste simplement en l’achat de mots clés comme sur l’interface Google Adwords. Le site en question achète par exemple 100 mots clés qu’il aura jugés pertinents (selon une étude préalable).

Adwords est la plateforme de création de publicité de Google mais il est également possible de diffuser des annonces de référencement payantes sur d'autres moteurs de recherche comme Bing ou Yandex (très utilisé en Russie). Ces moteurs de recherche possèdent leurs propres plateformes de création et gestion de référencement payant.

Chaque groupe de mots clés se rapporte en fait à une annonce que le site annonceur aura créé sur Google Adwords (selon des critères bien précis : titre de 25 caractères + 2 lignes de description de 35 caractères chacune + "URL à afficher" de 35 caractères + "URL de destination"). Ainsi, dès lors qu’un utilisateur tape l’un des mots clés appartenant à la liste de mots sélectionnés par l’annonceur, l’annonce qu’il aura créée préalablement (en rapport avec ces mots clés) apparaîtra dans les premiers résultats de Google sous la forme de « liens commerciaux (tout en haut ou dans la colonne de droite).

    Cependant, il faut bien préciser que cette pratique ne peut en aucun cas se substituer au positionnement naturel : il s’agit plutôt d’une technique complémentaire visant le court terme (par exemple à l’occasion d’un lancement de site ou d’une campagne promotionnelle).

    D’ailleurs, les statistiques montrent que les internautes cliquent en premier sur les liens dits naturels plutôt que les liens payants :

 

Visibilité liens naturels vs liens payants Visibilité des liens naturels (en % du taux de clic) Visibilité des liens sponsorisés (en % du taux de clic)
Position no 1 dans le moteur de recherche 100 % 50 %
Position no 2 dans le moteur de recherche 100 % 40 %
Position no 3 dans le moteur de recherche 100 % 30 %

 

    Mode de paiement des campagnes d’achat de mots clés :

Les principes de rémunération sont simples : chaque annonce cliquée implique une rémunération pour Google équivalente au montant du mot clé tapé par l’internaute sur le moteur de recherche qui a permis de faire apparaître ladite annonce (en moyenne 0,40 du clic).

    À titre d’information, il existe une autre interface de campagnes d’achat de mots clés : Yahoo! Search Marketing

    Les liens sponsorisés (ou liens commerciaux ou liens promotionnels) sont des liens à vocation publicitaire. Ils apparaissent en général en marge des résultats dans les moteurs de recherche, dans certains logiciels et sont identifiés en tant que tel.

    Les liens commerciaux ont fleuri ces dernières années et sont présents sur tous les grands moteurs de recherche (Google, MSN, et Yahoo disposent de leur propre régie de liens commerciaux) sous une variété de noms : liens commerciaux, liens sponsorisés, ou encore liens promotionnels. Les principaux moteurs proposent aussi de diffuser sur d'autres sites. L'annonceur a le choix d'apparaître sur les sites partenaires du moteur.

    Les liens sponsorisés sont aussi présents sur de très nombreux sites commerciaux, éditoriaux, personnels... assurant ainsi à ses derniers une source de revenus importante et pouvant représenter jusqu'à la totalité de ces revenus.

    Le succès de ces liens réside dans le fait qu’ils garantissent à l’annonceur une présence immédiate et optimale de son site sur les moteurs de recherche et une visibilité accrue (en général une mise en avant graphique est effectuée) en regard des résultats bruts obtenus par le moteur.

    Dans le principe, l’annonceur fait l’achat pour une durée déterminée des requêtes et mots clefs sur lesquels il souhaite voir son site positionné. Cet achat s’effectue souvent aux enchères, le montant de l’enchère déterminant le positionnement d’une annonce par rapport à celles de la concurrence.



Lien retour


Un lien retour (aussi appelé lien entrant ou lien arrivant; en anglais, inbound link, inlink ou backlink) est un hyperlien pointant vers un site ou une page Web. La qualité du lien retour et le nombre de liens retours pointant vers un site ou une page fournissent une indication de la réputation de ce site ou de cette page.

Plus précisément, un lien retour correspond à n'importe quel lien reçu par un nœud du Web (page Web, annuaire, site Internet, ou Domaine de premier niveau) depuis un autre nœud du Web1.

Les liens retours ont des valeurs différentes pour les moteurs de recherche, en fonction du pagerank de la page web sur laquelle ils sont publiés. C'est-à-dire qu'un lien vers une page web, publié sur un site très connu, vaut (beaucoup) plus qu'un lien publié sur un site peu connu. À l'inverse, les liens retours publiés sur des sites ayant une mauvaise réputation, ou les techniques frauduleuses utilisées pour obtenir plus de liens retours, peuvent altérer la réputation du site vers lequel ils pointent.

Rôle

Dans un premier temps, un lien retour permet à un webmaster d'envoyer en un clic un internaute d'une page web à une autre. En langage HTML, le lien se traduit par la syntaxe <a href="http://"></a>. Ce lien peut s'ouvrir dans le même onglet du navigateur, dans un nouvel onglet, ou dans une nouvelle fenêtre. Généralement, le webmaster va pointer un lien retour vers une page en rapport avec la page qu'il édite.

Les moteurs de recherche Web exploitent cette information fournie par les webmasters pour déterminer l'importance d'une page Web : Une page qui compte beaucoup de liens retour (pertinents) va bénéficier d'un meilleur positionnement dans les moteurs de recherche. L'algorithme PageRank de Google prend en compte les liens retour pour déterminer le positionnement d'une page ou d'un site.

Pour cette raison, les webmasters emploient souvent des techniques d'Optimisation pour les moteurs de recherche afin d'accroître le nombre de liens retour pointant vers leur site Web.


Audit des liens retour

Les grands moteurs de recherche Web comme Google, Bing, Yahoo, Exalead et même Wikipédia proposent un opérateur ou un service spécifique pour déterminer le nombre de liens pointant vers une page ou un site Web particulier. Par exemple, saisir link:fr.wikipedia.org dans Google affiche un échantillon du nombre de pages recensées par ce moteur pointant vers http://fr.wikipedia.org/. Google n'affiche pas tous les liens retour qu'il recense pour ne pas exposer les secrets des algorithmes de ses résultats de recherche.

Un lien retour ou backlink sera toujours plus performant et mesuré avec beaucoup plus de considération par les moteurs de recherche si celui-ci est placé sur un site à forte notoriété.


Spécificités des moteurs de recherche

    Google ne montre qu'une partie des liens retour existants pour une page web2. Google a récemment ajouté un nouvel outil pour webmestres qui leur permet de voir plus de liens retour vers leurs sites Web.
    Depuis le 21 novembre 2011, Yahoo!’s Site Explorer n'existe plus, c'était le seul service qui fournissait gratuitement la liste des liens retour répertoriés dans son index.

Outils

Certains sites spécialisés fournissent des informations sur les backlinks, notamment Google Outils pour les webmasters.

Des extensions et plugins pour navigateur web sont développés pour faciliter ces recherches. Exemples : SEOpen, SeoQuake (extensions pour Mozilla Firefox). Il existe aussi des outils anglophones et francophones, gratuits et payants3, permettant d'obtenir des backlinks de grande qualité et améliorer le trafic et le PageRank de son site internet.


 

Optimisation pour les moteurs de recherche

L’optimisation pour les moteurs de recherche (en anglais : Search engine optimization, SEO) est un ensemble de techniques visant à favoriser la compréhension de la thématique et du contenu d'une ou de l'ensemble des pages d'un site Web par les moteurs de recherche. Ces techniques visent donc à apporter un maximum d'informations concernant le contenu d'une page web aux robots d'indexation des moteurs de recherche.

L'objectif de ce procédé est d'orienter le positionnement d'une page Web dans les résultats de recherche des moteurs sur des mots-clés correspondant aux thèmes principaux du site. On considère généralement que le positionnement d'un site est bon lorsqu'il est positionné (classé) dans l'une des dix premières réponses d'une recherche sur des mots-clés correspondant précisément à sa thématique1.

Le pluriel de l'acronyme SEO peut se référer aux « search engine optimizers » qui fournissent des services SEO.

Historique


Référencement naturel : les enjeux

L'optimisation pour les moteurs de recherche ou search engine optimization représente un véritable enjeu à plusieurs niveaux :

  • rendre son site visible de façon pérenne ;
  • capter du trafic qualifié depuis les moteurs de recherche ;
  • gagner une image de marque auprès des internautes.

L'objectif du travail d'optimisation du site pour les moteurs de recherche est, dans un premier temps, de définir les termes/les requêtes que les internautes seront susceptibles de saisir pour arriver sur le site. Ces mots clés seront sélectionnés en fonction de l'activité de la société ainsi qu'en fonction du trafic potentiel. Un mot clé trop spécifique n'apportera pas assez de trafic et un mot clé trop générique apportera un grand volume de trafic non qualifié.

Apparaître sur Google en première page pour une requête dite « générique » (exemple « mp3 »), assure un volume important de trafic. En effet, environ deux tiers des utilisateurs cliquent sur un des résultats de la première page et la quasi-totalité ne regardent pas au-delà de la troisième.

Du fait de cet énorme trafic potentiel, les webmestres cherchent par tous les moyens à figurer en tête de liste, quitte à « tricher ». On a noté à une certaine époque l'utilisation de techniques de spamdexing (référencement abusif) destinées à flouer les robots des moteurs pour faire remonter le site. Les moteurs ont réagi en modifiant leurs algorithmes de classement pour blacklister ou pénaliser ces sites « voyous ».

Le but d'un moteur de recherche étant de fournir la requête la plus pertinente à l'utilisateur, les algorithmes de classement des moteurs sont constamment modifiés pour aller dans ce sens, dans celui de l'utilisateur.

La réponse que Google apporte régulièrement à tous les webmestres qui veulent connaître les techniques pour optimiser leurs sites est de dire qu'ils doivent penser à concevoir un site agréable et pertinent pour l'utilisateur plutôt que de chercher à créer un site pour leur robot d'indexation (crawler)2. Même s'il existe des pratiques à éviter qui pénalisent le classement d'un site, le meilleur moyen d'avoir un site bien classé reste de faire en sorte qu'il apporte un réel bénéfice pour l'internaute.

L'optimisation pour les moteurs de recherche est donc un domaine difficile à quantifier en termes de résultats : en effet, les algorithmes de classement changent en permanence.

Une méthode efficace pour optimiser un site internet est de se « mettre dans la peau » d'un moteur de recherche et de voir de quelles informations il peut disposer pour classer une page, adresse URL, meta tags, titres, contenus, images, fichiers…

Selon les résultats de l'Observatoire International des Métiers Internet la compétence "Optimisation moteurs de recherche" apparaît comme étant l'une des plus recherchées dans l'ensemble des profils professionnels . Si cela peut apparaître comme logique pour un webmestre ou un webdesigner cela parait plus surprenant, par exemple pour un spécialiste de bases de données internet, mais la manière dont il organise le fonctionnement de sa BDD peut apporter un gain important dans l'optimisation du site. En fait selon les études, cette compétence, mise en avant et prouvée est un atout essentiel dans une phase de recherche d'emploi.

Analyse des liens

Les moteurs de recherche savent lire le contenu des liens ou URL des pages de site web comme du texte. S'il est vrai que la qualité du référencement d'un site commence par la qualité et la pertinence de son contenu pour les internautes, tout est important dans l'optimisation d'un site, y compris les chemins d'accès, les liens URL de chaque page.

Les moteurs lisent très bien le texte de l'URL et donc ces dernières sont les meilleurs mots clés, ce qui peut expliquer leurs prix élevés. Par exemple si un nom de domaine toto.com héberge un site de mp3, il vaut mieux nommer ses pages toto.com/mp3.html plutôt que toto.com/page_1.html. Google analyse les sites comme un visiteur, leurs URLs doivent donc être logiques et en rapport avec le contenu de ses pages.


Techniques White hat et Black hat


Le référencement se manipule de différentes façons, qualifiées notamment de « white hat » et « black-hat ». La base du référencement white hat est de créer un contenu de qualité qui va être pertinent pour l'utilisateur. La base du black hat est d'utiliser tous les moyens disponibles, quitte à courir le risque de voir son site retiré de l'index de Google ou autre moteur de recherche.

Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du « link-building », c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un « backlink ». En matière de White hat, le Guide d’optimisation pour le référencement édité par Google est une bonne source d'information5. Quelques techniques black hat consistent à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent.

Toutefois, certains Webmestres ne peuvent être catégorisés de manière aussi franche. Si la plupart se conforment effectivement aux règles « white hat » pour l'essentiel de leur travail, il est fréquent de voir certaines pratiques « black hat » être utilisées de manière complémentaire. Ces « grey hat », situés entre le blanc et le noir, optimisent l'efficacité du référencement en usant de techniques proscrites avec modération. La difficulté de cette approche consiste à limiter suffisamment l'intensité d'utilisation des procédés « black hat » pour ne pas être désindexé par les moteurs de recherche, tout en en tirant un profit maximum. Contrairement au « black hat », le « grey hat » permet ainsi de minimiser la prise de risque tout en montrant des performances SEO plus importantes.


La sélection des mots clés

Avant de commencer un travail d'optimisation pour le référencement naturel, il est nécessaire d'identifier et de choisir les mots-clés. Différentes stratégie de ciblage sont possibles. Il est ainsi intéressant de cibler aussi bien des requêtes génériques (télévision, vente maison, vols pas chers…) concurrentielle mais permettant un volume de trafic important que des requêtes de type longue traîne moins volumineux pour chacune de ces requêtes. Lors d'une stratégie de ciblage longue traîne, il est donc indispensable de viser un volument important d'expressions-clé.

Il n'est pas utile de se positionner sur un mot-clé qui n'est pas lié directement à l'activité du site. La probabilité de positionnement est faible car les moteurs sauront souvent identifier l'inadéquation entre les mots-clés ciblés et l'intérêt du contenu.

Pour sélectionner vos mots-clés, il existe plusieurs outils :

  • Outil de suggestion de mots clés de Google AdWords ;
  • Les suggestions de recherche proposées par les moteurs ;
  • Des outils comme SEMrush.

Un référenceur classera ensuite les mots-clés en fonction de plusieurs critères :

  • Potentiel en volume de trafic ;
  • Taux de conversion estimé ;
  • Caractère concurrentiel du mot clé

    Technologie actuelle : nombreux signaux

Les balises meta (meta tags en anglais) peuvent avoir plusieurs rôles : indiquer le titre de la page et fournir un résumé de son contenu, informer les robots sur certains détails du site, comme le langage, le type de document consulté, le codage de caractère utilisé, l'auteur de la page, etc. Elles peuvent également servir à rediriger automatiquement les navigateurs vers une autre page, à interdire la mise en cache ou l'indexation de la page par les moteur. Les robots, en arrivant sur le site, laissent une empreinte sur le serveur dans le fichier log. Leur passage est repérable par une « signature » propre à chacun. Elle est en général effectuée par un optimisateur de moteur de recherche, un des métiers de l'internet.

Le code meta (qui respecte le Hypertext Markup Language) est le suivant (il se situe entre les balise <head> et </head> au début de la page donc) : <meta name="robots" content="all, index, follow" />

Cette balise meta donne pour directive aux robots de suivre et d'inspecter la page. Cependant, les directives par défaut de la plupart des robots sont justement celles-ci, rendant inutile l'emploi de cette balise avec les attributs "all, index, follow". Le code inverse est le suivant : <meta name="robots" content="noindex, nofollow"> Un référencement nécessite des compétences solides au départ pour la mise en place d'une politique parfaitement adaptée aux visiteurs cibles que vous souhaitez faire venir sur votre site. Par la suite, il faut veiller en permanence à la réactualisation et à l'optimisation du travail réalisé.

L'optimisation d'un site web va passer par de multiples leviers internes : accessibilité des contenus, codage sémantique, mise en place d'une arborescence optimisée, maillage interne des pages, ajout de contenus frais. Mais les facteurs externes vont l'impacter fortement pour asseoir son autorité aux yeux des moteurs de recherche. Le nombre et la qualité des liens entrants, les signaux apportés par les réseaux sociaux sont autant de facteurs d'influence positifs.

Le référencement naturel est un ensemble de techniques destinées à faire apparaître des pages web dans les résultats non commerciaux des moteurs de recherche. Un référencement naturel de qualité est déterminé par de nombreux facteurs. Si le choix des mots-clés est important, il est primordial d’apporter un soin tout particulier au contenu des pages de votre site internet. Bien penser l’organisation de ses rubriques est un acte capital et il faut savoir prendre le temps de se poser les bonnes questions. Les informations contenues dans les pages d'un site Web conditionnent en grande partie la qualité du référencement naturel.

Aujourd'hui le référencement naturel (SEO) n'a jamais aussi bien porté son nom.Effectivement les algorithmes de Google et spécifiquement PINGOUIN, s'attachent plus à la qualité du contenu des pages web, qu'aux liens retours dit artificiels (Backlinks).

Ces liens souvent considéré comme du SPAM, sont dans la ligne de mire de Google, surtout ceux des fermes de liens ou encore ceux qui demandent une contribution en retour (les liens Payants) totalement bannis par Google. Pour cela, Google utilise l'algorithme PENGUIN.

Google aujourd'hui oriente la qualité de referencement des sites beaucoup plus vers le contenu que les liens externes dit Backlinks. Il utilise pour cela un algorithme très sélectif, souvent mis à jour et qui est la bête noire des referenceurs SEO. D'ailleurs, cet algorithme a été enrichi en mai 2014 et qui a occasionné un déclassement spectaculaire de grands noms de l'internet.

Concernant le contenu des sites Web, la tendance est orientée vers la recherche sémantique que plébiscite Google car ce mode de recherche est adapté à la formulation des questions des internautes sur le Web surtout avec les requêtes vocale sur les smartphones et prochainement sur les Google Glass. C'est pourquoi le referencement en 2014 doit prendre en compte un contenu pertinent et riche, utiliser le web sémantique pour optimiser son référencement naturel et ne pas subir un déclassement soudain avec Panda.

Lutte contre le référencement abusif

Le référencement est toutefois une profession évoluant dans un cadre complexe. Ses techniques de plus en plus innovantes, intègrent évidemment des considérations nouvelles constituées sur le marketing, sur le relationnel avec les communautés, sur une veille patiente des évolutions, ainsi que sur une certaine imagination informatique et technique. Mais les enjeux commerciaux auxquels répondent les « référenceurs » peuvent être contraires aux enjeux économiques des moteurs de recherche, notamment ceux de Google.

Google a mis en place un arsenal de techniques pour contrer des optimisations qui ne respecteraient pas ses consignes de qualité (vente de liens, texte caché… ), on parle de "pénalité". Certaines décisions prises par Google ont touché certains sites6.

Les dernières mise à jour importantes de Google sont :

    Update Panda : pénalité contre les sites ayant peu de valeur ajoutée, trop de publicités.
    Update Penguin : lutte contre le linking externe abusif.



Référencement local

Le référencement local est une technique d'optimisation web qui est apparu vers la fin de 2009. Cette technique consiste à créer une fiche d'entreprise sur la section carte des moteurs de recherche ou de profiter des one-box Maps[Quoi ?].
Intérêt

Le référencement local offre de nombreux avantages aux petites entreprises qui n'ont ni budget, ni expertise et qui souhaitent être présent sur le web.

  •  Le service de référencement local est gratuit sur la grande majorité des moteurs de recherche
  • Il est très facile d'utilisation et ne requiert aucune expertise
  • De plus en plus d'utilisateur d'internet font des recherches locales
  • Le référencement local ne requiert pas l'obligation de posséder un site web d'entreprise.
  • La recherche locale permet des résultats de recherche beaucoup plus précis car les entreprises sont classifiés géographiquement, ainsi que par catégories de services.

Bien que les moteurs de recherche locale aient déjà intégré de nombreuses entreprises automatiquement, il est primordial pour celles-ci de modifier les renseignements les concernant et de les personnalisé afin d'offrir un référencement optimal.

Depuis que l'usage des téléphones mobiles a évolué vers les smartphones et les connexions à haut-débit en itinérance (4G, WiFi public etc.), l'intérêt d'un bon référencement local sur mobile est devenu plus important.


Principales plate-formes de référencement local


Google Adresses

Google Adresses, la plate-forme de référencement local de Google est la plus connue à ce jour Après s'être appelée Google Local Business Center, le service est renommé début 2010 en Adresses (Places en anglais). Celle-ci permet à des millions d'entreprises à travers le monde de s'afficher sur les résultats locaux de Google. D'après le blog officiel de Google, plus de 20 % des recherches sur Google sont des recherches locales. À la mise en place de ce programme, Google Places à automatiquement intégré des millions d'entreprises locales sur son moteur, en utilisant notamment les informations d'entreprises tels que les Pages jaunes. Les entreprises qui utilisent ce service ont la possibilité de recevoir un autocollant à placer sur leur porte indiquant leur référencement sur le site Google Maps.


Bing Business Portal

Bing Business Portal est une contre-attaque de Microsoft envers Google. Ce service de référencement local a vu le jour en avril 2011. Ce moteur de recherche local offre moins de visibilité aux entreprises canadiennes car moins de 10 % des recherches au Canada sont effectués sur ce moteur, comparativement à près de 30 % aux États-Unis.


Pages Jaunes

Les pages jaunes ont pour but de rassembler un maximum d'informations sur les professionnels d'un espace géolocalisé. S'y inscrire à un impact sur le référencement local.


Foursquare

Foursquare est un réseau social permettant aux gérants d'entreprises locales (boulangeries, restaurants, usines, bureaux, ...) d'échanger avec leur consommateurs.