SEO

Le référencement naturel en 2013

Par Catherine Small, le 12 février 2013
referencement-2013

Avec coup sur coup Google Panda et Google Penguin, le géant de Mountain View a clairement marqué ces deux dernières années  son intention de faire un grand ménage sur la toile. Longtemps pollué par des pages optimisées pour ses robots, le moteur a affiné son algorithme pour ne retenir que les plus qualitatives.

Contenus et backlinks : Google attaque sur les deux fronts

La position d’une page dans les résultats des moteurs de recherche dépend de très nombreux critères. Une part importante de ceux-ci ont trait à son contenu et aux hyperliens qui pointent vers elle. Avec la mise en place de Panda en 2011, Google a d’abord sanctionné les sites web proposant des contenus à faible valeur ajoutée ou reprenant à leur compte les contenus originaux publiés sur d’autres sites. Avec Penguin l’année suivante, Google a visé les backlinks de mauvaise qualité. Ces dernières années, de nombreuses agences spécialisées dans le référencement naturel avaient en effet basé leur stratégie sur l’achat de liens depuis des sites conçus à ce seul effet.

Un modèle vertueux

Avec ces deux mises à jour majeures, la leçon adressée par Google est claire : fini la sur-optimisation, l’achat de liens et les contenus dupliqués ! L’heure est à un modèle vertueux ! Désormais, pour avoir une chance d’apparaître dans les premiers résultats du célébrissime moteur de recherche, il va falloir miser sur la qualité et l’authenticité ! Le secret ? Un site conçu pour les internautes ! Moderne et ergonomique, un site de qualité doit pouvoir tabler sur une structure claire et une arborescence détaillée, un code propre, des contenus fréquemment actualisés, de nature à intéresser les internautes ciblés. Il doit par ailleurs offrir une navigation intuitive et il est essentiel que ses pages se chargent rapidement.

Les tendances à suivre en 2013

1) Avec l’essor des tablettes électroniques et l’amélioration de l’ergonomie des téléphones portables, les internautes sont de plus en plus nombreux à consulter Google en mode nomade. Pour proposer les résultats les plus pertinents, les moteurs tiennent compte de la géolocalisation, des préférences et de l’historique des recherches de chacun. Un site en responsive design (notre article : Du responsive sinon rien), dont l’ergonomie s’adapte au type de support, aura clairement l’avantage sur un site classique.

2) Les signaux émis par les réseaux sociaux en ligne jouent un rôle de plus en plus important dans le référencement des pages par Google. Si le poids exact des interactions et recommandations dans l’algorithme du moteur fait toujours débat, on sait en revanche que leur importance devrait se développer dans les mois à venir et pourquoi pas remplacer à terme les backlinks.

3) Google AuthorShip permet de relier ses contenus à son profil Google+. Il fonctionne comme un indice de calcul de l’e-réputation qui permet d’estimer la qualité d’un contenu au regard de la notoriété de son auteur, lorsque celui-ci est identifié par Google AuthorShip. En somme, plus vous êtes réputé, plus vos contenus ont de chance de remonter dans les pages de résultats…

4) Depuis la mise en place début 2012 du protocole SSL par Google pour ses utilisateurs connectés, le nombre de requêtes indéterminées n’a cessé de croître. La part des visites sans détection de mots-clés atteignait en France à la fin 2012 les 30,8 %. Ce phénomène, qui contrarie évidemment les référenceurs, va s’accentuer dans les mois à venir, avec l’adoption du protocole SSL sur Chrome 2.5, qui étend la mesure aux requêtes effectuées depuis la barre d’adresse du navigateur, que l’utilisateur soit ou non connecté à son compte Google.