Comment mettre en place un cocon sémantique pour votre site ?

Le cocon sémantique, si vous êtes Rédacteur Web ou si vous travaillez dans le webmarketing et le SEO, vous en avez entendu parler. Étant donné que c’est le sujet phare du moment, c’est forcé !

Après, vous ne savez peut-être exactement ce que c’est. Et surtout, vous vous demandez comment le mettre en place.

Sur un site en construction, c’est facile, car vous pouvez travailler en amont.

Par contre, concernant les sites déjà en place sans cocon sémantique. Comment faire pour le mettre à jour et l’améliorer en employant cette technique de link building ? Et surtout : est-ce nécessaire ?

Je vous dis tout sur cette nouvelle mode en référencement naturel.

 

Le cocon sémantique : qu’est-ce que c’est ?

Le cocon sémantique est une notion conceptualisée par l’un des gourous français du référencement français : Laurent Bourrelly.

Je ne vous présente pas ce référenceur expert dans son domaine, vous devez le connaitre. Dans tous les cas, pour vous la faire court, après des multitudes de tests et une analyse poussée, il s’est rendu compte qu’il y’avait un moyen d’optimiser le maillage interne d’un site et, donc, intrinsèquement, la rédaction web associée.

Avant, un site, c’était ça :

exemple site avant cocon semantique

Bon, c’est un exemple simplifié, vous l’avez compris.

Avec un cocon sémantique, vous allez travailler votre maillage interne autrement.

En réalité, vous allez repenser complément le maillage interne de votre site, afin de créer des pages mères, des pages filles et des pages petite-fille.

exemple cocon sémantique

Vous vous retrouvez donc avec une structure par silos hermétiques les uns des autres.

Encore une fois, c’est un exemple simplifié.

Évidemment, chaque page petite-fille peut avoir, elle aussi, des pages fille. Tout dépend de votre thématique principale. Tant que la règle des 3 clics à partir de la page d’accueil n’est pas dépassée, vous êtes bon.

J’ai mis volontairement 5 pages petite-fille, car il semble que pour qu’un silo soit efficace, il faut au moins qu’il comporte 5 pages profondes.

Ne soyons pas fermés sur la question. Si vous en placez 4, c’est bien aussi. 3, par contre, veut sans doute signifier que votre sujet mérite d’être un peu mieux travaillé.

D’ailleurs, auparavant, vous laissiez sans doute votre CMS s’occuper de mailler vos pages entre elles. WordPress, par exemple, a des plugins qui cherchent des articles proches sémantiquement pour les lier entre eux. Pour ma part, j’utilise l’excellent YARPP.

En fait, avec ce type de technique, vous contrôlez précisément votre maillage interne.

Je m’explique :

  • La page mère mènera vers chacune de ses pages filles.
  • Les pages filles auront un lien vers leur page mère, vers leurs pages petite-fille et vers les autres pages fille à leur hauteur.
  • Les pages petites-filles seront liées à la page fille, mais aussi entre elles.

Un exemple illustré vaut mieux que n’importe quelles explications :

exemple maillage interne

Bon, j’ai fait ce que j’ai pu avec Paint donc j’espère que c’est clair pour vous. J’ai volontairement baissé le nombre des pages pour que ce soit plus clair sinon il y aurait des flèches partout et on n’aurait rien compris.

En bref, pour faire court : toutes les pages de mêmes niveaux sont reliées entre elles (bien que la question fait débat), mais aussi aux pages du niveau d’au-dessus et d’en dessous.

Par contre, si vous employez ce type de structure de site, il est interdit de lier entre elles des pages de silos différents.

 

Création de votre site : mettre en place une hiérarchie par silo sémantique

Si vous créez votre site web, il est facile de créer vos cocons sémantiques.

Je vous propose différentes étapes pour mener à bien votre projet de netlinking.

 

Trouver les bons mots-clés

Les personnes qui vous disent que les stratégies liées aux mots-clés ont disparu ont tort.

Elles se sont juste transformées. Auparavant, on bourrait chaque texte avec le mot-clé que l’on voulait mettre en avant.

Aujourd’hui, cette méthode est de la suroptimisation (PAS BIEN !). On parle plutôt d’une stratégie de contenu web centrée sur l’optimisation sémantique.

Chaque texte doit comporter notre mot-clé placé de façon intelligente. De plus, vous devrez utiliser des mots et expressions du champ sémantique qui vous intéresse pour optimiser votre page.

Ainsi, rien n’a changé : pour mieux vous positionner par rapport à vos concurrents, tout part d’un mot-clé.

Personnellement, j’utilise beaucoup les outils SEO Google Adwords, Google Instant et Google Suggest pour m’aider.

 

Créez la structure de site

Une fois que vous avez les mots-clés (de la longue traine ou générique) sur lesquels vous voulez travailler en priorité, il est temps de passer à la construction de votre site.

Je vous conseille un outil de mind mapping qui se révèle aussi facile d’accès que clair.

En voici deux :

Prenez le temps de concevoir votre site, case par case, en commençant par définir la home, les catégories de premier niveau, de deuxième niveau, etc. jusqu’aux pages profondes.

Oui, c’est long, mais vous verrez que cela vous facilitera la vie ensuite pour gagner en trafic et notoriété.

 

Passer à la rédaction

La rédaction web n’est pas en reste. Elle doit aussi répondre à un schéma précis.

Concernant les pages mères :

  • Chaque paragraphe, avec leur H2, doit correspondre à une page fille (avec le lien qui va bien).
  • La home mise à part (puisque c’est la matriarche sans autorité supérieure), vous les reliez vers leurs propres pages mères dès l’introduction de votre article.
  • Vous les reliez enfin avec les autres pages mères de leur niveau.

Concernant les pages profondes :

  • Vous les reliez à leur page mère ;
  • Vous les liez toutes entre elles.

Bien sûr, cela doit se faire grâce une ancre optimisée comme il faut.

C’est la seule chose à savoir. Le reste ne bouge pas.

Ainsi, voici ce que vous devez toujours avoir en tête :

  • Votre mot-clé ;
  • Son champ sémantique associé ;
  • La façon de scinder votre texte en paragraphes ;
  • Mettre des liens externes vers des sources d’influences dans votre thématique ;
  • Éviter les textes trop courts ;
  • Écrire pour vos lecteurs/visiteurs et les moteurs de recherche.

Refonte d’un site en créant des cocons sémantiques

Vous avez déjà un site en place et vous avez connu la technique du cocon sémantique un peu tard ? Ça va être plus coton, c’est sûr. Mais pas impossible (au contraire !).

Surtout que vous avez déjà une bonne base de textes, un nom de domaine bien présent, et que vous connaissez déjà vos mots-clés importants.

Ainsi, les étapes sont les mêmes que pour la création de sites. Soit :

  • Élaboration d’un champ lexical (surtout si vous ne l’avez pas fait évoluer depuis plus de 6 mois) ;
  • Mise en place d’une nouvelle structure de site.

En fait, la différence se fera au niveau des textes de chaque page web.

En effet, vous avez déjà une base d’articles que vous pouvez exploiter. D’ailleurs, vous avez sans doute déjà créé des cocons sémantiques sans le savoir.

Ainsi, après avoir établi le plan de votre site, regardez les textes déjà produits et voyez si vous ne pouvez pas les placer dans ce plan.

Évidemment, la plupart auront besoin d’une réécriture (plus ou moins importante). Mais de toute façon, pour optimiser son référencement, il est conseillé de retravailler régulièrement ses articles. C’est donc le moment opportun de réaliser un audit éditorial de votre site internet.

Généralement, les articles écrits sans tenir compte du silo font plutôt office de pages profondes.

Mais peut-être aurez-vous déjà des pages parents ? Celles-ci auront donc juste besoin d’une refonte au niveau de leur structure (H1, H2 et paragraphes).

Dans tous les cas, une fois les cocons principaux mis à jour, il vous suffira d’y intégrer vos articles modifiés et de compléter par de nouveaux contenus qui viendront enrichir les informations et le maillage de votre cocon.

Oui, c’est long. C’est pourquoi je ne saurai que vous conseiller de le réaliser aussi tôt que possible.

 

Faut-il impérativement mettre en place un cocon sémantique ?

Au début, par manque de temps, et surtout parce que j’étais resté longtemps sur mon ancienne méthode, je dois dire que je ne m’étais pas intéressé plus que ça au cocon sémantique qui ne me semblait ni essentiel ni pertinent.

C’est en voyant le sujet prendre de l’ampleur que j’ai étudié la question plus sérieusement. D’ailleurs, plutôt qu’une formation, c’est un client qui m’a poussé à travailler avec cette nouvelle stratégie SEO.

Et d’après ses dires, les résultats sont au rendez-vous. C’est d’ailleurs ce que je lis et entends partout.

Avec ce type de méthode de référencement web, les pages remontent plus rapidement dans les SERP. Elle possède donc un énorme potentiel pour réussir à améliorer votre positionnement au sein de la recherche Google.

Ceci étant dit, voici quelques trucs à faire si vous voulez que cette méthode soit efficace :

  • Évitez d’industrialiser ce processus en créant une grande quantité de contenus de faibles valeurs ;
  • Continuez à vous concentrer sur la rédaction de textes avec une forte valeur ajoutée ;
  • Évitez de suroptimiser vos ancres en les plaçant sur des expressions semblables à l’URL de la page de destination ;
  • L’évolution et l’amélioration de vos URL et meta description peut être intéressant ;
  • Évidemment, attention au duplicate content (faut-il vraiment le préciser ?).

En fait, vous comprenez que la rédaction de contenus se doit d’être toujours de grande qualité.

Référencement naturel/SEO et rédaction web n’ont jamais autant fait bon ménage.

 

Pour en savoir plus sur le cocon sémantique, vous avez la possibilité de suivre la formation de Laurent Bourrelly.

Le mieux pour tout comprendre sur cette technique d’optimisation SEO : l’utiliser sur votre site et la mettre en place chez vos clients. Cela vous permettra d’analyser sa performance de vos propres yeux.

Ceci dit, continuez à vous informer des différentes mises à jour de l’algorithme de Google. Même s’il est évident que le moteur de recherche américain aime les sites avec un maillage interne et externe cohérent, il évolue tellement vite qu’il va peut-être nous obliger à revoir notre copie dans le futur.

Dans tous les cas, pour le moment, nous observons un impact positif sur l’indexation et la position des pages utilisant ce procédé. Sans être encore indispensable, cette technique de référencement Google tend donc à gagner en importance avec le temps.

AMP et SEO : est-ce important pour votre site ?

Depuis quelques mois, tout le monde a le mot AMP à la bouche.

Mis en place par Google depuis 2015, ce projet concerne tous les webmasters et les experts du SEO.

En quoi consiste cette nouvelle technologie ? À quoi sert-elle ?

Et surtout : y’a-t-il un rapport entre AMP et SEO ?

Je vous dis tout ce que vous devez savoir.

 

AMP : qu’est-ce que c’est ?

Nous sommes en 2015. Google se lance dans une campagne mobile-friendly en voulant proposer une navigation plus fluide et rapide sur nos smartphones.

Ainsi, en partenariat avec de nombreux sites de médias internationaux, le géant américain met au point la technologie AMP (Accelerated Mobile Pages ou Pages Mobiles Accélérées dans la langue de Molière).

L’idée étant de favoriser une excellente navigation mobile en baissant significativement le temps de chargement des pages. Pour cela, une page sous ce format se chargera dans une version ultra-simplifiée et épurée comparée à la version qui apparait sur votre ordinateur.

En gros, cela consiste à délaisser tous les éléments non textuels pour ne se concentrer que sur le texte, qui est le plus rapide à charger. En fait, tout ce qui ralentit le chargement de la page est mis de côté.

D’après une étude HubSpot, le smartphone est devenu le principal outil pour se rendre sur internet pour un tiers des personnes interrogées. Oui, c’est énorme.

Quand ce même site dévoile que 55 % des internautes sur mobiles passent moins de 15 secondes sur une page mobile, on comprend que le temps est une donnée importante.

Ainsi, la technologie AMP prend tout son sens. Surtout que le Product Manager du Projet AMP, Rudy Galfi, affirmait, lors de la conférence SMX Advanced de 2016, qu’une page avec le format AMP se charge en 0,7 seconde (il donne le chiffre de 22 secondes pour une page classique).

À savoir, bien que l’AMP se soit fait connaitre par Google, il est aussi utilisé par d’autres sites connus tels que Twitter, Bing ou WordPress. Facebook s’y intéresse aussi sous le nom d’Instant Articles.

Vous comprenez donc que le temps de chargement devient une ressource importante pour les grands acteurs du secteur. Surtout pour la navigation sur mobile.

 

Faut-il foncer tête baissée et s’occuper de passer tout son site en format AMP ?

Avant de chercher le moyen de profiter, vous aussi, de cette nouvelle technologie, voyons comment ont réagi les plus grands sites d’actualité (qui sont les premiers concernés).

Il y a 1 an, en février 2016, 13 grands médias sur les 50 plus gros sites ont adopté le format AMP. Aujourd’hui, ils sont passés à 25. Soit seulement la moitié.

Voici les arguments des sites qui ne sont pas encore convaincus par cette technologie :

  • Le Monde, lui, n’est juste pas convaincu d’y gagner énormément. Le journal s’interroge aussi sur la pertinence de résultat des SERP entre ceux qui ont adopté le format AMP et les autres.

Pour autant, il semble que de plus en plus de sites commencent à s’y intéresser. D’ailleurs, Le Monde n’est pas totalement fermé sur cette nouvelle technologie et l’Équipe va réaliser quelques tests.

Surtout que l’optimisation technique et la mise en place sur les sites sont relativement faciles.

Ainsi, il existe d’ores et déjà, un plugin AMP pour tous les principaux CMS (WordPress, entre autres).

Si vous avez un blog, vous pouvez tout à fait passer vos pages en format AMP. Cela ne pourra qu’être bénéfique pour vous.

Par contre, pour les sites e-commerce, la décision est plus compliquée à prendre.

D’un côté, vous avez la possibilité d’afficher vos pages plus rapidement. De l’autre, le format AMP va mettre au second plan tous vos éléments non textuels. Cela signifie vos photos, par exemple. Ce qui peut se révéler problématique pour mettre en avant les produits que vous vendez.

Google est en train de travailler sur une version adaptée aux sites e-commerce. Wait and see.

 

AMP et SEO : quel lien ?

Il est encore un peu tôt pour affirmer si, oui ou non, le format AMP booste le référencement naturel d’un site.

Par exemple, aujourd’hui, j’ai essayé de taper en recherche un sujet d’actualité brulant : François Fillon qui s’accroche à son statut de candidat.

Dans les premiers résultats, nous trouvons un résultat du Figaro et de BFMTV qui n’utilisent pas de format AMP pour leur page.

Ce qui semble démontrer qu’aujourd’hui, pour ces gros sites déjà bien ancrés sur le web, l’AMP semble n’avoir que peu d’influence sur le positionnement de leurs pages dans les SERP.

Pour autant, j’ai pris l’exemple de sites adeptes des Google News qui ont plus à perdre qu’à gagner.

Quid alors des sites, autrefois absents de ces résultats, qui se verrait propulsés sur le devant de la scène grâce à ce format ?

En effet, il suffit d’apparaitre dans le carrousel ou dans les premiers résultats une fois pour voir son trafic faire un bond.

Ainsi, en partant de ce constat, pour le référencement naturel, un site méconnu a beaucoup plus à gagner qu’un gros site déjà en place qui sera obligé de s’en servir pour se défendre.

Rajoutons aussi que, parmi les critères appréciés par Google, la vitesse de chargement en fait partie.

Donc, bien que pour le moment, nous ne pouvons pas encore voir de résultats flagrants sur les bénéfices de l’AMP, il y a fort à parier que cette technologie devienne obligatoire d’ici quelque temps pour les sites d’information.

 

Pour en savoir plus sur l’AMP et mieux comprendre cette technologie, je vous invite à consulter le site du projet AMP. Vous avez aussi une adresse qui vous indique si votre page est bien en format AMP. Insérez-y votre URL et demandez-lui de valider. Vous verrez les différents changements à réaliser.

Dans tous les cas, si vous possédez un site d’information, intéressez-vous de près à ce sujet qui en est encore à ses prémisses.

Pour les sites e-commerce, attendez encore un peu ou installez l’AMP sur un site test avant de le mettre sur votre site. Surtout si vos contenus qui ne sont pas du texte sont importants pour vendre.

Quelles sont les grandes tendances SEO pour 2017 ?

Avant toutes choses, je vous souhaite une très bonne année 2017. J’espère qu’elle sera encore meilleure que l’année 2016, aussi bien sur le plan personnel que professionnel.

Ceci étant dit, nous pouvons nous remettre tranquillement au travail (dur dur après cette période de fêtes).

J’avais fini l’année en revenant sur toutes les évolutions dans le domaine du référencement naturel en 2016. Ainsi, assez logiquement, je commence l’année avec un article sur les tendances et les prévisions en termes de SEO pour 2017.

Vers quoi se concentrer pour les mois à venir ? Voyons ensemble les tendances SEO pour 2017 qui se dégagent dès à présent.

 

Principale tendance : le SEO sur mobile

C’était déjà le cas en 2016 et cela semble se confirmer en 2017. D’ailleurs, en SEO, s’il y’a une donnée à prendre en compte, c’est bien la navigation sur smartphone.

Nos habitudes changent. Aujourd’hui, il est facile de se connecter partout et à tout moment. Que ce soit dans les transports en commun, dans un café, au bureau, à la maison ou dans la rue : nos outils connectés nous permettent d’utiliser internet en tous lieux et en toutes circonstances.

En termes de référencement naturel, cela implique de créer un site mobile-friendly, aussi rapide que facile à utiliser.

En 2017, il est donc primordial de penser « responsive design ». En d’autres termes : de permettre à votre site de s’adapter à toutes tailles d’écran (ordinateur fixe et portable, tablette ou smartphone).

Si vous utilisez un CMS connu, vous n’avez rien à craindre. Par contre, si vous avez créé votre site de A à Z, pensez-y.

De plus, qui dit mobile dit application. Et, en effet, d’après les experts, bien que les sites traditionnels tiendront encore le coup pendant quelque temps, les applications prendront le dessus à un moment ou à un autre.

2017 peut donc être l’année où vous réfléchirez à développer une application liée à votre site.

 

La stratégie de mot-clé a encore une longue vie devant elle

On entend partout que la stratégie consistant à écrire un texte par rapport à un mot-clé précis est en train de disparaitre.

C’est vrai et faux en même temps.

Vrai, car le temps où il ne fallait réfléchir qu’à un seul mot-clé est loin derrière nous. Pour preuve, la balise keyword ne sert plus à rien.

Aujourd’hui, pour être bien positionné sur une expression précise, il faut prendre en compte tout le champ lexical qui la concerne et développer votre texte en fonction de ce dernier.

Ainsi, bien qu’il soit toujours intéressant de partir d’un mot-clé spécifique, vous devez éviter à tout prix de blinder votre article avec celui-ci.

Tout le travail de l’expert SEO et du rédacteur web (ou de la rédactrice web) consiste donc à fournir un texte pensé aussi bien pour les moteurs de recherche que pour les internautes.

Aussi bien dans le fond que dans la forme, votre article devra fournir aux robots de Google les informations nécessaires pour vous aider à vous positionner sur les mots-clés voulus. Mais il devra aussi fournir une information pertinente et originale, tout en restant fluide et agréable à lire.

Comme en 2016, privilégiez des mots-clés de la longue traine plutôt que des expressions génériques.

Pour vous aider, vous pouvez utiliser des outils tels que :

Certains sont gratuits. D’autres non. À vous de voir en fonction de votre budget et de vos besoins.

 

La vidéo prend de plus en plus d’importance

Pour certains, la vidéo est l’avenir et prendra le pas sur le contenu texte et image.

Les chiffres sont, il est vrai, assez parlant :

  • Les pages avec vidéo obtiennent plus de clics que les pages sans vidéo (41 % en plus) ;
  • Les vidéos ont, en règle générale, un meilleur page rank que les autres contenus (50x supérieur).

Ceci étant dit, je nuancerai tout de même ces chiffres.

Tout d’abord, 80 % des résultats de vidéo proviennent de YouTube. Ce qui signifie que vous serez obligé de passer par ce grand site pour poster vos vidéos (et ainsi, vous plier à ses règles : ce qui ne semble pas du goût de tout le monde).

De plus, la vidéo est beaucoup plus contraignante que le texte pour les créateurs.

Si vous voulez vous mettre à la vidéo, il vous faudra un budget conséquent pour proposer un contenu de qualité. Bien que les smartphones peuvent faire de jolies vidéos, il est important de vous équiper, au moins, d’un bon micro et d’un trépied. Et si vous voulez vous faire aider par un professionnel, préparez-vous à faire chauffer votre CB.

De plus, faire une vidéo demande énormément de temps. De l’écriture du script au tournage en passant par le montage et la publication : la vidéo est bien plus chronophage que le contenu texte.

Ainsi, en prenant en compte toutes ces données, nous pouvons nous rendre compte que la vidéo n’est pas pour tout le monde.

Si vous pouvez le faire, tant mieux. Sinon, proposer un texte de qualité avec de belles illustrations est encore très efficace.

 

Le format AMP et la recherche vocale : deux technologies à surveiller de près

Deux nouvelles technologies commencent à prendre de plus en plus d’importance.

La première est le nouveau format AMP de Google. Au début prévu seulement pour les articles d’actualités, la firme américaine souhaite la proposer à d’autres secteurs d’activités. Google AMP consiste à fournir aux internautes des pages toujours plus rapides et fluides sur mobile. La vitesse d’affichage étant un critère important en référencement naturel, nous ne pouvons douter de l’importance de cette technologie dans le futur.

Vous connaissez sûrement Siri, l’assistant personnel intelligent des smartphones Apple ? Eh oui, la recherche vocale tend aussi à devenir une habitude (40 % des adultes l’utilisent pour chercher une direction et 60 % des enfants l’utilisent en regardant la télévision). Bien que ce type de recherche soit bien plus importante aux États-Unis qu’en France, je vous conseille de vous y intéresser dès maintenant. Car les données recueillies par la recherche vocale (généralement, des expressions plus longues et plus précises) pourront affecter les SERP à terme.

Ce sont deux défis que devront relever les spécialistes du SEO en 2017 et dans les années à venir.

 

Intéressez-vous au SEO local

Déjà en expansion en 2016, nous pouvons parier que le SEO local sera aussi à prendre en compte en 2017.

Ainsi, de nombreuses applications mobiles s’y mettent déjà (je pense à Waze, par exemple). Ce qui peut intéresser les petites et les grandes entreprises, dans les grandes métropoles ou en périphérie.

Quelques chiffres qui vous inciteront à vous intéresser au référencement naturel local :

  • 50 % des recherches Google sont faites pour trouver des résultats localisés ;
  • 50 % des personnes qui font des recherches locales se rendent dans les magasins dans la journée ;
  • Plus de 60 % des consommateurs ont utilisé des publicités locales.

Personnellement, cette tendance m’effraie un peu, je ne vais pas vous le cacher. Pourtant, une grande majorité d’internautes apprécie de se voir proposer des publicités et des annonces à proximité de sa position.

Rajouter à votre liste de mots-clés des expressions ciblées peut donc se révéler payant à court et long terme.

 

Sans oublier les réseaux sociaux

Les réseaux sociaux sont encore un excellent support de diffusion de vos articles.

En 2017, vous pouvez donc les utiliser sans trop vous poser de questions.

À vous de voir lesquels sont les plus intéressants pour votre activité.

Pour ma part, j’utilise principalement LinkedIn, Viadeo, Facebook et Twitter pour partager mes articles. Mais pourquoi pas Pinterest ou Instagram si vous avez de jolies photos à partager ?

D’après les spécialistes, mettre des liens vers des réseaux sociaux crédibilise aussi votre page aux yeux des moteurs de recherche. Cela vous aide donc à mieux la positionner dans les SERP.

 

Maintenant, vous savez tout des tendances en matière de SEO pour 2017. Travailler sur tous ces points vous sera utile pour améliorer les positions de vos pages dans les résultats de recherche sur ordinateur et mobile.

Pour plus d’informations, je vous invite à consulter l’infographie du site Caliber qui m’a aidé à rédiger cet article.

Retour sur les principales évolutions du SEO en 2016.

Avec 2017 qui arrive à grands pas, il est intéressant de se replonger dans le monde du SEO, en 2016.

Cela pour partir sur de bonnes bases pour cette nouvelle année qui s’annonce, elle aussi, particulièrement riche. Je ferai d’ailleurs un article en début d’année pour faire le point sur les différentes annonces SEO.

Dans tous les cas, comme il est de coutume en fin d’année, revenons sur les événements importants liés au SEO en 2016.

 

Google AMP

Nous sommes en février. Google lance pour la première fois son format AMP (Accelerated Mobile Pages).

Cela consiste à proposer des pages plus légères aux internautes utilisant leur smartphone pour se rendre sur internet.

Ainsi, les pages s’affichent plus vite.

Ce format est symbolisé par un petit éclair vert. Quand vous voyez ce symbole suivi de « AMP » apparaître dans les résultats de recherche, c’est que le site dispose de ce format.

Dans les faits, cela semble très intéressant pour les internautes. Qui cracherait sur le fait de voir les pages s’afficher plus vite ?

Pourtant, certains professionnels tirent déjà le signal d’alarme en indiquant le danger pour la liberté d’internet (déjà contrôlé en grande partie par Google).

Car, en effet, le format AMP vient mettre à mal le format W3C, ancienne norme sur internet.

Aujourd’hui, il semble que Google AMP empêche les développeurs et les éditeurs de créer leurs sites en toute liberté, en leur imposant toujours plus de règles.

À surveiller donc.

 

Mises à jour et nouveaux algorithmes Google

Durant l’année 2016, nous avons vu l’infrastructure de Google évoluer. Revenons sur les différents changements importants de 2016.

 

Mise à jour Penguin 4.0

Commençons par Penguin 4.0. Lancé en septembre 2016, cet algorithme continue de dévaluer les sites pointant ou recevant des liens de mauvaises qualités.

Son objectif : donner une seconde chance aux sites ayant déjà été touchés par les premières mises à jour de Penguin. À condition d’avoir travaillé sur leur stratégie de netlinking évidemment.

 

Algorithme Opossum

L’algorithme Opossum est non officiel. Il s’intéresse surtout au SEO local. Dans les faits, auparavant, lorsque l’on faisait une recherche par ville, seuls les résultats au sein de la ville même apparaissaient. Maintenant, le rayon semble s’élargir un peu pour permettre aux structures en périphérie apparaître aussi.

 

Une amélioration de l’algorithme pour la recherche sur mobile

Après Mobilegeddon il y’a 1 an (au mois de mai), Google a mis en place une mise à jour visant à favoriser encore plus les sites mobile-friendly dans ses résultats de recherche. 

Comprenez donc que les sites qui ne possèdent pas de version pensée pour l’affichage sur mobile pourront voir leurs pages être déclassées.

 

Un index des résultats divisé

En divisant son index, Google va placer en priorité la version mobile d’un site. Celui-ci sera alors, d’après eux, la version par défaut de ce dernier. Auparavant, la version par défaut d’un site était celle affichée sur notre ordinateur.

Avec ces différents points, vous comprenez que la recherche sur mobile est un véritable enjeu pour le géant américain.

 

L’intelligence artificielle pour améliorer les résultats de recherche

Google s’intéresse toujours à l’intelligence artificielle. Pour le SEO, cela signifie que Google continue de travailler sur son système RankBrain, qui est une intelligence artificielle de type machine-learning (une machine qui apprend toute seule). Sa mission est d’apprendre à mieux traiter les recherches afin de fournir aux internautes des résultats toujours plus pertinents.

Pourquoi faire cela ? Tout simplement parce que dans les 3,5 milliards de recherches quotidiennes supportées par Google, entre 16 % et 20 % sont nouvelles.

Ainsi, avec ce type de programme, la firme entend fournir une réponse toujours appropriée aux internautes. Peu importe que la requête soit connue ou non.

Nous en sommes seulement au début, mais cela nous incite (nous rédacteurs web, experts en référencement naturel et webmasters) à toujours fournir du contenu de grande qualité pour aider RankBrain à trouver et positionner nos pages plus facilement.

Car, bien que nous ne pourrons jamais contrôler RankBrain, nous pouvons tout de même l’inciter à préférer nos pages plutôt que celles de nos concurrents.

 

Les grands gagnants de 2016 dans la bataille du SEO

L’entreprise Yooda, par le biais de son logiciel Yooda Insight, nous propose un classement des sites qui ont le mieux progressé en termes de visibilité SEO en 2016.

Qui sont les grands gagnants ?

Les trois premières marches du podium sont remportées par :

  • Twitter.com (+13 millions de visiteurs par mois en 2016) ;
  • Hotmail.com (+11 millions de visiteurs par mois en 2016) ;
  • Larousse.fr  (+9 millions de visiteurs par mois en 2016).

Le top des sites par secteur d’activité :

  • Actualités : linternaute.com (+8 millions de visiteurs par mois) ;
  • Tourisme : tripadvisor.fr (+3 millions) ;
  • Technologie et vie numérique : Twitter.com ;
  • Santé, forme et beauté : sante-medecine.journaldesfemmes.com (+4 millions) ;
  • Vie pratique : larousse.fr ;
  • E-commerce : cdiscount.com (+9 millions) ;
  • Culture, sport et loisirs : allocine.fr (+8 millions) ;
  • Banque et assurance : particuliers.societegenerale.fr (+4 millions).

Pour voir ce classement intéressant plus en détail, rendez-vous sur le blog de Yooda.

 

Les fausses idées liées au référencement naturel qui subsistent encore en 2016

Pour finir, revenons sur quelques habitudes qui ont encore la vie dure et qu’il faudra changer sans attendre.

Encore en 2016, certains experts du SEO pensent qu’il faut répéter le plus de fois possible le mot-clé sur lequel ils travaillent dans le titre, la méta-description, les H2/H3/H4 et le texte. C’est une erreur. Préférez diversifier votre vocabulaire et utiliser un champ sémantique riche plutôt que le même mot-clé répété à de nombreuses reprises. Nous ne devons plus travailler un seul, mais une multitude de mots-clés pour espérer faire grimper nos pages jusqu’à la première page des SERP.

Il arrive aussi que des spécialistes SEO conseillent encore aux sites de s’inscrire sur des annuaires pour booster leur netlinking. C’est aussi une grosse erreur. Aujourd’hui, les liens externes ont de plus en plus d’importance. Leur qualité aussi. Ainsi, faire pointer un lien vers une page louche vous desservira plus qu’autre chose. Préférez des sites de référence sur une thématique proche de la vôtre. Tout en évitant les sites de vos concurrents, bien entendu.

Dernière chose : arrêtez d’utiliser la balise keywords. C’est dit et répété : elle ne sert plus à rien. La faute aux personnes qui en ont abusé il y’a quelques années de cela. Aujourd’hui, aucun moteur de recherche ne la prend en compte. De plus, vous donnez des indications à vos concurrents qui peuvent connaitre la liste de mots-clés sur lesquels vous souhaitez optimiser vos pages. Ce qui serait dommage.

 

Pour résumer, vous comprenez qu’en 2016, le SEO devient de plus en plus pointu et précis. Il est loin le temps où le contenu était pauvre et blindé de mots-clés. Aujourd’hui, il devient nécessaire de proposer aux internautes des pages pertinentes et bien travaillées.

En plus d’être bien construit et pensé pour les mobiles, votre contenu (image, vidéo et texte) doit être original et posséder un champ sémantique spécifique riche (lié au mot-clé sur lequel vous souhaitez vous positionner).

Plus que jamais en SEO, la qualité prend le pas sur la quantité.

Pour terminer, si vous aimez les chiffres, voilà un petit cadeau de Noël sympathique : quelques chiffres sur la recherche Google et le SEO en 2016 par Oncrawl. Il y’a des données particulièrement intéressantes (70 % de la recherche est de type longue traine !).

Comment partager votre article de blog efficacement ?

Vous avez écrit un magnifique article de blog et vous souhaitez le partager à la Terre entière (soyons fous).

Problème : vous ne savez pas comment faire ni vers quoi vous tourner pour améliorer la visibilité de vos billets de blog.

Je vous donne quelques conseils pour savoir comment partager votre article de blog efficacement.

 

Utilisez les réseaux sociaux efficacement

Pour le partage de vos articles de blog, la première chose à laquelle vous devez penser, ce sont les réseaux sociaux.

En effet, ces formidables leviers d’acquisition peuvent vous aider à propulser votre article.

Encore faut-il évidemment avoir les bonnes personnes dans votre réseau.

Pour choisir le bon réseau social, identifiez tout d’abord votre cible.

Est-ce que vos articles de blog sont plutôt pour un lectorat de consommateurs particuliers (BtoC) ? Des vêtements ou des jouets par exemple ?

Est-ce que vous pensez que vous allez plutôt intéresser des entreprises (BtoB) ?

Peut-être les deux ?

Dans tous les cas, il est important de bien choisir votre cible principale. Ainsi, vous saurez s’il vaut mieux vous concentrer sur un réseau social professionnel ou non.

Les principaux réseaux sociaux professionnels sont LinkedIn et Viadeo (voire Twitter).

Pour le reste, vous pouvez partager votre article sur Facebook ou Twitter. Et si vous possédez de jolis visuels, ne passez pas à côté de Pinterest et d’Instagram.

 

Les plug-ins WordPress

Si vous utilisez un CMS (WordPress pour citer le plus connu) pour votre site, vous pouvez vous aider de différents plug-ins.

Ainsi, je vous propose deux plug-ins très utiles pour vous aider à partager vos textes :

  • Revive Old Post (Former Tweet Old Post) ;
  • Share Buttons by AddThis.

Revive Old Post est très pratique pour faire vivre d’anciens articles (d’où son nom). Vous pouvez le configurer comme vous le désirez pour lui demander de publier sur Twitter un article tous les X heures. Vous pouvez même y ajouter un message personnalisé, si vous le désirez. Facile à prendre en main et rapide à configurer : c’est un indispensable.

Share Buttons by AddThis vous permet de rajouter, sur votre page, des icônes de partage d’articles. Ainsi, vous facilitez la vie de vos lecteurs et vous les incitez à partager vos articles avec leurs contacts. Ce plug-in gère tous les réseaux sociaux et offre aussi la possibilité de partager l’article par email.

 

L’échange de lien

L’échange de lien entre blogueurs est une technique borderline, mais très efficace pour partager ses articles.

L’objectif consiste à demander d’écrire un article pour un blog qui n’est pas le vôtre. En retour, l’autre blogueur écrira, lui aussi, un billet sur votre blog.

Ce qui est intéressant avec ce type de partage, c’est que vous avez l’occasion d’améliorer la visibilité de votre site à deux reprises :

  • La première fois, en publiant sur le site de votre collègue blogueur ;
  • La seconde quand ce dernier publie sur votre site ;

Bien sûr, cela peut se faire dans un sens ou dans l’autre.

Ainsi, si le partenariat est bien fait et si vous trouvez un site similaire ou complémentaire au vôtre, vous pourrez amener de nouveaux visiteurs assez facilement.

À savoir : c’est une technique dite grey hat. Elle n’est pas forcément bien vue par les moteurs de recherche donc faite attention à bien espacer les publications entre les deux sites.

 

Les forums et les commentaires

Autre méthode pour partager vos articles : l’utilisation des forums et des commentaires sur des articles de blog.

Attention, elle demande une certaine finesse.

Car, vous vous en doutez, les publicités sont mal vues. Ainsi, pour partager son texte, il ne suffit pas de mettre en commentaire : « bravo pour cet article » et de rajouter le lien de votre texte.

D’ailleurs, généralement, le champ commentaire est no follow. Donc, les robots des moteurs de recherche ne pourront pas se rendre sur votre site par le biais de votre commentaire.

Le but ici étant réellement de rédiger un post ou un commentaire intéressant qui donne envie aux lecteurs de se rendre sur votre site.

L’idée est donc d’être le plus naturel possible pour ramener de nouveaux visiteurs.

En ciblant des forums ou des blogs populaires, vous pourrez décrocher le jackpot si vous faites les choses bien.

Par contre, vous n’avez pas le droit à l’erreur. Un post ou un commentaire vu comme une pub sera censuré par le ou les modérateurs et fera fuir vos éventuels lecteurs.

Ne soyez pas bourrin. Utiliser les blogs et les forums pour améliorer sa visibilité demande du temps et de l’investissement.

Par contre, vous pouvez y gagner énormément.

 

La newsletter

Autre levier d’acquisition puissant si bien utilisé : la newsletter.

Attention à ne pas tomber dans le piège d’acheter des bases de données toutes faites. En plus de coûter cher, ces bases ne sont pas qualifiées.

En d’autres termes, cela signifie que vous ne ciblerez pas les bonnes personnes et que vous avez de grandes chances de tomber dans la catégorie spam.

C’est ce qui peut vous arriver de pire. Car, il est intéressant de noter que, si un grand nombre de personnes vous mentionne comme spammeur, à un moment, vous serez considéré comme indésirable et tomberez automatiquement dans la catégorie spam. Ce qui revient à travailler pour rien.

De ce fait, ce que je peux vous conseiller, c’est de n’utiliser que les données des personnes qui visitent votre blog et qui ont bien voulu vous laisser leur email.

Ainsi, vous vous créez une base de données hyper qualifiée qui grandira de jour en jour.

Car oui, bien que les newsletters vous aident à vous propulser, c’est aussi un travail de longue haleine qui demande beaucoup de temps.

Pour créer facilement des newsletters jolies et lisibles, je ne peux que vous conseiller MailChimp.

C’est un outil gratuit et facile à utiliser.

 

N’oubliez pas non plus l’offline

Enfin, pour partager vos articles, n’oubliez pas d’en parler à vos proches ou aux personnes que vous rencontrez.

Si vous êtes adepte des réunions de networking, n’hésitez pas à vous créer des cartes de visite avec le nom de votre site.

Chaque fois que vous entendez parler d’un sujet que vous avez évoqué sur votre blog, rentrez dans la discussion et essayez de montrer que vous connaissez, vous aussi, la thématique évoquée. D’ailleurs, vous en parliez il n’y a pas longtemps sur votre site.

En vous plaçant comme un expert dans votre domaine, vous aurez sûrement de nouveaux visiteurs régulièrement.

À noter : vos clients sont aussi de futurs lecteurs potentiels. C’est aussi le cas de vos fournisseurs ou de toutes les parties prenantes liées à votre activité ou à votre entreprise, de près ou de loin.

 

Offline ou online : les méthodes que je vous propose dans cet article sont celles que j’ai utilisées ou que j’utilise encore.

Et vous, quels sont les vôtres ?

Comment reconnaître un site internet mal conçu en 5 points.

J’avais fait il y’a quelque temps un texte sur les caractéristiques d’un bon site. Maintenant, voyons, à l’inverse, ce qui fait un mauvais site.

Car, bien que les bons sites peuvent nous apprendre beaucoup, c’est aussi le cas des sites mal-optimisés.

5 points pour reconnaître un site mal conçu et référencé.

 

Une mauvaise expérience utilisateur.

Il est primordial d’offrir à vos internautes une bonne expérience utilisateur. C’est la base de tout. Car un internaute qui trouve ce qu’il cherche facilement et qui peut se balader aisément sur votre site est un internaute heureux.

Et un internaute heureux achète, commente ou passe plus de temps sur votre site.

À l’inverse, mettez-vous à sa place.

Vous voyez une offre alléchante sur les moteurs de recherche. Vous cliquez et vous arrivez sur un site moche et fouillis. Vous vous en allez tout de suite.

Vous venez de vivre une mauvaise expérience utilisateur.

Ainsi, une mauvaise expérience utilisateur, c’est :

  • Une ergonomie mal-pensée ;
  • Un menu peu clair, rempli de catégories qui ne veulent rien dire ;
  • Une navigation brouillonne qui n’incite pas à se promener ;
  • Et surtout : une promesse qui n’est pas tenue.

Pour les sites e-commerce, nous pouvons aussi rajouter :

  • Un processus de commande long (3 clics maximum) ;
  • Des fiches produits qui ne sont pas remplies ;
  • Des photos moches.

Peu importe la page sur laquelle arrive votre internaute, vous devez le retenir afin qu’il fasse ce que vous voulez de lui.

Pensez donc au design de vos pages et aux informations qu’elles contiennent.

 

Un contenu pauvre et irrégulier.

En parlant d’informations, il est difficile de passer à côté du contenu de votre site.

Nous sommes sur un blog dédié à la rédaction web donc ce que je vais vous dire sera de la redite. Mais il est toujours utile de le rappeler.

Un mauvais contenu c’est :

  • Du duplicate content ;
  • Du keyword stuffing ou bourrage de mots-clés (ne soyez pas lourd en plaçant vos mots-clés) ;
  • Un texte qui n’est pas organisé avec des H1, H2, etc.;
  • Un texte qui n’est pas aéré ;
  • Un contenu pensé seulement pour les moteurs de recherche ;
  • Une publication irrégulière ;
  • Une publication vieille sans renouvellement de votre part.

J’aurais pu rajouter aussi un contenu non original, mais malheureusement, il est difficile de trouver des informations nouvelles sur internet (sauf news).

Le tout étant d’y mettre votre patte pour donner envie aux lecteurs de vous lire vous plutôt que votre voisin.

 

Une technique vieillissante.

Cette partie ne concerne que les personnes qui créent leur site à la main. Généralement, en passant par un CMS réputé (WordPress ou Prestashop entre autres), vous pouvez mettre votre site à jour.

Cela dit, il est intéressant de le savoir.

Avoir une technique vieillissante, c’est donc :

  • Avoir un site lent ;
  • Posséder des pages en 404(assez courant après avoir refondu votre site ou fait des redirections d’URL) ;
  • Ne pas proposer un site responsive (qui s’adapte à tous les écrans).

Pensez aussi à passer votre site en HTTPS. Google a déjà fait une mise à jour qui favorise les pages cryptées avec ce genre de technologie.

Sans oublier que les balises meta sont aussi à considérer. Parmi les balises à ne pas oublier, vous avez :

  • La balise meta description ;
  • La balise title(qui n’est pas vraiment une balise meta en réalité, mais il me paraissait intéressant d’en parler ici).

La balise keyword ne sert plus à rien. Arrêtez de la remplir. Vous perdez du temps et vous donnez des informations à vos concurrents.

 

Aucune stratégie de maillage.

Beaucoup de webmasters ne prennent pas le maillage au sérieux. Ainsi, ils développent des sites qui ne possèdent aucun maillage interne et avec un maillage externe désastreux.

Concernant le maillage interne, un mauvais site :

  • N’en propose tout simplement pas.
  • Offre des liens d’une page vers une autre sans rapport avec la thématique traitée.
  • Ne met en place que des liens vers la home page, en ne tenant pas compte des pages profondes.

C’est oublier que les pages profondes et la mise en place d’une structure sémantique en silo sont particulièrement importantes.

En d’autres termes : scindez bien votre site en catégories sémantiques et liez vos pages intelligemment entre elles.

Concernant le maillage externe maintenant :

  • Attention à bien vérifier les pages vers lesquelles pointent vos liens ;
  • Évitez l’échange de liens (ou faites-le de la manière la plus naturelle possible) ;
  • Ne placez pas votre site sur des annuaires ou des fermes de liens.

Si vous doutez de la qualité d’une page, je vous conseille d’utiliser Majestic. C’est un excellent outil pour vérifier si une page est de bonne qualité ou non.

 

Un site qui ment à ses utilisateurs pour plaire aux moteurs de recherche.

Finalement, dernière chose qui prouve qu’un site est prêt à sombrer dans le néant d’internet : le fait qu’il propose un contenu pour les internautes et un autre pour les moteurs de recherche. On appelle cela du cloaking.

Cela consiste tout simplement à offrir un texte aux internautes et à leur cacher certains contenus de ce texte.

Pour vous donner un exemple concret, prenons cet article. Vous n’y voyez rien d’anormal n’est-ce pas ? En tout cas, je l’espère.

Maintenant, imaginez que j’ai voulu cacher des mots (« SEO », « référencement naturel » ou « rédaction web », par exemple) à chaque phrase, en utilisant une encre blanche sur un fond blanc (ce que je n’ai pas fait, je ne suis pas fou).

Eh oui, en lisant le texte, vous n’y voyez que du feu. Par contre, les moteurs de recherche comprendront que mon texte parlera de SEO, de référencement naturel et de rédaction web.

Heureusement, ce type de pratique (appréciée des adeptes de black hat) est de moins en moins utilisée depuis le passage de Google Penguin et Google Panda.

Dans le même genre, nous avons les sites qui proposent des annonces mensongères dans leur meta-description : « Le moins cher du web », « leader sur le secteur », « jeu le plus joué des internautes »…

C’est bien si c’est vrai. Par contre, s’il s’avère que votre annonce est fausse, vous avez beaucoup à y perdre. Attention donc avec ce type de phrase.

 

En résumé, un site de mauvaise qualité, c’est un site :

  • Moche ;
  • Lent ;
  • Qui ment aux internautes ;
  • Qui n’offre pas ce que ses utilisateurs attendent de lui ;
  • Qui ne pense pas aux écrans des smartphones et tablettes ;
  • Qui propose un contenu irrégulier et de mauvaise qualité ;
  • Qui dispose d’un maillage interne et externe mal pensée.

Si un de ces points pose problème, changez-le le plus rapidement possible.

7 points pour optimiser votre référencement naturel sur Google efficacement (+1 bonus).

Pour optimiser le référencement naturel Google de votre site ou d’une page, je vous propose une check-list complète qui va vous aider à ne rien oublier. Je m’appuie, pour cela, sur une infographie intéressante (en anglais) qui indique les différents points à ne pas oublier. Vous la trouvez ici : https://www.quicksprout.com/2014/11/21/how-to-structure-a-perfect-seo-optimized-page/.

Munissez-vous d’un papier et d’un stylo ou d’un fichier Word (que vous pouvez nommer sobrement « Mon site » ou d’un tout autre nom en fonction de votre créativité) et préparez-vous à vérifier si vous n’avez rien oublié pour votre référencement web.

 

1er point : une URL pensée pour le SEO.

Tout d’abord, avez-vous pensé à transformer l’URL du contenu que vous avez terminé d’écrire pour la rendre SEO-friendly ?

D’après Matt Cutts, le moteur de recherche Google prend en compte les 5 premiers mots de l’URL. Préférez donc le rewriting plutôt que de laisser une URL qui ne serait qu’une suite de chiffres et de lettres sans aucun sens. Pour faire les choses bien, je ne peux que vous conseiller d’utiliser le mot-clé lié à votre page.

D’ailleurs, si vous êtes utilisateur de WordPress, vous remarquez que le célèbre CMS vous propose une URL déjà réécrite correspondant à votre H1. Il vous suffit de cliquer sur « Modifier » pour la changer selon votre désir.

 

2e point : des balises titres et meta description optimisées.

Après l’URL, passons à un autre point important pour référencer son site : les titres. Vous devez vérifier plusieurs critères :

  • Votre titre principal doit être tagué H1.
  • Les autres titres de votre document seront en H2, H3, H4 (il est assez rare d’arriver jusqu’en H4), etc.
  • Votre titre doit faire moins de 55 caractères.
  • Votre H1 doit comporter votre mot-clé.

Concernant les titres H2, H3, etc., il est recommandé d’y insérer aussi votre mot-clé. Évitez toutefois d’être lourd. Personnellement, je préfère des titres accrocheurs pour intéresser le lecteur plutôt que des titres seulement pensés pour le Search Engine Optimization (SEO).

Nous entrons dans une ère où le webmarketing est centré sur l’expérience utilisateur plutôt que sur les robots de Google. Gardez cela en tête. Après, si vous réussissez à écrire des titres accrocheurs avec le mot-clé à l’intérieur, sans répétition, c’est le must.

Et puisque nous sommes dans les balises, n’oubliez pas non plus de remplir la balise meta description afin de mieux apparaitre dans la recherche Google.

 

3e point : une utilisation d’images intelligente.

Si vous le pouvez, utilisez autant d’images que possible. Nous apprenons dans l’infographie que l’utilisation d’image réduirait le taux de rebond et augmenterait le temps passé sur le site.

C’est vrai, je ne suis pas un exemple à suivre là-dessus, je le sais. Personnellement, je ne m’intéresse qu’à l’image de présentation de textes. Cela parce que je n’ai accès qu’à des banques de données gratuites. Mais si vous pouvez utiliser une vaste banque d’images, plus vous illustrez vos propos et mieux c’est.

N’oubliez pas de réécrire le titre et la balise Alt de vos images en y rajoutant votre mot-clé. Et pensez aussi à rajouter la source afin de vous éviter des ennuis.

 

4e point : un bon maillage interne et externe.

En écrivant votre article, vous devez sûrement avoir utilisé des informations glanées çà et là ? Si c’est le cas, n’hésitez pas à créer des liens sortants vers vos sources d’inspiration. Évidemment, favorisez les sites de références (avec un bon Pagerank de préférence) et évitez les sites louches.

Google apprécie cela pour deux raisons : il peut comprendre de façon plus précise le sujet de votre article et surtout, il considère votre page comme une sorte de hub.

Profitez-en aussi pour travailler votre maillage interne en rajoutant des liens vers des articles connexes de votre blog/site traitant de la même thématique. Concernant ces hyperlinks : évitez la suroptimisation en utilisant exactement les mêmes termes entre l’URL et la partie de phrase choisie comme ancre.

Une fois votre texte en ligne, prenez régulièrement un peu de temps pour surveiller et analyser vos backlinks.

 

5e point : une implémentation cohérente du mot-clé au sein du texte.

Vous le savez maintenant, le contenu est en train de laisser sa place au contexte. Ainsi, les nouvelles stratégies de SEO et référencement basées sur les mots-clés vous incitent à penser de façon sémantique.

En d’autres termes, cela signifie qu’en plus de devoir choisir un mot-clé principal (de la longue traine ou générique) pour votre page, il vous faudra aussi trouver tous les termes liés. En faisant cela, vous évitez la suroptimisation, vous fluidifiez votre texte et vous donnez à manger à Google en même temps (qui rechignera moins à vous indexer).

Un site que j’utilise personnellement pour m’aider à définir de nouveaux champs lexicaux afin d’enrichir mes articles : 1.fr. Complet et facile à utiliser (mais payant si vous l’utilisez régulièrement).

 

6e point : un bon usage des réseaux sociaux.

Depuis quelques années, les réseaux sociaux ont pris de plus en plus importance. Si vous avez un blog, vous ne pourrez pas passer à côté pour améliorer votre notoriété.

Assurez-vous donc que votre article peut être facilement partagé sur les réseaux sociaux qui vous intéressent. On pense tous à Facebook et Twitter, mais n’oubliez pas non plus LinkedIn ou Viadéo. Voir même Instagram et Pinterest si vous avez de belles images à partager.

Pourquoi faire cela ? Pour faciliter les liens entrants, pardi ! Ainsi, vous augmenterez les visites et vous serez capable de générer plus facilement de nouveaux lead.

 

7e point : une bonne longueur de texte.

Finalement, dernière chose : êtes-vous sûr d’avoir exprimé tout ce que vous avez à dire sur votre sujet ? Aujourd’hui, les textes les plus longs sont les plus partagés. Pourquoi ? Parce qu’ils offrent une analyse complète d’un sujet. Au contraire, un article court est vu comme incomplet, voire bâclé. Cela donne une impression d’un travail qui n’est pas abouti.

L’infographie nous dit qu’il vaut mieux privilégier les textes de 2000 mots minimum. Je ne suis pas tout à fait d’accord avec cette idée de s’imposer un nombre de mots. Généralement, mes articles font tous entre 800 et 1200 mots. Et cela sans me forcer à rajouter de l’information. Je pense, en effet, qu’il ne faut jamais meubler un texte. Cela se ressent ensuite à la lecture et vos internautes ne seront pas dupes.

Par contre, si un article fait moins de 700 mots, c’est soit que vous n’avez pas poussé la recherche à fond, soit que la thématique n’est pas assez intéressante pour écrire un article dessus. Mettez votre texte de côté et réutilisez-le en tant que paragraphe d’un futur billet.

Autre argument en faveur des articles imposants : Google Panda semble apprécier les textes les plus longs.

Évidemment, ai-je besoin de préciser que le Duplicate Content est interdit ?

 

Point bonus : pensez à l’amélioration technique de votre site.

Allez, en bonus, voici deux autres points que vous pouvez checker qui ne concernent pas seulement pas votre page, mais l’ensemble de votre site.

Le premier point bonus : la rapidité de chargement de vos pages. Utilisez Google Webmaster Tools pour identifier les éventuels problèmes de chargement et résolvez-les rapidement. Pourquoi ? Parce que Google favorise les sites qui possèdent des pages qui se chargent vite.

Le second point est dédié à l’utilisation des smartphones, tablettes et ordinateurs portables pour naviguer sur le web. En fait, votre site doit s’adapter à toutes les tailles d’écran et apparaitre de façon lisible n’importe où. On parle de responsive design pour qualifier un site qui évolue en fonction de l’écran sur lequel il s’affiche. Si ce n’est pas le cas du vôtre, sachez que Google n’aime pas les sites qui ne pensent pas à leurs utilisateurs. De plus, un lecteur (ou un client) qui tombe sur un site mal-pensé aura de grandes chances d’aller voir ailleurs.

 

Ces 8 points ne sont pas optionnels. C’est une liste obligatoire à laquelle vous devez vous soumettre avant de publier votre contenu. C’est seulement une fois que tous ces points sont valides que vous pouvez proposer votre texte à vos internautes et aux moteurs de recherche. En ne vous prêtant pas à cet exercice, vous perdrez de la crédibilité aux yeux de Google et, sans doute aussi, aux yeux de vos utilisateurs. Et cela se répercutera sur votre taux de conversion.

Vous verrez qu’au bout d’un moment, cette vérification se fera de manière automatique et vous permettra de décrocher des places en première page des SERP. Idéalement, penser à optimiser son référencement doit se faire durant la phase de création ou de refonte d’un site. C’est la base de votre stratégie de référencement naturel et SEO.

Historiques des principales mises à jour de l’algorithme de Google.

Si vous travaillez dans le monde merveilleux du référencement web, vous avez sans doute entendu parler des nombreuses mises à jour de l’algorithme de Google. En effet, Google est le meilleur partenaire des référenceurs. C’est aussi une sorte de Dieu qui demande à ce qu’on le vénère au quotidien pour éviter que nos sites soient pénalisés en termes de référencement naturel.

Ainsi, vous avez sans doute entendu parler de Google Panda et Google Penguin ? Mais savez-vous vraiment à quoi servent ces mises à jour en référencement et SEO ? Pour vous aider, je vous offre un résumé des différentes majs et algo importants de Google, par ordre chronologique d’apparition.

 

2010 : algorithme Google favorisant les sites rapides.

Cet algorithme est sorti en 2010. Il consiste tout simplement à mettre en avant les sites qui font le nécessaire pour fournir à leurs internautes un chargement de pages rapide.

 

2011 : Google Panda.

Nous attaquons fort et rapidement avec l’apparition de la mise à jour Panda de Google. À l’heure où j’écris ces lignes, Google Panda a connu 30 mises à jour (la dernière date du 18 juillet 2015).

En quelques mots, Google Panda sert à détecter les sites proposant des contenus de faible valeur. Ainsi, les sites utilisant des techniques black hat ou produisant des textes automatiques ont subi une forte pénalité en termes de positionnement et d’indexation. C’est aussi le cas des pages ayant du Duplicate Content en leur sein. Les sites concernés sont, entre autres, les comparateurs de prix, les sites d’avis, les annuaires, etc.

Nous, rédacteurs web, ne pouvons que remercier Google Panda puisque c’est grâce à lui que nous travaillons. De là à dire que Google Panda est le meilleur ami de la rédaction web, il n’y a pas qu’un pas que je n’ose pas encore franchir.

 

2012 : Google Penguin.

Assez rapidement, l’algorithme Google Penguin (Google Pingouin chez nous) voit le jour. Sa première version date de 2012. Au moment où j’écris cet article, Google Penguin en est à sa 7e version (datée du 23 septembre 2016).

Là on Panda vérifie principalement le contenu d’un site, Google Penguin vient pénaliser toutes mauvaises stratégies de netlinking. Ainsi, Google fait très attention aux liens suroptimisés, à l’achat de backlinks ou encore aux liens de faible qualité. En gros, toutes les erreurs au niveau de votre maillage interne et externe.

 

2013 : Google Hummingbird (ou Google Colibri).

La mise à jour Google Hummingbird (Google Colibri chez nous) est passée relativement inaperçue. Pourquoi ? Parce qu’elle favorise les requêtes de type longue traine dans la recherche Google.

En effet, d’après le géant américain, Google Hummingbird sert à identifier plus facilement les requêtes longues afin de fournir une réponse plus précise aux internautes. Ce qui incite à nous intéresser d’autant plus aux mots-clés de la longue traine pour notre SEO Google.

 

2014 : mise à jour favorisant les pages HTTPS.

Google veut fournir aux internautes une qualité de navigation optimale. C’est pourquoi, avec cette mise à jour, il offre un coup de pouce aux sites qui proposent des pages sécurisées utilisant le fameux protocole HTTPS.

D’après ce qui est dit, cette mise à jour concerne toutes les pages de tous les sites mondiaux, de façon individuelle. Ainsi, pour faire plus simple, vos pages HTTPS seront mieux positionnées que vos pages HTTP.

 

2015 : mise à jour concernant la compatibilité mobile.

Les smartphones sont le futur. Et ça Google le sait. Parce que nous sommes toujours plus nombreux à naviguer sur internet et à utiliser les moteurs de recherche sur nos portables, Google a décidé de s’intéresser de près à cette nouvelle technologie.

A savoir : comme la mise à jour HTTPS, la mise à jour de compatibilité mobile fonctionne page par page. En d’autres termes, cela signifie que les pages Mobile friendly compatibles avec les smartphones seront favorisées dans les moteurs de recherche, par rapport aux pages qui ne le sont pas.

Généralement, en passant par un CMS connu (WordPress, Prestashop etc.), vous n’aurez aucun souci. En effet, ces grands noms du web proposent des sites responsive design (qui s’adaptent à tous les formats d’écran).

 

2015 : Google RankBrain.

Après Google Colibri vient Google RankBrain. L’objectif du célèbre moteur de recherche est ici de répondre toujours plus précisément aux requêtes des internautes.

Google RankBrain a donc été créé pour identifier les requêtes les plus complexes que nous soumettons tous les jours à Google, et surtout, les requêtes encore jamais cherchées.

Google RankBrain est donc en rapport direct avec Google Hummingbird, puisque son objectif est de nous proposer des résultats de recherche exacts.

 

2015 : Phantom 2.

Voici une mise à jour assez mystérieuse (qui porte donc bien son nom). En effet, déjà, ce qui est marrant, c’est que nous connaissons Phantom 2, mais pas Phantom, premier du nom. D’après Google, une première mise à jour a été effectuée en toute discrétion dans le courant de l’année 2013, sans aucune annonce.

L’objectif de Phantom est de travailler avec Panda main dans la main afin de détecter et bannir des SERP les pages possédant du contenu de faible qualité. D’après les testeurs, les pénalités de Phantom 2 semblent ne pas concerner le site en entier. À voir si Phantom 2 travaille par page ou par rubrique pour notre référencement Google.

Dans tous les cas, les cibles de Phantom 2 sont toujours les sites aux contenus de faible valeur. Les premières victimes de Phantom 2 sont donc les mêmes que celles de Google Panda.

 

Avec ces différentes mises à jour de l’algorithme de Google, vous comprenez que le géant américain semble miser sur un internet propre et qualifié, centré avant tout sur l’expérience utilisateur. Gardez cela en tête et pensez à toujours proposer un contenu intéressant et unique si vous voulez améliorer votre trafic. Si nécessaire, je vous incite à consulter souvent (ou à demander à votre Webmaster de le faire) votre Webmaster Tools. D’ailleurs, que vous soyez en pleine optimisation ou refonte de votre site, vous devriez souvent vérifier cet excellent outil SEO (contrairement à Google Analytics et Google Adwords qui sont de moins en moins précis).

J’ai évidemment décidé d’en écarter certaines afin de me concentrer sur les mises à jour qui me semblent les plus importantes. Je reviendrai sans doute plus précisément sur Google Panda et Google Penguin dans des articles futurs.

Aussi, j’éditerai cet article autant que possible dès l’arrivée de nouvelles mises à jour.

Mots-clés génériques ou mots-clés de la longue traîne : que choisir ?

Vous venez de lancer votre site internet. Vous avez lu un maximum d’informations ou vous vous êtes rapproché d’une agence qui vous a conseillé de mettre en place un champ lexical pour votre stratégie SEO ? C’est effectivement un bon début.

Pour créer ce champ lexical, vous avez sûrement entendu parler de mots-clés génériques et de mots-clés de la longue traine ? Et vous ne savez pas si vous devez vous concentrer sur l’un ou l’autre. Ou peut-être faut-il combiner les deux ? Oui, mais sous quelles proportions ?

Cet article pour faire la lumière sur les mots-clés génériques et les mots-clés de la longue traine.

 

Comment reconnaitre un mot-clé générique ?

Dans le référencement web, nous utilisons les mots-clés génériques pour définir les grandes lignes de notre activité, sans rentrer dans le détail.

Par exemple, si vous êtes un site e-commerce qui vend des livres : certains mots-clés génériques seront « livre », « roman », « livre pour enfant », « roman policier », etc.

Autre exemple, vous êtes freelance et vous proposez vos services de marketing web. Les mots-clés génériques liés à votre activité seront « marketing web », « SEO », « rédaction web » ou encore « marketing digital ».

Bon, j’imagine que vous n’avez plus besoin d’exemples pour comprendre que les mots-clés génériques sont des expressions courtes qui sont très recherchées par les internautes. Et là, vous vous dites : « Super ! C’est sur celles-là que je dois me positionner pour être en première page des SERP ! » Et vous avez raison. Car, avec une excellente optimisation, les mots-clés génériques rapportent un fort trafic.

Pourtant, les mots-clés génériques ne sont pas du tout qualifiés. Ainsi, en plus d’être extrêmement concurrentiels (d’où le CPC élevé si vous êtes adepte de référencement payant et de Google d’Adwords), en vous positionnant sur ces mots-clés, vous ferez venir des internautes qui ne savent pas vraiment ce qu’ils veulent. Et une personne qui ne sait pas ce qu’elle veut est une personne qui n’achète pas. Donc, les mots-clés génériques n’ont pas un taux de conversion très élevé.

 

Comment reconnaitre un mot-clé de la longue traine ?

En complément des mots-clés génériques se trouve la longue traine (ou long tail pour les anglophones). La longue traine désigne tous les mots-clés qui apportent, chacun, un faible trafic à votre site, mais qui sont hyper qualifiés.

Reprenons notre exemple de la librairie en ligne. Certains mots-clés de la longue traine seront, par exemple, « roman la ligne verte Stephen King poche » ou encore « livre avec images pour enfant de moins de 3 ans ».

Vous voyez que les expressions sont beaucoup plus longues. Ainsi, seules les personnes qui savent vraiment ce qu’elles veulent se cassent la tête à faire ce genre de recherche. Pourtant, pour vous qui voulez réaliser plus de chiffre d’affaires, en créant une page web spécifique pour ce type de personne, vous savez que vous avez de grandes chances de les avoir dans la poche (sous réserve que votre page de destination soit bonne, bien entendu). Vous avez donc défini une cible précise pour votre référencement SEO.

Pour résumer : les mots-clés de la longue traine sont des expressions rapportant peu de trafic à l’unité, mais hyper qualifiées. Si on parle de longue traine, c’est parce que, mises toutes ensemble, ces expressions peuvent représenter une part importante du trafic de votre site web (les spécialistes parlent de 80% de trafic généré par la longue traine). C’est pourquoi elles sont si importantes pour le référencement de votre site.

 

Faut-il préférer les mots-clés génériques ou les mots-clés de la longue traine ?

Faut-il privilégier les mots-clés génériques ou les mots-clés de la longue traine ? Voici une question bien épineuse à laquelle je répondrais simplement : ne choisissez pas. En fait, les deux types de mots-clés sont très importants. Bien que fortement concurrentiels, les mots-clés génériques seront la base de votre site web et de votre identité. C’est ce qui vous représente sur le web et ce sont les expressions sur lesquels vous devez apparaitre. Les mots-clés de la longue traine viendront en complément pour apporter du trafic supplémentaire.

À savoir : avec l’évolution des moteurs de recherche, la stratégie de marketing web qui consiste à partir de ses mots-clés pour créer du contenu commence à perdre de son sens. En effet, Google incite à produire du contenu de qualité, non centré sur des mots-clés. De ce fait, la tendance tend à s’inverser. Auparavant, nous partions des mots-clés sur lesquels nous voulions nous positionner pour créer du contenu et réaliser de l’optimisation SEO. Aujourd’hui, nous créons ce contenu et nous l’alimentons de termes spécifiques sur lesquels nous voulons que les moteurs de recherche nous positionnent.

Ceci étant dit, me concernant, j’ai toujours une liste de mots-clés à portée de main pour écrire mes articles. Ces mots-clés sont des expressions qui représentent mon activité et qui me permettent de choisir mes sujets. En partant de ces mots-clés, j’écris mon texte en faisant attention au contexte sémantique. Pourquoi je fais ça ? Tout simplement parce que ces mots-clés sont des expressions sur lesquelles je serai sûr d’être positionné à terme (peu importe le temps que cela peut prendre). Les raisons à cela : en étant facile à placer au sein de vos contenus, vous les répéterez souvent, sans même le vouloir. Après, rien ne dit que vous serez dans les premiers. Car, les expressions génériques sont des objectifs que veulent atteindre un grand nombre de sites.

De ce fait, si vous venez juste de commencer votre référencement internet, concentrez-vous sur des expressions de longue traine hyper qualifiées. Vous serez plus facilement positionnées dessus. Vous ne pourrez cibler les expressions génériques qu’au bout de quelques années, sous réserve d’avoir déjà une bonne présence en ligne. Rien n’est impossible. Il faut juste du travail pour espérer être dans les premiers sur l’expression générique qui vous intéresse. Gardez en tête (ou dans un coin de votre ordinateur) les expressions génériques sur lesquelles vous souhaitez vous positionner et n’hésitez pas à les travailler au quotidien pour renforcer votre SEO et référencement naturel.

 

Pour résumer : commencez votre référencement naturel SEO en vous intéressant presque exclusivement aux expressions de longue traine (généralement des expressions longues de plus de 3 mots). Puis, quand vous commencerez à vous faire une bonne réputation (il est nécessaire de bien optimiser son référencement pour cela, bien entendu), vous pourrez vous attaquer aux expressions génériques.

Ne désespérez pas si les résultats en termes d’indexation et de référencement Google mettent du temps à venir. Comme je vous l’ai indiqué, vos premiers mots clefs de la longue traine vont générer peu de trafic. Ce n’est qu’en les associant les uns avec les autres qu’ils révèlent tout leur potentiel et qu’ils vont commencer à avoir un impact sur le référencement de votre site. D’où l’intérêt pour votre positionnement et votre webmarketing de produire du contenu intéressant régulièrement.

Dernière chose : pour les outils SEO, préférez Webmaster Tools que Google Analytics. Depuis quelques années, Google Analytics ne nous renvoie que peu de mots-clés pour établir une analyse pertinente. Ils sont, en effet, tous contenus dans la fameuse rubrique « Not Provided »… Cela rend cet outil SEO peu intéressant pour travailler votre notoriété sur le web et le référencement de votre site. Google Webmaster Tools vous offre un peu plus de lisibilité.

Et bien sûr, n’oubliez pas d’optimiser aussi vos balises meta, votre URL et votre netlinking (maillage interne et maillage externe) avec vos mots-clés.

Black hat, white hat, grey hat : quelle technique faut-il préférer ?

Savez-vous que le milieu de web et, plus précisément, le monde du SEO est en proie à une guerre sans merci ? Une guerre du bien contre le mal où chaque camp passe son temps à défier l’autre afin d’assurer sa suprématie. Et au milieu, un troisième protagoniste utilise les armes des uns et des autres pour essayer d’exister aussi.

Bon, j’exagère un peu, mais je pense que vous avez compris que nous allons parler du black hat, du white hat et du grey hat.

Qu’est-ce que c’est et comment les différencier ? Cet article pour vous éclairer.

 

Commençons par les méchants : le black hat.

Sont considérées comme black hat toutes les techniques qui utilisent les failles de nos gentils moteurs de recherche pour mieux positionner votre page web sur ces derniers. Oui, on peut dire que c’est de la triche. Mais, les faits sont là : le black hat a permis à de nombreux sites de se propulser afin d’atteindre des hauteurs vertigineuses en très peu de temps. Cela montre la puissance du black hat : en utilisant les bonnes méthodes de référencement, vous deviendrez les rois du monde en un temps record.

Par contre (parce que sinon ce serait trop beau), si vous vous faites prendre, préparez-vous à subir une chute en piquée de votre indexation, donc de votre référencement Google. À cause de cela, le black hat se révèle être dangereux à manipuler. D’ailleurs, avec l’évolution de l’algorithme de Google, il tend à disparaitre. En effet, avec les différentes mises à jour de Google Panda et Google Penguin, le géant du web s’est doté d’armes efficaces contre certains procédés jugés malveillants. Il devient donc de plus en plus facile pour lui d’analyser et de mettre en évidence des choses bizarres sur votre site web.

Parmi les techniques de black hat les plus connues, il y’a le fait de truffer votre texte de mots-clés, d’utiliser des ancres suroptimisées, de créer des sites satellites ou encore de cacher des liens et mots-clés dans le code de votre page (la célèbre technique du cloaking qui consiste à présenter une page X aux internautes et une page Y aux moteurs de recherche).

 

Deuxième camp en lice : le white hat.

Le white hat, quant à lui, correspond au camp des gentils. Contrairement à son opposant qui possède une vision à court terme, le white hat se fiche des résultats rapides. Il a le temps, car il sait qu’au bout du terme, il sera le plus fort. Ses devises : « lentement mais sûrement » et « tout vient à point à qui sait attendre ».

Pour les adeptes du white hat, tout ce qui compte, c’est que leur site plaise aux internautes. En rendant les internautes contents, le site ou la page web attirera forcément l’attention des moteurs de recherche. La suroptimisation, c’est pas leur truc. Le white hat pense avant tout aux internautes en faisant son possible pour proposer des textes pertinents.

Évidemment, le white hat n’utilise aucun outil de création de contenus automatique. Il doit suer pour arriver à ses fins. Mais quand il y arrive, le résultat en vaut la chandelle puisqu’il sera difficile pour ses concurrents de détrôner un site bien placé sur les moteurs de recherche grâce à des techniques white hat.

D’ailleurs, peut-on parler de techniques white hat ? Oui et non. Oui, car il y’a un aspect technique qu’il faut maitriser (le remplissage des balises meta, la mise en place d’un bon maillage interne ou le fait de proposer une image cohérente avec le texte, entre autres). Et non, car finalement, le white hat, c’est simplement du bon sens.

En réalité, le white hat consiste à proposer à ses visiteurs une excellente expérience utilisateur en leur montrant que vous n’avez rien à cacher. Et, évidemment, cela a bien plus d’impact sur votre notoriété et votre référencement à long terme.

 

Et entre les deux : le grey hat.

Parce que le monde n’est pas si manichéen que ça, il existe aussi un autre camp : le grey hat. Ni bon, ni méchant, le grey hat est le fait d’utiliser conjointement des techniques de white hat et de black hat.

Petite parenthèse humoristique : ça me fait penser à chaque fois au célèbre sketch Télémagouilles des Inconnus.

Mais revenons à notre cher web et au grey hat. Si vous souhaitez optimiser une page, mais que vous voulez aussi en améliorer l’expérience utilisateur, vous faites du grey hat. Par exemple, en écrivant un texte à partir d’un mot-clé et en le plaçant stratégiquement tout en pensant à fournir un contenu riche et pertinent, vous faites du grey hat. De plus, si vous êtes partisan de l’échange de liens entre sites, vous faites aussi du grey hat (après, tout dépend de la qualité de votre maillage externe).

En réalité, si vous jouez avec les règles du white hat mais que vous voulez franchir de temps en temps la barrière pour aller voir si l’herbe est plus verte du côté du black white, vous faites du grey hat. Et il ne faut pas se leurrer, c’est ce que nous faisons tous.

 

Black hat, white hat, grey hat : que choisir ?

Le robot Google en charge de l’analyse des pages web est un petit programme qui parcourt automatiquement internet. N’étant pas humain, il est toujours possible de lui trouver des failles qui marcheront à coup sûr pendant un certain temps. Par contre, au fur et à mesure, ce programme devient de plus en plus complexe et intelligent, afin de dénicher les utilisateurs de black hat.

Cela dit, si vous avez d’excellentes connaissances techniques, vous pouvez tout à fait vous tourner vers le black hat. Par contre, vous devez être prêt à changer des éléments de votre site web 24/24 et 7/7. En effet, le black hat est intéressant tant vous ne vous faites pas prendre. Si Google vous prend la main dans le sac, je vous laisse lire les témoignages des personnes qui ont subi une pénalité du géant californien. Votre site peut être désindexé des SERP du jour au lendemain. Et ça, ça fait mal.

De l’autre côté, le white hat nécessite énormément de temps pour voir apparaitre les premiers résultats. Temps que certains entrepreneurs n’ont pas. Car, en effet, le white hat demande un gros investissement au quotidien pour fournir des contenus uniques, pertinents et originaux et pour proposer un site propre. Si vous avez le temps ou l’argent nécessaire, je ne peux que vous inciter à rester du bon côté de la Force.

 

En réalité, l’essentiel est de mixer les deux intelligemment afin d’équilibrer white hat et black hat. Ainsi, vous gagnerez rapidement des places sur les SERP tout en fournissant aux internautes et aux robots des pages qualifiées. De toute façon, dites-vous bien que les techniques de black hat ne sont possibles que sur du court terme. Avec l’obligation de retravailler souvent votre site pour lui éviter d’être sévèrement pénalisé. En utilisant le white hat, vous mettez du temps à voir des résultats. Mais vous êtes sûr de garder un site propre, sans duplicate content ni suroptimisation d’URL et d’utilisation intensive de mots-clés (longue traine ou non). De plus, vous augmenterez la durée de vie de vos pages.

À vous de voir ce que vous préférez : des techniques à court terme nécessitant un suivi régulier et de nombreuses modifications ou une méthode longue qui vous offre de solides résultats sur le long terme.