Spiga

Netlinking : Bon lien et techniques de linkbait

Voici le résumé d'une interview de Matt Cutts sur les caractéristiques des bons liens, sur les techniques de linkbait et particulièrement de widgetbait, sur les liens réciproques et sur quelques autres aspects du link building.

Caractéristiques d'un lien efficace en référencement sur du long terme

* le lien est éditorial, intégré dans un contenu texte
* le lien n'a pas été demandé par celui qui l'a reçu : celui qui a fait le lien l'a fait volontairement car il estime que la page en question est intéressante, utile, amusante, etc.
* les liens issus d'une opération de linkbait peuvent être considérés bons à long terme.

Le widgetbait (un linkbait basé sur un widget)

En termes de référencement Google, un bon widgetbait :

* ne cache pas 36 liens dans le code,
* précise clairement les choses aux webmasters qui veulent l'intégrer sur leur site,
* les quelques liens sont tous dans la thématique du site qui a créé le widget,
* les liens pointent vers le site qui a créé le widget et pas des sites tiers

Les liens réciproques

Selon Matt CuttsLes les liens réciproques ne sont pas néfastes pour le référencement dans Google ? En effet, les liens réciproques ne sont pas pénalisés dans l'algorithme de Google car ils sont un phénomène naturel sur le web. Par contre ce qui n'est pas naturel, c'est qu'une trop grande partie du profil de liens du site (ou de la page) soit faite de liens réciproques. Il ne faut pas tomber dans l'excès (mais bien entendu il n'y a pas de chiffre officiel ou optimal sur le taux de liens réciproques à ne pas dépasser...).

Liens venant de sites à fort notoriété

C'est bien mais il ne faut surtout pas se concentrer uniquement sur ce type de liens. Un site dont la proportion de backlinks issus de site à très forte notoriété dépasse largement la moyenne peut être détecté par Google. Même si le PR (de la toolbar) ne veut plus dire grand chose, si on se base sur le PR des backlinks, il faut que leur répartition soit similaire à la répartition moyenne observée sur le web. Il ne faut pas recevoir l'essentiel des backlinks de pages à PR supérieur à 6 puisque ce n'est pas naturel...

Explication de l'effet Google “Sandbox”

Qu'est ce la Google “Sandbox”?

Le système Google Sandbox est une restriction très controversé que Google place sur les nouveaux sites Internet afin qu'ils n'aient pas un bon positionnement dans ses résultats de recherche pour un certain temps. Ce temps permettra à Google de déterminer si un site est légitime et digne de confiance ou de spam. Un site dis être dans la SandBox, est un site qui malgré de nombreux liens solides et un contenu unique et riche, ne réussira pas à à bien se positionner sur la requête qu'il vise à être classé.

Pourquoi certains sites ne sont pas "Sandboxés"?

Certains sites ont tout simplement de la chance d'éviter la "Sandbox" et certains tentent de se positionner dans une industrie que Google ne considère pas extrêmement compétitif.

Disons que vous avez un site offrant de l'information sur Baleine Blanche. Ce site serait pertinent et serait beaucoup moins sujet au spam par rapport à un site axé sur "Gagner de l'argent en ligne" !

Il convient de noter que même si un site est soumis à l'effet "Sandbox" , il peut encore assez bien positionner pour ce qui est appelé les résultats de longue traine.


Donc, je suis, comment puis-je sortir?

Malheureusement, il n'est pas un moyen sur de sortir de Google "Sandbox". Il y'a des théories qui suggèrent de placer votre site sur un sous-domaine d'un site créé, puis faire une redirection 301 à votre domaine une fois établi. L'idée est que les filtres de la SandBox ne sanctionnent pas les sous domaines si les domaines sont ok. Malheureusement aucune preuve n'existe pour montrer que c'est vrai ! De plus quelle société voudrait être un parasite sur une autre entreprise?

Alors combien de temps?

Bien qu'il n'existe pas de données librement disponibles sur la durée de l'effet de la SandBox que Google impose de nouveaux sites, il semble que ça varie d'un site à un autre.
Parfois, il semble qu'il est simplement basée sur l'humeur de Google !!

Toutefois, une chose qui est presque certaine, c'est que le temps passé dans la "Sandbox" est directement affecté par un facteur de confiance pour votre site (TrustRank). En effet, Google donne un certain degré de «confiance» à un site en fonction de différents facteurs. L'un d'entre eux étant l'âge de votre domaine. Ainsi un nouveau site sandboxé ayant un domaine âgé de 10 ans serait presque certainement en dehors de la Sandbox de Google avant un site dans des conditions similaires sur un domaine enregistrés récemment.

Donc, ne me reste plus qu'à attendre?


Oui et non. Oui vous devez attendre, mais non, vous pouvez vous rendre à votre travail sur les sites de confiance et d'autorité dans l'intervalle. Utilisez le temps dans le "Sandbox" pour créer un contenu de qualité et d'obtenir des liens pertinents de la part des sites d'autorités dans votre domaine d'activité. Utilisez ce moment pour vous assurer que les facteurs de référencement On Page sont impeccables de sorte que à la sortie de la SandBox votre site sera prêt.

Voici d'autres pistes :

- Essayer de prendre des liens des sites ayant comme domaines .edu, .gov, etc car ces sites sont généralement exemptés du filtre de la SandBox.

- Vous pouvez acheter un anciens domaine.

- Travaillez les requêtes non concurrentielles en attendant la sortie de SandBox.

- Comptez plus sur d'autres moyens que Google pour augmenter le trafic.

Et si je m'inscris aux services Google ?

Certains pensent que l'adhésion à adsense et l'utilisation de Google en matière de produits tels que AdWords et Google Checkout seront utiles. C'est tout simplement pas vrai.


Existe-t-il un Yahoo ou MSN Live "Sandbox"?


Actuellement, il n'est rien qui ressemble aux système de Google "Sandbox" appliqué à des sites dans Yahoo! ou MSN Live, mais récemment, il est devenu évident que Yahoo! a développé une mise «en attente» sur les nouveaux liens entrants avant de leur permet d'avoir un effet mesurable sur le positionnement. Ce temps varie en fonction de l'autorité et la permanence des liens entrants.

Google Analytics installé sur 1/3 des 500 plus gros sites web

Selon Pingdom, l'outil de mesure d'audience Google Analytics serait installé sur 1/3 des 500 plus gros sites web mondiaux.

Le point de départ de cette étude est que chez Pingdom ils utilisent Google Analytics, par curiosité ils voulaient savoir combien de gros sites utilisaient l'outil de statistique de google.

Ils ont mis les Top 500 sites web d'Alexa sous le microscope et ont constaté que 161 de ces 500 sites utilisent Google Analytics, ce qui représente 32,2%.



Rappelons que Google Analytics a été publié en Novembre 2005, mais la première tempête d'inscriptions Google a forcé ce dernier à limiter les inscriptions jusqu'au mois d'août de 2006, lorsque le service est redevenu généralement disponible.

Avant que Google achete Urchin (Google Analytics est basé sur), il était juste un autre paquet statistique sur le marché. Google a pris essentiellement un service commercial, et il l'a rendu gratuit, ce qui lui donne un avantage concurrentiel important. Pourquoi payer pour les autres, des services similaires lorsque vous pouvez utiliser Google Analytics gratuitement?

Une grande partie de cet avantage concurrentiel, et probablement aussi contribué par sa forte image de marque, Google est venu à dominer le marché statistiques des sites web en très peu de temps.

Même si les statistiques sont actuellement un marché secondaire pour Google, la libre disponibilité de Google Analytics doit avoir eu un effet profond sur les concurrents et les produits commerciaux des autres entreprises qui ne peuvent pas se permettre d'offrir leurs services gratuitement.

Francite pour effectuer une recherche multiple

Francité est un moteur qui affiche pour une requête les résultats de recherche sur google, Yahoo, MSN et Voila. L'idée est intéressante dans la mesure ou elle nous fais gagner du temps dans la recherche de résultats.


Le site Fancité perment aussi de faire plusieurs recherche à la fois :



Google et Yahoo vont mieux indexer les animations Flash



Suite à sa collaboration avec Adobe, le moteur de recherche Google est en mesure de mieux indexer les contenus texte d’animations Flash.

Jusqu'à présent, l'indexation de sites en Flash était un peu compliquée. Les développeurs devaient créer une version HTML du site s'ils souhaitent voir le contenu de celui ci correctement indexé par les moteurs de recherche.

L'éditeur Adobe aurait fourni à Google et Yahoo quelques petits secrets concernant son lecteur Flash de manière à ce que les algorithmes de ces moteurs puissent naviguer correctement dans des animations Flash. Adobe annonce que le but de cette collaboration est d'améliorer l'indexation des textes et les liens hypertextes contenus dans les animations Flash.


Et, suite à sa collaboration avec l'éditeur, Google vient d'annoncer « avoir développé un nouvel algorithme pour indexer le contenu textuel dans des animations en Flash de toutes sortes, des menus, boutons bannières aux sites web tout en Flash ». En revanche, le texte d'images et de vidéos contenues dans les animations ne sont pas prises en compte.

Comment les moteurs voient-ils votre flash ?

Voici un outil qui montre ce que visuellement à partir de votre fichiers Flash ce qui est visible pour les moteurs de recherche et ce qui ne l'est pas. Cet outil est très utile, même si vous avez déjà le Flash Moteur de recherche SDK installé, car il prévoit une vérification de plus de l'exactitude de l'extrait de texte. Cetl'outil pourrait donner des résultats complètement différents de ceux que le SDK produit.

Lien : http://www.se-flash.com/

Google et le JavaScript

Actuellement, Google ne rend pas le code javascript sur une page, mais il ya des rumeurs qu'ils sont en train d'élaborer un nouveau robot basé sur Firefox (ils emploient un nombre de membres fondateurs de Mozilla) qui indexe les pages basées sur la façon dont le navigateur les voit, au lieu de la le contenu HTML brut. Cela signifie que le HTML caché par CSS ne pourra être indexé, et les pages qui sont modifiées par le Javascript après leur chargement seront indexés comment ils apparaissent à l'utilisateur. Toutefois, il s'agit de rumeurs et jusqu'à ce qu'il se passe Google va continuer à ignorer le Javascript de votre contenu.