Spiga

Détecter les backlinks cassés avec GWT

Les Google Webmaster Tools, interface pour webmasters du moteur de recherche, proposent depuis hier une nouvelle fonctionnalité avec la détection des liens internes et externes ("backlinks") pointant vers des pages n'existant plus sur votre site et générant un code 404. L'outil se trouve dans la rubrique "Diagnostics", option "Web crawl", lien "Not found"... Les pages non trouvées s'affichent alors et un lien intitulé "Linked From" vous liste les urls qui pointent par erreur sur ces pages...

Website Grader

Site Grader est un outil Web qui analyse votre site Web en fonction de nombreux critères, pour obtenir de plus amples informations sur votre référencement :

Site GraderGoogle Page Rank: de nos jours, ce critère n'est pas pertinent que 1 ou 2 ans, sauf si il ya de liens sponsorisés ...

Structure de page Web : détection des tags analytique.

Domain name : qqs infos a propos du nom de domaine

Heading summary : analyze du header et detection des h1, h2, h3 …

Pictures information : outil pour détecter les photos de votre hoempage et de voir si l'attribut alt est renseigné.

Nbre des pages indexées sous Google

Google Crawl date : Dernière date du crawl de Google

RSS: détection RSS et de l'information pour les abonnés Bloglines .

Nbre des backlinks

Technorati ranking

Del.icio.us bookmarks : Combien de personnes ont bookmarké votre site

Readability level : : Analyse (je ne sais pas comment) du niveau d'éducation necessaire pour lire et comprendre les pages de votre site

Digg.com submission summary : voir si qq a soumit des articles de votre site sur digg

http://www.websitegrader.com/

Exemple de rapport : http://www.websitegrader.com/wsgid/1561198/default.aspx

[Google] Google Audio Indexing : GAudi

Google Audio Indexing est en fait une nouvelle technologie de Google qui permet aux utilisateurs d'effectuer de meilleures recherches vidéos et regarder des vidéos YouTube à partir de divers canaux.

C'est une technologie qui permet de trouver dans un discours un mot que la personne a dite (puis plus tard dans d'autres types de vidéos). Et permet à l'utilisateur d'accéder directement à la partie de la vidéo où ces mots sont prononcés. Google réalise ici un grand pas dans les moteurs de recherche.

Pour le moment les tests sont effectués sur la prochaine élection présidentielle où est basé Google. Mais ils ont déjà prévu d'améliorer le service pour le proposer ensuite à d'autres vidéos.

Lien officiel :
http://labs.google.com/gaudi

Aide de GAudi :
http://labs.google.com/gaudi/static/faq.html

Optimiser la proéminence des mots-clés

La proéminence d'un mot est une mesure de sa distance relative par rapport au début du texte. Elle s'exprime sous la forme d'un pourcentage qui est d'autant plus élevé que le mot est placé au début du texte. Il semble bien que la proéminence fasse partie des critères d'analyse on page utilisés par Google (et par d'autres moteurs). Il est donc important d'essayer dans la mesure du possible de positionner les mots les plus stratégiques d'une page plutôt vers le début.

L'une des techniques les plus importante est la place du texte dans le code. Il faut veiller à ce que le bloc de contenu principal soit placé peu après la balise même s'il s'affiche visuellement après d'autres blocs (menus de navigation, marges, etc.).


Essayez de faire du premier paragraphe un résumé de l'ensemble de l'article (de la page), ce qui vous permettra d'y glisser la plupart de vos mots stratégiques. Autre avantage : Google utilisera souvent ce premier paragraphe pour constituer le petit descriptif de 2 lignes (snippet) affiché dans la page de résultats.

Netlinking : Bon lien et techniques de linkbait

Voici le résumé d'une interview de Matt Cutts sur les caractéristiques des bons liens, sur les techniques de linkbait et particulièrement de widgetbait, sur les liens réciproques et sur quelques autres aspects du link building.

Caractéristiques d'un lien efficace en référencement sur du long terme

* le lien est éditorial, intégré dans un contenu texte
* le lien n'a pas été demandé par celui qui l'a reçu : celui qui a fait le lien l'a fait volontairement car il estime que la page en question est intéressante, utile, amusante, etc.
* les liens issus d'une opération de linkbait peuvent être considérés bons à long terme.

Le widgetbait (un linkbait basé sur un widget)

En termes de référencement Google, un bon widgetbait :

* ne cache pas 36 liens dans le code,
* précise clairement les choses aux webmasters qui veulent l'intégrer sur leur site,
* les quelques liens sont tous dans la thématique du site qui a créé le widget,
* les liens pointent vers le site qui a créé le widget et pas des sites tiers

Les liens réciproques

Selon Matt CuttsLes les liens réciproques ne sont pas néfastes pour le référencement dans Google ? En effet, les liens réciproques ne sont pas pénalisés dans l'algorithme de Google car ils sont un phénomène naturel sur le web. Par contre ce qui n'est pas naturel, c'est qu'une trop grande partie du profil de liens du site (ou de la page) soit faite de liens réciproques. Il ne faut pas tomber dans l'excès (mais bien entendu il n'y a pas de chiffre officiel ou optimal sur le taux de liens réciproques à ne pas dépasser...).

Liens venant de sites à fort notoriété

C'est bien mais il ne faut surtout pas se concentrer uniquement sur ce type de liens. Un site dont la proportion de backlinks issus de site à très forte notoriété dépasse largement la moyenne peut être détecté par Google. Même si le PR (de la toolbar) ne veut plus dire grand chose, si on se base sur le PR des backlinks, il faut que leur répartition soit similaire à la répartition moyenne observée sur le web. Il ne faut pas recevoir l'essentiel des backlinks de pages à PR supérieur à 6 puisque ce n'est pas naturel...

Explication de l'effet Google “Sandbox”

Qu'est ce la Google “Sandbox”?

Le système Google Sandbox est une restriction très controversé que Google place sur les nouveaux sites Internet afin qu'ils n'aient pas un bon positionnement dans ses résultats de recherche pour un certain temps. Ce temps permettra à Google de déterminer si un site est légitime et digne de confiance ou de spam. Un site dis être dans la SandBox, est un site qui malgré de nombreux liens solides et un contenu unique et riche, ne réussira pas à à bien se positionner sur la requête qu'il vise à être classé.

Pourquoi certains sites ne sont pas "Sandboxés"?

Certains sites ont tout simplement de la chance d'éviter la "Sandbox" et certains tentent de se positionner dans une industrie que Google ne considère pas extrêmement compétitif.

Disons que vous avez un site offrant de l'information sur Baleine Blanche. Ce site serait pertinent et serait beaucoup moins sujet au spam par rapport à un site axé sur "Gagner de l'argent en ligne" !

Il convient de noter que même si un site est soumis à l'effet "Sandbox" , il peut encore assez bien positionner pour ce qui est appelé les résultats de longue traine.


Donc, je suis, comment puis-je sortir?

Malheureusement, il n'est pas un moyen sur de sortir de Google "Sandbox". Il y'a des théories qui suggèrent de placer votre site sur un sous-domaine d'un site créé, puis faire une redirection 301 à votre domaine une fois établi. L'idée est que les filtres de la SandBox ne sanctionnent pas les sous domaines si les domaines sont ok. Malheureusement aucune preuve n'existe pour montrer que c'est vrai ! De plus quelle société voudrait être un parasite sur une autre entreprise?

Alors combien de temps?

Bien qu'il n'existe pas de données librement disponibles sur la durée de l'effet de la SandBox que Google impose de nouveaux sites, il semble que ça varie d'un site à un autre.
Parfois, il semble qu'il est simplement basée sur l'humeur de Google !!

Toutefois, une chose qui est presque certaine, c'est que le temps passé dans la "Sandbox" est directement affecté par un facteur de confiance pour votre site (TrustRank). En effet, Google donne un certain degré de «confiance» à un site en fonction de différents facteurs. L'un d'entre eux étant l'âge de votre domaine. Ainsi un nouveau site sandboxé ayant un domaine âgé de 10 ans serait presque certainement en dehors de la Sandbox de Google avant un site dans des conditions similaires sur un domaine enregistrés récemment.

Donc, ne me reste plus qu'à attendre?


Oui et non. Oui vous devez attendre, mais non, vous pouvez vous rendre à votre travail sur les sites de confiance et d'autorité dans l'intervalle. Utilisez le temps dans le "Sandbox" pour créer un contenu de qualité et d'obtenir des liens pertinents de la part des sites d'autorités dans votre domaine d'activité. Utilisez ce moment pour vous assurer que les facteurs de référencement On Page sont impeccables de sorte que à la sortie de la SandBox votre site sera prêt.

Voici d'autres pistes :

- Essayer de prendre des liens des sites ayant comme domaines .edu, .gov, etc car ces sites sont généralement exemptés du filtre de la SandBox.

- Vous pouvez acheter un anciens domaine.

- Travaillez les requêtes non concurrentielles en attendant la sortie de SandBox.

- Comptez plus sur d'autres moyens que Google pour augmenter le trafic.

Et si je m'inscris aux services Google ?

Certains pensent que l'adhésion à adsense et l'utilisation de Google en matière de produits tels que AdWords et Google Checkout seront utiles. C'est tout simplement pas vrai.


Existe-t-il un Yahoo ou MSN Live "Sandbox"?


Actuellement, il n'est rien qui ressemble aux système de Google "Sandbox" appliqué à des sites dans Yahoo! ou MSN Live, mais récemment, il est devenu évident que Yahoo! a développé une mise «en attente» sur les nouveaux liens entrants avant de leur permet d'avoir un effet mesurable sur le positionnement. Ce temps varie en fonction de l'autorité et la permanence des liens entrants.

Google Analytics installé sur 1/3 des 500 plus gros sites web

Selon Pingdom, l'outil de mesure d'audience Google Analytics serait installé sur 1/3 des 500 plus gros sites web mondiaux.

Le point de départ de cette étude est que chez Pingdom ils utilisent Google Analytics, par curiosité ils voulaient savoir combien de gros sites utilisaient l'outil de statistique de google.

Ils ont mis les Top 500 sites web d'Alexa sous le microscope et ont constaté que 161 de ces 500 sites utilisent Google Analytics, ce qui représente 32,2%.



Rappelons que Google Analytics a été publié en Novembre 2005, mais la première tempête d'inscriptions Google a forcé ce dernier à limiter les inscriptions jusqu'au mois d'août de 2006, lorsque le service est redevenu généralement disponible.

Avant que Google achete Urchin (Google Analytics est basé sur), il était juste un autre paquet statistique sur le marché. Google a pris essentiellement un service commercial, et il l'a rendu gratuit, ce qui lui donne un avantage concurrentiel important. Pourquoi payer pour les autres, des services similaires lorsque vous pouvez utiliser Google Analytics gratuitement?

Une grande partie de cet avantage concurrentiel, et probablement aussi contribué par sa forte image de marque, Google est venu à dominer le marché statistiques des sites web en très peu de temps.

Même si les statistiques sont actuellement un marché secondaire pour Google, la libre disponibilité de Google Analytics doit avoir eu un effet profond sur les concurrents et les produits commerciaux des autres entreprises qui ne peuvent pas se permettre d'offrir leurs services gratuitement.