Archives par mot-clé : SEO

Bing ou comment challenger Google ?

Un peu de concrêt pour commencer :

Parts de recherche Bing

ça, c’est la répartition des recherches sur un site avec pas mal d’audience.

Donc, Bing, c’est déjà 3% du trafic.

Maintenant, quels sont les leviers de Microsoft pour monter en puissance ?

Jusqu’ici, Microsoft utilisait bien souvent Windows comme levier, en installant Internet Explorer et le moteur de recherche maison par défaut lors de l’installation de l’OS.

Si j’ai bien suivi, ça ne devrait plus être le cas avec Windows 7.

Il va donc falloir se différentier sur le fond : sur le service.

Bing va donc essayer de se battre de front avec Google, et proposer un meilleur service.

J’étais invité il y a quelques jours à l’évènement qu’organise Ciao pour ces meilleurs clients.

J’ai ainsi pu avoir une présentation « avancée » de Bing, par l’un des responsable de la R&D côté europe : Jordi Ribas.

L’un des axes de recherche de Microsoft, c’est de permettre aux internautes d’aller plus vite vers la bonne page.

Pour faire ça, Bing propose plusieurs axes :

bing : Résultats sur Fedex

Bon, déjà, pour « jouer », il faut configurer Bing en mode « USA », version actuellement bien plus avancée que notre version locale.

L’élément clé, c’est la colonne de gauche, qui permet, comme sur de plus en plus de sites marchands, d’affiner la recherche.

Cette colonne est alimenter de manière semi automatique : avec des programmes et un brin d’intervention humaine.

Autre élément : Microsoft essaye de pousser plus d’infos directement exploitable par l’internaute.

Ici, pour Fedex, on peut directement faire le tracking d’un colis.

Sur d’autres recherches, Bing propose directement les résultats sportifs, …

Autre nouveauté : le mode « preview ».

Avant de cliquer sur un lien, on peut voir un « résumé » de la page cible.

Enfin, quand ce qui est cherché est probablement un produit, Bing propose directement des informations de type « moteur de shopping » :

bing : résultat pour un produit

En synthèse

Est-ce que ces axes permettront à Microsoft de réellement ébranler la suprématie Google ?

Est-ce une tendance de fond, que d’intégrer le moteur de recherche avec le moteur de shopping ?

Google pourrait aussi avancer dans cette direction…

C’est un axe à double tranchant pour ces acteurs : vous imaginez, au bout de quelques temps, quand la page d’accueil de ces moteurs sera entièrement remplie par des liens vers des services maison ?

L’anti-trust ne serait sans doute pas très loin…

Autre point clé : finalement, la domination Google est très intéressante pour le SEO : il « suffit » de travailler son référencement par rapport à un seul acteur.

Vous imaginez si le marché se morcelle ? Vous faite une modification, et hop, vous montez d’un côté et descendez de l’autre… L’enfer !

Et si google rebelotait un peu les règles ?

On nous annonce donc une nouvelle version du célèbre moteur de recherche.

A en croire les informations, pas de révolution au niveau des résultats de recherches…

Comme on peut tester ce nouveau moteur, j’ai voulu faire quelques essais…

En haut, le nouveau site, et en bas, notre bon vieux Google.

Oublions le fait que le nouveau site ne contient pas de pub (en haut et sur le côté droit).

Concentrons nous sur les résultats.

Et oui, les résultats ne sont pas du tout les mêmes !

Quels sont les règles qui expliques ces changements ?

Je laisse les pros du SEO donner plus d’explications… mais la réalité est que tout le monde ne fait qu’essayer de deviner ce que cache jalousement Google : son algo qui permet de classer les résultats des recherches.

Mais pourquoi ces changements ?

Bon, il est tout à fait normal pour Google de mettre à jour régulièrement son moteur.

Mais Google pourrait tout à fait faire une telle mise à jour en gardant le même tri.

La réponse est plutôt à mon avis la volonté qu’à Google de « rebeloter » les cartes, régulièrement.

Objectif : rester maître du jeux, et faire que l’ordre des résultats soit le « résultat naturel », et non « trafiqué » par des entreprises, ayant analysé le comportement du moteur (les entreprises spécialisées dans le SEO donc).

(Source : Benjamin)

PS : merci Polo … Décidément, retour de vacances vraiment difficile 😉

Un site qui répond trop lentement est pénalisé par Google ?

C’est en tout cas ce qu’on m’a dit.

On sait qu’un site qui met trop longtemps à répondre aura un bien mauvais taux de satisfaction des utilisateurs.

On peut donc tout à fait comprendre que Google utilise ce paramètre dans son algorythme « magique » de notation des pages…

Alors ? Info ou intox ?

De toute façon, comme le fait d’avoir de bon temps de réponses est fondamental pour le business, cette « rumeur » est une raison de plus pour bien traiter le sujet de la performance du site ;).

Google Wikia – la révolution ?

Google vient donc de généraliser une nouvelle fonction : SearchWiki.

Vous pouvez le tester : ça marche si vous êtes identifié, et si vous allez sur le site en anglais.

Concrètement, cette nouvelle fonction permet de personnaliser vos résultats de recherche.

Vous pouvez ainsi :

  • Remonter un résultat qui vous semble particulièrement pertinent ;
  • Supprimer un résultat ;
  • Ajouter un commentaire sur un résultat.

D’après Google, ces informations ne seront pas utilisées dans « l’algo magique », et donc vos paramétrages ne devraient pas changer les résultats des autres Internautes.

D’habitude, Google teste les nouveautés sur des services périphériques.

Pour que Google « s’amuse » à modifier son service « cœur », il faut qu’il y ai une bonne raison !

Quel peut être cette raison ?

Ouriel de Techcrunch pense que la raison, c’est de collecter les données de utilisateurs, et d’utiliser ces données dans l’algo de classement des réponses…

Est-ce donc la fin du PageRank, utilisant principalement le nombre et la qualité des liens entrant pour pondérer une page ?

Mon analyse est la suivante :

Comme je l’ai déjà évoqué, Google est dans une situation délicate, parce que :

  • La popularité de Google est basé sur la qualité des réponses du moteur de recherche ;
  • Cette qualité est « challengé » par les pros, qui déploient des stratégies SEO pour remonter « artificiellement » une page et donc biaiser les réponses de Google ;

La piste que creuse Google, ça serait d’utiliser le « crowd sourcing » : utiliser le vote de millions d’internautes pour affiner le tri des résultats et essayer de contrer les techniques de SEO des pros.

Contrer ?

Difficile à dire si ça marchera mais je trouve que la façon de faire de Google plutôt adroite :

  • On commence par tester à très grande échelle la collecte des données des utilisateurs ;
  • Cela permettra à Google de tester la qualité et la quantité des données récoltées ;
  • Google pourra ensuite effectuer des tests en interne, en injectant les données collectées pour pondérer l’ordre du tri ;
  • Si les résultats sont satisfaisants, Google pourra alors ouvrir au grand public cette nouvelle façon de trier les résultats.

Google : la « stupide » impasse

En y réfléchissant, cette conclusion m’est apparue comme une évidence

Mais reprenons depuis le début.

Google, donc.

Google démarre par une révolution technologique : un moteur de recherche, qui présente en priorité les pages les plus pertinentes.

Pertinentes ? Sur quels critères ?

L’idée de Brin et Page, c’est qu’une page qui reçoit pleins de liens est une page qui suscite l’intérêt, donc qui doit être intéressante. C’est la base du PageRank.

On est maintenant 10 ans après le début de l’aventure.

L’algo a bien entendu été mainte fois affiné, modifié, mais au fond, la logique est à peu près celle des débuts.

En 10 ans, on a tous appris à « chercher plutôt que trier ». Fini les bookmarks, puisqu’il suffira de taper quelques mots clés bien choisis pour retrouver l’info, la page.

Mais en 10 ans, Internet est devenu un marché important avec une croissance forte et régulière.

Les enjeux du résultat d’une requête sur Google sont donc très importants. Pour beaucoup d’entreprises, être bien référencé représente une part importante du chiffre d’affaires.

Dans ce contexte, de nombreuses entreprises se sont positionnées en intermédiaire, pour optimiser le référencement sur Google (le référencement naturel donc, ou SEO).

Quels sont leurs leviers, leurs méthodes ?

Analyser le comportement du moteur Google, et adapter le contenu des sites, pour s’adapter et obtenir le meilleur classement.

Oui, mais cette activité va à l’encontre de la logique de base de Google, pour qui le critère de tri n’est pas l’optimisation par rapport à ces algos, mais la pertinence de la page par rapport à la recherche.

Pour Google, l’enjeu est tout à fait vital, parce que ce sont les fondamentaux du service de Google qui sont en jeux : a savoir, la qualité des réponses.

C’est donc une course perpétuelle entre Google et les professionnels du SEO. Google change son algo régulièrement, et les pros analysent les changements, et adaptent leurs recommandations en fonction des évolutions imposées par Google.

Qui gagne ? La réponse est pour moi complètement évidente : les pros du SEO !

Il est aujourd’hui impossible d’apparaitre bien positionné sur Google sans faire un véritable travail de SEO.

Autre syndrome : chercher une information sur un produit et regardez le résultat : comme il est difficile de trouver une information de fond parmi toutes les offres commerciales.

Les gens de Google sont malin, ils ont très bien analysé ce problème.

Mais la ou ça devient absurde, c’est que leurs réponses ne fait qu’agraver la situation !

En effet, ils mettent en place des « punitions », appliqués à ceux qui essayeraient de « truander » le système de tri.

Que croyez vous qu’il arriva ?

Simple : les vrais pros du SEO analysent ces nouvelles règles, et s’y adaptent.

On a donc un résultat inverse de celui escompté : les vrais pros du SEO s’en sortent toujours mieux, et certains sites, qui n’ont rien fait de malhonnête, mais qui n’ont pas forcément les moyens de se payer les conseils de vrais pros sont pénalisés.

Articles liés :

Trop fort Wikio pour le référencement naturel

Je cherchais des infos sur une personne. Je tape son nom dans Google. L’une des première réponse est Wikio.

Je clique sur ce lien, qui devait me donner une agrégation d’infos sur la personne en question.

J’arrive sur une page qui m’indique qu’il n’y a pas de réponse !

Trop fort donc d’arriver en tête de liste sur un item qui n’est pas dans la base.

Je me demande comment c’est possible… A mon avis, il y a du générateur de site-map dans l’air, qui doit prendre le dictionnaire en entrée, ou quelque chose dans le genre…

Référencement des contenus flash

Google, Yahoo et Adobe vont donc travailler ensemble pour améliorer le référencement des contenus flash.

Très bonne initiative.

Peut on penser que très rapidement, nos sites riches vont se retrouver en tête des recherches sur Google ?

Certainement pas à court terme. A voir a plus long terme ce qui va sortir…

Premièrement, ces travaux prendront du temps.  Même s’ils vont très vite, on ne devrait rien voir sortir de  vraiment nouveau avant un an minimum.

Deuxièmement, sur le fond : cela veut dire quoi indexer un contenu « rich media » ?

Si l’application est en fait structurée comme un site « classique », avec une logique de page avec du contenu, on peut effectivement faire un mapping assez simple entre les moteurs de Google et les sites flash.

Mais utiliser le flash pour faire du « html like », c’est bien réducteur.

Flash permet de développer de véritables applications interactives et multimédia.
Pour de tels applications, la question est bien plus complexe.

Il faut tout d’abord identifier les points d’entrées de l’application, points d’entrées qui seront utilisés par les moteurs de recherche.

Il faut ensuite associer des informations à ces point d’entrées. On est encore, et pour pas mal de temps, sur une recherche « texte ». Donc, même si votre site est surtout un site multi média, cela n’empêche pas qu’il faut, d’une manière ou d’une autre, associer du texte à chaque point d’entrée.

Comment associer ce texte ? Purement déclaratif ? C’est un mode qui pose problème à Google, parce qu’à l’opposé de toute sa politique actuelle pour luter contre le « spamdexing » (technique qui vise à obtenir de très bonnes réponses sur Google, en donnant de fausses indications).
La question pour Google est simple : comment garantir que la description textuelle correspond bien au contenu multimédia ?

En synthèse :

  • A l’évidence, le Web va de plus en plus se remplir d’applications multimédia de plus en plus riches ;
  • C’est un enjeu majeur pour les années à venir que de permettre une bonne indexation de ces services ;
  • A l’évidence, pour avoir un service rich-media bien indexé, il faut y penser dès la conception du service. C’était vrai en HTML, et c’est encore plus vrai en Flash ;
  • Il se passera de nombreux mois avant qu’un service rich-media flash arrive en tête des réponses sur Google !

Google ne donne pas les mêmes réponses à tout le monde !

Le saviez vous ?

Suivant des critères évidement non communiqués, Google personnalise les résultats des recherches.

Exemple concrêt, avec deux recherches pour le mot « e-commerce » (ou est-ce que je vais chercher tout ça ?) :

Résultat 1 :

Résultats de recherche, avec FireFox

Résultat 2 :

Résultats de recherche, avec Safari

Si les 4 premières réponses sont identiques, la suite est très différente :

  • Les lignes 4 et 5 sont interverties ;
  • Le résultat « comment ça marche » n’apparait que dans le premier cas ;

Voilà un sujet que je vais creuser ! Quels sont les critères qui interviennent : adresse ip ? identifié ou pas ? Navigateur ? …