IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Référencement Discussion :

Google veut favoriser les sites « de qualité » et modifie son algorithme de recherche


Sujet :

Référencement

  1. #1
    Rédacteur
    Avatar de Hinault Romaric
    Homme Profil pro
    Consultant
    Inscrit en
    Janvier 2007
    Messages
    4 570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Consultant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Janvier 2007
    Messages : 4 570
    Points : 252 372
    Points
    252 372
    Billets dans le blog
    121
    Par défaut Google veut favoriser les sites « de qualité » et modifie son algorithme de recherche
    Google veut favoriser les sites « de qualité »
    Et modifie son algorithme de recherche en conséquence


    Google vient d'annoncer officiellement une mise à jour de son algorithme de recherche.

    Cette mise à jour vise à mieux référencer les sites produisant du contenu de bonne qualité au détriment de ceux de qualité médiocre (fermes de contenus, Spams). D'après Google « cette mise à jour vise à faire baisser le classement des sites de qualité médiocre, sans valeur ajoutée ou sans utilité véritable. [...]Dans le même temps, il fournira un meilleur classement pour les sites de haute qualité avec un contenu original ».

    Sans préciser plus avant ce qu'il entend par « qualité » ni comment elle sera évaluée.

    Toujours d'après Google, la modification de l'algorithme impacte de manière significative 11,8% des sites.

    Si on ne sait rien de l’algorithme mis en place, Google souligne cependant que cette mise à jour ne repose en aucun cas sur l'analyse des listes noires issues des jugements des internautes et transmis via son extension pour le navigateur Chrome, Personnal Blocklist .

    Ces listes noires ont tout de même servies pour cette mise à jour puisqu'elles ont été exploitées par Google pour tester la qualité de son algorithme en comparant les sites les plus touchés par le déploiement de celui-ci à ceux bloqués par l'extension. Il en ressort que 84% des sites bloqués par l'extension ont été touchés par l'algorithme.

    Pour l'instant seul le moteur de Google aux Etats-Unis est impacté. Le nouvel algorithme sera ensuite déployée progressivement sur les moteurs des autres pays.

    Les Webmestres ont donc tout intérêt à suivre d'encore plus près l'évolution de leur référencement dans les jours à venir.


    Source : Google

    Et vous ?

    Pensez-vous que l'on peut évaluer la qualité éditorial d'un site avec un algorithme ?

    En collaboration avec Gordon Fowler

  2. #2
    Membre actif Avatar de Narann
    Inscrit en
    Juin 2007
    Messages
    140
    Détails du profil
    Informations forums :
    Inscription : Juin 2007
    Messages : 140
    Points : 211
    Points
    211
    Par défaut
    Le principe "afficher la source plutot qu'une copie" est bonne celon moi.

    Combien de fois je suis tombé sur des "portails" qui présente tous le même début d'article en faisant une recherche. (genre Yahoo).

    Bref, je pense que ça peut être interessant pour l'utilisateur final. ça permettra (j'espère) de ne pas avoir les grands groupes (gros site) classé devant l'article original qu'il utilise. Je trouve ça pas mal.

  3. #3
    Rédacteur
    Avatar de pseudocode
    Homme Profil pro
    Architecte système
    Inscrit en
    Décembre 2006
    Messages
    10 062
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Architecte système
    Secteur : Industrie

    Informations forums :
    Inscription : Décembre 2006
    Messages : 10 062
    Points : 16 084
    Points
    16 084
    Par défaut
    Pensez-vous que l'on peut évaluer la qualité éditorial d'un site avec un algorithme ?
    Je ne pense pas qu'il s'agit d'évaluer la qualité éditoriale, au sens "littéraire" du terme.

    Il s'agit plus de mesurer la quantité d'information "utile" que contient un site.

    Un site contenant uniquement des liens ou des fragments copié d'ailleurs, aura une note basse. Il sera donc déclassé, meme si l'information présente sur le site correspond exactement à la recherche de l'utilisateur...

    Je pense que cette annonce de Google fait suite à celle annonçant leur volonté de lutter contre les fermes de contenu qui squattent le haut des résultats.

Discussions similaires

  1. Google va pénaliser les sites pirates
    Par Hinault Romaric dans le forum Référencement
    Réponses: 11
    Dernier message: 24/10/2014, 19h06
  2. Réponses: 3
    Dernier message: 23/11/2012, 12h45
  3. Google veut doter les TPE/PME françaises de sites Web
    Par Idelways dans le forum Actualités
    Réponses: 22
    Dernier message: 08/05/2011, 18h48
  4. Réponses: 92
    Dernier message: 27/07/2010, 12h58
  5. Réponses: 92
    Dernier message: 27/07/2010, 12h58

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo