IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Référencement Discussion :

Google ajuste son algorithme pour contrer spams et contenus dupliqués


Sujet :

Référencement

  1. #1
    Expert éminent sénior
    Avatar de Idelways
    Homme Profil pro
    Développeur Ruby on Rails / iOS
    Inscrit en
    Juin 2010
    Messages
    1 374
    Détails du profil
    Informations personnelles :
    Sexe : Homme

    Informations professionnelles :
    Activité : Développeur Ruby on Rails / iOS

    Informations forums :
    Inscription : Juin 2010
    Messages : 1 374
    Points : 68 549
    Points
    68 549
    Par défaut Google ajuste son algorithme pour contrer spams et contenus dupliqués
    Google ajuste son algorithme pour contrer spams et contenus dupliqués
    Et rejette les critiques sur la qualité de ses résultats



    En réponse aux critiques acerbes ayant récemment remis en question la qualité de ses résultats de recherche, Google entreprend de mettre à jour son algorithme pour contrer les sites de spam et de contenu dupliqué.

    Ces mises à jour devraient s'attaquer aux sites qui fraudent ou enfreignent les lignes de conduite tracées par Google et ce dans le but de s'accaparer les premières places des résultats. Sont particulièrement visés ceux qui copient le contenu des autres sites et/ou qui disposent d'un taux faible en contenu original.

    Matt Cutts, en charge des mesures antispam chez Google, avait fait allusion à ces changements depuis une dizaine de jours sur le blog officiel de Google.

    Cutts avait fermement plaidé en faveur de la qualité des résultats qu'il juge « meilleure qu'elle n'a jamais été en terme de pertinence, d'actualisation et d'exhaustivité ». Il avait en revanche regretté une augmentation drastique du « Web Spam » tout en annonçant de nouvelles mesures.

    Sur un nouveau poste, publié cette fois sur son site personnel, Cutts affirme qu'un changement de l'algorithme vient d'être approuvé par son équipe et devrait entrer en production en ce début de semaine.

    Cet ajustement devrait affecter 2 % du total des requêtes et changer sensiblement le positionnement de 0.5 % d'entre elles. Les internautes devraient donc voire arriver en tête les sites à l'origine du contenu plutôt que ceux qui les copient.

    A l'échelle de Google, ce faible pourcentage de sites concernés représente une immensité de sites réels et de requêtes.

    Pour rappel, plusieurs blogueurs et analystes renommés avaient publié des articles remettant en cause la qualité des résultats de recherche de Google jugeant, en substance, qu'ils croulaient sous les spams et des « fermes de contenu ».

    En décembre dernier, Google avait introduit deux nouvelles balises Meta pour identifier les sources réelles des informations et permettre aux webmestres de déclarer leurs contenus comme étant originaux.


    Source : le blog officiel de Google, site de Matt Cutts

    Et vous ?

    Que pensez-vous de la qualité des résultats de Google ?
    Avez-vous récemment constaté une amélioration ou une dégradation de la pertinence des résultats à cause des « fermes de contenus » ?

  2. #2
    Membre émérite
    Avatar de Seb33300
    Homme Profil pro
    Développeur Web
    Inscrit en
    Janvier 2007
    Messages
    1 564
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : Thaïlande

    Informations professionnelles :
    Activité : Développeur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Janvier 2007
    Messages : 1 564
    Points : 2 399
    Points
    2 399
    Par défaut
    La question est : Comment google peut il savoir quel site est à l'origine du contenu ?

    Ne peut on pas déclarer un contenu comme étant l'original si ce n'est pas le cas ?

Discussions similaires

  1. Réponses: 0
    Dernier message: 31/01/2011, 16h20
  2. Réponses: 0
    Dernier message: 31/01/2011, 16h20
  3. Réponses: 17
    Dernier message: 10/12/2010, 10h07
  4. Réponses: 7
    Dernier message: 19/09/2010, 01h45
  5. Red Hat s'offre EnterpriseDB et son SGBD pour contrer Oracle et MySQL
    Par Gordon Fowler dans le forum Actualités
    Réponses: 5
    Dernier message: 29/10/2009, 16h57

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo