Tag Archives: algorithme Google

Stop à la sur-optimisation avec Google Penguin !

Google Penguin est la mise à jour de l’algorithme de classement des sites intégrés au moteur de recherche du géant de Mountain View. Elle est sortie dans la nuit du 24 au 25 avril 2012 avec comme objectif la lutte contre le spamdexing et la sur-optimisation du référencement des sites et des pages webs.

Ainsi, près de 14 mois après la sortie de Panda, Google continue sa campagne d’assainissement du web pour l’éradiquer des sites dits parasites, spammys ou au linking non naturel.

Google Penguin est plus précis que son prédécesseur car son analyse est permanente et s’effectue page par page et non plus par rubrique ou sur l’ensemble du site dans sa globalité. A cet effet, les parties on-site et off-site du site web sont soumises à des évaluations continues portant d’une part sur la qualité de son contenu et d’autre part sur le netlinking mis en œuvre.

Le web sémantique est aussi intégré dans cette mise à jour pour la rendre plus efficace.

La mise en garde de Google est encore plus évidente aujourd’hui. Les techniques « border-ligne » sont à proscrire pour éviter la pénalisation et conserver un bon PageRank.

Pour éviter de monter en flèche et être reléguer à la 100e page sur le moteur de recherche mieux vaut s’adresser à une agence web honnête et respectueuse des règles de l’art pour le référencement de son site web.

L’algorithme Google Panda

Google Panda est la mise à jour de l’algorithme de recherche développé par le géant du net américain Google. Cette mouture a été lancée en février 2011 sur les sites internet anglophones et vers la mi-août de la même année pour les pages francophones.

Quel est l’intérêt de Google Panda ?

Google Panda permet d’évaluer la qualité d’un site web par rapport à son contenu. Son principal intérêt est donc l’amélioration du classement des sites web dont les contenus sont pertinents au détriment de ceux qui sont communément appelés « fermes de contenus ». Les sites comparateurs de prix sont également dans le collimateur de Google Panda.

Pour effectuer la sélection, Google Panda se penche sur la fiabilité, l’unicité et l’originalité des informations données aux internautes. L’orthographe et le style employé par l’auteur de la page sont également évalués par l’algorithme. Il prend également en compte la fréquence de la publication d’une information. Un site qui met un nouveau contenu chaque jour aura forcément plus d’intérêt qu’un autre qui ne change son contenu que tous les 6 mois. Google fait aussi la chasse aux sites internet qui donnent des informations superficielles et qui sont surtout créés pour générer des revenus publicitaires.

Infopolis et la rédaction de contenus

Cette course à la pertinence du contenu est belle et bien lancée et n’est pas prête de s’arrêter. L’équipe « Infopolis Développement » réalise des sites internet mais réalise également des actions de référencement et vous accompagne dans la rédaction de contenus riches et de qualité. N’hésitez pas à la contacter.

La sur-optimisation sera sanctionnée par Google

Le responsable du référencement chez Google, Matt Cutts a annoncé lors du SXSW 2012 (festival South By Southwest) que les sites abusant de l’utilisation de mots clés seront assujettis à des pénalités.

Certains sites web exagèrent sur le nombre de mots clés qu’ils utilisent pour mieux se référencer et se positionner à la première page de Google. Ainsi, les sites web référencés naturellement et ayant des contenus de qualité se voient mal placés par rapport à ceux qui utilisent avec excès les mots-clés et ceux qui échangent un nombre important de liens croisés.

Pour y remédier, l’équipe de Google va optimiser son logiciel GoogleBot (robot d’indexation utilisé par le moteur de recherche Google afin de recenser et indexer les pages web) pour donner des résultats plus pertinents lors des recherches. Selon toujours le chargé de référencement chez Google, l’équipe travaille pour privilégier d’avantage le référencement des sites qui ont un contenu de qualité.

Pour l’instant, l’application des sanctions, ni les sanctions elles-mêmes ne sont pas encore dévoilées. Mais les sites web qui enfreignent les règles de la SEO devront s’attendre à des pénalités. Alors, pensez dès maintenant à donner à votre site des contenus appropriés pour éviter de vous faire sanctionner.

 

Le reCaptcha

Vous connaissez sûrement le système de vérification humaine reCAPTCHA qui permet de lutter contre les robots en saisissant 2 mots déformés d’une image.
Mais saviez-vous que ce système de vérification permet de manière astucieuse de numériser des milliers de livres papiers grâce à votre propre contribution ?

Un système astucieux

Sur les 2 mots que le système vous affiche, un seul est connu et vérifié, l’autre n’est qu’une numérisation d’un mot extrait d’un livre. En proposant ce mot issu de la numérisation à des centaines d’internautes différents et en ayant toujours la même réponse de leur part, le système en déduit alors que l’association entre le mot numérisé et le mot saisi par les internautes est correct. Voila comment on arrive à numériser des milliers d’ouvrages avec un système anti-robot !

Main-d’œuvre gratuite

L’OCR (système de reconnaissance des caractères automatique par informatique) n’est aujourd’hui pas assez au point pour être suffisamment fiable. En utilisant le cerveau humain et la naïveté des internautes, on arrive à de biens meilleurs résultats. Le slogan de la société présent sur le module incarne bien le fonctionnement de ce système : « stop spam, read books ».

Big Google is watching you !

De nombreux sites Web, tels que des sites d’actualités et des blogs, rejoignent le Réseau Display de Google, ce qui permet à Google de diffuser des annonces sur ces sites. L’objectif de Google est de rendre ces annonces aussi pertinentes que possible pour chaque internaute. La plupart des annonces qu’il diffuse sont en rapport avec le contenu de la page que l’internaute consulte.

Toutefois, en fonction des types de sites Web que l’internaute aime visiter, Google diffuse également certaines annonces visant vos centres d’intérêts.

Un système astucieux

Lorsque que l’internaute visite des sites Web, effectue une recherche ou visionne des vidéos sur le Réseau Display, Google stocke un numéro dans son navigateur (à l’aide d’un « cookie »), afin de mémoriser ses visites. Le numéro correspond à une catégorie. Chaque site Web consulté par l’internaute appartient à une catégorie, Google place donc son numéro dans la catégorie du centre d’intérêt correspondant.
De ce fait, Google peut présenter à l’internaute d’avantage d’annonces pertinentes en corrélation avec ses centres d’intérêts.

Notre profil Google

Grâce à ce cookie, Google établi un profil en résumant tout les centres d’intérêts ainsi que les données démographiques de l’internaute. En effet, en fonction de ses recherches, Google en déduit si l’internaute est un homme ou une femme et lui attribue une classe d’âge. Notez bien que établie un profil type par navigateur. Pour accéder à votre profil, rendez-vous sur : Profil Google.

Google News – A quand l’arrivée du nouvel algorithme Panda Search en France ?

Le Monde.fr publie aujourd’hui un article très intéressant sur les conséquences de l’arrivée de Panda au Royaume uni. Bonne lecture à tous : « Deux mois après les Etats-Unis, les utilisateurs de Google au Royaume-Uni disposent désormais d’une version mise à jour de l’algorithme de classement des sites, baptisée « panda ». Destinée à sanctionner les sites ne produisant pas de contenu original mais optimisant leur référencement pour s’imposer dans les premières pages de résultats du moteur de recherche, cette mise à jour a provoqué de forts changements dans le classement de certains sites. Read more …