Eh, psst ! Cet article sera constamment mis à jour, enregistrez le lien dans vos favoris et ne manquez aucune nouveauté. Tout le monde ne le sait pas, mais Google effectue des changements dans ses algorithmes tous les jours ! L’entreprise elle-même a déjà déclaré effectuer plus de 300 modifications par an, toutes dans le but principal d’améliorer l’expérience utilisateur. En fait, l’expérience est si importante qu’il existe plusieurs fonctionnalités de l’outil qui réduisent l’autorité de certains sites, s’il est identifié qu’ils utilisent des pratiques de manipulation pour obtenir de bonnes positions dans les classements de recherche. C’est pourquoi vous devez savoir comment fonctionne le plus grand moteur de recherche du monde : connaître les principales mises à jour ainsi que les plus récentes est un excellent moyen de se préparer et d’optimiser votre site pour atteindre des positions de premier plan dans les recherches. Vous ne pouvez donc pas manquer cet article ! Apprenez dans cet article : comment fonctionne l’algorithme de Google ; quelles sont les principales mises à jour de l’algorithme de Google ; comment identifier les impacts causés par les mises à jour de l’algorithme ; que faire si la baisse de votre site est justifiée par des changements dans l’algorithme de Google ? ; comment rester pertinent sur Google malgré les changements de l’algorithme.
Google annonce la mise à jour majeure de l’algorithme de Mars 2023
Le compte officiel de la recherche centrale de Google a annoncé mercredi (15/03) la sortie de la mise à jour principale de mars 2023. Selon Google, cette mise à jour vise à améliorer l’expérience utilisateur et à corriger les bugs de l’algorithme, sans intention de nuire à aucun site web. Il est conseillé de surveiller le trafic organique de votre site avant et après la fin de la mise à jour pour évaluer son impact sur le classement des pages de résultats de recherche. Cette mise à jour est la première mise à jour générale de 2023 et intervient six mois après la dernière mise à jour en septembre 2022. Pour plus d’informations sur cette mise à jour et d’autres mises à jour de l’algorithme, vous pouvez consulter la page d’historique des mises à jour de classement de Google.
– Fin de la mise à jour générale de l’algorithme de Mars 2023
Le moteur de recherche Google a récemment effectué une mise à jour de son algorithme. Cette mise à jour, appelée “core update”, a commencé en février et s’est terminée le 7 mars. Cependant, le moteur de recherche a également annoncé une autre mise à jour, qui a été finalisée le 28 mars. Ces mises à jour ont créé beaucoup de volatilité dans les résultats de recherche et ont été ressenties par la communauté SEO et les outils de suivi.
Une analyse des oscillations de l’algorithme de Google a été effectuée à l’aide de l’outil de suivi des fluctuations d’Advanced Web Ranking. Les données montrent qu’il y a eu une forte oscillation au début de la mise à jour, qui a ensuite diminué et est restée assez élevée jusqu’au 28 mars.
Bien que Google n’ait pas officiellement annoncé l’impact de cette mise à jour sur les SERP (pages de résultats des moteurs de recherche), il est probable que de nombreuses pages aient été affectées, en particulier au Brésil où les indices sont plus élevés qu’aux États-Unis.
Il est important de comprendre que Google utilise différents algorithmes et facteurs de classement pour organiser les informations sur le web et fournir les résultats les plus pertinents aux utilisateurs. Ces facteurs de classement sont régulièrement mis à jour pour améliorer la qualité des résultats de recherche.
En outre, Google utilise un système d’évaluation de la qualité de la recherche qui implique des évaluateurs externes formés par l’entreprise. Ces évaluateurs effectuent des tests en temps réel pour aider à améliorer les résultats de recherche.
En conclusion, les mises à jour de l’algorithme de Google peuvent avoir un impact significatif sur les résultats de recherche. Il est donc important pour les propriétaires de sites web de rester informés des dernières évolutions et de continuer à optimiser leur contenu pour répondre aux critères de qualité de Google.
Les cinq principaux facteurs
En général, qu’est-ce qu’ils analysent? Pour que vous puissiez comprendre plus facilement le fonctionnement du grand système de l’outil, voici cinq des principaux facteurs qui servent à déterminer quels résultats apparaissent pour les utilisateurs :.
– Analyse de mots
Lorsque vous abordez un sujet délicat, vous avez probablement déjà entendu quelqu’un dire “choisissez bien vos mots”. Après tout, un simple mot peut donner un sens complètement différent de ce que vous vouliez dire, n’est-ce pas ? Eh bien, Google a passé plus de cinq ans à développer une technologie capable de comprendre ces subtilités de notre vocabulaire, et même de reconnaître des significations même avec des fautes de frappe. Ainsi, lorsque l’utilisateur recherche des choses plus spécifiques, il pourra obtenir exactement ce qu’il souhaite.
– “Correspondances de recherche
Dans ce facteur, les mots-clés utilisés dans le contenu sont très importants pour le classement. En plus de cela, bien sûr, l’importance des informations présentes sur les pages. Selon Google lui-même : “Lorsque vous recherchez “chiens”, vous ne recherchez probablement pas une page avec le mot “chiens” écrit des centaines de fois. Nous essayons de déterminer si la page contient une réponse à votre requête et non simplement de répéter les termes recherchés.
– Classement des pages utiles
Le moteur de recherche Google se soucie de fournir des pages de qualité aux utilisateurs. Cela signifie que les pages doivent avoir un contenu de qualité et être bien classées dans les résultats de recherche. Plusieurs critères sont pris en compte pour améliorer l’expérience de l’utilisateur, tels que le temps de chargement de la page, des liens pertinents vers le contenu, des liens provenant de sites importants sur le même sujet, ainsi que la date de création du contenu.
– Affichage des meilleurs résultats
Afin que tout le monde puisse accéder aux informations de manière positive, le moteur de recherche évalue si le contenu est complet et si la page est responsive pour les appareils mobiles. Il vérifie également si les mêmes normes de qualité sont respectées sur différents navigateurs et vitesses de connexion Internet.
– Compréhension du contexte
Le facteur de contextualisation est étroitement lié à la personnalisation de l’expérience utilisateur. Pour ceux qui autorisent l’accès à leur localisation et à l’utilisation d’applications, par exemple, Google sera en mesure de fournir des résultats plus pertinents en fonction de leur profil.
Le grand mystère de l’algorithme : pourquoi le CTR ne figure-t-il pas parmi les facteurs de classement ?
Ao longo dos anos, o Google nunca confirmou oficialmente se a taxa de cliques (CTR) é um fator de classificação importante. No entanto, muitos especialistas em SEO acreditam que o Google usa essa métrica para determinar a relevância dos resultados de pesquisa. Isso tem sido objeto de muita controvérsia e mistério.
Chris Smith, presidente da Argent Media, realizou um estudo abrangente sobre o assunto. Ele defende a opinião de que a taxa de cliques é de fato levada em consideração pelo Google e cita declarações da empresa ao longo dos anos para apoiar essa ideia.
Embora o Google não tenha confirmado diretamente o uso da CTR como um fator de classificação, existem evidências e especulações que sugerem que isso pode ser verdade. A taxa de cliques pode indicar a preferência dos usuários pelos resultados exibidos e, portanto, pode ser um indicador de qualidade e relevância.
No entanto, é importante ressaltar que a CTR não é o único fator considerado pelo Google em seu algoritmo de classificação. Há uma série de outros fatores que também desempenham um papel importante, como a relevância do conteúdo, a autoridade do site e a experiência geral do usuário.
Em suma, embora o Google nunca tenha confirmado oficialmente o uso da CTR como um fator de classificação, muitos especialistas em SEO acreditam que isso seja verdade. A taxa de cliques pode ser um indicador importante de relevância e qualidade, mas não é o único fator considerado pelo Google.
CTR, taux de rebond et durée de session : quelle est l’importance de ces métriques ?
Lorsque vous effectuez une recherche sur Google et que vous cliquez sur un résultat, cela peut être considéré comme un “vote” en faveur de cette page dans le classement des résultats de recherche. Le temps passé sur la page et le taux de rebond sont des indicateurs qui aident à évaluer si le contenu a répondu aux attentes de l’utilisateur. Si l’utilisateur clique sur un résultat mais quitte immédiatement la page, cela signifie que le contenu n’a pas été satisfaisant. Par contre, plus l’utilisateur reste sur la page ou explore les liens internes, meilleur sera le classement du résultat. Cependant, il est parfois surprenant de voir que des contenus avec peu de liens externes et un taux de rebond élevé obtiennent de bons classements.
Raisons de soupçonner que Google utilise le CTR comme facteur de classement
Comme partie de ses études, un spécialiste a réalisé un test avec des “titres scandaleux” pour comprendre comment les clics influencent les résultats. Le principe de ce test était que la plupart du temps, les gens ont tendance à cliquer sur ces résultats plus “scandaleux” par curiosité, mais ne passent pas beaucoup de temps à lire ces contenus. Le spécialiste explique : “J’ai même créé des titres plus scandaleux sur des pages positives pour attirer l’attention d’un client. Une fois que le contenu d’ingénierie reçoit la majeure partie de l’attention, l’élément négatif original commence à diminuer dans les résultats. Lorsque cela se produit, il semble que les clics des utilisateurs en soient la cause.” En plus des tests, il existe plusieurs autres raisons citées par le spécialiste qui renforcent les soupçons selon lesquels le taux de clics (CTR) pourrait être un facteur de classement. Voici la liste :
– Google suit les clics sur les liens depuis des années : même avant la mise en place des rapports du Search Console, Google suivait déjà les clics, apparemment sans avoir besoin de les utiliser ;
– Clics sur les publicités : les données des clics sur les publicités sont utilisées pour le classement des résultats payants et gagnent de plus en plus d’importance avec les nouvelles politiques de confidentialité, alors pourquoi ne pas faire de même avec les résultats organiques ;
– Recherche personnalisée : en 2009, Google a déclaré que les clics étaient utilisés comme facteurs de classement dans les résultats de recherche personnalisée ;
– Autres moteurs de recherche : le moteur de recherche de Microsoft, Bing, a déjà confirmé qu’il utilise les clics et le taux de rebond comme facteurs de classement de ses SERP.
Un autre élément indiquant que le CTR pourrait être un facteur de classement se trouve dans la recherche du Dr Thorsten Joachims, qui a examiné comment les clics pourraient être précieux pour Google dans ce sens. Selon la recherche : “Les résultats théoriques sont vérifiés dans une expérience contrôlée. Cela montre que la méthode peut efficacement adapter la fonction de récupération d’un moteur de recherche métabusque à un groupe spécifique d’utilisateurs, dépassant Google en termes de qualité de récupération après seulement quelques centaines d’exemples d’entraînement.” À partir de sa recherche, il a déterminé que l’utilisation du CTR pourrait être une façon pour un moteur de recherche hypothétique de “dépasser Google” grâce à l’apprentissage automatique généré par les clics des utilisateurs. La question est donc : pourquoi Google lui-même ne l’utilise-t-il pas ? La croyance de l’expert Chris Smith est que si Google convainc les gens que le CTR n’est pas un facteur de classement, cela réduira la quantité d’interactions artificielles, axées uniquement sur l’élévation de la qualification des pages.
Ce que dit Google à propos du CTR comme facteur de classement
Depuis 2009 jusqu’à aujourd’hui, les professionnels impliqués dans le classement des SERPs ont des réponses controversées sur l’utilisation ou non du CTR dans le classement. Dans son étude, Chris montre plusieurs fois où des documents indiquant son utilisation ont été divulgués, ou des réponses indiquant son utilisation ont été reformulées et effacées. Bien sûr, si Google révélait ouvertement que le CTR est un facteur de classement, il y aurait beaucoup de “bruit induit par les clics”, comme l’a expliqué Jennifer Slegg lors d’une conférence SMX Advanced en 2015. Récemment, un professionnel du référencement a demandé à John Mueller sur Twitter si “le CTR est un facteur de classement ?” et la réponse de l’avocat de recherche de Google a été que cela transformerait tous les liens en “pièges à clics.
– “Cas où Google utilise probablement le CTR comme facteur de classement
Au fil des 13 dernières années, les professionnels du moteur de recherche ont fait plusieurs déclarations concernant l’utilisation du taux de clics (CTR). Voici trois cas où le CTR peut être utilisé :
1. Recherche personnalisée : Bien que l’annonce du Google soit ancienne, le moteur de recherche enregistre les mots-clés de recherche dans ces cas et, en fonction des clics, il peut faire en sorte qu’un résultat apparaisse en meilleure position lors de votre prochaine recherche (pour le même mot-clé), en se basant sur l’historique des clics.
2. Tendances et sujets récents : Lorsqu’il y a un pic temporaire de recherches sur un sujet spécifique, Google peut utiliser l’historique des clics pour avantager une page en particulier.
3. Recherche locale : En 2014, Google a déclaré qu’il utilisait les clics pour classer les profils d’entreprises sur Google My Business dans les recherches locales. Bien qu’il ait “corrigé l’information” depuis, le clic est utilisé pour comprendre l’intention de l’utilisateur lors de ce type de recherche, afin d’offrir de meilleurs résultats à l’avenir.
Ces cas sont les plus probables, bien qu’ils n’aient pas été directement confirmés par le moteur de recherche. Néanmoins, le CTR reste une métrique précieuse pour votre entreprise, notamment maintenant que les données d’intention sont de plus en plus utilisées en raison de la nouvelle ère de l’utilisation des cookies.
Bien qu’ils ne soient pas directement utilisés comme facteur de classement, ces données sont importantes pour évaluer l’impact des mises à jour de Google, des changements d’interface et d’autres modifications que le moteur de recherche peut apporter.
Les principales mises à jour de l’algorithme de Google
Le fameux algorithme de Google est en constante évolution depuis sa première mise à jour en 2003. Les mises à jour sont devenues de plus en plus fréquentes, dans le but d’améliorer en permanence l’expérience utilisateur. Ces changements peuvent avoir un impact sur les métriques de votre site et si vous ne les suivez pas, vous risquez de ne pas comprendre les raisons de ces impacts et de chercher des corrections sans comprendre le problème. Découvrez notre infographie sur les principales mises à jour, de 2003 à 2021.
1. Floride (2003)
La mise à jour Florida a été la première mise à jour majeure qui a eu un impact important sur les résultats de recherche, en supprimant environ 50% des sites répertoriés dans le moteur de recherche jusqu’à cette date. À partir de cette mise à jour, Google a fait du référencement un facteur de classement pour lutter contre les sites de mauvaise qualité, ce qui a éliminé tous les sites qui utilisaient des pratiques non recommandées.
– “Panda (2011)” devient “Le Panda (2011)” en Français
Quelques années plus tard, avec la mise à jour Panda, Google a commencé à pénaliser les sites avec du contenu de faible qualité, ce qui a affecté une grande partie des résultats de recherche. Les sites les plus touchés étaient ceux qui avaient beaucoup d’annonces sur leurs pages, ce qui les rendait visuellement encombrés et perturbait la navigation de l’utilisateur. Le point clé de cette mise à jour était l’orientation vers les prochaines mises à jour, car à partir de 2011, toutes les mises à jour principales se sont concentrées sur la qualité du contenu.
– “Penguin (2012)” devient “Penguin (2012)
Le Webspam Update, également connu sous le nom de Penguin, a été lancé pour lutter contre les sites qui utilisaient des optimisations de contenu excessives. Cette mise à jour a eu un impact moindre par rapport aux années précédentes, affectant seulement 3,1% des résultats de recherche. Aujourd’hui, l’algorithme central de Google intègre le Panda, qui fonctionne en temps réel et pénalise les sites qui utilisent des pratiques de référencement non recommandées, telles que le bourrage de mots-clés – une technique consistant à utiliser un excès de mots-clés.
– Colibri (2013)
En 2013, Google a effectué une révision complète de son algorithme, connue sous le nom de Hummingbird. Dans le but de rendre les résultats de recherche plus en phase avec l’intention de l’utilisateur, l’algorithme est allé au-delà des mots-clés. À partir de cette mise à jour, les résultats de recherche étaient affichés en tenant compte de la sémantique de la requête, y compris les synonymes, le contexte, la localisation de l’utilisateur et les recherches antérieures.
Mise à jour HTTPS/SSL (2014)
Après avoir répété à maintes reprises aux développeurs et aux professionnels du référencement l’importance d’investir dans la sécurité de leurs sites, Google a officiellement annoncé que le HTTPS est désormais un facteur de classement. Ainsi, Google renforce ses efforts pour rendre Internet plus sécurisé, car les sites dotés d’un certificat SSL et qui ont migré vers le protocole HTTPS utilisent des informations cryptées qui empêchent l’identification des données de leurs utilisateurs.
Mise à jour de compatibilité mobile – Mobilegeddon (2015)
Cette mise à jour a été la première grande mise à jour axée sur les appareils mobiles, qui a donné la priorité aux sites avec des mises en page conviviales pour ces appareils sans avoir de “métrique”. Soit le site était réactif et, par conséquent, priorisé, soit il ne l’était pas. Le terme Mobilegeddon fait référence au film Armageddon en raison de l’impact attendu par les experts, qui s’est avéré moins important que prévu.
– Le classement cérébral (2015)
No mesmo ano do Mobilegeddon, o Google introduziu uma nova adição ao seu algoritmo chamada Rankbrain, que é um sistema de inteligência artificial. Isso se tornou um dos três principais fatores de classificação do Google. Otimizar os sites para o Rankbrain não foi uma tarefa fácil. O objetivo desta atualização era melhorar os resultados de pesquisa através da interpretação das palavras-chave. Portanto, a otimização dos sites deve ser feita explorando as palavras-chave complementares aos termos buscados.
Fred (2017)” – Une exploration de l’algorithme de recherche de Google
Malgré le fait que de nombreux sites suivent désormais les bonnes pratiques de référencement, la qualité du contenu n’était pas toujours agréable pour l’utilisateur. C’est pourquoi, en 2017, la mise à jour Fred a été lancée pour identifier les sites avec un contenu de mauvaise qualité et surchargés de publicités.
– Mise à jour médicale (2018)
La dernière mise à jour de l’algorithme de recherche de Google a eu un impact important, en particulier sur les pages de la catégorie YMYL (Your Money, Your Life), ce qui signifie “Votre argent, votre vie” en français. Ces pages sont liées à des sujets financiers et/ou de santé, qui ont un impact direct sur la vie des gens. L’objectif de cette mise à jour était de se concentrer sur les auteurs de ces contenus, qui étaient souvent écrits par des personnes n’ayant pas les connaissances appropriées sur le sujet. Par exemple, des blogs sur la santé écrits par des non-médecins, ou des pages sur les investissements sans auteurs expérimentés dans ce domaine. À partir de ce changement, les contenus mieux classés dans le classement étaient ceux dont les pages incluaient le profil de l’auteur, mettant ainsi en avant la question de l’autorité en tant que facteur de classement – du moins, jusqu’à présent, pour cette catégorie.
– “EAT (2019)” devient “Expertise, Autorité, Fiabilité (2019)
A sigla EAT, que significa Expertise, Autorité et Crédibilité (Expertise, Authoritativeness and Trustworthiness en anglais), représente un changement complémentaire à la mise à jour médicale qui a eu un impact sur tous les résultats de recherche à partir de ce moment-là. Les créateurs de contenu prenaient déjà en compte ces critères dans leurs productions, cependant, cette mise à jour a clairement indiqué que l’autorité et la pertinence du site ou de l’auteur sont des facteurs qui influencent les résultats. Parmi les trois, la crédibilité est la clé pour les sites de commerce en ligne, car elle concerne les transactions bancaires et les informations de carte de crédit. De plus, l’orthographe et la grammaire sont prises en compte sur tous les sites, car les erreurs dans ce domaine conduisent à un contenu considéré comme de “mauvaise qualité” et ont un impact direct sur le classement.
– Fiabilité (2019)
La mise à jour de fiabilité, qui a eu lieu le 3 juin 2019, a été la première à être annoncée à l’avance par Google. C’était une demande constante des professionnels du marketing, qui étaient souvent informés des changements dans l’algorithme en raison de modifications des métriques du site sans raison apparente. Cette mise à jour a eu un impact négatif, en particulier pour les sites d’actualités, en raison de la fiabilité des contenus. De nombreux sites qui n’avaient pas encore optimisé leurs critères EAT ont eu la confirmation que la qualité du contenu et la confiance des utilisateurs restaient des facteurs de pertinence.
– “Diversité (2019)” -> “La diversité en 2019
Quelques jours après la mise à jour de fiabilité, Google a lancé une autre mise à jour. À partir du 6 juin 2019, les résultats de recherche incluent au maximum deux résultats différents d’un même domaine sur la première page. Cela signifie que les sites qui apparaissaient auparavant à plusieurs positions parmi les 10 premiers ont vu leurs liens réduits, ce qui augmente la diversité des pages et évite que les sites de haute autorité n’occupent tous les résultats.
– BERT (2019) : Une avancée majeure dans les algorithmes de recherche
Bidirectional Encoder Representations from Transformers, também conhecido como BERT, foi a última grande atualização de 2019. Inicialmente incorporado para sites em língua inglesa, esta atualização buscava processar as informações buscadas de forma “natural”, para entender o que pesquisamos de forma mais “humana”.Para isso, foi utilizada uma linguagem de processamento baseada em redes neurais, para que fosse possível interpretar o contexto da frase e não apenas as palavras individualmente, algo útil para entender a intenção do usuário com a pesquisa.
BERT, abreviação de Bidirectional Encoder Representations from Transformers, é uma importante atualização lançada em 2019. Originalmente implementada para sites em inglês, essa atualização tem como objetivo processar informações de pesquisa de maneira mais natural e compreender a intenção dos usuários de forma mais humana. Ela utiliza linguagem de processamento baseada em redes neurais para interpretar o contexto das frases, em vez de analisar apenas as palavras individualmente. Isso é extremamente útil para entender o que os usuários realmente procuram.
– “Favicon et position 0 (2020)” devient “Favicon et position zéro (2020)
La position 0, ou Featured Snippets, est un résultat qui affiche une boîte avec une partie du contenu que Google considère comme le plus approprié pour cette recherche. Jusqu’en janvier 2020, le site qui apparaissait dans cette boîte apparaissait également en première position sur Google, ce qui favorisait ce contenu. Avec la mise à jour de la position 0, cette répétition a cessé. Une deuxième mise à jour, concernant l’apparence des résultats, n’a pas été bien accueillie par les utilisateurs et a été retirée. L’objectif était de reproduire, sur ordinateur, les résultats des recherches effectuées sur mobile.
– Mise à jour de l’expérience des pages Google (2021)
En juin de l’année dernière, Google a annoncé qu’il commencerait à utiliser l’expérience de la page comme facteur de classement. L’objectif de cette mise à jour était de mettre en évidence les pages qui offrent une excellente expérience utilisateur, en utilisant des métriques d’évaluation telles que la vitesse de chargement, la réactivité du chargement sur différents appareils et la stabilité visuelle de la mise en page de la page.
– Mises à jour de décembre 2022
Découvrez les mises à jour de Google qui ont eu lieu en décembre 2022 !
Lancement de la mise à jour de lutte contre le spam de liens
Les solutions basées sur l’IA ne cessent de se développer, et Google ne fait pas exception. Maintenant, SpamBrain, en plus d’identifier les spams, identifie également les sites qui ont acheté des liens et les sites utilisés pour les liens sortants. Le lancement a commencé le 14 décembre et prendra environ deux semaines pour être pleinement mis en œuvre. Donc, si SpamBrain identifie du contenu spam sur votre site, votre classement sur Google pourrait être affecté dans quelques semaines. En cas de liens non naturels, tous les crédits qui leur sont liés seront totalement perdus. Le blog du centre de recherche de Google souligne que le processus est effectué manuellement et que les utilisateurs peuvent participer activement à l’identification de ce type de contenu : “Nos algorithmes et actions manuelles visent à neutraliser ces liens non naturels à grande échelle et nous continuerons à améliorer notre couverture. Si vous trouvez des sites qui se consacrent à la construction de liens non organiques, signalez-les-nous.
EAT obtient un E supplémentaire pour Expérience
Le “Double-EAT” est maintenant inclus dans les directives mises à jour de l’évaluateur de recherche de Google. Le mardi 6 décembre, Google a annoncé sur Twitter le lancement de la nouvelle mise à jour des Contenus Utiles (décembre 2022), qui a commencé la veille, le 5 décembre. Selon les déclarations du moteur de recherche, la mise à jour prendra environ deux semaines pour être entièrement terminée.
Essentiellement, le nouveau “E” signifie “expérience”, ce qui signifie que pour évaluer la qualité d’un contenu, des facteurs tels que : l’article a-t-il été écrit par quelqu’un qui a utilisé le produit ou le service dont il parle ? ; le contenu est-il produit par quelqu’un qui a une expérience de vie de première main sur le sujet en question ? ; la personne qui a écrit le contenu a-t-elle réellement visité le lieu en question ? a-t-elle précisé ce qu’elle a vécu ?
Il est important de rappeler que l’EAT (expérience, autorité et fiabilité) n’a pas d’impact direct sur le classement, mais ce sont des facteurs qui aident à la fois les créateurs et les évaluateurs à déterminer si un contenu offre des informations précieuses pour les utilisateurs. Ainsi, avec le Double-EAT, les sites qui effectuent des critiques de produits ou de services, ainsi que les blogs de voyage et les recommandations d’établissements commerciaux, doivent être attentifs aux directives de qualité.
– Système de Contenu Utile de la Recherche Google
Le 6 décembre, Google a annoncé sur Twitter le lancement de la nouvelle mise à jour de contenu utile (décembre 2022), qui a débuté la veille (5 décembre). Selon le communiqué du moteur de recherche, la mise à jour devrait être entièrement déployée d’ici deux semaines. Précédemment, Google avait lancé la mise à jour de contenu utile en août de cette année, uniquement pour les contenus en anglais à l’échelle mondiale. Maintenant, selon l’annonce sur les réseaux sociaux, la mise à jour est étendue aux autres langues.
Qu’est-ce que le Système de Contenu Utile de la Recherche Google ?
Selon le moteur de recherche, le système de contenu utile est utilisé pour identifier et favoriser les pages qui proposent un contenu élaboré par des personnes, pour des personnes. Ce système génère un signal utilisé par les algorithmes de classement automatique afin de garantir que les utilisateurs voient du contenu original et utile, rédigé par des personnes, dans les résultats de recherche. Le système identifie les contenus qui n’apportent pas de valeur ajoutée ou qui ne sont pas nécessairement utiles pour l’intention de recherche de l’utilisateur. Il classe donc les pages dans les SERP en fonction de celles qui proposent un contenu plus en adéquation avec la recherche de l’utilisateur. Ce processus de classement est entièrement automatisé et utilise un modèle d’apprentissage automatique. Il fonctionne dans toutes les langues et n’est ni une action manuelle ni du spam. Il s’agit simplement d’un des nombreux signaux évalués par Google pour classer le contenu.
Les moteurs de recherche et les mises à jour algorithmiques
L’attente de la mise à jour du contenu utile était forte, surtout que la première mise à jour ne concernait que les contenus en anglais. Cependant, l’utilisation de l’intelligence artificielle dans la création de contenus en ligne pourrait être l’un des facteurs qui a poussé à cette mise à jour. Récemment, l’outil ChatGPT de OpenAI est devenu populaire sur internet en permettant de créer rapidement et automatiquement des contenus. Cependant, comme nous avons pu le voir dans la description même du moteur de recherche, un contenu utile est un contenu “original et utile, écrit par des personnes, pour des personnes”. Il est donc important de veiller à la qualité et à l’originalité de vos contenus.
Google lance la mise à jour anti-spam d’octobre 2022
Hier après-midi (19/10), Google a annoncé le lancement d’une nouvelle mise à jour de son algorithme de classement des recherches, axée sur la suppression des spams de recherche. Google a nommé cette mise à jour “Mise à jour de spam d’octobre 2022” et selon le moteur de recherche, il faudra environ une semaine pour que cette mise à jour soit pleinement mise en œuvre et visible dans les résultats de recherche. Selon l’annonce officielle publiée sur le blog du Centre de recherche Google, le moteur de recherche a déclaré qu’il n’y a actuellement aucun problème avec les systèmes automatisés de détection des spams de recherche. C’est pourquoi la mise à jour se concentre sur des améliorations visant à optimiser les résultats de recherche et à éliminer de nouvelles formes de spams à l’avenir.
“Par exemple, le SpamBrain est notre système de prévention des spams basé sur l’IA. De temps en temps, nous améliorons ce système pour le rendre plus performant dans la détection des spams et pour l’aider à détecter de nouveaux types de spams.”
Le moteur de recherche précise également que pendant la mise à jour, les sites impactés négativement doivent revoir les politiques de spam de Google afin d’apporter les optimisations nécessaires à leurs pages et d’éviter des pénalités sur leur domaine. Dans sa déclaration, le moteur de recherche affirme que :
“Les sites qui enfreignent nos politiques peuvent avoir un classement plus bas dans les résultats ou ne pas apparaître du tout. Apporter des modifications peut aider un site à s’améliorer si nos systèmes automatisés constatent, sur une période de plusieurs mois, que le site est conforme à nos politiques de spam.”
Récemment, Google a mis à jour ses directives pour les recherches, qui s’appellent désormais “Google Search Essentials”. Dans ce document, les professionnels et les propriétaires de sites peuvent suivre les politiques de spam actualisées pour corriger leurs pages. Le nouveau document du moteur de recherche propose un ensemble de règles et de recommandations entièrement actualisées pour les nouveaux paramètres d’Internet, et de nombreuses politiques de spam ont été révisées et mises à jour. C’est peut-être l’une des raisons pour lesquelles le moteur de recherche met à jour ses algorithmes de détection des spams, car l’annonce officielle de la mise à jour de Google Search Essentials a clairement indiqué que de nombreuses directives étaient “obsolètes”.
Contrairement à d’autres mises à jour réalisées ces derniers mois, Google n’a pas précisé si cette mise à jour de spam se concentrera sur les liens, le contenu ou d’autres formes de spams, mais a simplement déclaré qu’il s’agirait d’une “mise à jour générale”. Il est donc important de noter dans vos rapports le début et la fin de cette mise à jour afin d’identifier d’éventuels points d’amélioration.
Fin de la mise à jour de spam d’octobre 2022
En moins de 48 heures, Google a annoncé la finalisation de la Mise à jour Spam d’octobre 2022, le 21 octobre 2022. L’annonce de la mise à jour sur le blog du Centre de Recherche Google indique simplement : “Cette mise à jour est mondiale et concerne toutes les langues. Le déploiement a été finalisé le 21 octobre 2022.” La rapidité avec laquelle cette mise à jour a été finalisée a suscité la curiosité des professionnels et experts en référencement, car la dernière mise à jour Spam (novembre 2021) a pris huit jours pour être finalisée. Les experts estiment qu’il s’agit peut-être d’une mise à jour plus axée sur les efforts de lutte contre le spam de contenu. Il est recommandé d’analyser si votre site a subi de grandes fluctuations dans le classement de Google ou dans le trafic organique en général, afin de comprendre si la mise à jour Spam a pu pénaliser votre site, et de prendre les mesures nécessaires pour retrouver une bonne position.
Mise à jour centrale de septembre 2022 : À quoi s’attendre de la deuxième mise à jour majeure de l’algorithme
Le Google a récemment annoncé le lancement de sa mise à jour centrale de septembre, qui constitue la deuxième mise à jour générale de l’algorithme cette année. Cette mise à jour aura lieu sur une période de deux semaines. Les mises à jour générales de l’algorithme de Google ont un impact sur le classement des pages de résultats de recherche, ce qui signifie que de nombreux sites peuvent être affectés par cette mise à jour. Google affirme qu’il n’y a pas d’actions spécifiques à prendre suite à cette mise à jour, car certains sites peuvent en bénéficier tandis que d’autres peuvent être impactés négativement. Si votre site connaît des fluctuations de classement ou des performances inhabituelles, il est recommandé de noter la période de mise à jour de l’algorithme dans vos rapports et de procéder à de nouvelles analyses par la suite. En cas d’impact négatif sur votre site, Google propose une liste de points et de questions à prendre en compte pour identifier le problème affectant ses performances et le mettre en priorité dans votre liste de réoptimisations.
La mise à jour du contenu utile : pourquoi elle peut être l’un des changements les plus significatifs en plus d’une décennie
La prochaine mise à jour sera un événement majeur dans les changements de l’algorithme de recherche, car elle se concentrera sur la reconnaissance des contenus produits uniquement pour obtenir un bon classement dans les moteurs de recherche. En d’autres termes, les productions qui ne sont pas approfondies et qui abordent les sujets dans le but de répondre aux questions des utilisateurs auront de grandes chances d’être impactées négativement, perdant ainsi des positions sur Google. Selon Google lui-même, il s’agit d’un “effort continu pour réduire le contenu de faible qualité et faciliter la recherche de contenu authentique et utile.
– La mise à jour du contenu utile est un algorithme à l’échelle du site
La nouvelle mise à jour de contenu utile va affecter l’ensemble du site. Cela signifie que toutes les pages seront soumises à l’analyse de l’algorithme, ce qui peut affecter le classement global de votre domaine. Donc, il ne suffit pas seulement d’investir dans la production de contenu de qualité sur votre blog. Il est également important de créer de bons textes sur les pages de services, l’onglet institutionnel et les produits ! Google a déclaré que “supprimer du contenu inutile peut aider à classer votre autre contenu.
Quand est-ce que la mise à jour de contenu utile de Google sera lancée ?
A partir de la semaine prochaine, du 22/08 au 26/08, la mise à jour sera lancée et pourrait prendre jusqu’à deux semaines pour être terminée. Cependant, ce lancement ne sera valable initialement que pour les recherches en anglais à l’échelle mondiale. Mais attention ! Google a déjà annoncé son intention de l’étendre à d’autres langues à l’avenir. Donc, si vous ne misez pas sur un contenu de qualité pour votre site, que ce soit des pages de produits ou des articles pour votre blog, il est encore temps de vous préparer. Ne vous contentez pas d’attendre que votre classement chute pour élaborer un plan d’action ! Selon Google : “Les sites identifiés par cette mise à jour peuvent avoir le signal appliqué pendant plusieurs mois. Notre classifier pour cette mise à jour s’exécute en continu, ce qui nous permet de surveiller les sites nouvellement lancés et existants. Comme il détermine que le contenu inutile ne revient pas à long terme, le classement ne sera plus applicable.
– Les différents types de contenu de la mise à jour de contenu utile
Selon Google, les types de contenu les plus susceptibles d’être affectés sont les suivants : le contenu éducatif, les arts et le divertissement, les achats et la technologie. Cependant, cela ne signifie pas que le moteur de recherche fait une sélection spécifique. La raison pour laquelle ces contenus sont les plus touchés est qu’ils sont historiquement produits en grande quantité dans le but d’obtenir un bon classement dans les moteurs de recherche.
Par exemple, si vous recherchez des informations sur un nouveau film, il est possible que vous ayez déjà trouvé des articles qui regroupent des critiques d’autres sites sans apporter de perspectives nouvelles. Avec cette mise à jour, vous verrez davantage de résultats avec des informations exclusives, ce qui vous permettra de lire quelque chose que vous n’avez jamais vu auparavant, ce qui est plus utile.
Sur Twitter, Danny Sullivan, responsable de la recherche chez Google, a été interrogé pour donner plus de détails sur la mise à jour. Il a répondu que cela concernait généralement les tutoriels et les choses destinées à enseigner quelque chose, mais pas les cours formels. Cependant, il a souligné que cette mise à jour n’était pas axée sur un domaine spécifique. C’est juste un exemple parmi tant d’autres où des améliorations notables ont été apportées, et toute requête sur n’importe quel sujet peut en bénéficier.
– Comment créer du contenu humanisé selon Google
Dans son article d’aide intitulé “Ce que les créateurs de contenu doivent savoir sur la mise à jour du contenu utile de Google”, le moteur de recherche partage quelques questions essentielles que vous devez vous poser lorsque vous produisez un nouveau contenu pour votre site :
– Avez-vous un public existant ou cible pour votre entreprise ou votre site qui trouverait le contenu utile s’il venait directement à vous ?
– Votre contenu démontre-t-il clairement une expérience de première main et une connaissance approfondie (par exemple, une expérience qui vient de l’utilisation réelle d’un produit ou d’un service ou de la visite d’un lieu) ?
– Votre site a-t-il un objectif ou une focalisation principale ?
– Après avoir lu votre contenu, quelqu’un partira-t-il en ayant le sentiment d’avoir suffisamment appris sur un sujet pour aider à atteindre son objectif ?
– Quelqu’un qui lit votre contenu aura-t-il l’impression d’avoir vécu une expérience satisfaisante ?
– Tenez-vous compte de nos directives pour les mises à jour principales et les évaluations de produits ?
Comment identifier les impacts causés par les mises à jour de l’algorithme
Votre entreprise a constaté une baisse du trafic organique ? Voici quelques moyens d’identifier si la cause peut être une mise à jour de l’algorithme ou simplement une fluctuation courante.
Analysez Google Analytics
Sur votre Google Analytics, rendez-vous dans la section “Acquisition”, puis cliquez sur “Campagnes” et enfin sur “Mots clés organiques”. Vous verrez alors un graphique affichant les principaux mots clés organiques qui ont généré du trafic sur votre site. Consultez le tutoriel pour plus de détails : Sur la page d’accueil de votre Google Analytics, cliquez sur “Acquisition”. Ensuite, dans le filtre “Acquisition”, cliquez sur “Campagnes”. Lorsque vous êtes dans le filtre “Campagnes”, cliquez sur “Mots clés organiques”. Voilà ! Il ne vous reste plus qu’à sélectionner une période spécifique et rechercher des fluctuations dans vos accès. À partir de ces informations, vous pourrez analyser les baisses de trafic et les comparer à la même période précédente, par exemple, un mardi et les mardis précédents. Si vous constatez une diminution de votre trafic de plus de 60% en étudiant les données, il est important de comprendre s’il y a une justification à cette baisse. Dans certains cas, cela peut être dû au fait que le code a été retiré de votre site, ce qui peut entraîner une baisse des accès. C’est pourquoi il est essentiel d’utiliser Google Search Console, qui vous montrera exactement combien de clics vous avez obtenus. Si la réduction est visible sur les deux plateformes d’analyse, il est nécessaire d’étudier la raison, qui peut être un problème sur votre site ou un changement de la part de Google. Si le problème est une modification sur votre site, nous vous recommandons de suivre les conseils suivants !
Analyse des facteurs sur votre site
Vérifiez si des changements ont été apportés aux titres, aux URLs, au contenu ou s’il n’y a eu aucune suppression. Si vous n’avez apporté aucune modification à vos stratégies, il est également important de vérifier s’il n’y a pas eu de problèmes avec votre serveur.
Que faire si la baisse de votre site est justifiée par des changements dans l’algorithme de Google?
Il est important que vous restiez à jour par rapport aux éventuels changements, c’est pourquoi cet article sera constamment mis à jour afin que vous puissiez rester informé. Mais ne vous inquiétez pas, il est très peu probable qu’il y ait des changements drastiques dans l’algorithme de Google de nos jours. Les mises à jour se produisent généralement tous les six mois, mais il y a eu des périodes où il n’y a pas eu de changements significatifs pendant un an. Au début de l’année 2018, par exemple, nous avons observé quelques changements visant à bloquer ceux qui essaient d’utiliser des stratégies pour contourner le système de Google. Par conséquent, rappelez-vous que l’objectif doit être de produire du bon contenu, de se concentrer sur une page responsive et de développer l’architecture de votre site en pensant à l’expérience de l’utilisateur. Découvrez les recommandations pour que votre site ne soit pas affecté par les mises à jour de l’algorithme dans la prochaine section ! Si votre équipe constate une forte baisse du trafic organique, une forte vérification est nécessaire pour identifier les points à corriger, ainsi qu’un plan d’action pour récupérer l’autorité du site sur Google, ce qui ne peut être efficacement fait que par un expert en référencement. L’Agence Mestre est une référence nationale en matière d’optimisation des moteurs de recherche, nous avons une équipe qualifiée pour vous aider en cas de besoin, que ce soit pour identifier les problèmes ou pour supprimer une pénalité de Google. Il vous suffit de demander un devis pour le service de suppression de pénalité de Google.
Comment maintenir la pertinence sur Google malgré les changements de l’algorithme
Google prévoit généralement à l’avance les mises à jour de moindre impact, mais il a tendance à surprendre les utilisateurs avec les plus importantes. Alors, comment se préparer ?
– “Point de vue de l’expert
Barry Schwartz, expert en référencement et contributeur de Search Engine Land, a une vision très intéressante sur le sujet : “Les principales mises à jour concernent le contenu et la qualité de votre site, il n’y a pas de changement technique à effectuer. Mais il n’y a rien de concret dans ces mises à jour pré-annoncées – alors devons-nous paniquer et nous efforcer autant de travailler dessus, alors que nous pouvons nous concentrer sur des améliorations générales de la qualité du site ? Devrions-nous, en tant que SEO, dépenser autant de ressources dans ces mises à jour pré-annoncées ? Si les résultats ont un impact minimal sur les classements, ne devrions-nous pas passer plus de temps à nous concentrer sur la prochaine mise à jour majeure ? Cela demanderait plus d’efforts et de ressources dans la qualité générale du site, un meilleur contenu et des centaines de petites choses que vous devez faire pour améliorer votre site en général.” Les moteurs de recherche sont des machines spécialisées dans la réponse aux questions et le meilleur résultat est celui qui apporte la bonne réponse au chercheur. Pour parvenir aux résultats idéaux, Google parcourt un chemin qui commence bien avant que l’utilisateur ne saisisse sa requête dans le moteur de recherche.