Pouvez-vous imaginer un outil capable d’analyser automatiquement des milliers d’URL ? Screaming Frog SEO Spider peut faire cela et bien plus encore, comme nous vous le montrerons dans ce super guide étape par étape.
Si vous savez déjà ce qu’est le référencement et que vous souhaitez travailler pour améliorer le positionnement de différents projets de moyenne ou grande envergure, il est très important de connaître en détail tous les tenants et aboutissants des On-page de ces sites internet. C’est ici qu’avoir un logiciel de bureau aussi puissant que celui-ci est d’une grande aide pour notre quotidien.
Mais, avant de voir ce que Screaming Frog peut faire pour vous et, surtout, faciliter vos futures actions de positionnement, le moment est venu de vous montrer la définition la plus exacte de cet outil :
Sommaire
- 1 Qu’est-ce que Screaming Frog et à quoi sert-il ?
- 2 Screaming Frog SEO Spider : le guide le plus complet de l’analyse des robots et des on-pages
- 3 Comment utiliser Screaming Frog SEO Spider ? Premiers pas
- 4 Comment réaliser un « Simple Crawling » avec Screaming Frog ?
- 5 Comment augmenter la mémoire de Screaming Frog sur un ordinateur « Mac » ?
- 6 Screaming Frog SEO Spider vous aide également à optimiser votre contenu
- 7 Extraire des rapports avec Screaming Frog
- 8 Recherche personnalisée et extraction personnalisée : extrayez ce que vous voulez
- 9 Comment utiliser les filtres personnalisés « Recherche personnalisée et extraction personnalisée » ?
Qu’est-ce que Screaming Frog et à quoi sert-il ?
Screaming Frog Tool est un logiciel de bureau disponible pour Mac, Windows et Linux. C’est une araignée (ou araignée SEO) qui sera chargée de parcourir toutes les URL d’un site Web, lien par lien et contenu par contenu, pour créer un rapport complet ou une carte avec l’état de santé On-page de ce site.
Plus tard vous verrez tous les usages qui peuvent être donnés à cette plateforme, mais maintenant j’en avancerai quelques-uns :
- Connaissez les H1 qui vous manquent sur différentes pages.
- Vérifiez s’il vous manque des méta-titres et des méta-descriptions.
- Détectez les redirections 3XX, les erreurs 4XX, etc.
- Analyser le code CSS, HTML et JavaScript.
- Crawler un site au maximum.
- Connaître la profondeur de votre site Web.
- Et bien d’autres choses encore…
En bref, la « grenouille hurlante » créera un rapport complet avec lequel vous pourrez analyser votre site Web du point de vue du référencement, puis prendre des décisions.
Pouvez-vous imaginer analyser plus de 5 000 URL une par une et manuellement ?
100% Inviable… non ?
Cependant, avec l’aide de cet outil de référencement, nous pouvons y parvenir et bien plus encore.
« Screaming Frog » peut-il analyser chacune des URL d’un site Web, quelle que soit sa taille ?
C’est justement l’un des grands avantages de ce logiciel, puisque, même si le projet que nous voulons analyser comporte des centaines voire des milliers d’URL, vous pouvez le faire sans problème.
De plus, toutes ces données peuvent être extraites dans une feuille de calcul Excel , pour pouvoir les travailler sur votre appareil, même si vous n’avez pas de connexion Internet à un moment donné.
Tout cela sera raconté par Fran Murillo (professeur du cours de référencement à Webescuela ), qui dans ce billet d’invité nous donnera une revue complète sous forme de manuel ou de guide étape par étape, pour ce logiciel d’analyse Web très puissant. Allez elle !
Screaming Frog SEO Spider : le guide le plus complet de l’analyse des robots et des on-pages
Si nous parlons de référencement, nous ne pouvons pas laisser de côté les outils qui facilitent notre vie au quotidien, et bien sûr si nous faisons une liste des plus utiles, cela devrait apparaître sans aucun doute.
C’est pourquoi dans l’article d’aujourd’hui, je vais essayer de faire un article complet et approfondi à ce sujet et essayer de le rendre intéressant, pour tous ceux qui ont un certain intérêt à avoir un référencement sur la page soigné.
Restez jusqu’au bout et dominez la grenouille !
► Considérations initiales avant d’utiliser l’outil
Si l’initiation à l’utilisation de l’outil vous a convaincu, il est temps de vous le procurer.
Pour ce faire, vous devez choisir entre deux options :
- D’une part vous avez la version gratuite avec restrictions, avec laquelle vous ne pouvez analyser que 500 URL
- Et de l’autre, le payant, qui pour 149 livres par mois vous donnera un accès complet pendant un an.

Si vous avez des doutes sur les différences entre les deux versions, je vous recommande de vous rendre sur ce lien , afin de pouvoir télécharger la version qui vous convient le mieux.
Comment utiliser Screaming Frog SEO Spider ? Premiers pas
Après avoir regardé le didacticiel vidéo précédent , je suppose que vous avez déjà acquis votre toute nouvelle licence et que vous souhaitez sûrement déjà l’essayer, cependant, avant de commencer, nous allons apporter une série de modifications.
D’une part, voyons plus en détail à quoi ressemble l’interface de ce programme, dès que vous l’ouvrez (j’utilise actuellement la dernière version 11.2) :

Comme vous pouvez le voir, il s’agit d’une interface claire et très intuitive, dans laquelle vous pouvez voir un menu supérieur et une série d’onglets ci-dessous. Il a également une barre latérale sur la droite et, enfin, un champ de saisie pour notre URL.
Facile non ?
Quoi qu’il en soit, vous connaissez déjà l’interface de l’outil, passons maintenant à sa configuration.
Avant de faire un crawl , on va aller dans « configuration » dans le menu du haut :

Dans sa section « Basique », vous pouvez sélectionner ce que vous voulez que Screaming Frog rampe.
Il n’est pas nécessaire que vous preniez absolument tout, en effet, pour accélérer l’analyse des très gros sites web je vous recommande de supprimer les images, le Javascript et le CSS.
Ici, vous pouvez également sélectionner si vous souhaitez qu’il suive les liens nofollow , pour analyser les canoniques, les sous-domaines et d’autres facteurs intéressants que nous aborderons tout au long de l’article.

Dans les limites il n’y a pas grand chose à voir, vraiment le seul que j’ai utilisé est le » Limit Crawl Depth « . Avec lui, vous pouvez indiquer la profondeur maximale dans laquelle il va chercher.
Si par exemple vous mettez le chiffre 3, l’outil n’ira que jusqu’aux sections situées à 3 clics de chez vous.

À ce stade « Avancé », vous trouverez différentes options :
- Et les cookies ? Eh bien, si le site que vous allez analyser nécessite l’acceptation des cookies, vous devrez le marquer.
- Respect noindex, canonical et next/prev sont des options qui vous permettront de faire en sorte que votre rapport n’inclue pas ces paramètres (Par exemple, il n’inclura pas les pages dans noindex).
- Autres configurations variées.
En bref, vous pouvez sélectionner ici les options qui vous conviennent, en fonction de vos besoins à tout moment.
Enfin nous aurions » Préférences » et » Rendu « . Dans ce cas, dans le premier, nous pouvons indiquer des choses comme les pixels des objectifs et d’autres aspects. Vous n’aurez à l’utiliser que si ce qui est par défaut ne fonctionne pas pour vous.
Dans le cas du « Rendering », j’utilise en principe toujours la configuration qui vient par défaut, puisque c’est celle qui fonctionne le mieux, sauf dans des cas très isolés.
Vous avez sûrement remarqué qu’à droite vous avez un petit menu déroulant avec plus d’options, il peut sembler qu’il soit un peu à l’écart, mais il donne également des informations intéressantes.

● Présentation
Dans la section « aperçu », vous pouvez voir un résumé général de tout ce qui a été analysé par l’outil Screaming Frog.
En d’autres termes, il sert à détecter les erreurs d’un « coup de crayon » .● Structure du site
Dans la section structure du site, vous verrez un petit diagramme, qui vous aidera à voir de manière très visuelle la profondeur de votre site Web.

Dans ce cas il s’agit de mon blog « Trabajonomada », qui est un petit site internet, mais si vous placez un eCommerce un peu plus grand, vous verrez que la profondeur est bien plus grande.● Temps de réponse
Vous savez déjà à quel point le temps de chargement est important dans tout ce qui touche au référencement et même avec l’utilisateur, c’est pourquoi il est pratique de connaître la vitesse de chargement de toutes vos pages.

La vérité est qu’avec Screaming Frog SEO Spider, c’est très simple, car dans cet onglet, vous verrez un graphique très visuel, qui vous aidera à estimer la charge de l’ensemble de votre site Web.● API
Dans cette section, vous pouvez voir les API que vous avez placées dans le menu du haut. N’oubliez pas que vous avez Analytics, Ahrefs, Moz et bien d’autres.
Personnellement, je ne les utilise pas dans toutes les analyses, mais c’est toujours bien car ils fournissent beaucoup plus d’informations supplémentaires.
Dans la partie inférieure de l’outil, nous pouvons trouver un menu comme celui de la capture d’écran suivante :

Lors de l’analyse d’une page Web, c’est très utile, ci-dessous nous vous montrons comment vous pouvez l’utiliser :
- Info URL : ici vous pouvez voir beaucoup d’informations telles que le statut, l’URI, le type de redirection, le poids, etc.
- Inlinks : vous verrez les liens internes, leur source, leur destination, le texte d’ancrage et vous saurez s’ils sont suivis ou non.
- Outlinks : comme dans les inlinks, vous verrez leur source, destination, texte d’ancrage et suivi ou non suivi.
- Info image : vous connaîtrez la source, le lien de la pièce jointe et le texte alternatif.
- SERP Snippet – Un exemple de ce à quoi ressemble cette page sur les SERP de Google.
Bref, ce sous-menu est très utile pour analyser en profondeur chaque URL.
Comment réaliser un « Simple Crawling » avec Screaming Frog ?
L’outil a rendu la tâche d’explorer un site Web aussi facile que possible.
C’est super intuitif, mais cela ne le rend pas moins utile. C’est pourquoi dans les points suivants, nous verrons les données qui peuvent être obtenues à partir de ce logiciel.
► Crawler un site web complet
Dans ce cas, nous voulons faire une analyse d’un site Web complet, pour y parvenir, nous allons entrer l’URL dans la case que nous voyons dans la capture d’écran.
Aussi, comme je veux que le crawl dure le moins possible, j’ai supprimé les options CSS, Javascript et autres, qui pour le moment ne m’intéressent pas.

Il est également important de dire que j’ai supprimé les liens externes et que j’ai ajouté l’option « crawl all subdomains », afin que l’outil les crawle également.
Après quelques minutes qui sont devenues un peu longues, j’ai le résultat de l’analyse de mon blog :

Avec cela, vous aurez fait votre première analyse avec l’outil. Comme vous pouvez le voir, Screaming Frog s’est déjà chargé de parcourir l’intégralité de mon site Web, en trouvant les différentes URL dont il dispose.
► Comment exclure et inclure les pages à crawl ?
Cette fonctionnalité de Screaming Frog est sans aucun doute très intéressante, elle peut vous aider à réduire le temps d’analyse et à optimiser les données de manière beaucoup plus ordonnée.
Voyons comment vous pouvez le faire vous-même, à travers des expressions régulières :● Exclusion
Peut-être que la fonctionnalité de « la grenouille » que j’utilise le plus est l’exclusion, comme nous l’avons dit, elle fonctionne par expressions régulières.
Pour configurer les exclusions, vous devez aller dans « Configuration > Exclure », et une section comme celle-ci se chargera :

Vous devrez y placer vos expressions. Voici plusieurs exemples de ce que vous pouvez exclure (tirés de sa propre page) :
- Paramètres : si par exemple vous ne voulez pas que des paramètres tels que le prix, la pagination et autres soient inclus, vous pouvez le faire comme ceci :. * \? Prix. *
- Catégories : vous pouvez également supprimer le crawl de catégorie de la même manière : http://www.example.com/.*/brand.*
Vous pouvez faire ce type d’exclusions à votre guise en suivant un guide d’expression régulière. Voici d’autres exemples.● Inclusion
C’est très utile pour dire à la plateforme quelles URL on veut analyser, en général ça peut s’avérer utile de n’analyser qu’une seule zone du web.
Cependant, il a un inconvénient qui est logique, et c’est que pour trouver les pages avec votre expression régulière, vous devez commencer le crawl avec une page qui le relie.
► Comment crawl des résultats concrets ?
Ce problème peut arriver, rappelez-vous que Screaming Frog SEO Spider est un robot d’exploration, mais il est possible que par exemple vous vouliez uniquement obtenir le canonique, les objectifs ou toute autre donnée de certaines pages spécifiques.
Dans ce cas, vous pouvez les copier dans un txt ou les coller directement, puisque l’outil seul fera son travail. C’est très simple, il vous suffit d’aller dans » Mode » dans le menu du haut et de passer à l’option liste.

Vous verrez quelque chose comme dans la capture d’écran précédente, avec un sélecteur de téléchargement dans lequel vous pouvez sélectionner :
- Joindre à partir d’un document.
- Collez la liste.
- Saisissez-les manuellement.
- Téléchargez-les à partir du plan du site.
Vous choisissez lequel choisir, mais vous voyez que c’est très facile à faire, non ?
► Comment changer le « user-agent » ou faire le crawl avec un proxy ?
Il est possible que pour une raison ou une autre vous ayez besoin de changer votre user-agent .
Cela peut être principalement dû au fait que le site Web a bloqué le robot d’exploration Screaming Frog qui vient par défaut.

Dans ce cas, vous pouvez sélectionner Googlebot, Googlebot mobile et d’autres options que vous voyez dans la capture d’écran ; Il vous suffit d’aller dans » configuration > user-agent » et de choisir ce qui vous convient le mieux.
► Comment créer un sitemap.xml avec Screaming Frog SEO Spider ?
Les sitemaps sont utilisés pour indiquer à Google les pages à parcourir, c’est pourquoi avoir un sitemap bien optimisé est d’une importance vitale.
Pour le créer, vous devrez aller dans le menu principal de la section Plans du site, et dans celui-ci cliquer sur créer un plan du site :

Suivez les étapes qui apparaissent dans les différents onglets et Screaming Frog créera un plan du site pour vous, prêt à être téléchargé sur votre site Web.
PS : Si vous l’avez déjà créé et que vous voulez juste vérifier qu’il fonctionne bien, il vous suffit de l’enregistrer et de le télécharger en mode liste.
Comment augmenter la mémoire de Screaming Frog sur un ordinateur « Mac » ?
S’il est vrai qu’elle n’est pas un outil spécialement créé pour explorer des sites énormes ou très volumineux, la vérité est qu’elle est excellente dans ce travail.
Cependant, selon la configuration de votre ordinateur, vous ne profiterez peut-être pas de toute sa « chicha » .
Par défaut, Screaming Frog utilise 512 Mo , et cela pour un site de taille moyenne, c’est très peu, donc en tant qu’utilisateur Mac, tout ce que vous avez à faire est d’aller dans « Terminal » (vous pouvez le faire dans la recherche) et d’écrire la ligne suivante :
les valeurs par défaut écrivent uk.co.screamingfrog.seo.spider Memory XX
Dans XX vous devrez mettre la mémoire que vous souhaitez allouer, par exemple 2g (2 gigaoctets) ou 2048m (2 mégaoctets).
Screaming Frog SEO Spider vous aide également à optimiser votre contenu
Comme vous l’avez vu, l’outil Screaming Frog est très nécessaire dans toute stratégie de positionnement web, voyons maintenant comment nous pouvons optimiser notre contenu en suivant ses directives.

Dès que vous voyez le panneau principal de l’outil, de nombreuses colonnes apparaissent, qui servent à nous montrer les données. Ensuite, nous verrons tous ceux qui sont liés au contenu :
► Interne
Il s’agit de l’onglet principal, et rassemble la plupart des informations que l’outil nous donne.
- Code d’état : il vous aidera à savoir si la page est OK (200), elle est redirigée (3XX), si elle donne une erreur (4XX)…
- Titre et description : vous verrez les titres et descriptions ainsi que leur longueur et leurs pixels.
- Rubriques : celle-ci vous donne également les H1 et H2 utilisés et leur longueur.
- Méta robots : vous verrez si votre méta robots est noindex, nofollow, etc.
- Canonical : vous pourrez voir où les points canoniques en un coup d’œil, également dans la barre latérale, il indique le pourcentage d’URL sans canonique.
- Taille : poids de la page en octets.
- Ratio mots / texte : nombre de mots et ratio texte.
- Profondeur d’exploration : vous aide à voir la profondeur de chaque page.
- Inlinks : vous verrez le nombre de liens internes, également les seuls dans la colonne suivante.
- Outlinks : vous verrez les liens sortants vers d’autres pages internes.
- Outlinks externes : dans ce cas, vous pouvez voir les liens externes , vers d’autres pages externes.
- Hash : c’est un encodage utilisé pour identifier une page et la distinguer des autres.
- Temps de réponse : comme son nom l’indique, vous verrez le temps qu’il faut pour répondre à chaque page.
Dans cette optique, vous savez déjà analyser beaucoup de choses sur votre site web.
Si vous souhaitez exporter un document, vous pouvez le faire facilement, à la fois dans le bouton d’exportation en haut à gauche et dans le menu.
Nous le verrons plus loin dans la section rapports.
► Externe
Ce point est presque le même que le précédent, mais à l’envers. Au lieu de parler d’URL et de liens internes, vous verrez des informations provenant des externes.
Personnellement, j’utilise cette fonction pour obtenir des liens externes qui donnent une redirection ou une erreur, je n’aime pas mal lier vers des domaines externes, c’est pourquoi j’en ai l’habitude d’en tenir compte.
Une fois que j’ai localisé les liens malades, je les change à la main et le tour est joué, vers une autre tâche.
► Protocole
Ici vous verrez les pages avec http et https, ce point est particulièrement utile si vous avez effectué une modification en SSL. Simple vérité?
► Codes de réponse
Les codes de réponse sont les fameux nombres 3xx, 4xx et ainsi de suite. Avec ce point, c’est facile, tout ce qui n’est pas 200 a quelque chose d’étrange, vous devez donc jeter un œil et examiner la raison pour laquelle c’est comme ça.
A priori il est normal d’avoir plusieurs 3xx ou 4xx, il suffit d’analyser les résultats et de chercher des solutions.
Sans stress!
► URI
Le point URI est intéressant bien que la vérité soit que si vous utilisez WordPress , vous devriez avoir correctement la plupart des points. Dans la capture d’écran suivante, vous pouvez voir les cas qui peuvent se produire :

Comme vous pouvez le voir, vous pouvez vérifier si un uri a des caractères étranges, s’il a des barres basses, des lettres majuscules, des doublons, des URL avec paramètres et enfin des URL de plus de 115 caractères.
Ce sont des détails qui doivent être revus pour s’assurer qu’ils sont corrects, et grâce à Screaming Frog, vous pouvez le faire en un coup d’œil.
► Titres et méta descriptions
À ce stade, vous pouvez voir plusieurs caractéristiques de vos titres et descriptions, d’un seul coup vous pouvez obtenir :

Titres et descriptions vides, doublons, trop longs, trop courts et ainsi de suite. Avec cela, vous pourrez supprimer les erreurs en masse et les résoudre rapidement et facilement.
► En-têtes
Vous pouvez également obtenir de bons détails à partir des en-têtes H1 et H2, d’un seul coup, vous obtiendrez les informations suivantes :

En-têtes vides, en double, longs et multiples. Dans le cas des H2, ce point de multiples n’est pas un problème. En fait, c’est positif alors ne vous inquiétez pas.
► Images
Les images sont l’une des principales erreurs de la plupart des webmasters, d’une part nous avons le poids, que si elles ne sont pas optimisées, cela peut rendre votre site Web « plus lent que le méchant ».
De l’autre, l’optimisation des photos, un facteur que beaucoup de gens traversent.

Avec lui, vous pourrez voir des images qui pèsent plus de 100 Ko, celles qui n’ont pas de texte alternatif et enfin celles qui contiennent un alt trop long.
Ce rapport est important, car comme je le dis, les images sont un grand oublié dans le référencement de nombreux sites internet.
»Cela pourrait aussi vous intéresser : Comment compresser des photos sans perte de qualité ?
► Directives
À ce stade, vous pouvez également obtenir des informations très importantes pour optimiser votre site Web :

D’une part, vous verrez le canonique , quelque chose de très important dans le référencement. Vous devriez revoir cela, bien que dans ce cas, si vous avez WordPress, vous pouvez également être plus calme.
Le reste des directives est le next / prev, le noindex et le nofollow. Cet onglet vous donne des informations pertinentes sur ces points, que vous pouvez utiliser pour améliorer votre page On.
► Hreflang
Le hreflang est utilisé pour indiquer à Google le contenu dans différentes langues , dans ce cas il vous aidera également à voir si votre site a tout bien placé.
► API
Si vous introduisez les API des différents outils auxquels Screaming Frog est associé, vous pourrez obtenir des données plus avancées.
Les plateformes possibles sont les suivantes :
- Google Analytics.
- Console de recherche .
- Majestueux.
- Ahrefs .
Je vous recommande d’essayer de les placer, au moins pour faire le test une fois et avoir des données complètes.
Extraire des rapports avec Screaming Frog
Voir les données dans l’outil est génial, mais il est vrai que pour le client, vous devez générer des rapports simples et plus visuels, avec lesquels vous pouvez le convaincre de prendre les meilleures décisions.
C’est pourquoi nous ne pouvions pas manquer un petit point dans lequel nous parlons de l’extraction des rapports, dans ce cas, d’abord pour les inlinks :
Liens internes
À ce stade, vous pouvez télécharger plusieurs rapports bruts :
- Liens vers une page.
- Liens d’une page.
- Texte d’ancrage des liens internes.
Ce sera aussi simple que d’aller dans le menu du haut, « export en masse » et de choisir l’une des trois premières options. Vous téléchargerez le fichier Excel au format « csv » et vous pourrez le manipuler directement dans le programme.
images
Avant nous avons dit que les images sont très importantes, c’est pourquoi vous pouvez également exporter ces types de rapports en un clic.
- Images sans alt.
- Images de plus de 100 Ko.
- Toutes les images.
Ceci est très utile lorsque votre client vous demande quelque chose comme :
Que puis-je améliorer sur le On-page de mon site Web pour le rendre plus rapide ?
Grâce à cette plateforme, vous obtiendrez tout cela en quelques clics… et « à autre chose papillon ».
Liens externes
Dans Screaming Frog il y a aussi une place pour les liens externes, vous pouvez exporter un document avec tous les liens vers d’autres domaines, afin de les diviser par code de réponse ou ce que vous voulez.
Bien que cette analyse puisse se faire directement dans l’outil, il peut être intéressant de l’exporter vers un tableur, surtout s’il s’agit d’un gros site internet.
Codes de réponse
Connaître les codes de réponse est très important dans le référencement, c’est pourquoi une autre utilisation clé de Screaming Frog est celle-ci. Parmi les rapports que vous pouvez obtenir, vous trouverez les suivants :
- Bloqué par Robots.txt
- Sans réponse.
- 200OK.
- Redirection 3XX.
- Redirection Javascript ou metarefresh.
- Erreur 4XX.
- Erreur de serveur 5XX.
Directives
Les directives que nous avons vues auparavant, les plus pertinentes pour moi sont les directives canoniques, mais vous pouvez extraire n’importe laquelle de celles que nous avons vues dans la capture d’écran précédente.
Rapports
Un autre élément de menu très important est la section des rapports, où vous pouvez télécharger de nombreuses données supplémentaires.
- Résumé de l’exploration.
- Erreurs canoniques.
- Rediriger les chaînes.
- Erreurs précédentes/suivantes
- Hreflang.
- Contenu non sécurisé.
Comme vous pouvez le voir, vous pouvez exporter beaucoup de choses.
Recherche personnalisée et extraction personnalisée : extrayez ce que vous voulez
Maintenant, nous allons voir en détail comment nous pouvons utiliser des filtres personnalisés.
Sans aucun doute, ce sont deux fonctionnalités très intéressantes, en plus d’expliquer en quoi consiste la « Recherche personnalisée et l’extraction personnalisée », je vais mettre plusieurs exemples qui clarifieront beaucoup plus, mais nous verrons d’abord en quoi consiste chaque cas.
Hey! J’ai presque oublié, vous pouvez les trouver dans le menu du haut dans la section « Configuration> Personnalisé » .

► Recherche personnalisée
Quelle traduction merdique j’ai noté. Hey? Quoi qu’il en soit, blague à part, cette fonction vous permettra de localiser presque n’importe quoi dans le code source d’une page Web.
► Extraction personnalisée
Contrairement à la recherche, dans ce cas, il vous permettra d’extraire les données par vous-même. Evidemment, pour que la page fonctionne elle doit donner un code de 200 car sinon elle ne pourra pas être lue.
Si, comme moi, vous n’êtes pas très technique, vous ne le comprenez peut-être pas, mais je vous dirai que les formats qu’il lit sont ceux-ci :
- XPath, y compris les attributs.
- Chemin CSS et éventuellement les attributs.
- Expressions régulières.
Sans aller plus loin, nous allons voir de manière pratique comment utiliser ce type de recherches et d’extractions :● Comment savoir si le code Analytics fonctionne sur toutes les pages ?
La mesure est une partie très importante du référencement et pour vous assurer que vous mesurez bien tout, il est pratique de savoir si toutes les pages ont un code Analytics ou Tag Manager.
Vous pouvez vérifier cela très facilement avec la recherche :

Vous mettez le code Analytics et « Ne contient pas », et vous refaites le crawl. Vous y verrez les données indiquant s’il est placé sur toutes les pages ou non.● Obtenir une donnée spécifique (Exemple : SKU)
Si vous souhaitez obtenir une information spécifique de votre blog ou de votre eCommerce, comme le SKU des produits, vous pouvez le faire très facilement.

La première chose que vous devez faire est d’aller sur une page avec SKU, faites un clic droit et sélectionnez « Inspecter l’article ». Là, dans la console d’inspection, vous cliquez à nouveau avec le droit et vous allez « copier> copier xpath ».
Maintenant que vous l’avez, retournez dans » Screaming Frog > Configuration > Custom > Extraction « , et vous obtiendrez quelque chose comme ceci :

Vous copiez les données xpath dans la deuxième colonne et sélectionnez xpath dans les options. Prêt, vous refaites le crawl et vous l’avez prêt :

Toutes les données apparaîtront dans la console principale. Facile non ?
En bref, nous avons déjà vu deux options d’extraction et de recherche personnalisées de Screaming Frog, vous pouvez sûrement penser à des choses que vous pouvez faire avec ces fonctions.
Pour donner la noix de coco !
Comment utiliser les filtres personnalisés « Recherche personnalisée et extraction personnalisée » ?
Derniers doutes et conclusions sur l’outil
J’espère que cet article vous a aidé à mieux comprendre comment vous pouvez utiliser Screaming Frog pour améliorer le référencement de l’ensemble de votre site Web.
En regardant maintenant ce méga manuel, tout est devenu plus clair dans ma tête et j’espère que dans la vôtre aussi, car la vérité est que j’ai tout laissé ici.
Cependant, il est possible que vous ayez une question, je me ferai donc un plaisir de vous répondre à travers les commentaires. Si cela vous a plu, j’apprécierais également votre commentaire !
Quoi qu’il en soit, avant de vous dire au revoir, rappelez-vous qu’il s’agit d’un excellent outil qui peut vous aider à faire beaucoup de choses.
Maintenant, c’est à vous de l’utiliser et de lui donner de nouvelles fonctionnalités en fonction de ce qui a été discuté aujourd’hui.
Quelles fonctionnalités de Screaming Frog SEO Spider sont les plus utiles pour votre projet ?
Merci beaucoup d’avoir avalé tout le billet de poste, qui aurait pu être assez dense par moments.
Laisser un commentaire