0:00
bonjour à tous et à toutes Aujourd'hui
0:02
je vais continuer euh dans ma lancée sur
0:05
la création de vidéos dans le domaine du
0:08
SEO et aujourd'hui je vais créer une
0:11
nouvelle playlist consacrée à l'outil
0:15
scaming frog alors pour commencer cette
0:17
première vidéo on va vous montrer
0:18
comment bien configurer le logiciel
0:21
screaming frog mais avant tout je vais
0:24
vous expliquer brièvement ce qu'est
0:26
screaming frog alors screaming frog
0:28
qu'est-ce que c'est c'est un outil
0:30
d'audit SEO technique c'est-à-dire qui
0:33
vous permet de débusquer les problèmes
0:37
techniques SCO d'un site web en version
0:39
gratuite vous êtes limité à 500 URL ce
0:45
expérience me permet de vous dire que
0:49
500 URL ça va très vite sachant que dans
0:53
les URL il n'y a pas seulement du des
0:56
pages en HTML mais il y a aussi des
0:58
images du des fichiers javascript des
1:02
fichiers en CSS et cetera et cetera
1:04
alors pour commencer avec scaming frog
1:07
il y a différents modes le mode Spider
1:10
qui vous permet de scoller d'analyser
1:13
toutes les pages d'un site web qui lui
1:15
sont accessible et le mode list si vous
1:17
voulez uniquement analyser le contenu
1:21
d'un certain type d'URL aujourd'hui on
1:25
consacrer au craoller
1:28
c'est-à-dire à l'outil qui permet
1:30
d'analyser un site web donc on va
1:32
travailler en mode Spider et on va le
1:35
configurer nous verrons dans une autre
1:38
vidéo les différentes les différents
1:41
onglets d'analyse vous voyez ici
1:44
rapidement que c'est assez complet alors
1:48
on commence par la configuration du
1:51
craoll dans le menu Configuration alors
1:53
qu'est-ce que veut qu'est-ce qu'on veut
1:55
croller alors forcément les images on
1:58
peut on peut non seulement les croller
2:02
mais aussi les stocker aussi stocker les
2:05
fichiers CSS JavaScript et SWF alors je
2:09
vous conseille d'au moins croller les
2:12
qure les quatre icônes de chome du coll
2:17
je coche tout vérifier les liens en
2:19
dehors du dossier de démarrage pour
2:21
avoir accès vous avez des
2:24
explication pour en cas de doute donc
2:27
pour encoller maximum pour CER au-delà
2:30
d'un répertoire croller dans
2:32
sousrépertoire et cetera vous pouvez
2:34
cocher ces différents options et vous
2:37
pouvez même croller les sous-domaines
2:39
liés à un nom de domaine principal très
2:43
intéressant en cas d'analyse de sécurité
2:46
pour voir s'il a pas des fuites vers des
2:51
stage nomdusite.com aussi ce qu'on
2:55
néglige souvent c'est de suivre les
2:56
liens internes no follow même si Google
2:59
n'est pas censé suivre les liens no
3:02
followollow c'est pas une interdiction
3:04
absolue pour lui on peut aussi suivre
3:06
les liens qui vont qui sont no follow
3:09
vers les autres sites web donc il faut
3:11
aussi il faut cocher l'autorisation des
3:14
craoll pour les liens internes ça me
3:17
paraît évident on va pas se limiter à
3:19
seulement au contenu d'une page au
3:22
contenu textuel d'une page par exemple
3:24
si on veut analyser aussi euh la qualité
3:27
des liens externes vérifier numérel les
3:30
canonies ou pas et aussi le système de
3:32
pagination aussi hreflang pour définir
3:36
les problèmes éventuel au
3:39
niveau linguistique aussi la possibilité
3:42
de croller les pages en an détecter si
3:45
vous utilisez des redirections ou des
3:48
MTA refresh et aussi analyser le contenu
3:52
des zframe vous savez les petites les
3:55
petits encars qui pe du
3:57
style ce de YouTube des encar vidéos des
4:02
par exemple et si vous avez des sign map
4:05
des plans de site à soumettre vous
4:07
pouvez aussi cocher cette option et
4:09
ajouter les S map si vous connaissez
4:13
analy mais en général si un site est
4:15
bien codé streaming frog est capable de
4:17
détecter le S map en allant lire par
4:20
exemple le fichier robot ex duite alors
4:23
extraction quel type de données ce on va
4:26
choisir et ben moi je je je j'autorise
4:31
l'analyse d'un maximum si le
4:34
sttre style le titre se la mé
4:37
desescription les bases et cetera même
4:40
le ratio text code aussi même si c'est
4:43
pas un facteur technique prédominant
4:46
mais ça peut donner des pistes
4:47
d'amélioration le niveau d'indexabilité
4:50
bien évidemment parce que on tombe je
4:53
sais que par expérience on tombe sur des
4:55
cas de Pag en non index alors qu'elle
4:57
devrait en non index et aussi euh le
5:00
balisage type certains types de balisage
5:03
lié au formulaire vous avez aussi la
5:05
possibilité d'analyser les données
5:07
structurées type JSON micro autres
5:12
RDFa euh les cell concernant lechema.org
5:16
et cetera et cetera si vous voulez
5:18
stocker le html prévoyz assez d'espace
5:22
et aussi le rendu on reviendra sur cette
5:26
notion d'HTML le rendu avec l'option euh
5:29
JavaScript un peu plus tard on peut même
5:31
enregistrer aussi et analyser le contenu
5:34
et les propriétés des fichiers PDF voyez
5:37
c'est assez complet si vous avez des
5:40
limites si vous vous voulez des vous
5:43
fixez des limites en terme de profondeur
5:46
en terme de limite d'URL à coller vous
5:49
avez différentes options par défaut le
5:50
nombre maximum de redirection à suivre
5:52
pour une URL est de 10 en sachant que au
5:55
bout de 3 Google a tendance à ne plus
5:58
coller les redirection donc quand vous
6:01
avez des boucles de redirection
6:02
multiples au-delà de trois et ben Google
6:06
a tendance à ignorer l'IND à ignorer la
6:09
redirection et à l'indiquer
6:11
éventuellement comme une erreur alors le
6:13
rendu il y a différents types de rendu à
6:16
analyser on peut analyser grosso modo
6:19
avec streaming uniquement la partie
6:22
textuelle la partie HTML
6:25
euh d'un site Web sans faire de
6:30
d'analyse poussée du javascript sinon si
6:33
vous voulez analyser de manière plus
6:36
précise le Javascript et ben vous avez
6:39
l'option JavaScript qui permet
6:42
de simuler le rendu d'une page quand
6:47
celle-ci comporte du javascript ça peut
6:49
être très intéressant quand euh vous
6:51
avez du code JavaScript qui est que
6:54
Google ne peut pas interpréter vous avez
6:57
euh des captures d'écran qui simule le
7:00
rendu JavaScript avancer dans la section
7:03
avancé vous avez différentes options
7:06
suivant la façon dont le site gère les
7:09
cookies vous pouvez euh simuler la
7:12
création de cookies lors de l'analyse
7:15
d'un site juste pour une session
7:17
euh par exemple vous pouvez même aussi
7:21
euh éviter de les stocker euh ignorer
7:24
alors il y a des options dans le mode
7:27
euh avancé qui sont son très
7:30
intéressantes comme par
7:31
exemple il faut ignorer les doublons euh
7:35
lorsque il y a des URL lorsqu'il y a du
7:38
contenu dans des URL non indexables vous
7:41
pouvez aussiirer les URL paginé lors
7:45
d'Alise de doublon parce que souvent
7:47
vous avez des pages style
7:53
2 qui reprend le même titre SEO que la
7:57
première page d'une section voilà ça
7:59
permet d'avoir des faux amis
8:01
euh toujours suivre les redirections bah
8:05
cette option est très intéressante si
8:07
par exemple si vous tombez sur une 301
8:09
une 307 si vous voulez suivre voir
8:11
qu'elle est fonctionnelle euh vous
8:13
pouvez causer cette option toujours
8:16
suivre les URL canoniques alors là cette
8:19
option ça permet de savoir c'est à
8:22
d'analyser de manière plus précis
8:24
si l'utilisation des URL canoniques ou
8:29
non alors autre option qui est très
8:32
euh suivre tout ce qui concerne la
8:35
l'attribut les attributs lié aux images
8:38
ça permet à scaming CR de bien
8:40
interpréter le balisage lié
8:43
aux images alors l'identificateur de de
8:46
fragment de Craw permet d'analyser les
8:49
les URL de type de type qui contiennent
8:53
des dièes par exemple mais si vous la
8:55
cochez vous allez rallonger de manière
8:58
drastique le temps d'analyse d'URL et
9:01
enfin il y a une option aussi très
9:04
intéressante c'est exécuter une
9:07
validation HTML très intéressant pour
9:10
vérifier si certaines données HTML sont
9:14
en sont en bon endroit par exemple si
9:18
vous avez du code qui doit être dans le
9:19
header et qui se retrouve dans le
9:22
body vous pouvez grâce à screaming frog
9:26
savoir il y a cette erreur ou pas VO
9:29
attaquer les préférences on va pas trop
9:31
s'attarder là-dessus mais par défaut moi
9:34
ça me convient bien lors de l'analyse de
9:36
contenu il est très intéressant de
9:39
euh d'analyser de configurer
9:42
correctement les trois sections en
9:44
verers domaine de contenu pensez à
9:47
bien exclure et les éléments de type
9:51
nave et footur parce que sinon il risque
9:54
de prendre en doublon tout ce qui est
9:56
dans le footeur ou dans les menus pensez
9:59
aussi à vérifier l'analyse des images
10:01
alors de pour voir s'il y a pas de
10:07
de balisage avec d'autres images sur
10:10
différentes pages de votre site
10:11
qu'est-ce qu'il y a d'autre on va dans
10:13
les doublons on continue vérifier
10:15
uniquement les dblications dans les
10:17
pages indexables oui ça sert à rien d'
10:19
les vérifier les doublons par exemple
10:22
sur les pages qui sont non indexables
10:24
style celles qui sont en no index Activ
10:28
si vous vous voulez définir un niveau de
10:31
similarité entre différentes pages vous
10:34
avez l'option quasi duplication ça
10:37
permet de définir un seuil de similarité
10:39
par exemple si deux images si deux pages
10:43
ont un contenu similaire à plus de 80 %
10:46
par exemple ben là dans ce cas-là SK
10:48
frog va le détecter orthographhe et
10:50
Grammer j'ai testé c'est pas très pas
10:54
très convaincant robot tt pour des
10:56
questions éthiques normalement vous
10:58
devez respecter euh le fichier robot txt
11:02
du site web pour éviter de tomber des
11:05
pièges à robot parce que dans en matière
11:06
de règles de sécurité si vous contournez
11:10
les règles du robot tt certains sites
11:12
peuvent rediriger euh les botes dans des
11:17
ce qu'on appelle des pièges à bot et ça
11:19
tourne en haut si vous n'avez pas
11:21
l'autorisation du webmaster pour
11:23
cololler le site choisissez respecter
11:26
robot afficher les URL bloqués et
11:29
afficher les urelles externes bloquées
11:32
aussi très important par que des fois ça
11:35
peut être gênant d'avoir des ressources
11:36
externees aussi sont bloqués au niveau
11:39
au niveau VXT on va maintenant passer à
11:42
la vitesse alors screaming frog
11:44
conseille à conseiller à une époque il
11:47
me semble de d'éviter de lancer cinq
11:50
connexions sur un même site en matière
11:53
de vitesse c'est un bon compromis dans
11:55
la plupart des cas si vous augmentez le
11:58
nombre nombre de connexions pour passer
12:00
à 10 certains sites bas de gamme risque
12:03
de raller pour souci ou alors ça peut
12:06
être dû aussi à des règles de limite
12:08
d'URL ça peut être intéressant si vous
12:11
avez des serveurs qui sont un peu trop
12:14
paranoïques euh vous pouvez limiter à 2
12:17
par seconde par exemple user agent euh
12:20
évite alors évitez de vous vous faire
12:23
passer pour Google Bot euh soyez
12:26
transparents et utilisez euh en cas de
12:30
en cas de de souci vous pouvez utiliser
12:32
euh screaming euh frog et Spider mais
12:36
c'est intéressant aussi de simuler un
12:39
bot pour mobile de chez Google euh ou
12:42
Desktop pour voir comment euh réellement
12:46
est traité le roboex ah accès vous avez
12:50
avec screeny frog des accès à
12:53
différentes API tels que Google analytic
12:55
pour récupérer euh des pages que
12:59
par exemple que Google ne pourrait pas
13:02
détecter parce que elles sont par
13:05
exemple orpheline pas de li depuis quoi
13:07
que ce soit vous pouvez aussi connecter
13:09
la Google cherche pour
13:13
différentes solutions pratiques et vous
13:17
Insight que vous pouvez utiliser n
13:20
viendront éventuellement dans une
13:22
prochaine vidéo pour ces différentes
13:23
options vous avez aussi la connexion à
13:29
des outils SEO en ligne très connus qui
13:33
permettent par exemple via leur API de
13:37
récupérer d'autres données
13:40
s éventuellement des backlink vers des
13:43
pages que MPR ne pourrait pas trouver
13:47
par une simple analyse interne alors on
13:50
va s'intéresser aussi à l'analyse du
13:52
craoll cette option est très
13:53
intéressante pourquoi
13:55
euh parce que lorsqu'on a euh des scores
14:00
en terme de maillage interne on peut
14:02
avoir un score au niveau de la puissance
14:05
d'un lien sur une page très intéressant
14:07
le code de réponse par exemple pour
14:09
identifier les les 404 des 410 pour des
14:13
pages introuvables ou des erreur de type
14:16
506 pour des erreurs serveurs si vous si
14:19
vous cochez pas cette option l'analyse
14:20
de contenu B sera pas faite donc ce sera
14:23
un peu ballot ensuite en terme d'image
14:26
d'image bien sûr ça per cette option
14:30
vous permet d'avoir des informations sur
14:34
taille et balises associées
14:37
Baly texte alternatif et euh balist
14:41
actuel de l'image et cetera l'analyse du
14:44
système de page ation très important
14:46
sans cette option l'analyse du maillage
14:48
interne ne pourra pas se faire de
14:50
manière correcte n'oubliez pas non plus
14:53
aussi si votre s si votre site a des
14:56
pages AMP et euh l'option sign map pour
15:00
voir si par exemple streaming frog
15:03
trouve des pagfing dans des sign map ou
15:06
inversement trouve des URL qui sont pas
15:08
dans desap et si vous avez euh configuré
15:13
Google analytic et Google cherche
15:15
console dans ou d'autres API dans dans
15:19
le menu accès à API elle devrait
15:22
apparaître voilà ces onglais ça permet
15:25
d' si vous chez Google analytic Google
15:29
cherche console vous aurez des données
15:31
en provenance de Google analy et de
15:33
Google cherche console alors pour en
15:35
revenir à la Google re console ça fera
15:38
l'objet d'une prochaine vidéo mais c'est
15:41
très c'est c'est simple c'est intuitif
15:45
vous êtes euh vous avez donc ici les
15:48
bases pour bien craoller un site web
15:51
avoir pas mal d'infos en matière de
15:54
problème techniques éventuels donc si
15:56
vous avez aimé cette vidéo n'hésitez pas
15:59
ler et si vous êtes toujours pas abonné
16:01
à ma chaîne ça me fera très plaisir que
16:03
vous deveniez un nouvel abonné ça me
16:06
donne envie de faire plus de vidéos je
16:09
vous dis à bientôt pour cette vidé pour
16:12
une prochaine vidéo qui a été un peu
16:15
plus longue que d'habitude et je vous
16:17
dis à une prochaine fois bye bye