Allow
L’optimisation pour les moteurs de recherche (SEO) est un ensemble de techniques visant à améliorer la visibilité d’un site internet sur les moteurs de recherche comme Google.
L’une des directives importantes en SEO est celle appelée « allow », également utilisée comme nom qui peut signifier « autorisation » ou « permission ».
Dans cet article, nous allons présenter ce qu’est l’allow, comment il fonctionne et comment l’utiliser efficacement dans le cadre du référencement naturel.
L’allow représente une directive qui permet aux robots des moteurs de recherche d’explorer et d’indexer certains fichiers ou répertoires d’un site web, contrairement à la directive « disallow » qui les en empêche.
Cette dernière étant plus fréquemment rencontrée, il est parfois ignoré qu’il existe aussi un « complément » permettant d’autoriser explicitement certaines parties du site, bien que la plupart du temps elles soient ouvertes par défaut. Ce contrôle s’effectue via un fichier nommé « robots.txt », qui doit se trouver à la racine du site concerné.
Pour comprendre l’intérêt et l’usage de l’allow, il est essentiel de parler du fichier robots.txt, qui est l’outil principal pour indiquer aux robots des moteurs de recherche quelles parties peuvent être explorées et indexées, et lesquelles ne le sont pas. Ce fichier doit être placé à la racine du site et est généralement accessible via l’URL « www.mon-site.fr/robots.txt ».
Le contenu du fichier robots.txt est peu complexe, il suffit d’établir des règles sous la forme suivante :
User-agent : [robot_à_cibler] Disallow : [chemin_à_bloquer] Allow : [chemin_autorisé]
Il convient de bien considérer chaque cas avant de créer une règle “allow” dans votre fichier. En effet, s’il est inutile d’inclure cette directive pour autoriser l’accès à toutes les pages d’un site, elle peut être utile pour modifier les actions des robots sur certains fichiers ou répertoires en particulier.
En complément du fichier robots.txt, il est également possible d’utiliser des balises meta robots pour indiquer aux robots si une page spécifique doit être indexée et suivie, grâce aux attributs « index » et « follow ». Cette solution, à intégrer directement dans le code HTML de chaque page, permet un contrôle plus fin que le robots.txt, mais reste toutefois moins pratique pour gérer des parties entières d’un site web.
À noter : la combinaison des directives « disallow » et « noindex » se traduit par un blocage complet de l’exploration et de l’indexation de pages particulières, tandis que la combinaison « allow » et « index » autorise explicitement ces mêmes actions sur des pages précises.
Il est donc primordial de ne permettre l’accès qu’à certaines parties du site pour optimiser le référencement naturel. Voici quelques exemples :
Ceci dit, il convient de bien étudier chaque situation avant de bloquer la possibilité d’accès à une partie d’un site
Pour offrir les meilleures expériences, nous et nos partenaires utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations de l’appareil. Le consentement à ces technologies nous permettra, ainsi qu’à nos partenaires, de traiter des données personnelles telles que le comportement de navigation ou des ID uniques sur ce site et afficher des publicités (non-) personnalisées. Ne pas consentir ou retirer son consentement peut nuire à certaines fonctionnalités et fonctions.
Cliquez ci-dessous pour accepter ce qui précède ou faites des choix détaillés. Vos choix seront appliqués uniquement à ce site. Vous pouvez modifier vos réglages à tout moment, y compris le retrait de votre consentement, en utilisant les boutons de la politique de cookies, ou en cliquant sur l’onglet de gestion du consentement en bas de l’écran.