Allow
L’optimisation pour les moteurs de recherche (SEO) est un ensemble de techniques visant à améliorer la visibilité d’un site internet sur les moteurs de recherche comme Google.
L’une des directives importantes en SEO est celle appelée « allow », également utilisée comme nom qui peut signifier « autorisation » ou « permission ».
Dans cet article, nous allons présenter ce qu’est l’allow, comment il fonctionne et comment l’utiliser efficacement dans le cadre du référencement naturel.
L’allow représente une directive qui permet aux robots des moteurs de recherche d’explorer et d’indexer certains fichiers ou répertoires d’un site web, contrairement à la directive « disallow » qui les en empêche.
Cette dernière étant plus fréquemment rencontrée, il est parfois ignoré qu’il existe aussi un « complément » permettant d’autoriser explicitement certaines parties du site, bien que la plupart du temps elles soient ouvertes par défaut. Ce contrôle s’effectue via un fichier nommé « robots.txt », qui doit se trouver à la racine du site concerné.
Pour comprendre l’intérêt et l’usage de l’allow, il est essentiel de parler du fichier robots.txt, qui est l’outil principal pour indiquer aux robots des moteurs de recherche quelles parties peuvent être explorées et indexées, et lesquelles ne le sont pas. Ce fichier doit être placé à la racine du site et est généralement accessible via l’URL « www.mon-site.fr/robots.txt ».
Le contenu du fichier robots.txt est peu complexe, il suffit d’établir des règles sous la forme suivante :
User-agent : [robot_à_cibler] Disallow : [chemin_à_bloquer] Allow : [chemin_autorisé]
Il convient de bien considérer chaque cas avant de créer une règle “allow” dans votre fichier. En effet, s’il est inutile d’inclure cette directive pour autoriser l’accès à toutes les pages d’un site, elle peut être utile pour modifier les actions des robots sur certains fichiers ou répertoires en particulier.
En complément du fichier robots.txt, il est également possible d’utiliser des balises meta robots pour indiquer aux robots si une page spécifique doit être indexée et suivie, grâce aux attributs « index » et « follow ». Cette solution, à intégrer directement dans le code HTML de chaque page, permet un contrôle plus fin que le robots.txt, mais reste toutefois moins pratique pour gérer des parties entières d’un site web.
À noter : la combinaison des directives « disallow » et « noindex » se traduit par un blocage complet de l’exploration et de l’indexation de pages particulières, tandis que la combinaison « allow » et « index » autorise explicitement ces mêmes actions sur des pages précises.
Il est donc primordial de ne permettre l’accès qu’à certaines parties du site pour optimiser le référencement naturel. Voici quelques exemples :
Ceci dit, il convient de bien étudier chaque situation avant de bloquer la possibilité d’accès à une partie d’un site
To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.