Comprendre ce qu’est l’Allow : définition et ses implications en SEO

SEO Technique

Allow


L’optimisation pour les moteurs de recherche (SEO) est un ensemble de techniques visant à améliorer la visibilité d’un site internet sur les moteurs de recherche comme Google.

L’une des directives importantes en SEO est celle appelée « allow », également utilisée comme nom qui peut signifier « autorisation » ou « permission ».

Dans cet article, nous allons présenter ce qu’est l’allow, comment il fonctionne et comment l’utiliser efficacement dans le cadre du référencement naturel.

Allow

Qu’est-ce que l’allow ?

L’allow représente une directive qui permet aux robots des moteurs de recherche d’explorer et d’indexer certains fichiers ou répertoires d’un site web, contrairement à la directive « disallow » qui les en empêche.

Cette dernière étant plus fréquemment rencontrée, il est parfois ignoré qu’il existe aussi un « complément » permettant d’autoriser explicitement certaines parties du site, bien que la plupart du temps elles soient ouvertes par défaut. Ce contrôle s’effectue via un fichier nommé « robots.txt », qui doit se trouver à la racine du site concerné.

Fichier robots.txt et balises meta robots

Le fichier robots.txt

Pour comprendre l’intérêt et l’usage de l’allow, il est essentiel de parler du fichier robots.txt, qui est l’outil principal pour indiquer aux robots des moteurs de recherche quelles parties peuvent être explorées et indexées, et lesquelles ne le sont pas. Ce fichier doit être placé à la racine du site et est généralement accessible via l’URL « www.mon-site.fr/robots.txt ».

Le contenu du fichier robots.txt est peu complexe, il suffit d’établir des règles sous la forme suivante :

User-agent : [robot_à_cibler]
Disallow : [chemin_à_bloquer]
Allow : [chemin_autorisé]

Il convient de bien considérer chaque cas avant de créer une règle “allow” dans votre fichier. En effet, s’il est inutile d’inclure cette directive pour autoriser l’accès à toutes les pages d’un site, elle peut être utile pour modifier les actions des robots sur certains fichiers ou répertoires en particulier.

Les balises meta robots

En complément du fichier robots.txt, il est également possible d’utiliser des balises meta robots pour indiquer aux robots si une page spécifique doit être indexée et suivie, grâce aux attributs « index » et « follow ». Cette solution, à intégrer directement dans le code HTML de chaque page, permet un contrôle plus fin que le robots.txt, mais reste toutefois moins pratique pour gérer des parties entières d’un site web.

À noter : la combinaison des directives « disallow » et « noindex » se traduit par un blocage complet de l’exploration et de l’indexation de pages particulières, tandis que la combinaison « allow » et « index » autorise explicitement ces mêmes actions sur des pages précises.

Implications de l’allow en SEO

Choix des fichiers et répertoires à autoriser

Il est donc primordial de ne permettre l’accès qu’à certaines parties du site pour optimiser le référencement naturel. Voici quelques exemples :

  • Les pages contenant des informations sensibles, comme celles présentant des données personnelles ou des moyens de paiement.
  • Les documents PDF, Word ou Excel qui n’ont pas vocation à être indexés par les moteurs de recherche.
  • Les images haute résolution destinées à un usage interne uniquement.
  • Les dossiers contenant des éléments redondants, sans intérêt particulier pour les utilisateurs et les moteurs de recherche.

Ceci dit, il convient de bien étudier chaque situation avant de bloquer la possibilité d’accès à une partie d’un site