Nous utilisons des cookies pour améliorer votre expérience de visite de notre site Web. Pour plus d'informations, Cliquez ici.
Mentions légales
×

Vue d'ensemble de la vie privée

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.

Vous pouvez régler tous vos paramètres de cookies en naviguant sur les onglets sur le côté gauche.

Nom du cookieAcceptez
GDPR PRO - Règlement sur la protection des données générales - tout en 1 Ce module aide le site adevenir conforme à la norme RGPD en ajoutant les fonctionnalités conformes à la loi.
unknown

Robots.txt Prestashop : quels sont les problemes et solutions ?

tout servces prestashop

1. Absence du fichier robots.txt dans PrestaShop

Dans PrestaShop, il arrive que le fichier robots.txt ne soit pas généré automatiquement après l’installation, ce qui laisse le site sans directive SEO de base.

Pour résoudre cela, allez dans Trafic & SEO > Moteurs de recherche puis cliquez sur "Créer le fichier robots.txt". Ce fichier doit être placé à la racine du site, afin que les moteurs puissent le lire dès leur première visite.


2. Mauvais droits d’accès sur le fichier robots.txt PrestaShop

Le fichier robots.txt peut ne pas être accessible aux moteurs de recherche à cause de permissions incorrectes sur le serveur.

Vérifiez les droits via FTP ou SSH et attribuez des permissions en lecture (644). Assurez-vous aussi que le fichier est bien visible publiquement à l’adresse votresite.com/robots.txt pour garantir une indexation correcte.


3. robots.txt trop restrictif bloquant des pages utiles dans PrestaShop

Par défaut, PrestaShop peut bloquer certaines ressources utiles (images, scripts) dans son fichier robots.txt, ce qui nuit au référencement naturel.

Éditez le fichier et retirez les lignes qui bloquent /img/, /themes/ ou /modules/ si ces éléments sont nécessaires à l’affichage de la page. Cela permet aux moteurs d’explorer toutes les ressources front-end nécessaires.


4. robots.txt autorisant l’indexation de pages inutiles dans PrestaShop

Certaines pages techniques (recherche, compte client, panier) ne devraient pas être indexées, mais ne sont pas bloquées par défaut dans PrestaShop.

Ajoutez manuellement les directives Disallow: /search, Disallow: /login, Disallow: /cart dans le fichier pour éviter que ces pages soient scannées par Google. Cela améliore la qualité de l’indexation.


5. Conflits entre le sitemap et robots.txt dans PrestaShop

Il peut y avoir une incohérence entre le fichier robots.txt et la déclaration du sitemap, ce qui perturbe l’exploration du site.

Ajoutez une ligne Sitemap: https://votresite.com/1_fr_sitemap.xml en bas du fichier. Cela aide Google à mieux structurer l’indexation et à prioriser les pages importantes de votre boutique.


6. robots.txt modifié par un module tiers dans PrestaShop

Certains modules SEO ou de sécurité modifient automatiquement le fichier robots.txt, supprimant ou ajoutant des règles de façon non maîtrisée.

Désactivez temporairement ces modules et restaurez une version manuelle du fichier. Vérifiez régulièrement le contenu du robots.txt pour garder le contrôle total sur l’indexation et éviter des erreurs critiques.


7. Mauvaise gestion des versions linguistiques dans robots.txt PrestaShop

En boutique multilingue, le fichier robots.txt peut ne pas prendre en compte les versions par langue, laissant Google indexer des contenus en double.

Ajoutez des règles spécifiques par langue (ex : Disallow: /fr/recherche, Disallow: /en/search) pour chaque version du site. Cela évite les problèmes de contenu dupliqué et améliore le SEO multilingue.


8. robots.txt non mis à jour après changement de structure PrestaShop

Lors de la refonte ou de la migration d’un site PrestaShop, le fichier robots.txt reste souvent inchangé, ce qui peut poser des problèmes d’exploration.

Analysez la nouvelle arborescence et modifiez le fichier en conséquence. Utilisez Google Search Console pour vérifier que les pages bloquées correspondent bien à vos intentions SEO.


9. robots.txt absent de l’index Google pour une boutique PrestaShop

Même si le fichier robots.txt est en ligne, Google peut ne pas l’avoir encore pris en compte, surtout sur un nouveau site PrestaShop.

Soumettez manuellement l’URL du fichier via Search Console, onglet "Exploration > robots.txt tester". Cela accélère la prise en charge du fichier par Google et permet de corriger les erreurs d’analyse éventuelles.


10. robots.txt empêchant l’utilisation de services externes dans PrestaShop

Des services comme Google Shopping ou Facebook Pixel peuvent être bloqués si le fichier robots.txt empêche l’accès à certaines ressources JavaScript ou API.

Vérifiez les besoins d’accès dans la documentation des services tiers et autorisez les chemins nécessaires dans le fichier. Cela garantit le bon fonctionnement des intégrations marketing avec votre boutique PrestaShop.