G
deux.io/
news
/
decouvrez-comment-utiliser-le-fichier-robots-txt-sur-vos-sites-magento-wordpress-et-prestashop-pour-une-meilleure-optimisation-seo

Comprendre et implémenter le fichier robots.txt sur Magento, WordPress et Prestashop

Résumé de l'article :
SEO

**Comprendre l'importance et l'utilisation du fichier robots.txt : guide pour Magento, WordPress, et Prestashop** Avoir un blog, un site e-commerce ou un site d’entreprise peut soulever plusieurs questions sur l'optimisation pour les moteurs de recherche. Un des premiers pas vers une meilleure visibilité est la création et l’utilisation efficace du fichier robots.txt. Cet article vous guide à travers sa définition, son utilité et son implémentation sur les plateformes populaires telles que Magento, WordPress, et Prestashop. Le fichier robots.txt est essentiel pour contrôler l'exploration de votre site par les robots des moteurs de recherche. Il permet de spécifier quelles pages ne doivent pas être indexées, économisant ainsi du temps et des ressources pour les crawlers comme Google. Cela optimise l'efficacité du référencement en concentrant l’indexation sur les pages à forte valeur ajoutée. En plus, l’article offre des exemples concrets de configuration de fichiers robots.txt pour chaque plateforme, mettant en lumière les spécificités et les recommandations pour chacune d'elles. Des astuces sur la gestion des sitemaps et les précautions à prendre lors de refontes de sites sont également partagées. Pour les curieux du SEO technique et les propriétaires de sites, cet article est un incontournable pour démarrer du bon pied dans l’optimisation de l’exploration et de l’indexation de leur contenu.

Tout lire

Si vous avez un blog, une boutique en ligne ou un site professionnel sous Magento, WordPress ou Prestashop, vous vous demandez sûrement comment améliorer votre positionnement sur Google et autres moteurs de recherche. La première étape consiste à créer et utiliser correctement un fichier robots.txt.

Le fichier robots.txt est fondamental pour gérer l'exploration de votre site par les robots des moteurs de recherche. Il permet de spécifier quelles pages ne doivent pas être indexées, optimisant ainsi les ressources utilisées par les crawlers comme Google. Cela aide à concentrer l'indexation sur les pages les plus importantes.

De plus, cet article propose des exemples concrets de configurations de fichiers robots.txt pour chaque plateforme, avec des recommandations spécifiques. Des astuces sur la gestion des sitemaps et les précautions lors des refontes de sites y sont également partagées.

Pour les propriétaires de sites et les amateurs de SEO technique, cet article est essentiel pour bien démarrer dans l'optimisation de l'exploration et de l'indexation de leur contenu.

Robots.txt : Qu'est-ce que c'est ?

Le fichier robots.txt

Le fichier robots.txt est un fichier utilisé par les robots des moteurs de recherche pour explorer le contenu d'un site web. Il sert principalement à indiquer aux moteurs de recherche quelles pages ne doivent pas être indexées. Par exemple, vous pouvez demander à Google de ne pas indexer la page de mentions légales, qui n'apporte pas de valeur ajoutée pour l'utilisateur. De plus, il peut aussi indiquer le sitemap du site, permettant aux robots de trouver facilement les pages importantes.

Pourquoi donner ce fichier aux moteurs de recherche ?

On pourrait croire que plus de pages indexées signifie une meilleure visibilité sur Google. Cependant, il est crucial que le contenu indexé soit pertinent pour l’utilisateur. Sinon, vous faites perdre du temps aux robots des moteurs de recherche comme Google. Le fichier robots.txt est donc un moyen de leur faire gagner du temps et de l’argent.

En résumé :

  • Le fichier robots.txt sert à indiquer aux moteurs de ne pas indexer certaines pages ou sections du site.
  • Google et les autres moteurs tiennent compte de ce fichier.
  • Créer et gérer un fichier robots.txt efficace aide les moteurs de recherche et améliore votre SEO.

Astuce : Lors de la refonte de votre site, utilisez un fichier robots.txt pour bloquer l'accès à la version en développement. N'oubliez pas de le modifier une fois la refonte terminée, sinon vos pages ne seront pas indexées.

À quoi ressemble un fichier robots.txt ?

Le fichier robots.txt est un simple fichier texte (.txt) que vous pouvez créer avec n’importe quel éditeur de texte. Il doit être placé à la racine de votre site, comme ceci : monsite.com/robots.txt.

Exemple de fichier robots.txt :

User-agent: *
Disallow: /repertoire-a/
Disallow: /repertoire-b/

Note : Certains robots ne respectent pas ce fichier, mais les principaux moteurs comme Google et Bing le prennent en compte.

Où placer le fichier robots.txt ?

Que vous utilisiez Magento, WordPress, Prestashop ou un autre CMS, placez toujours le fichier à la racine de votre site : http://votredomaine.fr/robots.txt. Utilisez un client FTP comme FileZilla pour l’envoyer à l'emplacement correct.

Robots.txt pour Magento

Magento ne gère pas automatiquement le fichier robots.txt. Vous devez donc le créer et le configurer manuellement en fonction de votre site.

Exemple de configuration :

User-agent: *
Disallow: /404/
Disallow: /app/
Disallow: /cgi-bin/
Disallow: /downloader/
Disallow: /errors/
Disallow: /includes/
Disallow: /js/
Disallow: /lib/
Disallow: /magento/
Disallow: /pkginfo/
Disallow: /report/
Disallow: /scripts/
Disallow: /shell/
Disallow: /skin/
Disallow: /stats/
Disallow: /var/
Disallow: /catalogsearch/result/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/
Disallow: /catalogsearch/
Disallow: /checkout/
Disallow: /control/
Disallow: /contacts/
Disallow: /customer/
Disallow: /customize/
Disallow: /newsletter/
Disallow: /poll/
Disallow: /review/
Disallow: /sendfriend/
Disallow: /tag/
Disallow: /wishlist/
Disallow: /index.php/catalogsearch/result/
Disallow: /index.php/catalog/product_compare/
Disallow: /index.php/catalog/category/view/
Disallow: /index.php/catalog/product/view/
Disallow: /index.php/catalogsearch/
Disallow: /index.php/checkout/
Disallow: /index.php/control/
Disallow: /index.php/contacts/
Disallow: /index.php/customer/
Disallow: /index.php/customize/
Disallow: /index.php/newsletter/
Disallow: /index.php/poll/
Disallow: /index.php/review/
Disallow: /index.php/sendfriend/
Disallow: /index.php/tag/
Disallow: /index.php/wishlist/
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /STATUS.txt
Disallow: /.js$
Disallow: /.css$
Disallow: /.php$
Disallow: /?p=*&
Disallow: /?SID=
Disallow: /*?limit=all

Robots.txt pour WordPress

Même principe que pour Magento, ajustez le fichier en fonction des parties de votre site que vous souhaitez ne pas indexer.

Exemple :

User-agent: *
Sitemap: votre_sitemap.xml
Disallow: /cgi-bin
Disallow: /wp-login.php
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /category/
Disallow: */trackback
Disallow: */feed
Disallow: /comments
Disallow: /?*
Disallow: /.php$
Disallow: /.js$
Disallow: /.inc$
Disallow: /.css$
Disallow: /.gz$
Disallow: /.swf$
Disallow: /.wmv$
Disallow: /.cgi$
Disallow: /*.xhtml$

Robots.txt pour Prestashop

Prestashop génère par défaut un fichier robots.txt en excluant les URL non-publiques. Vous pouvez le modifier en ajoutant ou supprimant des règles selon vos besoins.

Vous pouvez accéder à ce fichier via FTP à la racine de votre site. Une fois généré, il suffit d’ajouter les règles nécessaires.

Merci d’avoir lu cet article. Si vous avez des questions, n’hésitez pas. Prochainement, nous aborderons les différences entre no follow, follow, index et no index !

D'autres articles qui devraient vous plaire

SEO

Réévaluation critique : les dangers de l'usage intensif des publicités pour les entreprises levant des fonds

Stéphanie Docher, associée chez DEUX.IO, partage une réflexion importante suite à un échange avec un prospect : les startups qui lèvent des fonds gaspillent souvent ces ressources en publicité payante, dans l'espoir d'obtenir un retour sur investissement rapide. Toutefois, cette stratégie peut s'avérer risquée et coûteuse à moyen terme. Selon Stéphanie, il est essentiel d'adopter une approche plus diversifiée et durable en matière d'acquisition de clients, notamment via le SEO, l'emailing et d'autres canaux. Elle met également l'accent sur l'importance de l'optimisation des dépenses publicitaires et des stratégies de rétention post-acquisition. Cette analyse est enrichie par des retours d'expérience de professionnels du secteur, apportant des perspectives variées et pertinentes.

Lire l'article
SEO

Guide en 5 étapes pour construire l'identité de votre marque en SEO

L'article explique l'importance de créer une entité de marque solide pour améliorer la visibilité organique dans les moteurs de recherche. Avec l'évolution des modèles de langages et des expériences génératives comme SGE et Bard, le SEO ne se limite plus à uniquement cibler les utilisateurs humains, mais inclut également les machines. Une entité de marque bien définie et fiable est cruciale pour s'assurer d'être considéré dans les résultats de recherche. L'article propose un guide en cinq étapes pour établir une telle entité : 1. Obtenir le soutien de la direction, particulièrement du directeur marketing. 2. Définir et aligner la biographie de l'entité de marque pour qu'elle soit cohérente. 3. Corroborer la pertinence thématique par des répétitions sur des plateformes autorisées. 4. Utiliser des balises structurées pour toutes les informations pertinentes sur la marque. 5. Établir des relations avec d'autres entités pertinentes pour renforcer la notoriété et la pertinence de la marque. En fin de compte, l'article souligne que construire une entité de marque forte est essentiel pour apparaître dans les résultats générés par l'IA et sur les différentes surfaces de Google, car cela augmente les chances que votre marque soit visible et présentée de manière cohérente et positive aux utilisateurs.

Lire l'article
SEO

Quand Faut-il Utiliser ChatGPT et Quand Privilégier Google ?

**Quand Utiliser ChatGPT et Quand Utiliser Google : Guide pour les Pros du Marketing Digital** Avec l'essor des technologies d'IA, les professionnels du marketing digital ont désormais accès à des outils novateurs comme ChatGPT. Cependant, il est essentiel de savoir quand utiliser ce modèle de langage avancé et quand privilégier les moteurs de recherche traditionnels comme Google. ChatGPT se distingue par sa capacité à répondre aux requêtes informationnelles de manière conversationnelle et précise, ce qui en fait une ressource inestimable pour des questions ouvertes telles que "Quelle est la capitale de la France ?" ou "Quels sont les symptômes du COVID-19?". Toutefois, pour les requêtes transactionnelles telles que "acheter des chaussures en ligne" ou "réserver un vol pour New York", Google reste la meilleure option. L'article explique également comment optimiser votre site web pour tirer parti des deux technologies, en décrivant les stratégies pour les requêtes informationnelles et transactionnelles. En intégrant ChatGPT, les entreprises peuvent améliorer l'engagement client, offrir un support en temps réel et personnaliser leurs campagnes marketing. En conclusion, ChatGPT et Google occupent des rôles complémentaires dans le paysage digital actuel. Comprendre les forces et les limites de chacun peut aider les professionnels du marketing à maximiser leurs résultats. Pour un aperçu complet et détaillé, ne manquez pas de lire l'article!

Lire l'article
Agence TheTribe - Florent Lucas
Florent Lucas
Directeur Marketring & Commecial @TheTribe

J'ai bossé 6 mois avec Deux.io sur 4 thématiques : SEO, SEA, Outreach et Social Selling. Hasard ou non, on ne sait jamais vraiment ce qu'il se passe côté growth ;), notre nombre de demandes entrantes est nettement reparti à la hausse en ce début d'année.Nous avons notamment pu cranter sur 2 sujets : le SEA, on en faisait un peu auparavant, mais on jetait surtout de l'argent par les fenêtres, et l'outreach, où nous avons nettement progressé sur les séquences, avec des bons taux de retour.Je suis particulièrement satisfait du fait que nous ayons pu se réapproprier l'ensemble des travaux réalisés et diffuser une culture Growth au sein de l'équipe acquisition.Côté Deux.io, Steph a une approche commerciale top, et j'ai apprécié son soucis de nous proposer un accompagnement sur-mesure nécessaire à notre contexte, et John un entrepreneur, hacker, magicien du web avec pleins de bonnes idées faciles à implémenter. Le reste de l'équipe, Emilie, Guillaume notamment nous ont également parfaitement accompagné.Bref, je suis fan, et je recommande ++

adelaide Aujay - Directrice Marketing
Adelaide Aujay
Directrice Marketing @horiz

Agence growth hacking ayant à coeur d’accompagner efficacement ses clients pour qu’ils atteignent leurs objectifs de croissance et de rentabilité. J’ai réellement apprécié leur écoute et leur capacité à mettre en place des plans d’actions à court terme et plus long terme; et aussi à revoir leur copie en fonction des 1er résultats ou des changements de priorités business. Mention spéciale à Jonathan, expert SEO, qui en plus prend le temps de former sur son métier.

laura Lhoiry - Directrice Marketing
Laura Lhoiry
Directrice Marketing @Nomadia

Très bonne expérience avec l'équipe de Jonathan, des conseils avisés et un partage de best practices. Nul doutes que les résultats de la prestation seront au rendez-vous !

Co-fondateur @HelloZack - Pierre-Emmanuel Saint-Esprit
Pierre-Emmanuel Saint-Esprit
Co-fondateur @HelloZack

Focus execution, Boost efficacement votre acquisitionÉcoute et compréhension, au top.

Samuel
Gabriel Roucel - Volum
Gabriel Roucel
CEO @Volum

Nous avions déjà une bonne croissance, mais souhaitions mieux comprendre ce qui marche, pour qui et pourquoi afin de rapidement déployer les stratégies growth les plus efficaces sur la bonne cible.

CEO @CocoonSpace - Sylvain Chevet
Sylvain Chevet
CEO @CocoonSpace

J’avais déjà une petite idée de mes cibles, canaux and co. deux.io a testé une dizaine de stratégies growth sur mesure. Nous avons identifiés 3 stratégies qui fonctionnent super bien qu'ils sont entrain de scaler !

Vincent Gouedard - Fincome
Vincent Gouedard
CEO & Co-founder @Fincome

Très bon accompagnement. Nous avons apprécié la rigueur et l’expertise des équipes deux.io. En 3 mois, nous avons collecté suffisamment de données pour mieux comprendre et appréhender notre nouveau marché.

Directeur @Wacano Paris - Vivian Bertin
Vivian Bertin
Directeur @Wacano Paris

Avant j’avais un bagage théorique en Growth maintenant je sais scraper méthodiquement n’importe quel site.Non seulement la team Deuxio vous pousse sur chaque jour de formation à exécuter des actions  concrètes mais elle livre également toutes ses techniques secrètes pour avoir plus d’impact.A conseiller chaudement à tout acteur de l’écosystème startup !

Matthieu BURIN - CEO & Co-founder
Matthieu Burin
CEO & Co-founder @Hemea

Super agence, très bon conseil dans l'air du temps, testée et approuvée plusieurs fois, merci !

Edouard Thieuleux - Abc
Edouard Thieuleux
Founder @AbcSupplyChain

Super agence de growth marketing. Ils vont à l'essentiel, maîtrise toutes les plateformes et ajuste très rapidement en fonction des prix et tendances. Merci à Jonathan et Brice pour le suivi de qualité.

Raphael Siciliani -
Raphael Siciliani
Business Development Manager @Scribe

Après avoir travaillé avec de nombreuses agences growth, Deux.io est de loin la plus professionnelle et compétente. Un plaisir de travailler avec une équipe humaine et accessible vraiment impliqué dans la reussite de notre entreprise.

Arthur
3 articles et 1 outil Growth chaque semaine

Inscrivez-vous à La Growth News dès maintenant et débloquez un accès exclusif à des outils développés par l'équipe de deux.io !

100% concrêt, 0% spam, 1x semaine
Merci, vous allez recevoir un e-mail de confirmation.
Oops! Something went wrong while submitting the form.