Les amis webmasters qui ont un peu de contact avec le SEO devraient connaître le protocole des robots (également appelé protocole des robots, règles des robots, protocole des robots, etc.), qui sont les robots qui sont habituellement ajouté au répertoire racine du fichier .txt du site Web, sa fonction est d'indiquer aux moteurs de recherche quelles pages peuvent être explorées et quelles pages ne peuvent pas être explorées, optimisant ainsi les résultats d'inclusion et le poids du site Web.
Tutoriel recommandé : tutoriel wordpress
Si le répertoire racine de votre site Web ne contient pas encore robots.txt, vous pouvez créez-en un, veuillez vous référer à l'Encyclopédie Baidu pour les méthodes d'écriture spécifiques. Ce qui suit est un protocole de base des robots WordPress :
User-agent: * Disallow: /feed/ Disallow: /trackback/ Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /xmlrpc.php Disallow: /wp- Allow: /wp-content/uploads/ Sitemap: http://example.com/sitemap.xml
Ce qui suit présente principalement la fonction de WordPress créant automatiquement des robots.txt virtuels. Si le vrai robots.txt n'existe pas dans le répertoire racine de votre site Web, vous pouvez laisser WordPress créer automatiquement un robots.txt virtuel (ce fichier n'existera pas réellement, mais il pourra être affiché normalement lors de l'accès à http://nom de domaine /robots.txt)
Ajoutez simplement le code suivant au functions.php
du thème :
/** * 为你的 WordPress 站点添加 robots.txt * https://www.wpdaxue.com/add-robots-txt.html */add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) { $output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面 return $output;}
Remarque : Si vous souhaitez ajouter plus de règles, veuillez copier la ligne 7 de le code ci-dessus, puis modifiez-le simplement.
Visitez http://nom de domaine/robots.txt On peut voir le contenu suivant :
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /user/
Autrement dit, WordPress a ajouté les 3 premières lignes de règles par défaut.
Robots.txt implique l'inclusion de sites Web, alors assurez-vous de comprendre comment il est écrit et assurez-vous que chaque règle est correcte !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!