WordPress多站点的robots如何弄

 Joomla wordpress drupal

潜心于开源系统CMS处理计划方案产品研发执行 丰富多彩的新项目实行工作经验,从客户视角开展商品整体规划 超出200个新项目实行結果,包含各制造行业行业 丰富多彩的新项目工作经验及其个性化的新项目方案策划 技术专业的视觉效果平面图设计方案精英团队、工艺美术设计方案师 标准的商务接待实行,严苛的時间操纵 seo优化与全方位安全性确保 全面的售后服务服务与技术性学习培训标准

关心大家 在线客服手机微信
joomla中国二维码joomla中国二维码

在线客服 0030
北京市:

略微触碰过SEO的朋友都应当了解 robots协议书(也称之为网络爬虫协议书、网络爬虫标准、设备人协议书等),也便是一般加上到网站网站根目录的robots.txt 文档,它的功效取决于告知检索模块什么网页页面能够爬取,什么网页页面不可以爬取,进而提升网站的百度收录結果和权重值。

假如你的网站网站根目录还没有有 robots.txt,你可以以建立一个,实际的书写请参照 百度搜索百度百科。下边是一个基本的 WordPress robots协议书:


下边关键详细介绍一下 WordPress 全自动建立虚似 robots.txt 作用。假如你的网站网站根目录不会有真正的 robots.txt,那麼可让 WordPress 全自动建立一个虚似的 robots.txt (该文档不容易真正存有,可是浏览 robots.txt 时能够一切正常显示信息)

将下边的编码加上到主题风格的 functions.php 就可以:


* 给你的 WordPress 站点加上 robots.txt

<

*/add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) {

$output .= "Disallow: /user/"; // 严禁百度收录连接中包括 /user/ 的网页页面

return $output;}


注:假如你要加上大量的标准,请拷贝上边编码的第 7 行,随后改动一下就可以。

浏览 robots.txt 大家能看到以下內容:


换句话说,WordPress 默认设置早已加上了前 3 行标准了。

robots.txt 涉及到到网站的百度收录,因此请保证你搞清楚它的撰写方式,确保每条标准全是恰当无误的!

之上便是wordpress多站点的robots如何弄的详尽內容