robots是什么?robots有什么用-robots.txt怎么写

    SEO基础 wuya 73次浏览 已收录 0个评论

    很多人做了很久的seo,但是不知道搜索引擎的蜘蛛来了都爬行了,哪些栏目,哪些链接,有多少有效的抓取,抓取量都浪费在哪些地方,看似抓取很多,但是很多地方都是在浪费抓取,例如:.js,.asp.,.png,.%, 等等,或者是抓取的是没用的栏目,例如你是dedecms,或者WordPress,蜘蛛大量的抓取的是模板的信息,这就浪费了很多抓取,而且让搜索引擎抓取了很多重复的,低质量的内容。这时候适当的利用robots协议,可能让你的网站变的更好。

    robots是什么?robots有什么用-robots.txt怎么写

    一:robots.txt协议文件有什么用?

    搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。

    以某seo站点为例,其robots.txt文件如图所示:

    二:网站设置robots.txt的几个原因

    1:设置访问权限保护网站安全。

    2:禁止搜索引擎爬取无效页面,集中权值到主要页面。

    三:怎么用标准写法书写协议?

    User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。

    Disallow表示禁止访问。

    Allow表示运行访问。

    通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。

    robots是什么?robots有什么用-robots.txt怎么写

    四:robots.txt文件放在那里?

    此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。

    五:哪些时候需要使用该协议。

    1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。

    2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。

    3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。


    学海无涯 , 版权所有丨如未注明 , 均为原创丨转载请注明robots是什么?robots有什么用-robots.txt怎么写
    喜欢 (0)
    发表我的评论
    取消评论
    表情 加粗 删除线 居中 斜体 签到

    Hi,您需要填写昵称和邮箱!

    • 昵称 (必填)
    • 邮箱 (必填)
    • 网址