石家庄做网站,石家庄网站优化,石家庄网络推广,石家庄网络公司
当前位置:主页 > 新闻资讯 > 网站优化 >

robots.txt协议比较详细的文件写法

发表日期:2020-01-01 17:29文章编辑:网站优化浏览次数: 标签: 网站优化|    

很多建站系统,在建成网站后,都网站根目录,默认有robots.txt协议文件。在网站优化竞争日益加剧的今天,原本设立之初无优化因素的robots.txt文件也被最大化使用,掌握其写法,有备无患。
 
一:robots.txt协议文件有什么用?
 
搜索引擎访问一个网站的时候,最先访问的文件就是robots.txt。她告诉搜索引擎蜘蛛,哪些网站页面可以被抓取,哪些禁止抓取。表面来看,这个功能作用有限。从搜索引擎优化的角度来看,可以通过屏蔽页面,达到集中权重的作用,这,也是优化人员最为看重的地方。
 
以某seo站点为例,其robots.txt文件如图所示:
 
robots.txt协议文件展示
 
二:网站设置robots.txt的几个原因。
 
1:设置访问权限保护网站安全。
 
2:禁止搜索引擎爬取无效页面,集中权值到主要页面。
 
三:怎么用标准写法书写协议?
 
有几个概念需掌握。
 
User-agent表示定义哪个搜索引擎,如User-agent:Baiduspider,定义百度蜘蛛。
 
Disallow表示禁止访问。
 
Allow表示运行访问。
 
通过以上三个命令,可以组合多种写法,允许哪个搜索引擎访问或禁止哪个页面。
 
四:robots.txt文件放在那里?
 
此文件需放置在网站的根目录,且对字母大小有限制,文件名必须为小写字母。所有的命令第一个字母需大写,其余的小写。且命令之后要有一个英文字符空格。
 
五:哪些时候需要使用该协议。
 
1:无用页面,很多网站都有联系我们,用户协议等页面,这些页面相对于搜索引擎优化来讲,作用不大,此时需要使用Disallow命令禁止这些页面被搜索引擎抓取。
 
2:动态页面,企业类型站点屏蔽动态页面,有利于网站安全。且多个网址访问同一页面,会造成权重分散。因此,一般情况下,屏蔽动态页面,保留静态或伪静态页面。
 
3:网站后台页面,网站后台也可以归类于无用页面,禁止收录有百益而无一害。

如没特殊注明,文章均来自网络!转载请注明来自:https://www.yousouke.com/News/wzyh/847.html

网站设计案例推荐

热门新闻

「鹿泉seo」清楚关键词的排名机制很重要

「藁城市seo」新手seo该如何提升关键词排名?

推广竞价时创意怎样写更吸引人?

【刷百度分享】豆瓣如何推广关键词

如何快速诊断网站关键词表现

网页快照时间倒退代表降权了吗

网站SEO流量下降的原因分析

「辛集市seo」掌握这五种关键词排名方法 稳定首页排名

相关新闻

网站优化关键词标题有什么技巧呢?

SEO优化中决定网站关键词排名的关键性因

石家庄网站优化的几个主要因素?

seo研究中心:优化网站如何网页标题优化?

石家庄网站优化:网站外链建设的4个主要作用

石家庄SEO每天要做哪些工作?

推荐新闻

网站用户体验优化如何提高?

推广竞价时创意怎样写更吸引人?

「新乐市seo」网站排名优化:完整的SEO优化流程步骤

【天津seo旺道】如何让你的网站脱颖而出!

网站优化后还不被收录的诱因有哪些?

[网站优化]商城网站建设需要注意哪些问题

网站优化之竞争对手网站如何分析

【石家庄SEO】挖掘高质量外链资源的六大方法

【中国广水网】SEO技术作用大吗?