找回密码
 注册
查看: 875|回复: 0

SEO总结:robots细节优化都包括哪些地方(一)

[复制链接]
发表于 2011-9-4 10:03:10 | 显示全部楼层 |阅读模式
网站的优化是一个系统工程,有很多东西都必须实验研究和总结。对于一些稍大规模的网站,一些简单的SEO细节就能对整体产生影响,有时也会直接影响网站的收录、转化甚至盈利。所以对于上规模的网站而言,一些SEO细节是不得不提,不得不重视的。今天和大家总结关于robots的几点知识,希望能让大家受益。  
robots文件的使用很多站长都熟悉,但在细节上未必在意,也未必精通。它包含的许多知识点搜索引擎并没有给出详尽的说明或者使用方法。在经过大量总结和参看资料的基础上,本文和大家总结操作robots文件时应该注意的细节。  
第一、user-agent的数量  
一般网站的robots.txt文件中不要出现多个user-agent记录,一般都是一个为宜,但是如果一个都不出现,也是被允许的。  
第二、spider蜘蛛大小写  
搜索引擎蜘蛛在查看robots的时候会忽略大小写,但是为了保险,也有网站分别写了两个不同的百度蜘蛛,比如淘宝。  
第三、allow与disallow顺序  
顺序的问题会导致抓取的错误,如果把allow放置后边,有时候就会出现想要收录的内容不被收录,举例说明:  
想要搜索引擎唯一收录a文件夹下的b.html,那么则要这么写:  
Allow:/a/b.html  
Disallow:/a/  
如果顺序写反,第一个匹配成功之后,b.html就不会被收录。  
第四、记得反斜杠  
反斜杠代表的意思是根目录,所以Disallow:/代笔的意思就是禁止收录一切页面和文件夹的内容。这个反斜杠很重要,少了反斜杠就代表允许搜索引擎收录全部页面。  
第五、#表示注释  
在robots.txt中,#开头均被视为注释,这和unix中的惯例是一样的。不要一不小心把通配符写错了。  
第六、不要出现空格  
有些robots文件中前边会不注意加一个空格,这样的问题应该尽量避免,否则一些机器人就不理解意思。  
好了,篇幅有限,本文就先写这六个方面吧,下文还有目录大小写、meta累加取值、采纳限制性最强的参数等方面的介绍,都是十分有用处的细节,robots.txt虽然优化的主要方向,但是它确实必需重视的一个方向,如果写的有问题,对整个网站的收录都会造成影响。我们不应该随波逐流,别人怎么写我们就怎么写。而是理解其中的含义,写出符合自己网站的robots文件。  
本文来自左旋360减肥咖啡(http://www.kfzxrj.com),转载请保留链接,谢谢!
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

QQ|Archiver|手机版|小黑屋|鼠窝站长论坛

GMT+8, 2025-1-2 04:05 , Processed in 0.048178 second(s), 17 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表