在做SEO网站优化的时候,如果不想让搜索引擎的蜘蛛抓取收录站内的某个文件夹内容,可以在robots文件中书写相关规范。
例如,不想让搜索引擎收录根目录里的一个文件夹yang,那么相关robots文件的写法如下:
User-agent: *
Disallow: /yang
把这段协议放在txt文件夹中,重命名为robots.txt,然后上传到网站根目录即可!
用ftp工具登录服务器,找到根目录下robots.txt
User-agent:baiduspider
Disallow: /yang/
User-agent: *
Disallow: /yang/
----------------------------
补充说明:你是针对百度还是所有搜索引擎?上面是针对所有搜索引擎禁止抓取yang目录。
如果只针对百度,那么就把User-agent: *改为User-agent:baiduspider。
另外据说360搜索违反robots协议,不知真假,如果yang目录有敏感内容,建议删掉。
User-agent: *
Disallow: /yang/
User-agent:baiduspider
Disallow: /yang/