怎样才能让百度搜索不到指定网站

2025-03-28 16:05:46
推荐回答(4个)
回答1:

  • 在网站的根目录下上传robots文件;禁止百度抓取网站所有页面。

  • robots文件的写法:

    新建一个TXT文档,命名为robots,双击打开,输入以下内容保存:

    User-agent: Baiduspider

    Disallow: /

扩展:

  • Baiduspider是指百度蜘蛛,不让百度抓取,如果是不希望所有的搜索引擎(比如还有360,搜狗,谷歌等)抓取,可把Baiduspider换成 * 号

  • Disallow: /中的/是指根目录下所有文件,如果只是不喜欢抓取一个文件或者文件夹里面的内容,换成对应的目录即可。比如/admin/是不希望抓取网站根目录下admin文件夹下面的所有内容

回答2:

在网站的根目录下设置robots文件;禁止百度抓取网站所有页面。

回答3:

这个很简单,没一个网站都有一个对应的robots协议,如果你懂一点SEO技术就会知道怎么弄了
建立一个robots.txt文件
将robots.txt文件放置在网站根目录下
添加下面这段代码到robots.txt文件中
仅禁止Baiduspider访问您的网站

User-agent: Baiduspider

Disallow: /

回答4:

  这有很多种方法的。不过一般这种情况大多出现在竞价问题,你可以去屏蔽他的ip 在百度助
  手或凤巢中去操作