作为一个站长,有时候并不希望搜索引擎能够搜索到某些页面或者站点,因为有的页面属于私密的,比如程序的登录入口,管理员入口,后台入口等等,越少人知道肯定越好,今天就跟大家分享一下,如何禁止搜索引擎搜索自己的站点页面,保护自己的站点隐私。
第一种:robots.txt方法
站点根目录中有个robots.txt,没有的话可以新建一个上传。
User-agent: * Disallow: /
禁止所有搜索引擎访问网站的所有部分
User-agent: * Disallow: /css/ Disallow: /admin/
禁止所有搜索引擎访问css 和admin 目录,将CSS或admin目录修改为你指定的文件目录或文件即可。
第二种:网页代码方法
<head>与</head>之间加入
<meta name="robots" content="noarchive">
代码,此标记禁止搜索引擎抓取网站并显示网页快照。
注:已经加了禁止代码,但是搜索引擎还可以搜索出来,因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。
文章末尾固定信息
我的微信
微信号已复制
我的微信
微信扫一扫
评论