php – 如何从leechers保护我的站点地图索引文件和sitemap.xml文
发布时间:2020-12-13 13:55:36 所属栏目:PHP教程 来源:网络整理
导读:我有一个“内容”网站,一些leechers和419骗子喜欢积极地爬行,这也会产生成本和性能问题. :(我别无选择:我需要阻止他们访问站点地图文件和索引.:( 我和Facebook一样:我动态生成站点地图索引(/sitemap.php).我使用DNS反向查找(PHP)和代理检查(与Stackoverflo
我有一个“内容”网站,一些leechers和419骗子喜欢积极地爬行,这也会产生成本和性能问题. :(我别无选择:我需要阻止他们访问站点地图文件和索引.:(
我和Facebook一样:我动态生成站点地图索引(/sitemap.php).我使用DNS反向查找(PHP)和代理检查(与Stackoverflow相同)将“好”爬虫列入白名单.为了防止列入白名单的引擎使站点地图索引内容公开,我添加了该标题(Stackoverflow忘记了它): header('Content-type: application/xml; charset="UTF-8"',true); header('Pragma: no-cache'); header('X-Robots-Tag: NOARCHIVE'); 问题1:我是否遗漏了保护站点地图索引文件的内容? 问题2:问题来自生成的静态站点地图(.xml.gz)文件.我该如何保护他们?即使他们有一个“难以猜测”的名称,也可以通过简单的谷歌查询轻松找到它们(例如:“site:stackoverflow.com filetype:xml”),我对.htaccess的访问权限非常有限. 编辑:这不是服务器配置问题.首选语言是PHP. 编辑2:对不起,这是纯编程问题,但它已从SO转移,我无法关闭/删除它. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |