评论关闭

robots.txt带来的风险及解决方法

作者:hslsmile  发表于:2013年05月07日 10:23  分类:程序   
分享到: 新浪微博 更多
 

现在有许多的优化师都在想我们我们该如何做好一个SEO,很多的人都是想了解到作为优化师该如何,现在我们就来讲讲作为优化师最重要的,现在很重南昌SEO将来给大家讲讲robots.txt带来的风险及解决:

 1. 凡事有利必有弊,robots.txt 同时也带来了一定的风险:其也给攻击者指明了网站的目录结构 和私密数据所在的位置。虽然在Web 服务器的安全措施配置得当的前提下这不是一个严重的问题,但毕竟降低了那些不怀好意者的攻击难度。

       比如说,如果网站中的私密数据通过http://www.yunduanseo.com/?p=541 访问,那 么,在robots.txt 的设置可能如下:   User-agent: * Disallow: /private/       这样,攻击者只需看一下 robots.txt 即可知你要隐藏的内容在哪里,在浏览器中输入 http://www.yunduanseo.com/?p=541  便可访问我们不欲公开的内容。

      对这种情况,一般采取如下的 办法:   设置访问权限,对/private/ 中的内容实施密码保护,这样,攻击者便无从进入。  另一种办法是将缺省的目录主文件index.html 更名为其他,比如说abc-protect.html ,这样, 该内容的地址即变成 http://www.yunduanseo.com/?p=541 ,同时,制作一个新的 index.html 文件,内容大致为“你没有权限访问此页”之类,这样,攻击者因不知实际的文 件名而无法访问私密内容。

 2.   如果设置不对,将导致搜索引擎将索引的数据全部删除。

       User-agent: * Disallow: / 上述代码将禁止所有的搜索引擎索引数据。

推荐阅读《南昌网站优化

本文固定链接: http://www.yunduanseo.com/?p=545 | 技术解决方案.品牌营销_云端科技互联网+研究发展中心

报歉!评论已关闭.