目前流行的网站被黑,是在相应的asp,htm,js等文件中,插入以js调用方式 解决方法: 1):IIS中禁止写入和目录禁止执行的功能,二项功能组合,可以有效的防止ASP木马。
2):可以在服务器、虚拟主机控制面板,设置执行权限选项中,直接将有上传权限的目录,取消ASP的运行权限。
3):创建一个robots.txt上传到网站根目录。Robots能够有效的防范利用搜索引擎窃取信息的骇客。 ================================================================ 如何写robots.txt?
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
允许所有的robot访问
User-agent: * Disallow:
或者也可以建一个空文件 "/robots.txt" file
禁止所有搜索引擎访问网站的任何部分
User-agent: * Disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
User-agent: * Disallow: /01/ Disallow: /02/ Disallow: /03/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBot Disallow: /
只允许某个搜索引擎的访问(下例中的Crawler)
User-agent: Crawler Disallow:
User-agent: * Disallow: /
|