最近又一次惨痛的 百度盗链问题

最近又一次惨痛的 百度盗链问题

最近遇到百度mp3盗链问题,
百度那流氓特别狠,每次都能搞去几十M的带宽,今又折腾半宿,而且网站一晚上算是停掉了。
1。大家有好的解决方法吗?我是linux+apache
2。linux有没有什么命令把连接数最多的IP列举出来?

发现被盗链,马上改文件名。
限制连接数吧

再加上防盗链处理,呵呵

再盗的难度就很大了吧
百度好像支持robots.txt, 自己在网站根目录下写一个就ok了
好像只有百度不支持robots。txt


QUOTE:
原帖由 harbinbeer 于 2007-6-29 21:12 发表
好像只有百度不支持robots。txt

不会吧, 除非百度说话更fp一样
http://www.baidu.com/search/robots.html
baidu的蜘蛛的确不太遵守robots.txt....
说的一套,做的一套,用 .htacess 文件对 Baidu的蜘蛛进行拦截吧
百度不是很严格的遵守ROBOTS的。用AWSTATS一统计就知道了。其它的搜索引擎,如果你在ROBOTS中禁止访问,他们是先读取ROBOTS,然后就停止搜索。BAIDU是照来不误。
你可以用 SetIfEnv 来对付盗链和蜘蛛
楼上的能不能具体点?谢谢