请教apache / squid 反迅雷方案

请教apache / squid 反迅雷方案

迅雷猖獗,有没有啥解决办法?
关注
严重关注。
别人,做小偷站的是偷偷摸摸的盗链,这东西丫的是明目张胆的抢,除了浪费带宽,被抢者没一点好处,
关注
下载的地址,可以考虑经常变动。
我采用动WEB与防火墙联合的方式
只有通过正常页面浏览的客户才被授权访问提供下载的服务器。
比如单台服务器来说,WEB服务设在80端口,其他提供重型文件服务的就用其他端口,
防火墙上对外全开放的只有80端口,其他端口用一个授权地址表来控制,只有通过首页或者其他页面访问的会话才会加入授权地址表,地址表可以设置超时的自动移出功能。

用上了这个我的服务器轻松了很多,没搞之前几乎给他们拉垮了,成千上万的连接,上行带宽完全塞满。


QUOTE:
原帖由 Momoass 于 2006-12-19 02:21 发表
我采用动WEB与防火墙联合的方式
只有通过正常页面浏览的客户才被授权访问提供下载的服务器。
比如单台服务器来说,WEB服务设在80端口,其他提供重型文件服务的就用其他端口,
防火墙上对外全开放的只有80端口, ...

太复杂了....

确实不好搞,迅雷下载也没有特征可以抓
限制ip的连接数可以起到一定作用,另外可以设置referer规则


QUOTE:
原帖由 ipaddr 于 2006-12-18 13:26 发表
下载的地址,可以考虑经常变动。

可否进一步考虑动态生成下载地址?用一后台程序实现?!
我的建议比较简单..

使用程序实现下载地址的随时变更...

1小时...或者半天..换一次下载地址...

简单/方便.