每天产生40多G的web日志

每天产生40多G的web日志

我用awstats来分析日志,但每天产生具大的日志,使awstats分析起来非常慢,从每晚2点30执行awstats到第二天晚上能分析完就不错,要分析将近20个小时之久

不知道有没有分析日志快一点的工具,希望各位高手可指点一下,在此多谢了。
你们流量很大啊
可以自己用脚本语言(比如Perl)定制一个么?这样可能速度会快一点。
好像weblizer快一些。。还有日志不要可以过滤一部分内容,比如图片呀什么不写进日志,可以让日志小很多
这么大的日志建立,建议方法如何

1.隔10m 20m 30m or 1h进行一次日志truncate,truncate之后,马上对旧的日志文件进行分析.即可.

2.对于这么大的日志文件.使用什么分析工具,都不会有好的效率.关键是采用什么样的办法来处理.就如大家都使用一只笔.但有的人写字很漂亮.而有的人写的字很丑.
建议切分日志。每小时产生一个日志文件。并rsync到日志中心去。日志中心一台专门的性能强劲的服务器做日志分析。
这么大的日志确实没有一个很好合理的办法啊!