大容量web日志,awstats力不从心呀!

大容量web日志,awstats力不从心呀!

web日志每天都超过6G以上,用awstats统计都要1天甚至更多的时间,速度很慢呀,有没有更加好的方法

WebTrends倒是速度比awstats快,不过是收费的,而且是在windows环境,不知道linux环境可有替换的解决方案,或者优化awstats的方法

我发现awstats似乎没有发挥多cpu的优势,经常是一个cpu100%忙,而另外一个空闲
你一次处理这么大的,速度慢,那是肯定的,绝对的,没有话说的。

你何不分隔成时间段处理呢?

或者分割成多大一个文件,再分别处理。
让awstats每小时处理一次。
用webalizer吧
我也想1小时处理一次,但我们用了cdn服务,第2天才能得到日志,倒是分割日志是个办法!
我懒得找程序。自己做了个简单的,凑合用了。

http://www.kmwhedu.net/count/index.php?user_id=1
webalizer 这个是用C写的,3000万行记录,10分钟处理完。
awstats 是php 的,效率不行。要么就把文件分隔开了做,每小时一次,也比较痛苦,机器负载很大。
我也遇到过。。最后没一个可以的。。因为太大 吃不消。。所以找了一个AGENT SERVER方式的
在网页里加代码 用一条SERVER区统计的
还一种可行的就是分割地址。。但是那台分析日志的服务器就可怜了。。。而且很多程序分析分割的日志。。无法叠加。。则阳就统计不出整天的


QUOTE:
原帖由 LuckSnail 于 2006-12-1 12:24 发表
webalizer 这个是用C写的,3000万行记录,10分钟处理完。
awstats 是php 的,效率不行。要么就把文件分隔开了做,每小时一次,也比较痛苦,机器负载很大。

有PHP的?给个地址我下个看看
晕,记错了, 是perl 的