答案1
我一直在为我们的大型农场使用 AWStats,尽管我首先用 LogParser 清理文件(删除健康检查,合并农场文件(不要排序!) 等。我们的文件大小不如您,但肯定在 300MB 范围内,AWStats 运行良好。我们不需要实时性,因此处理在晚上在作业服务器上进行,统计数据每天都准备好。我们有大约 10 个不同网站的统计数据。如果您想深入到子网站,它会变得有点混乱,但我们已经使用 AWStats 大约五六年了,没有出现任何问题。
很想使用 Google Analytics,但它不适合内部网站(安全/隐私原因)。
答案2
我一直在努力寻找一个好的程序来处理大型日志文件。大多数工具在处理这种大小的文件时都会失败。
DeepMetrix LiveStats(不再是活跃产品)将在该日志大小附近失败。
SmarterStats (www.smartertools.com) 很接近了,你可以试试。它会继续进行日志处理,但由于它有自己的文件系统数据库,所以查看报告的速度很慢。
Analog 可以处理大量日志,我相信它适用于这种大小,尽管我几年没有尝试过了。
即使是 Urchin 也难以处理大型日志文件。它或许可以处理您的大小,但最终也会超出峰值。
Log Parser 在解析大型日志文件方面非常出色,但您需要构建自己的报告。我已经在几个非常大的网站上恢复了一些自定义报告。
Google Analytics 也是一个值得考虑的选择。对于像您这样的情况,这是一个可行的选择。