你们用什么来管理日志大小?你们将日志存档多长时间?我意识到这最终取决于网站流量和服务器硬件。我的服务器上有 4GB 的 RAM,2 个双核 2.0 GHz 处理器,运行 Ubuntu Server。我目前还没有运行任何大型网站,我想在传输之前解决所有这些细节问题。
答案1
我习惯于logrotate
每天进行轮换(对大日志进行压缩),并根据日志的内容和我需要的时间(以及日志的大小!)调整保留的天数。
您还可以将所有日志转储到中央 Splunk 服务器并删除它们。当然,这只是管理 Splunk 服务器中的磁盘使用情况的问题……
答案2
这取决于您 - 您在网站当前所在的服务器上使用哪种日志轮换方法?您认为需要日志多长时间?网站将占用多少流量?您发布的资源基本上无关紧要,RAM/CPU 只会在写入日志(您不会更改)、分析和压缩日志时真正发挥作用 - 可用磁盘空间量更为重要。
我建议每天压缩它们(所以 log.1.gz log.2.gz 等等)并删除超过一周的文件。
答案3
我使用类似 Bill 的东西,但因为我使用免费许可证,所以我每天只能索引 500 MB。所以对我来说,把所有东西都转储到 Splunk 中是不好的。相反,我将它们保存在本地并根据需要索引它们(出于故障排除目的,我平均需要 4-5 个日志)
您每天有多少日志? 需要它们的可能性有多大? 如果您有足够的空间,我建议将日志保持未压缩状态 2、3 天,然后再压缩它们。
此外,还取决于您的流量,除了每日轮换之外,如果超过某个阈值,最好轮换它们。假设 500 MB。处理一个 5 GB 的充满日志的文件几乎是不可能的。