Nginx日志切割
Nginx日志没有类似Apache这样通过cronlog或者rotatelog对日志分割处理的能力。实际的问题是线上的日志如果不按天进行切割,那么日志就会越来越大,可以达到几G、几十G甚至几百G。这样如果需要在日志中查找问题的话,要花费很长的时间。
我们运维人员可以利用定时脚本来实现nginx日志的按天切割,并进行压缩归档。
#!/bin/bash
logs_path=/usr/local/nginx/logs
Yesterday=`date -d yesterday +%Y%m%d`
cd $logs_path && mkdir -p log_pre/$Yesterday
for i in access.log error.log
do
gzip -c $i > log_pre/$Yesterday/${i}_${Yesterday}.gz
echo " " > $i
done
find log_pre -ctime +60 | xargs rm -rf
脚本中的日志目录可以根据实际情况进行更改。日志保留的时间我这里设置的是60天。
然后把这个脚本加入到定时任务中,每天0点执行,就实现了nginx日志按天切割的目的了。
还没有评论,来说两句吧...