shell脚本分析 nginx日志访问次数最多及最耗时的页面

当服务器压力比较大,跑起来很费力时候。我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的。 下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery 。
nginx 日志配制:

log_format main '$remote_addr - $remote_user [$time_local] $request '
'"$status" $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for" $request_time';
access_log /var/log/nginx/access.log main buffer=32k;

从上面配置,可以看到:ip在 第一列,页面耗时是在最后一列,中间用空格分隔。 因此在awk 中,分别可以用:$1
$NF 读取到当前值。 其中NF是常量,代表整个列数。
以下是分析代码的shell文件,可以存为slow.sh

#!/bin/sh
export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;
export LANG=zh_CN.GB2312;
function usage()
{ # www.jbxue.com
echo "$0 filelog options";
exit ;
}
function slowlog()
{
#set -x;
field=$;
files=$;
end=;
msg="";
[[ $ == '' ]] && field=&&end=&&msg="总访问次数统计";
[[ $ == '' ]] && field=&&end=&&msg="平均访问时间统计";
echo -e "\r\n\r\n";
echo -n "$msg";
seq -s '#' | sed -e 's/[0-9]*//g';
awk '{split($7,bbb,"?");arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i":"arr2[i]":"arr[i]":"arr[i]/arr2[i]}}' $ | sort -t: +$field -$end -rn |grep "pages" |head - | sed 's/:/\t/g'
}
[[ $# < ]] && usage;
slowlog $ $;

只需要执行:slow.sh 日志文件 1或者2
1:三十条访问最平凡的页面
2:三十条访问最耗时的页面
执行结果如下:

chmod +x ./slow.sh
chmod +x slow.sh
./slow.sh /var/log/nginx/
./slow.sh /var/log/nginx/access.log 平均访问时间统计#############################
/pages/########.php 120.456 30.114
/pages/########.php 16.161 16.161
/pages/########.php 1122.49 5.29475
/pages/########.php 28.645 4.77417
上一篇:jsp学习--如何定位错误和JSP和Servlet的比较


下一篇:JAVA实现RSA加密,非对称加密算法