一个普通的测试员,一颗躁动的心。。。 nginx日志的python分析脚本 因为容量场景需要统计峰值时间段的业务分布情况,即是统计每个接口请求以及对应的数量,这里记录下之前的实现脚本。 nginx的日志格式如下: 代码如下: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28...
通过上述Shell脚本,我们可以快速、全面地分析Nginx日志,了解网站的访问情况和性能表现。这不仅有助于我们发现潜在问题,还能为后续的优化工作提供有力的数据支持。在实际应用中,你可以根据自己的需求,进一步扩展和定制这个脚本。 脚本获取方式 上述脚本已经上传上传到gitee,有需要的小伙伴可以自行获取。gitee上的仓库主要是...
一,解析日志得到访问量最高的100个ip地址: awk'{print $1}'www.access_log |sort|uniq-c |sort-n -k 1 -r |head-n 100 效果如图: 二,解析日志得到访问量最高的10个url 命令 [root@blog 27]# awk '{print $7}' 20240827_access.log|sort|uniq -c|sort -rn|head -10 返回例子: 2404 / 323...
1、分析访问排名前N的ip地址。 2、分析访问排名前N的url。 3、分析访问排名前N的目标url。 4、分析访问排名前N的终端类型。 5、自动匹配排名前N的ip的归属地(没有国外业务的注意了,哈哈。) 注意:日志文件和分析脚本放在一个目录即可,当前接口由于是免费的,每天限量1000个访问吧(ip查询接口商限制,可以更换其他...
echo " # 支持Nginx日志分析,攻击告警分析等 " echo " # author:al0ne " echo " # https://github.com/al0ne " echo -e "n" #此脚本是参考nmgxy/klionsec修改而来,重新添加了一些特征,只用来临时救急,还是推荐到ELK或者Splunk中分析 #功能 ###统计Top 20 地址 ###SQL注入分析 ###SQL注入 FROM查...
常见扫描器、黑客工具分析 漏洞利用检测 敏感路径访问 Webshell HTTP Tunnel 寻找响应长度的url Top 20 寻找罕见的脚本文件访问 寻找302跳转的脚本文件 二次验证,判断状态吗与url后缀排除静态资源(png/css/js/pdf/jpg等url后缀) Usage 设置报告保存地址 outfile=/tmp/logs 设置日志分析目录 access_dir=/var/log/ng...
读取5分钟内nginx错误日志的脚本 Table of Contents 一、Nginx状态信息功能实战 二、Nginx错误日志的配置 三、Nginx访问日志 四、Nginx访问日志轮询切割 一、Nginx状态信息功能实战 1、检测是否安装status模块 [root@server html]# nginx -V nginx version: nginx/1.14.0...
Nginx 日志分析脚本 Slowing 运维工程师#!/bin/bash public(){ echo "" read -p "请输入要分析的访问日志: " log_file echo "" if [ ! -f $log_file ];then echo "未找到: ${log_file}" exit 1 fi if [ ! -s $log_file ];then echo "${log_file}是空文件" exit 1 fi #输出日志访问...
下面脚本中有提示,怀疑是管道过长,但是数据只有几百kb,感觉不应该 #!/bin/bash # 统计日志名或目录名 export LogName="" # 屏幕显示每项数据的最大数量 export NUM=10 # 保存数据文件的目录 export SaveDir="" # 保存需要统计的时间(天) export Time=1 ...
应客户需求,之前写了个shell脚本分析日志,遇到了意想不到的坑,然后写了这个脚本。 日志格式有三种,字段虽有差异,但是需要的数据基本顺序相同,也相邻。 #!/usr/bin/env python# -*- coding: utf-8 -*-importreimportosimportsysfromdatetimeimportdatetime,timedelta""" ...