主要观点总结
本文主要介绍了对日志文件进行各种分析和处理的命令和操作。
关键观点总结
关键观点1: 查看IP访问信息。
通过命令行工具查看日志文件,分析IP访问情况,如查看有多少个IP访问、查看某一个页面被访问的次数、查看每一个IP访问了多少个页面等。
关键观点2: 分析页面访问情况。
通过处理日志文件,分析页面访问情况,如查看访问次数最多的文件或页面、列出传输大小最大的几个文件、列出输出大于特定字节数的页面等。
关键观点3: 服务器性能监控。
通过命令查看服务器当前运行状态,如当前服务器每一进程运行的数量、Apache当前并发访问数等。
关键观点4: 日志分析工具的用途。
介绍一些命令工具和技巧用于收集和分析日志数据,例如统计网站流量、统计http状态、带宽统计等。
文章预览
原文链接: https://www.cnblogs.com/lvzhenjiang/p/16251416.html 1、查看有多少个IP访问 awk '{print $1}' log_file|sort|uniq|wc -l 2、查看某一个页面被访问的次数 grep "/index.php" log_file | wc -l 3、查看每一个IP访问了多少个页面 awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file | sort -n -t ' ' -k 2 4、将每个IP访问的页面数进行从小到大排序 awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n 5、查看某一个IP访问了哪些页面 grep ^111.111.111.111 log_file| awk '{print $1,$7}' 6、去掉搜索引擎统计的页面 awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l 7、查看2015年8月16日14时这一个小时内有多少IP访问 awk '{print $4,$1}' log_file | grep 16/Aug/2015:14 | awk '{print $2}'| sort | uniq | wc -l 8、查看访问前十个ip地址 awk '{print $1}' |sort|uniq -c|sort -nr |head -10 access_log uniq -c 相当于分组统计并把统计数放在最前
………………………………