百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

互联网大厂后端必看,手把手教你从NGINX中日志精准定位操作来源

ahcoder 2025-07-03 11:48 2 浏览

你有没有遇到过这样的困扰?在互联网大厂的后端开发工作中,突然发现系统出现异常操作,却不知道从何查起。面对海量的 NGINX 的 access 日志,就像面对一片信息的海洋,想要快速定位操作来源,简直无从下手!别着急,今天这篇文章就来帮你解决这个难题!

NGINX 作为互联网大厂中广泛使用的高性能 Web 服务器和反向代理服务器,它的 access 日志记录着每一次客户端请求的详细信息。这些信息对于后端开发人员来说,是排查问题、分析系统运行状况的重要依据。然而,随着业务的不断增长,日志数据量也在呈指数级增长,如何从这些海量的日志中提取出有用的信息,准确分析操作来源,成为了后端开发人员必须掌握的一项技能。

初步筛选关键日志

时间范围筛选

在实际工作中,异常操作发生的时间可能并不是一个精确的点,而是一个时间段。除了简单的日期筛选,我们还可以使用正则表达式结合 grep 命令进行更复杂的时间范围筛选。例如,想要筛选出 2024 年 10 月 1 日 8 点到 12 点之间的日志,可以使用命令 grep -E "2024/10/01:0[8-9]:|2024/10/01:1[0-2]:" access.log。当需要筛选多个不连续的时间段时,比如 2024 年 10 月 1 日 8 - 9 点和 11 - 12 点的日志,可使用命令 grep -E "2024/10/01:08:|2024/10/01:09:|2024/10/01:11:|2024/10/01:12:" access.log 。

此外,我们还可以结合 awk 命令,按照时间进行更细致的统计分析。例如,统计每个小时的请求数量,使用命令 awk '{print $4}' access.log | cut -d: -f2 | sort | uniq -c,该命令会先提取日志中的时间字段,再截取小时部分,最后统计每个小时出现的次数 。

请求 URL 筛选

如果异常操作涉及特定功能模块,通过请求 URL 筛选能快速锁定相关日志。当 URL 中包含特殊字符时,需要进行转义处理。比如,要筛选 URL 中包含 “/user?id=123” 的日志,使用命令 grep "/user\?id=123" access.log 。若想要同时筛选多个相关 URL,可以使用扩展正则表达式,如筛选包含 “/user” 或 “/order” 的 URL 日志,命令为 grep -E "/user|/order" access.log 。

同时,我们还可以利用 sed 命令对筛选后的 URL 进行进一步处理,例如去除 URL 中的参数部分,只保留路径,命令为 grep "/user" access.log | sed 's/\?.*//',这样便于对同一类型功能的请求进行聚合分析 。

分析日志字段

客户端 IP 地址

获取到客户端 IP 地址后,查询 IP 归属地可以使用在线工具,如IPIP.NET、纯真 IP 数据库等。在互联网大厂内部,通常会有自己的 IP 地址管理系统,通过内部系统可以快速确定 IP 是否属于内部网络。如果发现异常 IP 地址,还可以进一步在防火墙或网络访问控制列表中查询该 IP 的访问权限和历史访问记录。

另外,当出现大量来自同一 IP 的高频请求时,有可能是恶意攻击行为。此时可以使用命令 grep -oE '\b([0 - 9]{1,3}\.){3}[0 - 9]{1,3}\b' access.log | sort | uniq -c | sort -nr ,统计每个 IP 的请求次数,并按降序排列,快速找出高频请求的 IP 。

请求时间

将请求时间与系统监控数据(如 CPU 使用率、内存占用、数据库连接数等)结合分析时,可以使用时序数据库工具,如 InfluxDB。将日志中的请求时间和对应的系统指标数据导入 InfluxDB,通过可视化工具 Grafana 绘制折线图,直观地观察在异常操作发生时,系统各项指标的变化趋势,从而判断异常操作是否对系统性能产生了影响 。

HTTP 状态码

当遇到非 200 状态码时,不同的状态码代表不同的问题类型。例如,404 状态码表示请求的资源未找到,此时需要检查 URL 是否正确,或者资源是否被误删除;500 状态码表示服务器内部错误,需要查看服务器的错误日志,定位代码中的异常点。可以使用命令 grep -E " 404| 500" access.log 快速筛选出包含这两种常见错误状态码的日志 。同时,我们还可以统计不同状态码出现的频率,命令为 awk '{print $9}' access.log | sort | uniq -c | sort -nr,通过分析状态码分布,发现系统中潜在的问题 。

借助工具深入分析

ELK 平台搭建与使用

Logstash 配置:首先需要在服务器上安装 Logstash,安装完成后,创建一个配置文件,例如 nginx_log.conf 。在配置文件中,输入以下内容来读取 NGINX 的 access 日志并发送到 Elasticsearch:

input {
  file {
    path => "/var/log/nginx/access.log"
    start_position => "beginning"
    sincedb_path => "/dev/null"
  }
}
filter {
  grok {
    match => { "message" => "%{IPORHOST:remote_ip} %{USER:remote_user} %{GREEDYDATA:time_local} \"%{WORD:http_method} %{URIPATHPARAM:http_request} HTTP/%{NUMBER:http_version}\" %{NUMBER:http_status} %{NUMBER:body_bytes_sent} \"%{GREEDYDATA:http_referer}\" \"%{GREEDYDATA:http_user_agent}\"" }
  }
  date {
    match => [ "time_local", "dd/MMM/yyyy:HH:mm:ss Z" ]
  }
}
output {
  elasticsearch {
    hosts => ["localhost:9200"]
    index => "nginx-access-log-%{+YYYY.MM.dd}"
  }
  stdout { codec => rubydebug }
}

然后在命令行中运行 logstash -f nginx_log.conf 启动 Logstash 服务 。

Kibana 可视化分析:在 Kibana 中,进入 “Discover” 页面,可以通过各种条件对导入的日志数据进行查询。例如,想要查询 HTTP 状态码不为 200 的请求,可以在搜索框中输入 http_status:!=200 。创建仪表盘时,添加 “可视化” 组件,如 “柱状图”,选择 “aggregation” 为 “Terms”,对 “remote_ip” 进行统计,就能直观地看到不同 IP 的请求数量分布;选择 “Date Histogram”,以时间为维度,统计每个时间段的请求数量 。

Grafana 与 Prometheus 结合使用

Prometheus 配置:安装 Prometheus 后,修改其配置文件 prometheus.yml ,添加对 NGINX 日志的监控任务。例如:

scrape_configs:
  - job_name: 'nginx'
    static_configs:
      - targets: ['localhost:9090']
    metrics_path: /metrics
    relabel_configs:
      - source_labels: [__address__]
        target_label: __param_target
      - source_labels: [__param_target]
        target_label: instance
      - target_label: __address__
        replacement: <your_nginx_exporter_address>:9113

这里假设安装了 nginx_exporter,用于将 NGINX 日志数据转换为 Prometheus 可识别的指标。配置完成后,启动 Prometheus 服务 。

Grafana 可视化:在 Grafana 中添加 Prometheus 作为数据源,然后创建仪表盘。可以创建 “折线图” 展示不同时间段的请求数量变化趋势;创建 “饼图” 展示不同 HTTP 状态码的占比情况 。通过设置告警规则,当某些关键指标(如 500 状态码数量突然激增)达到阈值时,及时发出告警通知 。

建立日志分析流程和规范

日志备份与清理

制定详细的日志备份计划,例如每天凌晨 2 点对当天的日志进行压缩备份,备份文件命名规则为
access.log.YYYYMMDD.tar.gz 。使用 crontab 设置定时任务,命令为 0 2 * * * tar -zcvf access.log.$(date +\%Y\%m\%d).tar.gz /var/log/nginx/access.log 。同时,设置日志保留策略,比如只保留最近 30 天的日志,超过 30 天的日志自动删除,使用命令 find /var/log/nginx/ -name "access.log.*.tar.gz" -mtime +30 -delete 。

日志记录格式与标准

统一规定 NGINX 的 access 日志格式,在 NGINX 的配置文件中,将日志格式设置为 log_format main '$remote_addr - $remote_user [$time_local] "$request" '

'$status $body_bytes_sent "$http_referer" '

'"$http_user_agent" "$http_x_forwarded_for"'; 。同时,对于自定义的业务日志,明确规定日志字段的含义和取值范围,例如,在日志中记录用户操作时,必须包含用户 ID、操作时间、操作类型等字段,并且对每个字段的格式(如用户 ID 为 11 位数字)进行严格规范 。

异常操作分析流程

当发现异常操作时,首先按照时间范围和请求 URL 进行初步筛选,获取相关日志;然后分析日志字段,确定操作来源的 IP 地址、操作时间、请求状态等信息;接着借助 ELK 或 Grafana + Prometheus 等工具进行深入分析,定位问题根源;最后,将分析过程和结果记录下来,形成文档,以便后续复盘和参考 。

总结

通过以上详细且具体的方法,我们就能够从 NGINX 的 access 日志中精准定位操作来源,解决后端开发工作中的一大难题!在实际工作中,希望大家能够灵活运用这些方法,不断积累经验。如果你在日志分析过程中还有其他问题,或者有更好的分析技巧,欢迎在评论区留言分享,大家一起交流学习,共同提升在互联网大厂后端开发领域的技能

相关推荐

ClickHouse日志平台这样建,分分钟秒掉ELK

目前业界的日志生态,最常用的是ELK,其次就是ClickHouse,本文会演示如何使用Vector+ClickHouse来采集Nginx日志并做清洗,最终写入ClickHouse。至...

nginx打印请求头日志方法-openresty

一、前言之前想用nginx打印收到的请求的请求头,但是只找到打印请求体的,没有打印请求头的,感觉原版nginx不支持。建议如果想打印请求头,先换成openresty(本人安装的是openresty-1...

文心快码帮你解大厂面试题:如何使用shell找到access log?

【大厂面试真题】系列,带你攻克大厂面试真题,秒变offer收割机!今日问题:在8g内存的机器,能否启动一个7G堆大小的java进程?一起看看文心快码BaiduComate给出的答案吧!如果这个问题你...

Nginx奇技淫巧之:按日期自动生成日志文件

时光闹钟app开发者,请关注我,后续分享更精彩!坚持原创,共同进步!前言之前文章:Nginx奇技淫巧之:用户行为埋点数据采集实现,介绍了Nginx获取post请求body参数生成日志文件的方法。当业务...

Nginx 日志文件详解:监控与诊断利器

随着互联网技术的快速发展,Nginx已成为最受欢迎的Web服务器之一,其稳定性、高性能和灵活性备受推崇。Nginx日志文件是Nginx服务器中非常重要的组成部分,对于监控和诊断Web应...

Nginx从入门到放弃05-访问日志与日志切割

设置访问日志当我们访问nginx服务时,nginx会记录日志,nginx日志分两种,一种是访问日志,一种是错误日志,访问日志记录在”access.log”文件中,错误日志记录在”error.log”文...

nginx系列:常用利用shell统计日志

0x01:根据访问IP统计UVUV(UniqueVisitor)独立访客,统计访问某站点的用户数;IP(InternetProtocol)独立IP数,是指独立的浏览了页面的不同IP,即统计不同的I...

Linux 必须重点监控的 17 个日志文件:运维与安全必备指南

在Linux系统的日常运维与安全管理中,日志文件的重要性不言而喻。日志不仅记录着系统运行的点点滴滴,更是排查故障、发现异常、提前预警的第一手证据。作为一名系统管理员、安全工程师,甚至普通开发者,了...

nginx 常用日志参数(nginx日志详解)

Nginx提供了多种日志参数(变量),可以用来记录请求的不同方面。常用日志参数$remote_addr:客户端的IP地址。$remote_user:客户端用户名。$time_local:局部时...

GoAccess轻量nginx日志分析工具(nginx日志收集方案)

什么是GoAccessGoAccess是一款开源、实时,运行在命令行终端下的Web日志分析工具。该工具提供快速、多样的HTTP状态统计。分析结果,可以通过XShell等客户端工具查看,并...

后端实践:Nginx日志配置(超详细)(nginx日志配置文件)

作者:antwang来源:https://juejin.im/post/5aa09bb3f265da238f121b6c前言Nginx日志对于统计、系统服务排错很有用。Nginx日志主要分为两种:...

Nginx access_log 运行日志查询和配置

1.介绍当我们学会Nginx的基本配置之后,可以通过Nginx配置Service代理。管理服务器所有的http和https请求。那么接下来就需要了解Nginx的日志控制,以及相关的文档查看了。你通过...

Nginx记录用户请求Header到access log

为了统计和其它用途,经常有人需要自定义Nginx日志,把http请求中的某个字段记录到日志中,刚好在看lua+nginx的文章,第一想到的是用lua赋值来做,但是想想有点小恶心,于是Google了一番...

介绍五款Web服务器日志分析软件(web服务器日志是什么)

  每个站长必须要看的数据统计表,都是由日志分析软件统计和分析网站情况所得出的。日志分析软件是一种解析Nginx/Apache/IIS/Lighttpd和任何其他Web服务器日志文件的软件...

Nginx系列:Nginx自带后端健康检查

严格说Nginx并没有自带针对负载均衡后端节点的健康检查功能,但是可以通过默认自带的ngx_http_proxy_module模块和ngx_http_upstream_module模块中的相关指令...