Python爬虫日志监控与告警方法
积累知识,胜过积蓄金银!毕竟在文章开发的过程中,会遇到各种各样的问题,往往都是一些细节知识点还没有掌握好而导致的,因此基础知识点的积累是很重要的。下面本文《Python爬虫日志监控与异常告警技巧》,就带大家讲解一下知识点,若是你对本文感兴趣,或者是想搞懂其中某个知识点,就请你继续往下看吧~
requests.get()成功但页面内容为空,需先查日志确认请求是否被服务器正确接收并返回预期内容,重点检查URL编码、headers一致性、timeout设置及异常捕获。

为什么 requests.get() 成功但页面内容为空?先查日志再定位
爬虫看似运行成功,response.status_code 是 200,但 response.text 却是空字符串、跳转页或反爬提示页——这种“静默失败”最消耗排查时间。关键不是立刻改代码,而是确认请求是否真被目标服务器接收并返回了预期内容。
必须在发起请求前记录完整上下文:
url(注意是否含中文或特殊字符,需检查是否被自动编码)headers中的User-Agent、Cookie、Referer是否与浏览器一致timeout值是否过小导致连接中断却未抛异常(requests默认无超时,建议显式设为timeout=(3, 7))- 捕获
requests.exceptions.RequestException及其子类,而非只抓Exception
import logging
import requests
<p>logging.basicConfig(level=logging.INFO, format='%(asctime)s %(levelname)s %(message)s')
logger = logging.getLogger(<strong>name</strong>)</p><p>try:
resp = requests.get(url, headers=headers, timeout=(3, 7))
logger.info(f"GET {url} → {resp.status_code}, len={len(resp.content)}")
if not resp.content.strip():
logger.warning(f"Empty response from {url}")
except requests.exceptions.Timeout:
logger.error(f"Timeout on {url}")
except requests.exceptions.ConnectionError:
logger.error(f"Connection failed for {url}")</p>用 logging.Filter 精准过滤爬虫日志,避免告警疲劳
高频爬取时,每秒数条 INFO 日志会淹没真正的问题;而把所有 ERROR 都发邮件/钉钉,又容易因网络抖动触发误报。靠 logging.Filter 实现「只对特定错误模式告警」才是可持续方案。
例如:只对连续 3 次 503 Service Unavailable 或单次 429 Too Many Requests 触发告警,其余归档到文件即可。
- 继承
logging.Filter,重写filter()方法,用实例变量缓存最近 N 次响应码 - 避免在 filter 中做耗时操作(如写数据库、发 HTTP 请求),否则阻塞主线程
- 将告警逻辑移出 filter,改为定时扫描日志文件或用
QueueHandler异步处理
class HttpStatusFilter(logging.Filter):
def __init__(self, name='', window_size=3):
super().__init__(name)
self.status_history = []
self.window_size = window_size
<pre class="brush:python;toolbar:false;">def filter(self, record):
if hasattr(record, 'status_code'):
self.status_history.append(record.status_code)
self.status_history = self.status_history[-self.window_size:]
# 触发告警条件(不在此处发送,仅标记)
if record.status_code == 429 or self.status_history.count(503) >= 3:
record.needs_alert = True
return True监控 requests 耗时突增?用 timeit + 分位数比平均值更可靠
用 time.time() 差值统计单次请求耗时,再算平均值来判断“变慢”,会受偶发长尾请求干扰。比如 99% 的请求在 800ms 内完成,但某次 DNS 解析失败卡了 15s,平均值就被拉高,误判为服务退化。
真实可用的耗时监控应基于分位数(如 p95、p99)和突变检测:
- 用
time.perf_counter()替代time.time(),精度更高且不受系统时间调整影响 - 每分钟聚合一次耗时数据,计算
p95并与前一小时同时间段的p95对比,浮动超 200% 才触发告警 - 记录
connect和read阶段耗时(通过requests.adapters.HTTPAdapter的max_retries和自定义Response钩子)
import time
from requests.adapters import HTTPAdapter
from urllib3.util.retry import Retry
<p>class TimingHTTPAdapter(HTTPAdapter):
def send(self, request, <strong>kwargs):
start = time.perf_counter()
r = super().send(request, </strong>kwargs)
end = time.perf_counter()
r.elapsed_total = end - start
return r</p><p>session = requests.Session()
adapter = TimingHTTPAdapter()
session.mount("http://", adapter)
session.mount("https://", adapter)</p>钉钉/企业微信告警里别只写“爬虫异常”,要带可点击的上下文链接
收到告警消息后第一反应不是看日志,而是想:“这次是哪个任务?哪个 URL?哪台机器?” 如果告警正文只有 ERROR: Failed to parse JSON,就得翻日志、查进程、对时间戳——延迟 5 分钟以上才能定位。
真正的可运维告警必须自带诊断入口:
- 附上 Grafana 监控面板链接,带预设时间范围(如 ?from=now-15m&to=now)
- 包含本次失败任务的唯一 ID(如
task_id=spider_news_20240612_abc123),用于快速检索 ELK 日志 - 如果使用 Docker,带上
container_id和host_ip,方便直接docker exec -it进去查 - 避免在告警中放敏感信息(如 Cookie、token),可用哈希摘要替代原始值
最常被忽略的一点:告警恢复通知同样重要。没有它,你永远不确定上次报错是否已真实解决,还是被人工屏蔽了。
到这里,我们也就讲完了《Python爬虫日志监控与告警方法》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!
Win11如何设置U盘为NTFS格式
- 上一篇
- Win11如何设置U盘为NTFS格式
- 下一篇
- 17yoo如何更换绑定手机号?手机丢失换绑教程
-
- 文章 · python教程 | 3分钟前 |
- Python函数性能解析与优化方法
- 189浏览 收藏
-
- 文章 · python教程 | 30分钟前 |
- PythonAI入门路线与进阶攻略
- 120浏览 收藏
-
- 文章 · python教程 | 39分钟前 |
- Python防重放攻击技巧与实现
- 312浏览 收藏
-
- 文章 · python教程 | 43分钟前 |
- 亚洲足球博彩数据提取与正则技巧
- 394浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- 实时解析H.264视频流的Python方法
- 413浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- PySpark动态非空聚合技巧解析
- 185浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python如何高效解决找零问题?
- 184浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python时间同步问题解决方法
- 275浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- PyTorch深度学习教程:快速入门指南
- 417浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python异常处理与代码调试教程
- 471浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- 在except块中使用sys.exc_info()获取异常信息
- 426浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python自动化报表推送与定时设置技巧
- 161浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3893次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 4203次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 4107次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 5305次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 4482次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

