Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化
亲爱的编程学习爱好者,如果你点开了这篇文章,说明你对《Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化》很感兴趣。本篇文章就来给大家详细解析一下,主要介绍一下,希望所有认真读完的童鞋们,都有实质性的提高。
Scrapy Pipeline用pymysql同步写入MySQL会阻塞事件循环,应使用DBUtils连接池+批量提交;真正异步需aiomysql配合asyncio.to_thread,避免event loop冲突;建表须加UNIQUE KEY并用INSERT IGNORE防重复。

Scrapy Pipeline 用 pymysql 同步写入 MySQL 会卡住爬虫
Scrapy 是异步框架,但 pymysql 默认是同步阻塞的。直接在 process_item 里调用 cursor.execute() + conn.commit(),会让整个 Twisted 事件循环停等 IO,吞吐量断崖下跌,严重时触发 Twisted TimeoutError 或连接池耗尽。
实操建议:
- 别在 Pipeline 里新建
Connection:每次新建连接开销大,且易超限;改用连接池(pymysql.connections.ConnectionPool或更推荐DBUtils.PooledDB) - 显式关闭
cursor,但不要关conn:连接由池管理,手动 close 会把连接还给池;漏关 cursor 可能导致 MySQL 报Commands out of sync - 开启 autocommit=False 但手动 commit:避免每条 insert 都刷盘;批量提交前检查
len(items) >= 100再 commit,比单条 commit 快 5–10 倍
示例关键片段:
from DBUtils.PooledDB import PooledDB import pymysql <p>pool = PooledDB( creator=pymysql, host='localhost', user='root', password='123', database='scrapy_db', charset='utf8mb4', maxconnections=10, autocommit=False )</p><p>class MysqlPipeline: def process_item(self, item, spider): conn = pool.connection() cursor = conn.cursor() try: cursor.execute( "INSERT INTO news (title, url) VALUES (%s, %s)", (item['title'], item['url']) ) if self.batch_count >= 100: conn.commit() self.batch_count = 0 else: self.batch_count += 1 finally: cursor.close() # 必须关</p><h1>conn.close() 不要调用!还给池</h1>
想真正异步?别碰 pymysql,换 aiomysql + asyncio Pipeline
Scrapy 本身不原生支持 async Pipeline,但 2.6+ 版本允许返回 Deferred 或 Awaitable。硬上 aiomysql 能解阻塞,但要注意它和 Scrapy 的 event loop 兼容性——Scrapy 用 Twisted,aiomysql 用 asyncio,混用容易出 RuntimeError: There is no current event loop in thread。
实操建议:
- 只在 Scrapy 2.7+ 且启用
ASYNCIO_PRIORITY_QUEUE=True时才考虑aiomysql - 必须用
asyncio.to_thread()包裹pymysql操作:这是目前最稳的“伪异步”方案,不改 event loop,又规避了主线程阻塞 - 别用
async def process_item直接 await:Scrapy 会报TypeError: object xxx can't be used in 'await' expression
简写示意(非完整类):
import asyncio
from scrapy import signals
<p>class AsyncMysqlPipeline:
def <strong>init</strong>(self):
self.pool = None</p><pre class="brush:python;toolbar:false;">@classmethod
def from_crawler(cls, crawler):
pipeline = cls()
crawler.signals.connect(pipeline.spider_opened, signal=signals.spider_opened)
return pipeline
async def spider_opened(self, spider):
self.pool = await aiomysql.create_pool(
host='localhost', user='root', password='123',
db='scrapy_db', loop=asyncio.get_event_loop()
)
def process_item(self, item, spider):
# 丢进线程池执行,不阻塞 Twisted 主循环
return asyncio.to_thread(self._sync_save, item)
def _sync_save(self, item):
with self.pool.acquire() as conn:
with conn.cursor() as cur:
cur.execute("INSERT ...", (item['title'],))
conn.commit()MySQLdb 和 PyMySQL 在 Pipeline 里表现一样吗?
不一样。MySQLdb 是 C 扩展,快但已停止维护,Python 3.12+ 编译失败;PyMySQL 纯 Python,兼容性好,但默认没开 socket timeout,遇到 MySQL 暂时不可用会卡死 30 秒以上,表现为爬虫假死、log 无输出、Ctrl+C 也不响应。
实操建议:
- 强制加
connect_timeout=5和read_timeout=5:否则一次网络抖动就能拖垮整个爬虫周期 - 捕获
pymysql.err.OperationalError和pymysql.err.IntegrityError:前者是连不上或超时,后者是唯一键冲突(比如重复 URL),该跳过就跳过,别让单条错导致 pipeline 中断 - 别信 “
charset=utf8”:MySQL 实际要utf8mb4才支持 emoji,否则存中文可能变???或报Incorrect string value
为什么用 INSERT IGNORE 或 ON DUPLICATE KEY UPDATE 而不是先 SELECT 再判断?
因为并发写入时,两次查询 + 一次插入之间存在竞态窗口。哪怕你加了 UNIQUE KEY(url),不用原子写法,仍可能写入重复数据,或者抛出 IntegrityError 后没兜住,导致 item 丢失。
实操建议:
- 建表时务必加
UNIQUE KEY:比如UNIQUE KEY `uk_url` (`url`),这是INSERT IGNORE生效前提 - 用
INSERT IGNORE INTO ...最省事:冲突时静默跳过,适合去重场景 - 需要更新时间戳或计数器?改用
INSERT ... ON DUPLICATE KEY UPDATE updated_at=NOW(),但注意VALUES(col)引用的是本次 INSERT 的值,不是原记录值 - 别在 Pipeline 里做
SELECT COUNT(*)判断是否存在:慢、锁表、且无法解决并发冲突
入库逻辑真正的复杂点不在语法,而在连接生命周期管理、错误恢复策略、以及对 MySQL 事务边界的理解——比如 autocommit 关着时,一条 insert 失败,后续语句还在同一个事务里,不 rollback 就会污染下一批数据。
今天关于《Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!
基金从业资格考试入口系统 基金从业资格考试2025报名时间及要求
- 上一篇
- 基金从业资格考试入口系统 基金从业资格考试2025报名时间及要求
- 下一篇
- 知乎听书模式怎么设置 知乎听书模式开启教程【步骤】
-
- 文章 · python教程 | 1小时前 |
- Python中怎样重命名文件?
- 112浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python Scrapy怎么存入MySQL_Pipeline编写pymysql入库逻辑与异步存储优化
- 436浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python中如何导入模块?
- 113浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python Barrier 在异步任务同步中的作用
- 346浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python Django 5.0如何实现计算字段持久化_使用GeneratedField提高查询效率
- 328浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Flask数据库外键怎么连_db.ForeignKey与db.relationship反向关系
- 469浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Python定时任务如何实现?
- 226浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Python 中依赖注入的正确实践:解耦 UI 主题与页面逻辑
- 414浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- 线上预测时Python怎么降低模型推理延迟_转换为ONNX格式利用运行库加速
- 454浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Python爬虫反爬策略教程_模拟请求与验证码处理技巧
- 171浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- PIL 图像网格生成失败:只显示首行的常见原因与修复方案
- 216浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- 如何在使用标准化数据训练模型后,为部分依赖图(PDP)恢复原始特征尺度
- 410浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 4460次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 4807次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 4685次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 6479次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 5058次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

