PuppeteerHeroku运行中断解决方法
在使用 Puppeteer 在 Heroku 等云平台进行网页抓取时,你是否遇到过脚本频繁中断并抛出超时错误的问题?本文将深入探讨这一常见难题,揭示其背后的根本原因:未正确关闭 Puppeteer 浏览器实例导致的内存泄漏。我们将详细分析这种现象,并提供简单有效的解决方案:在每次数据抓取后,务必显式调用 `browser.close()` 方法,以释放资源、防止内存耗尽。通过本文,你将学会如何在生产环境中稳定运行 Puppeteer 脚本,避免资源瓶颈,提升自动化效率。立即阅读,解决你的 Puppeteer 云端部署难题!
问题现象:Puppeteer 在 Heroku 上的运行瓶颈
许多开发者在使用 Puppeteer 进行网页抓取或自动化时,可能会遇到一个常见且令人困惑的问题:脚本在本地开发环境中运行良好,但在部署到 Heroku 等云平台后,仅执行少量任务便会中断,并抛出 TimeoutError。
例如,一个旨在循环抓取多项数据的 Puppeteer 脚本,在本地可以顺利完成所有任务,但在 Heroku 的部署日志中,可能会在成功抓取几项数据后,出现类似以下的错误信息:
2023-05-22T17:29:18.421015+00:00 app[web.1]: == Finished grabbing CS 475 2023-05-22T17:29:19.098698+00:00 app[web.1]: == Finished grabbing CS 331 2023-05-22T17:29:19.783377+00:00 app[web.1]: == Finished grabbing CS 370 2023-05-22T17:29:49.992190+00:00 app[web.1]: /app/node_modules/puppeteer/lib/cjs/puppeteer/common/util.js:317 2023-05-22T17:29:49.992208+00:00 app[web.1]: const timeoutError = new Errors_js_1.TimeoutError(`waiting for ${taskName} failed: timeout ${timeout}ms exceeded`); 2023-05-22T17:29:49.992209+00:00 app[web.1]: ^ 2023-05-22T17:29:49.992210+00:00 app[web.1]: TimeoutError: waiting for target failed: timeout 30000ms exceeded
这个 TimeoutError,特别是 waiting for target failed,通常意味着 Puppeteer 尝试与浏览器实例建立连接或等待某个目标(如页面)时,浏览器本身已变得无响应或崩溃。这种现象往往指向资源耗尽,尤其是在 Heroku 这种具有严格内存限制的平台上。
深层原因:未关闭的浏览器实例导致的内存泄漏
Puppeteer 在执行 puppeteer.launch() 时,会启动一个全新的 Chromium 浏览器进程。这个浏览器进程及其打开的所有页面(page 对象)会占用相当可观的系统资源,包括内存和 CPU。如果在一个循环中反复调用 puppeteer.launch() 来执行独立的抓取任务,但每次任务完成后都没有显式地关闭浏览器实例,那么每个被启动的浏览器进程将持续占用资源而不会被释放。
在本地开发环境中,由于通常拥有更充足的系统资源,这种内存泄漏可能不会立即显现。然而,在 Heroku 的 Dyno 环境中,可用内存通常只有 512MB(对于免费或标准 Dyno),几个未关闭的浏览器实例就可能迅速耗尽所有可用内存。当内存耗尽时,操作系统可能会杀死进程,或者浏览器进程变得无响应,导致后续的 Puppeteer 操作超时失败。即使将 Puppeteer 运行在无头模式(headless mode),也仅仅是节省了图形界面的资源,并不能解决未关闭浏览器实例造成的内存泄漏问题。
解决方案:显式关闭 Puppeteer 浏览器
解决 Puppeteer 在云端部署时内存泄漏问题的关键在于,每次完成抓取任务后,必须显式地关闭浏览器实例。通过调用 await browser.close() 方法,可以确保所有相关的浏览器进程和资源被正确释放。
代码示例与改进
以下是原始的 scrapeData 函数及其改进版本,展示了如何正确地关闭浏览器:
原始 scrapeData 函数(存在内存泄漏风险):
async function scrapeData(code) { const browser = await puppeteer.launch({ args: [ '--no-sandbox', '--disable-setuid-sandbox' ] }) const page = await browser.newPage() await page.goto("website url") // 替换为实际网址 await page.type('#crit-keyword', code) await page.click('#search-button') await page.waitForSelector(".result__headline") await page.click(".result__headline") await page.waitForSelector("div.text:nth-child(2)") let data = await page.evaluate(() => { let classTitle = document.querySelector("div.text:nth-child(2)").textContent .toLowerCase().split(' ') .map((s) => s.charAt(0).toUpperCase() + s.substring(1)).join(' ').replace('Ii', "II") let classDesc = document.querySelector(".section--description > div:nth-child(2)").textContent.replace('Lec/lab/rec.', '').trim() return { title: classTitle, desc: classDesc } }) console.log(`== Finished grabbing ${code}`) return data // 浏览器实例在此处未被关闭 }
改进后的 scrapeData 函数(加入 browser.close() 和 try...finally):
async function scrapeData(code) { let browser; // 将 browser 声明在 try 块外部,以便 finally 块访问 try { browser = await puppeteer.launch({ args: [ '--no-sandbox', '--disable-setuid-sandbox' ] // 默认的超时时间可能需要调整,但这里的TimeoutError主要由内存引起 }); const page = await browser.newPage(); await page.goto("your_website_url", { timeout: 30000 }); // 增加页面导航超时时间 await page.type('#crit-keyword', code); await page.click('#search-button'); await page.waitForSelector(".result__headline", { timeout: 15000 }); // 增加等待选择器超时时间 await page.click(".result__headline"); await page.waitForSelector("div.text:nth-child(2)", { timeout: 15000 }); // 增加等待选择器超时时间 let data = await page.evaluate(() => { let classTitle = document.querySelector("div.text:nth-child(2)").textContent .toLowerCase().split(' ') .map((s) => s.charAt(0).toUpperCase() + s.substring(1)).join(' ').replace('Ii', "II"); let classDesc = document.querySelector(".section--description > div:nth-child(2)").textContent.replace('Lec/lab/rec.', '').trim(); return { title: classTitle, desc: classDesc }; }); console.log(`== Finished grabbing ${code}`); return data; } catch (error) { console.error(`Error scraping data for ${code}:`, error); throw error; // 重新抛出错误,以便上层调用者可以处理 } finally { if (browser) { await browser.close(); // 确保浏览器在任何情况下都被关闭 } } }
通过在 scrapeData 函数的 finally 块中添加 await browser.close(),我们保证了无论数据抓取成功与否,浏览器实例及其占用的资源都会被妥善释放。这有效地解决了内存泄漏问题,使脚本能够在 Heroku 上稳定地处理所有预期的任务。
注意事项与最佳实践
- 资源管理是核心: 始终将 browser.close() 视为与 puppeteer.launch() 配对使用的关键操作。忘记关闭浏览器是 Puppeteer 内存泄漏最常见的原因。
- try...finally 块: 使用 try...catch...finally 结构是最佳实践。finally 块中的代码无论 try 块中是否发生错误都会执行,从而确保浏览器实例在任何情况下都能被关闭,避免因程序异常导致资源无法释放。
- Heroku Dyno 内存限制: 了解 Heroku Dyno 的资源限制至关重要。即使正确关闭了浏览器,如果单个抓取任务本身就需要大量内存,或者在短时间内并发启动了过多的浏览器实例,仍然可能遇到内存问题。对于大量任务,考虑使用队列机制或批处理,错峰执行,避免瞬间的资源高峰。
- 超时设置: 原始日志中的 TimeoutError 也可能与网络延迟或页面加载缓慢有关。虽然内存泄漏是主要原因,但适当调整 page.goto()、page.waitForSelector() 等操作的超时时间(例如,从默认的 30 秒调整为更符合实际情况的值),可以提高脚本的鲁棒性。
- 无头模式 (Headless Mode): 尽管无头模式能减少一些资源消耗,但它并不能替代显式关闭浏览器实例。在 Heroku 等服务器环境中,通常都应使用无头模式运行 Puppeteer。
- 错误处理: 在 catch 块中捕获并记录错误,可以帮助调试和理解脚本失败的原因。根据应用需求,可以选择重新抛出错误、返回默认值或执行其他恢复操作。
总结
Puppeteer 在 Heroku 等云平台部署时遇到的运行中断问题,其核心往往是由于未正确关闭浏览器实例导致的内存泄漏。通过在每次抓取任务完成后,使用 await browser.close() 显式释放资源,并结合 try...finally 块确保资源在任何情况下都能被释放,可以有效解决这一问题。良好的资源管理是构建稳定、高效且可扩展的网页抓取或自动化脚本的关键。
终于介绍完啦!小伙伴们,这篇关于《PuppeteerHeroku运行中断解决方法》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

- 上一篇
- 钉钉双企业打卡切换技巧分享

- 下一篇
- Python用Matplotlib画折线图教程
-
- 文章 · 前端 | 48秒前 |
- jQuery动态加载元素点击无效解决方法
- 439浏览 收藏
-
- 文章 · 前端 | 22分钟前 | 可复用性 组件通信 WebComponents JS组件化 组件封装
- JS组件化封装方法详解
- 254浏览 收藏
-
- 文章 · 前端 | 25分钟前 |
- JavaScript对象数组字段分割教程
- 216浏览 收藏
-
- 文章 · 前端 | 45分钟前 |
- PHPAJAX优化表单提交与数据库交互
- 140浏览 收藏
-
- 文章 · 前端 | 56分钟前 |
- JavaScript浏览器检测与URL重定向实战教程
- 458浏览 收藏
-
- 文章 · 前端 | 57分钟前 |
- JavaScript添加事件监听器教程
- 261浏览 收藏
-
- 文章 · 前端 | 1小时前 |
- CSS图片遮罩实现技巧分享
- 215浏览 收藏
-
- 文章 · 前端 | 1小时前 |
- nav标签的正确使用方法及SEO优化价值
- 312浏览 收藏
-
- 文章 · 前端 | 1小时前 |
- HTML中li的value属性用法解析
- 377浏览 收藏
-
- 文章 · 前端 | 1小时前 |
- CSS弹性布局移动端适配全攻略
- 116浏览 收藏
-
- 文章 · 前端 | 2小时前 |
- CSS按钮悬停动画教程实战详解
- 137浏览 收藏
-
- 文章 · 前端 | 2小时前 |
- JavaScript计时器不更新?检查DOM元素!
- 453浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- PandaWiki开源知识库
- PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
- 60次使用
-
- AI Mermaid流程图
- SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
- 863次使用
-
- 搜获客【笔记生成器】
- 搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
- 880次使用
-
- iTerms
- iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
- 897次使用
-
- TokenPony
- TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
- 963次使用
-
- 优化用户界面体验的秘密武器:CSS开发项目经验大揭秘
- 2023-11-03 501浏览
-
- 使用微信小程序实现图片轮播特效
- 2023-11-21 501浏览
-
- 解析sessionStorage的存储能力与限制
- 2024-01-11 501浏览
-
- 探索冒泡活动对于团队合作的推动力
- 2024-01-13 501浏览
-
- UI设计中为何选择绝对定位的智慧之道
- 2024-02-03 501浏览