当前位置:首页 > 文章列表 > 文章 > 前端 > 动态网页提取方法:Selenium与Playwright实战教程

动态网页提取方法:Selenium与Playwright实战教程

2025-11-14 16:09:40 0浏览 收藏

动态网页内容提取是网络爬虫开发中的一项重要任务,尤其当网页内容由 JavaScript 动态生成时,传统 HTML 解析方法失效。本文针对这一问题,提供了一种解决方案:通过分析网页源代码,定位包含数据的 JavaScript 代码片段,并利用正则表达式提取所需信息。文章详细介绍了如何使用开发者工具或 curl 获取网页 HTML 内容,搜索目标数据独有的字符串,定位 JSON 格式数据,并通过 Python 示例展示了如何使用 `requests` 和 `re` 模块提取数据,最后还分享了注意事项,例如定期检查和更新正则表达式,以及遵守相关法律和道德规范。本文旨在帮助开发者有效抓取 JavaScript 渲染的网页数据。

使用 JavaScript 提取动态网页内容

本文旨在介绍如何从使用 JavaScript 动态生成内容的网页中提取数据。通过分析网页源代码,定位关键数据,并利用正则表达式等工具提取所需信息,为网络爬虫开发提供一种解决方案。

对于一些网站,其部分内容并非直接包含在 HTML 源代码中,而是通过 JavaScript 动态生成。这给数据抓取带来了一定的挑战。本文将介绍一种针对这种情况的解决方案,即通过分析网页源代码,定位包含数据的 JavaScript 代码片段,并从中提取所需信息。

分析网页源代码

首先,我们需要查看目标网页的源代码。可以通过浏览器自带的开发者工具(通常按 F12 键打开)或者使用 curl 等命令行工具获取网页的 HTML 内容。

在源代码中,我们需要寻找包含目标数据的 JavaScript 代码。一种常用的方法是搜索目标数据中独有的字符串,例如,在示例中,我们可以搜索 event=479 或 event=643。

定位数据

通过搜索,我们可能找到一个包含 JSON 格式数据的 JavaScript 代码片段。例如:

{
   "icon": "calendar_weekendmistsofpandariastart",
   "name": "Timewalking Dungeon Event",
   "side": "both",
   "url": "/event=643/timewalking-dungeon-event"
}

这个 JSON 对象包含了我们想要抓取的信息,例如活动名称、图标 URL 和活动 URL。

提取数据

一旦我们找到了包含数据的 JavaScript 代码片段,就可以使用正则表达式或其他字符串处理方法来提取所需的信息。

例如,我们可以使用以下正则表达式来提取 JSON 对象:

import re

html_content = """
// Some other javascript code
{
   "icon": "calendar_weekendmistsofpandariastart",
   "name": "Timewalking Dungeon Event",
   "side": "both",
   "url": "/event=643/timewalking-dungeon-event"
}
// Some other javascript code
"""

pattern = re.compile(r'\{.*?\"url\": \"\/event=\d+\/.*?\".*?\}', re.DOTALL)
match = pattern.search(html_content)

if match:
    json_data = match.group(0)
    print(json_data)
else:
    print("No JSON data found.")

这段代码首先定义了一个包含 JSON 对象的 HTML 字符串。然后,它使用正则表达式 \{.*?\"url\": \"\/event=\d+\/.*?\".*?\} 来匹配 JSON 对象。re.DOTALL 标志使得 . 可以匹配换行符,从而可以匹配多行 JSON 对象。

如果匹配成功,match.group(0) 将返回匹配到的 JSON 字符串。然后,我们可以使用 json.loads() 函数将 JSON 字符串转换为 Python 字典,并从中提取所需的信息。

完整示例(Python)

import re
import requests
import json

def extract_data(url):
    """
    从网页源代码中提取 JSON 数据。
    """
    try:
        response = requests.get(url)
        response.raise_for_status()  # 检查请求是否成功

        html_content = response.text

        pattern = re.compile(r'\{.*?\"url\": \"\/event=\d+\/.*?\".*?\}', re.DOTALL)
        matches = pattern.findall(html_content)

        data = []
        for match in matches:
            try:
                json_data = json.loads(match)
                data.append(json_data)
            except json.JSONDecodeError:
                print(f"Error decoding JSON: {match}")

        return data

    except requests.exceptions.RequestException as e:
        print(f"Error fetching URL: {e}")
        return None


if __name__ == "__main__":
    url = "https://www.wowhead.com/today-in-wow"
    extracted_data = extract_data(url)

    if extracted_data:
        for item in extracted_data:
            print(f"Name: {item['name']}")
            print(f"URL: {item['url']}")
            print("-" * 20)
    else:
        print("No data extracted.")

这段代码首先定义了一个 extract_data 函数,该函数接受一个 URL 作为参数,并返回一个包含 JSON 数据的列表。该函数首先使用 requests.get() 函数获取网页的 HTML 内容。然后,它使用正则表达式来匹配 JSON 对象,并使用 json.loads() 函数将 JSON 字符串转换为 Python 字典。最后,它将 JSON 字典添加到列表中,并返回该列表。

在 if __name__ == "__main__": 块中,我们调用 extract_data 函数来提取数据,并打印提取到的数据。

注意事项

  • 网站结构变化: 网站的结构可能会发生变化,导致正则表达式失效。因此,需要定期检查和更新正则表达式。
  • 反爬虫机制: 某些网站可能会使用反爬虫机制来阻止数据抓取。例如,网站可能会限制请求频率或使用 CAPTCHA 验证。需要采取相应的措施来绕过这些反爬虫机制。
  • 法律和道德: 在抓取数据之前,请务必阅读网站的robots.txt文件和使用条款,并遵守相关的法律和道德规范。

总结

本文介绍了一种从使用 JavaScript 动态生成内容的网页中提取数据的方法。该方法包括分析网页源代码、定位数据和提取数据。通过这种方法,我们可以抓取到一些无法通过传统方法抓取的数据。但是,需要注意网站结构的变化、反爬虫机制以及相关的法律和道德规范。

理论要掌握,实操不能落!以上关于《动态网页提取方法:Selenium与Playwright实战教程》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

Win11设置文件所有者权限步骤Win11设置文件所有者权限步骤
上一篇
Win11设置文件所有者权限步骤
PHP自动下载文件方法全解析
下一篇
PHP自动下载文件方法全解析
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3182次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3393次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3425次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4529次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3802次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码