当前位置:首页 > 文章列表 > 文章 > python教程 > Python动态网页抓取实用技巧

Python动态网页抓取实用技巧

2025-09-14 09:00:42 0浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《Python抓取动态网页内容技巧》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

使用Python进行Web Scraping时处理动态加载内容

本文旨在解决在使用Python进行Web Scraping时,由于网页内容通过JavaScript动态加载而导致Beautiful Soup无法抓取到目标数据的问题。文章将介绍如何通过分析XHR/API请求获取JSON数据,以及使用Selenium模拟浏览器行为来渲染动态内容,从而成功抓取所需信息。

在使用Python进行Web Scraping时,经常会遇到网页内容并非直接包含在HTML源码中,而是通过JavaScript动态加载的情况。这导致使用传统的Beautiful Soup等库无法直接抓取到目标数据,出现类似IndexError: list index out of range的错误。 这是因为Beautiful Soup只能解析静态HTML内容,无法执行JavaScript代码。

解决方案一:分析XHR/API请求

对于动态加载的内容,一种常见的解决方案是分析网页的XHR(XMLHttpRequest)或API请求。现代网页通常通过这些请求从服务器获取数据,并使用JavaScript将其渲染到页面上。

  1. 打开开发者工具: 在浏览器中打开目标网页,并打开开发者工具(通常按F12键)。
  2. 切换到Network选项卡: 在开发者工具中,切换到“Network”选项卡。
  3. 刷新网页: 刷新网页,观察Network选项卡中出现的请求。
  4. 筛选请求: 可以使用“XHR”或“Fetch/XHR”过滤器来筛选出异步请求。
  5. 分析请求: 找到包含目标数据的请求。通常,这些请求会返回JSON格式的数据。
  6. 使用requests库获取数据: 使用Python的requests库发送相同的请求,并解析返回的JSON数据。

以下是一个示例,展示了如何从Naver漫画的API获取漫画章节标题:

import requests

url = 'https://comic.naver.com/api/article/list?titleId=811721&page=1'

try:
    response = requests.get(url)
    response.raise_for_status()  # 检查请求是否成功
    data = response.json()

    for article in data['articleList']:
        print(article.get('subtitle'))

except requests.exceptions.RequestException as e:
    print(f"请求错误: {e}")
except ValueError as e:
    print(f"JSON解析错误: {e}")
except KeyError as e:
    print(f"KeyError: 键 '{e}' 不存在于JSON数据中")
except Exception as e:
    print(f"发生未知错误: {e}")

代码解释:

  • requests.get(url):发送GET请求到指定的URL。
  • response.raise_for_status():检查HTTP响应状态码,如果请求失败(例如404错误),则抛出异常。
  • response.json():将响应内容解析为JSON格式。
  • 循环遍历data['articleList'],并提取每个章节的标题(subtitle)。
  • 添加了try-except块来处理可能出现的异常,如网络请求错误、JSON解析错误、键不存在等。

注意事项:

  • 不同的网站API可能需要不同的请求头(headers),例如User-Agent、Referer等。可以在开发者工具中查看原始请求的headers,并将其添加到requests.get()函数的headers参数中。
  • 有些API可能需要身份验证(Authentication)。

解决方案二:使用Selenium模拟浏览器行为

如果无法通过分析API请求获取数据,或者API请求过于复杂,可以考虑使用Selenium等工具模拟浏览器行为。Selenium可以启动一个真实的浏览器实例,并执行JavaScript代码,从而渲染动态内容。

  1. 安装Selenium: 使用pip安装Selenium:pip install selenium
  2. 下载WebDriver: 下载与浏览器版本匹配的WebDriver。例如,如果使用Chrome浏览器,需要下载ChromeDriver。将WebDriver的可执行文件放在系统PATH中,或者在代码中指定其路径。
  3. 编写Selenium代码:
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

# 配置Chrome选项
chrome_options = Options()
chrome_options.add_argument("--headless")  # 无头模式,不在前台显示浏览器
chrome_options.add_argument("--disable-gpu")  # 禁用GPU加速,避免某些环境下的问题

# 设置WebDriver服务
webdriver_path = '/path/to/chromedriver'  # 替换为你的ChromeDriver路径
service = Service(webdriver_path)

# 初始化WebDriver
driver = webdriver.Chrome(service=service, options=chrome_options)

url = "https://comic.naver.com/webtoon/list?titleId=811721&tab=wed"

try:
    driver.get(url)

    # 等待目标元素加载
    wait = WebDriverWait(driver, 10)
    element = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU")))

    # 提取数据
    cartoons = driver.find_elements(By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU")
    for cartoon in cartoons:
        print(cartoon.text)

except Exception as e:
    print(f"发生错误: {e}")

finally:
    driver.quit()

代码解释:

  • webdriver.Chrome():启动Chrome浏览器实例。
  • driver.get(url):打开指定的URL。
  • driver.find_elements(By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU"): 使用CSS选择器查找所有符合条件的元素。
  • 循环遍历找到的元素,并提取其文本内容。
  • driver.quit():关闭浏览器实例。
  • --headless: 使用无头模式,不在前台显示浏览器界面。
  • --disable-gpu: 禁用GPU加速,避免某些环境下的问题。
  • WebDriverWait和expected_conditions用于等待页面元素加载完成,避免因元素未加载而导致错误。

注意事项:

  • Selenium的执行速度相对较慢,因为它需要启动浏览器并执行JavaScript代码。
  • Selenium需要消耗更多的系统资源。
  • 需要根据目标网站的结构选择合适的元素定位方式(例如CSS选择器、XPath等)。
  • 确保WebDriver的版本与浏览器版本兼容。

总结

当遇到网页内容通过JavaScript动态加载的情况时,传统的Beautiful Soup可能无法直接抓取到数据。 可以通过分析XHR/API请求获取JSON数据,或者使用Selenium模拟浏览器行为来渲染动态内容,从而成功抓取所需信息。 选择哪种方法取决于具体情况,如果API请求简单且易于分析,则优先选择API请求方式。如果API请求复杂或无法获取,则可以使用Selenium。 在使用Selenium时,注意优化代码,避免不必要的资源消耗。

理论要掌握,实操不能落!以上关于《Python动态网页抓取实用技巧》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

Python如何检测推荐系统异常?Python如何检测推荐系统异常?
上一篇
Python如何检测推荐系统异常?
PremiereRushAI视频教程:手机制作指南
下一篇
PremiereRushAI视频教程:手机制作指南
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    514次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    440次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    428次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    456次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    467次使用
  • 迅捷AIPPT:AI智能PPT生成器,高效制作专业演示文稿
    迅捷AIPPT
    迅捷AIPPT是一款高效AI智能PPT生成软件,一键智能生成精美演示文稿。内置海量专业模板、多样风格,支持自定义大纲,助您轻松制作高质量PPT,大幅节省时间。
    429次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码