应对Web抓取结构不一致的解决方案
在Web抓取过程中,HTML结构不一致是常见难题,尤其在动态加载或依赖内容API的网站中。本文以IBM文档页面抓取为例,深入剖析了HTML结构变化带来的挑战,并提出一套基于异步HTTP请求(httpx、trio)和内容API探测的专业解决方案。该方案旨在帮助开发者更稳定、高效地提取目标数据,避免因页面结构变动导致的抓取失败。通过模拟浏览器行为,探测隐藏的内容API,并利用pandas的`read_html`函数直接解析表格数据,本文提供了一套实用的Python代码示例,助力开发者构建更具适应性的Web抓取系统,确保数据的准确性和抓取过程的稳定性,有效应对现代网站的复杂结构,提升抓取效率和成功率。
Web抓取中的HTML结构不一致问题
对于许多Web抓取任务,开发者通常依赖于页面固定的HTML结构来定位和提取数据。然而,现代网站为了提升用户体验、实现动态内容加载或应对爬虫,其HTML结构可能在不同请求下呈现出差异,甚至返回一个“错误页面”或不包含实际内容的骨架。
例如,在抓取IBM文档页面(如https://www.ibm.com/docs/en/imdm/12.0?topic=t-accessdateval)时,可能会遇到两种截然不同的HTML响应:
- 预期结构: 包含明确的
标题、
描述和
数据,可以直接通过BeautifulSoup进行解析。
- 非预期结构: 页面内容被替换为大量JavaScript变量,其中包含错误信息或国际化字符串(如"error.sorryText1":"We're%20sorry!"),而实际的数据表格却缺失。这种响应通常意味着原始请求未能成功加载目标内容,或者内容是通过其他机制(如API调用)获取的。
当遇到这种非预期结构时,原有的基于特定CSS选择器或标签路径的解析逻辑会失效,导致抓取过程中断。这表明我们需要更深入地理解网站的内容加载机制。
诊断与分析:内容API的发现
面对HTML结构的不确定性,一个有效的策略是模拟浏览器行为,并利用开发者工具(如Chrome DevTools或Firefox Developer Tools)的网络面板来观察页面的实际加载过程。通过检查XHR/Fetch请求,我们往往能发现页面在后台调用的内容API。
在本例中,即使初始URL返回的是一个中间页或错误提示,仔细检查其HTML内容,可能会发现一些隐藏的线索。例如,在非预期HTML结构中,可能会出现类似"oldUrl":"..."的JavaScript变量。这暗示着页面可能首先加载一个通用框架,然后通过JavaScript或内部API调用来填充具体内容。
解决方案的核心在于:
- 识别并提取指向实际内容API的URL。
- 直接向该API发送请求,获取纯净的数据响应。
解决方案:异步请求与内容API调用
为了解决HTML结构不一致的问题,我们可以采取以下策略:
1. 使用异步HTTP客户端
传统的requests库是同步的,对于需要进行多次网络请求(例如,先请求页面,再请求API)的场景,异步HTTP客户端能显著提升效率和响应性。httpx是一个现代的、支持同步和异步的HTTP客户端,而trio是一个并发框架,可以与httpx结合使用,实现高效的异步操作。
2. 模拟浏览器行为
在发送请求时,设置User-Agent头是最佳实践,可以模拟主流浏览器的请求,减少被网站识别为爬虫的风险。
headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/113.0' }
3. 探测内容API
根据对网站行为的分析,我们可以尝试分两步获取数据:
- 第一步: 向原始URL发送请求。即使返回的是非预期HTML,我们也需要检查其内容,寻找指向实际数据源的线索。
- 第二步: 从第一步的响应中提取API路径。在本例中,我们通过正则表达式re.search('"oldUrl":"(.*?)"', r.text).group(1)来查找oldUrl变量的值。这个oldUrl通常是API路径的一部分。
- 第三步: 构造完整的API请求URL,并带上必要的参数(如parsebody=true, lang=en),再次发送请求。这个API请求通常会返回包含目标数据的更稳定、更易解析的HTML片段或JSON数据。
4. 直接解析表格数据
一旦获取到包含实际数据的HTML内容,如果目标是表格,pandas库的read_html函数是一个非常强大的工具。它能够直接从HTML字符串中识别并解析表格,返回一个DataFrame列表。我们可以通过attrs参数指定表格的属性(如class='defaultstyle')来精确选择目标表格。
完整示例代码
以下是结合上述策略的Python代码示例,用于稳定地从IBM文档页面中提取表格数据:
import httpx import trio import re import pandas as pd from bs4 import BeautifulSoup # 仅作为参考,实际解决方案中可能不直接使用BeautifulSoup解析表格 # 模拟浏览器User-Agent headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/113.0' } async def fetch_table_data(identifier: str): """ 异步函数,用于根据标识符从IBM文档页面抓取表格数据。 """ async with httpx.AsyncClient(headers=headers, base_url='https://www.ibm.com/docs') as client: # 1. 构造初始页面URL参数 initial_params = { 'topic': f'tables-{identifier}' # 假设identifier用于构建topic参数 } # 2. 发送初始请求,获取可能包含API路径的页面 try: initial_response = await client.get('en/imdm/12.0', params=initial_params, follow_redirects=True) initial_response.raise_for_status() # 检查HTTP状态码 except httpx.HTTPStatusError as e: print(f"Error fetching initial page for identifier {identifier}: {e}") return None except httpx.RequestError as e: print(f"Network error for identifier {identifier}: {e}") return None # 3. 从初始响应中提取内容API的oldUrl match = re.search(r'"oldUrl":"(.*?)"', initial_response.text) if not match: print(f"Could not find 'oldUrl' in initial response for identifier {identifier}. Trying direct parse.") # 如果没有找到oldUrl,尝试直接解析,以防有些页面直接返回内容 try: # 尝试用pandas直接解析,如果页面直接包含表格 df_list = pd.read_html(initial_response.content, attrs={'class': 'defaultstyle'}) if df_list: print(f"Successfully parsed table directly for {identifier}.") return df_list[0] else: print(f"No table found directly for {identifier}.") return None except Exception as e: print(f"Direct parsing failed for {identifier}: {e}") return None old_url_path = match.group(1) # 4. 构造内容API的URL content_api_url = "api/v1/content/" + old_url_path content_api_params = { 'parsebody': 'true', 'lang': 'en' } # 5. 发送API请求,获取实际内容 try: api_response = await client.get(content_api_url, params=content_api_params) api_response.raise_for_status() except httpx.HTTPStatusError as e: print(f"Error fetching content API for identifier {identifier} ({content_api_url}): {e}") return None except httpx.RequestError as e: print(f"Network error for content API {identifier} ({content_api_url}): {e}") return None # 6. 使用pandas直接解析表格 try: # pandas.read_html返回一个DataFrame列表 df_list = pd.read_html(api_response.content, attrs={'class': 'defaultstyle'}) if df_list: print(f"Successfully extracted table for identifier: {identifier}") return df_list[0] else: print(f"No table with class 'defaultstyle' found in API response for {identifier}.") return None except Exception as e: print(f"Error parsing HTML table for identifier {identifier}: {e}") return None async def main(): # 示例用法:假设我们有一个identifiers.csv文件 # df_identifiers = pd.read_csv('identifiers.csv') # identifiers = df_identifiers['Identifier'].tolist() # 为了演示,我们直接使用一个示例标识符 identifiers = ['t-accessdateval', 'r_Tables', 'another_identifier'] # 替换为你的实际标识符列表 all_results = [] async with trio.open_nursery() as nursery: for identifier in identifiers: # 使用nursery.start_soon并行运行抓取任务 nursery.start_soon( lambda id=identifier: trio.run( lambda: fetch_table_data(id) ).add_done_callback( lambda fut: all_results.append((id, fut.result())) ) ) # 注意:trio.run不能嵌套,这里是一个简化的演示。 # 实际生产代码中,应将所有任务直接传递给一个trio.run的顶层async函数。 # 更规范的trio并行: # async def run_all_fetches(): # async with trio.open_nursery() as nursery: # for identifier in identifiers: # nursery.start_soon(fetch_and_store, identifier, all_results) # await run_all_fetches() # # def fetch_and_store(identifier, results_list): # data = await fetch_table_data(identifier) # results_list.append((identifier, data)) # 由于trio.run不能嵌套,上述并行代码需要调整。 # 这里为了演示,我们先简化为串行执行,但在实际应用中推荐使用trio的并行特性。 print("\n--- Running tasks sequentially for demonstration ---") for identifier in identifiers: df = await fetch_table_data(identifier) if df is not None: print(f"\nData for {identifier}:\n{df.head()}") # 将每个DataFrame存储起来,或者进行合并 all_results.append(df) # 合并所有DataFrame if all_results: combined_df = pd.concat(all_results, ignore_index=True) print("\n--- Combined DataFrame (first 5 rows) ---") print(combined_df.head()) # combined_df.to_csv('combined_table_data.csv', index=False) else: print("No data was successfully extracted.") if __name__ == "__main__": trio.run(main)
注意事项:
- 错误处理: 上述代码中加入了try-except块来捕获httpx可能抛出的HTTP状态错误和网络错误,以及pandas.read_html可能遇到的解析错误。在实际应用中,应根据需求细化错误处理逻辑,例如重试机制、日志记录等。
- 正则表达式的健壮性: 用于提取oldUrl的正则表达式re.search(r'"oldUrl":"(.*?)"', initial_response.text)依赖于页面中oldUrl变量的命名和格式。如果网站结构发生变化,这个正则表达式可能需要调整。
- API参数: content_api_params中的parsebody=true和lang=en是根据观察到的IBM文档API行为确定的。对于其他网站,API参数可能会不同,需要通过开发者工具进行分析。
- 异步并发: 示例代码中的trio.run(lambda: fetch_table_data(id))在循环中调用,这实际上是串行执行。为了真正实现并行,所有fetch_table_data任务应该在一个顶层的异步函数中,通过trio.open_nursery()来并发调度。上述代码已更新了main函数中的注释,指明了更规范的trio并行方式。
总结
Web抓取并非一劳永逸,网站结构的动态性和复杂性要求我们采用更具适应性的抓取策略。当遇到HTML结构不一致或“错误页面”时,首先应怀疑内容是否通过API动态加载。通过以下步骤,我们可以构建出更稳定、高效的抓取系统:
- 深入分析网站: 利用浏览器开发者工具,观察网络请求,找出实际加载数据的API接口。
- 利用内容API: 优先直接调用网站的内容API来获取结构化的数据,这通常比解析复杂的HTML更稳定。
- 采用异步HTTP客户端: httpx结合trio等异步库,可以显著提高抓取效率,尤其是在处理多个页面或需要分步请求的场景。
- 健壮的解析和错误处理: 针对可能出现的HTML结构变动、网络问题或解析失败,设计完善的错误捕获和处理机制。
- pandas.read_html: 对于包含表格的HTML,pandas提供了极其便捷的read_html函数,能够直接将HTML表格解析为DataFrame。
通过这些策略,我们能够更好地应对Web抓取中的挑战,确保数据的准确性和抓取过程的稳定性。
文中关于的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《应对Web抓取结构不一致的解决方案》文章吧,也可关注golang学习网公众号了解相关技术文章。
AI伴侣应用Dot关停,创始人理念分歧致项目终止
- 上一篇
- AI伴侣应用Dot关停,创始人理念分歧致项目终止
- 下一篇
- 在线运行PHP代码的三大原因及平台推荐
查看更多最新文章-
- 文章 · 前端 | 56秒前 | Overflow text-overflow white-space -webkit-line-clamp CSS字体溢出
- CSS字体溢出解决方案详解
- 287浏览 收藏
-
- 文章 · 前端 | 2分钟前 |
- Django自定义字体集成与优化教程
- 282浏览 收藏
-
- 文章 · 前端 | 5分钟前 |
- JS轻松控制模态框显示隐藏方法
- 368浏览 收藏
-
- 文章 · 前端 | 8分钟前 | cookie localStorage 浏览器存储 sessionStorage IndexedDB
- Cookie与IndexedDB对比解析
- 127浏览 收藏
-
- 文章 · 前端 | 10分钟前 | JavaScript 中间件 智能路由 动态参数 洋葱模型
- JavaScript智能路由中间件实现解析
- 105浏览 收藏
-
- 文章 · 前端 | 15分钟前 |
- 简单HTML网页制作教程入门
- 104浏览 收藏
-
- 文章 · 前端 | 17分钟前 |
- CSS动画优化分页切换技巧
- 258浏览 收藏
-
- 文章 · 前端 | 19分钟前 |
- 搭建支持SSG的静态网站生成器指南
- 328浏览 收藏
-
- 文章 · 前端 | 19分钟前 |
- CSS文本样式设置全攻略
- 312浏览 收藏
-
- 文章 · 前端 | 21分钟前 |
- CSSnth-child选择器全面解析
- 301浏览 收藏
-
- 文章 · 前端 | 22分钟前 |
- span标签的作用与定义详解
- 307浏览 收藏
-
- 文章 · 前端 | 32分钟前 |
- XSS与CSRF防御攻略:前端安全必备
- 298浏览 收藏
查看更多课程推荐-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
查看更多AI推荐-
- 数说Social Research-社媒分析AI Agent
- 数说Social Research是数说故事旗下社媒智能研究平台,依托AI Social Power,提供全域社媒数据采集、垂直大模型分析及行业场景化应用,助力品牌实现“数据-洞察-决策”全链路支持。
- 9次使用
-
- 先见AI
- 先见AI,北京先智先行旗下企业级商业智能平台,依托先知大模型,构建全链路智能分析体系,助力政企客户实现数据驱动的科学决策。
- 10次使用
-
- 职优简历
- 职优简历是一款AI辅助的在线简历制作平台,聚焦求职场景,提供免费、易用、专业的简历制作服务。通过Markdown技术和AI功能,帮助求职者高效制作专业简历,提升求职竞争力。支持多格式导出,满足不同场景需求。
- 6次使用
-
- 一键证照
- 告别传统影楼!一键证照,AI智能在线制作证件照,覆盖证件照、签证照等多种规格,免费美颜,快速生成符合标准的专业证件照,满足学生、职场人、出境人群的证件照需求。
- 7次使用
-
- 幂简AI提示词商城
- 幂简AI提示词商城是国内领先的专业级AI提示词模板交易平台,致力于降低优质提示词创作门槛,提升AI助手使用效率。提供3K+多领域专业提示词模板,支持变量替换、跨AI模型适配、API集成,解决提示词复用性低、效果不稳定、创作耗时等痛点。
- 7次使用
查看更多相关文章-
- 优化用户界面体验的秘密武器:CSS开发项目经验大揭秘
- 2023-11-03 501浏览
-
- 使用微信小程序实现图片轮播特效
- 2023-11-21 501浏览
-
- 解析sessionStorage的存储能力与限制
- 2024-01-11 501浏览
-
- 探索冒泡活动对于团队合作的推动力
- 2024-01-13 501浏览
-
- UI设计中为何选择绝对定位的智慧之道
- 2024-02-03 501浏览