当前位置:首页 > 文章列表 > 文章 > python教程 > BeautifulSoup提取XML属性值教程

BeautifulSoup提取XML属性值教程

2025-10-12 14:45:33 0浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《Python BeautifulSoup提取XML属性值教程》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

Python中使用BeautifulSoup提取XML标签属性值教程

本教程详细介绍了如何使用Python的BeautifulSoup库从XML文档中高效提取特定标签的属性值。我们将涵盖从获取XML数据到利用CSS选择器定位元素并提取home id和away id等关键信息,并提供完整的代码示例和注意事项,帮助您轻松处理XML数据解析任务。

1. 引言:XML数据与Python解析

XML(Extensible Markup Language)作为一种常用的数据交换格式,广泛应用于各种系统之间。在Python中处理XML数据是常见的任务,尤其当我们需要从复杂的XML结构中提取特定信息时。本教程将重点介绍如何利用强大的BeautifulSoup库来解析XML文档,并以一个实际案例——从体育赛事日程XML中提取主客队ID——来演示其用法。

BeautifulSoup最初是为HTML解析而设计的,但它也能很好地处理XML文档,尤其是在处理结构相对扁平或需要类似CSS选择器进行元素定位的场景下。对于更复杂的XML操作,例如XPath查询或严格的Schema验证,xml.etree.ElementTree或lxml可能是更专业的选择,但BeautifulSoup的简洁性使其成为快速提取数据的优秀工具。

2. 获取XML数据

在进行解析之前,我们首先需要获取XML数据。数据来源可以是本地文件,也可以是远程API接口。

2.1 从API获取数据

许多服务会通过API提供XML格式的数据。以下是一个使用Python标准库http.client从URL获取XML数据的示例:

import http.client
from datetime import datetime

def fetch_xml_from_api(api_key: str) -> str:
    """
    从Sportradar NHL API获取每日赛程XML数据。
    """
    today = datetime.now().strftime("%Y/%m/%d")
    host = "api.sportradar.us"
    path = f"/nhl/trial/v7/en/games/{today}/schedule.xml?api_key={api_key}"

    try:
        conn = http.client.HTTPSConnection(host)
        conn.request("GET", path)
        res = conn.getresponse()
        data = res.read()
        conn.close()
        return data.decode("utf-8")
    except Exception as e:
        print(f"获取API数据时发生错误: {e}")
        return ""

# 替换为您的实际API密钥
# api_key = "YOUR_API_KEY"
# xml_data_string = fetch_xml_from_api(api_key)
# if xml_data_string:
#     print("成功获取XML数据。")
# else:
#     print("未能获取XML数据。")

2.2 从本地文件读取数据

如果XML数据已经保存到本地文件,可以直接读取:

def read_xml_from_file(filepath: str) -> str:
    """
    从本地文件读取XML数据。
    """
    try:
        with open(filepath, 'r', encoding='utf-8') as f:
            return f.read()
    except FileNotFoundError:
        print(f"文件未找到: {filepath}")
        return ""
    except Exception as e:
        print(f"读取文件时发生错误: {e}")
        return ""

# xml_data_string = read_xml_from_file('pengins_daily_schedule.xml')
# if xml_data_string:
#     print("成功从文件读取XML数据。")
# else:
#     print("未能从文件读取XML数据。")

为了本教程的自包含性,我们将使用一个预定义的XML字符串作为示例数据。

3. 使用BeautifulSoup解析XML

一旦我们有了XML数据(无论是字符串形式还是文件内容),就可以使用BeautifulSoup进行解析。

3.1 初始化BeautifulSoup解析器

首先,导入BeautifulSoup并用XML数据和指定的xml解析器初始化它:

from bs4 import BeautifulSoup

# 示例XML数据
xml_text = """\
<?xml version="1.0" encoding="UTF-8"?>
<league xmlns="http://feed.elasticstats.com/schema/hockey/schedule-v6.0.xsd" id="fd560107-a85b-4388-ab0d-655ad022aff7" name="NHL" alias="NHL">
  <daily-schedule date="2023-12-11">
    <games>
      <game id="23fa5cd7-d680-4dcd-83b5-cf010257ef1f" status="scheduled" coverage="full" scheduled="2023-12-12T00:00:00Z" sr_id="sr:match:41971769" reference="20428" home_team="4416d559-0f24-11e2-8525-18a905767e44" away_team="44153da1-0f24-11e2-8525-18a905767e44">
        <venue id="bd7b42fa-19bb-4b91-8615-214ccc3ff987" name="KeyBank Center" capacity="19070" address="1 Seymour H Knox III Plaza" city="Buffalo" state="NY" zip="14203" country="USA" time_zone="US/Eastern" sr_id="sr:venue:5950"/>
        <home id="4416d559-0f24-11e2-8525-18a905767e44" name="Buffalo Sabres" alias="BUF" sr_id="sr:team:3678" reference="7">
        </home>
        <away id="44153da1-0f24-11e2-8525-18a905767e44" name="Arizona Coyotes" alias="ARI" sr_id="sr:team:3698" reference="53">
        </away>
        <broadcasts>
          <broadcast network="MSG-B" type="TV" channel="635-1"/>
          <broadcast network="SCRIPPS" type="TV" locale="Away"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
      <game id="7026bc87-b286-40ac-92af-1ce88b17dec2" status="scheduled" coverage="full" scheduled="2023-12-12T00:00:00Z" sr_id="sr:match:41971771" reference="20429" home_team="441766b9-0f24-11e2-8525-18a905767e44" away_team="441730a9-0f24-11e2-8525-18a905767e44">
        <venue id="e256f8f5-5469-43b0-a95e-8d3adb3cb7ee" name="UBS Arena" capacity="17113" address="2150 Hempstead Turnpike" city="Belmont Park" state="NY" zip="11003" country="USA" time_zone="US/Eastern" sr_id="sr:venue:59880"/>
        <home id="441766b9-0f24-11e2-8525-18a905767e44" name="New York Islanders" alias="NYI" sr_id="sr:team:3703" reference="2">
        </home>
        <away id="441730a9-0f24-11e2-8525-18a905767e44" name="Toronto Maple Leafs" alias="TOR" sr_id="sr:team:3693" reference="10">
        </away>
        <broadcasts>
          <broadcast network="MSGSN" type="TV" channel="635"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
      <game id="47979944-74f1-43af-bebd-e82fab1432ee" status="scheduled" coverage="full" scheduled="2023-12-12T01:00:00Z" sr_id="sr:match:41971773" reference="20430" home_team="44157522-0f24-11e2-8525-18a905767e44" away_team="44169bb9-0f24-11e2-8525-18a905767e44">
        <venue id="adbd1acb-a053-4944-ba15-383eda91c12e" name="American Airlines Center" capacity="18532" address="2500 Victory Avenue" city="Dallas" state="TX" zip="75219" country="USA" time_zone="US/Central" sr_id="sr:venue:5988"/>
        <home id="44157522-0f24-11e2-8525-18a905767e44" name="Dallas Stars" alias="DAL" sr_id="sr:team:3684" reference="25">
        </home>
        <away id="44169bb9-0f24-11e2-8525-18a905767e44" name="Detroit Red Wings" alias="DET" sr_id="sr:team:3685" reference="17">
        </away>
        <broadcasts>
          <broadcast network="BSDET" type="TV" channel="663"/>
          <broadcast network="BSSWX" type="TV" locale="Away"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
      <game id="5e2b7cee-05da-429f-92cc-06678c4257bf" status="scheduled" coverage="full" scheduled="2023-12-12T02:30:00Z" sr_id="sr:match:41971775" reference="20431" home_team="4415ce44-0f24-11e2-8525-18a905767e44" away_team="44159241-0f24-11e2-8525-18a905767e44">
        <venue id="a75eea49-c384-4edb-99f1-d5252773ec83" name="Ball Arena" capacity="18007" address="1000 Chopper Circle" city="Denver" state="CO" zip="80204" country="USA" time_zone="US/Mountain" sr_id="sr:venue:5976"/>
        <home id="4415ce44-0f24-11e2-8525-18a905767e44" name="Colorado Avalanche" alias="COL" sr_id="sr:team:3682" reference="21">
        </home>
        <away id="44159241-0f24-11e2-8525-18a905767e44" name="Calgary Flames" alias="CGY" sr_id="sr:team:3679" reference="20">
        </away>
        <broadcasts>
          <broadcast network="ALT" type="TV" channel="681"/>
          <broadcast network="ESPN+" type="Internet" locale="National"/>
        </broadcasts>
      </game>
    </games>
  </daily-schedule>
</league>"""

soup = BeautifulSoup(xml_text, "xml")

注意: 这里的"xml"参数告诉BeautifulSoup使用Python内置的XML解析器。如果处理的是HTML文档,则应使用"html.parser"。

3.2 定位元素并提取属性

我们的目标是获取每个标签下的标签的id属性。BeautifulSoup提供了多种查找元素的方法,其中select()方法允许我们使用CSS选择器语法,这对于熟悉Web开发的开发者来说非常直观。

  1. 查找所有标签: 我们可以使用soup.select("game")来获取所有标签的列表。
  2. 在每个标签内查找标签: 对于每个找到的标签,我们可以进一步使用.home和.away属性来直接访问其子标签。
  3. 提取id属性: 访问标签的属性,就像访问字典键一样,例如game.home["id"]。
home_away_ids = []
for game in soup.select("game"):
    # 直接访问子标签
    home_tag = game.home
    away_tag = game.away

    # 提取id属性
    if home_tag and "id" in home_tag.attrs:
        home_id = home_tag["id"]
    else:
        home_id = "N/A" # 或者其他错误处理

    if away_tag and "id" in away_tag.attrs:
        away_id = away_tag["id"]
    else:
        away_id = "N/A" # 或者其他错误处理

    home_away_ids.append({"home_id": home_id, "away_id": away_id})
    print(f"主队ID: {home_id}, 客队ID: {away_id}")

print("\n所有提取到的ID:")
for item in home_away_ids:
    print(item)

输出示例:

主队ID: 4416d559-0f24-11e2-8525-18a905767e44, 客队ID: 44153da1-0f24-11e2-8525-18a905767e44
主队ID: 441766b9-0f24-11e2-8525-18a905767e44, 客队ID: 441730a9-0f24-11e2-8525-18a905767e44
主队ID: 44157522-0f24-11e2-8525-18a905767e44, 客队ID: 44169bb9-0f24-11e2-8525-18a905767e44
主队ID: 4415ce44-0f24-11e2-8525-18a905767e44, 客队ID: 44159241-0f24-11e2-8525-18a905767e44

所有提取到的ID:
{'home_id': '4416d559-0f24-11e2-8525-18a905767e44', 'away_id': '44153da1-0f24-11e2-8525-18a905767e44'}
{'home_id': '441766b9-0f24-11e2-8525-18a905767e44', 'away_id': '441730a9-0f24-11e2-8525-18a905767e44'}
{'home_id': '44157522-0f24-11e2-8525-18a905767e44', 'away_id': '44169bb9-0f24-11e2-8525-18a905767e44'}
{'home_id': '4415ce44-0f24-11e2-8525-18a905767e44', 'away_id': '44159241-0f24-11e2-8525-18a905767e44'}

4. 完整示例代码

下面是将获取数据和解析数据整合在一起的完整代码示例。您可以根据需要选择从API获取或从文件读取XML。

import http.client
from datetime import datetime
from bs4 import BeautifulSoup

# --- 辅助函数:获取XML数据 ---
def fetch_xml_from_api(api_key: str) -> str:
    """从Sportradar NHL API获取每日赛程XML数据。"""
    today = datetime.now().strftime("%Y/%m/%d")
    host = "api.sportradar.us"
    path = f"/nhl/trial/v7/en/games/{today}/schedule.xml?api_key={api_key}"

    try:
        conn = http.client.HTTPSConnection(host)
        conn.request("GET", path)
        res = conn.getresponse()
        data = res.read()
        conn.close()
        print(f"成功从API获取XML数据,状态码: {res.status}")
        return data.decode("utf-8")
    except Exception as e:
        print(f"获取API数据时发生错误: {e}")
        return ""

def read_xml_from_file(filepath: str) -> str:
    """从本地文件读取XML数据。"""
    try:
        with open(filepath, 'r', encoding='utf-8') as f:
            print(f"成功从文件 '{filepath}' 读取XML数据。")
            return f.read()
    except FileNotFoundError:
        print(f"错误: 文件未找到: {filepath}")
        return ""
    except Exception as e:
        print(f"读取文件时发生错误: {e}")
        return ""

# --- 主程序逻辑 ---
if __name__ == "__main__":
    # 选项1: 从API获取数据 (需要有效的API密钥)
    # api_key = "tx3ccn5bhk7nb5acb4cwd8np" # 替换为您的实际API密钥
    # xml_source_data = fetch_xml_from_api(api_key)

    # 选项2: 使用示例XML字符串 (用于演示,无需API密钥或文件)
    xml_source_data = """\
<?xml version="1.0" encoding="UTF-8"?>
<league xmlns="http://feed.elasticstats.com/schema/hockey/schedule-v6.0.xsd" id="fd560107-a85b-4388-ab0d-655ad022aff7" name="NHL" alias="NHL">
  <daily-schedule date="2023-12-11">
    <games>
      <game id="23fa5cd7-d680-4

好了,本文到此结束,带大家了解了《BeautifulSoup提取XML属性值教程》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!

多因子认证库JavaScript实现方法多因子认证库JavaScript实现方法
上一篇
多因子认证库JavaScript实现方法
看漫画app推荐2024热门免费漫画软件排名
下一篇
看漫画app推荐2024热门免费漫画软件排名
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3180次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3391次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3420次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4526次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3800次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码