当前位置:首页 > 文章列表 > 文章 > 前端 > Python下载PDF并自定义命名方法

Python下载PDF并自定义命名方法

2025-12-15 10:48:32 0浏览 收藏
推广推荐
免费电影APP ➜
支持 PC / 移动端,安全直达

“纵有疾风来,人生不言弃”,这句话送给正在学习文章的朋友们,也希望在阅读本文《Python下载PDF并自定义命名教程》后,能够真的帮助到大家。我也会在后续的文章中,陆续更新文章相关的技术文章,有好的建议欢迎大家在评论留言,非常感谢!

使用Python从网页下载PDF并根据链接文本自定义文件名教程

在Web数据抓取和自动化任务中,从网站下载文件是一项常见需求。然而,有时我们希望下载的文件名不仅仅是URL中自带的名称,而是网页上显示给用户的、更具描述性的文本。例如,一个链接可能显示为“Chapter 3 - Weird science”,但其指向的PDF文件URL可能包含难以理解的编码或不友好的文件名。本教程将指导您如何使用Python实现这一目标,从动态生成的ASP页面中抓取PDF文件,并以其对应的链接文本作为文件名进行保存。

前置条件

在开始之前,请确保您的Python环境中安装了以下库:

  • requests: 用于发送HTTP请求,包括POST和GET。
  • BeautifulSoup4: 用于解析HTML内容,方便提取所需数据。

您可以通过以下命令安装它们:

pip install requests beautifulsoup4 lxml

核心概念与步骤

整个过程可以分解为以下几个关键步骤:

  1. 发送HTTP POST请求获取页面内容:对于一些动态网站,如本例中的ASP页面,可能需要通过POST请求提交表单数据(如课程、班级信息)才能获取到包含PDF链接的HTML内容。
  2. 解析HTML,提取PDF链接及其对应的显示文本:使用BeautifulSoup解析响应的HTML,找到所有指向PDF文件的标签,并同时获取其href属性(PDF链接)和标签内部的文本内容(我们希望作为文件名的部分)。
  3. 构建本地保存路径:根据下载文件的分类需求,创建相应的本地目录结构。
  4. 自定义文件名:利用第2步获取到的链接文本作为文件名,并添加.pdf后缀。
  5. 下载PDF文件并保存到本地:对每个PDF链接发送HTTP GET请求,获取文件二进制内容,然后将其写入到本地指定路径。

详细实现

我们将通过一个具体的例子来演示上述步骤。假设我们需要从一个教育网站下载特定班级和科目的PDF资料。

1. 导入所需库

首先,导入我们将用到的所有库:

import os
import requests
from bs4 import BeautifulSoup
from urllib import parse as urlparse # 尽管在本例中可能不直接用于URL编码,但了解其用途很重要

2. 配置请求参数和目标路径

定义目标URL、HTTP请求头、要查询的班级和科目,以及本地文件保存的根目录。

# 定义目标URL和HTTP请求头
base_url = "https://www.svpo.nl/curriculum.asp"
headers = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}

# 定义要查询的班级和科目
klassen = ['1e klas']
vakken = ['Wiskunde'] # 可以扩展为更多科目

# 定义PDF文件保存的根目录
# 使用原始字符串r''以避免转义问题,并确保路径分隔符的正确性
path_out_root = r'c:\books' 

3. 遍历科目和班级,获取并下载PDF

这是核心逻辑部分,我们将循环遍历定义的班级和科目,对每个组合执行以下操作:

for klas in klassen: 
    for vak in vakken: 
        # 构建当前科目和班级的本地保存路径
        # os.path.join 确保跨操作系统的路径兼容性
        current_save_path = os.path.join(path_out_root, klas, vak)
        # 创建目录,如果已存在则忽略错误
        os.makedirs(current_save_path, exist_ok=True)

        # 构建POST请求的表单数据
        payload = {'vak': vak, 'klas_en_schoolsoort': klas}

        # 发送POST请求获取HTML内容
        print(f"正在获取 {klas} - {vak} 的课程页面...")
        response_page = requests.post(base_url, data=payload, headers=headers)
        response_page.raise_for_status() # 检查请求是否成功

        # 使用BeautifulSoup解析HTML
        soup = BeautifulSoup(response_page.text, "lxml")
        # 查找所有带有href属性的<a>标签
        all_links = soup.find_all('a', {'href': True})

        for link_tag in all_links:
            pdf_url = link_tag.get('href')

            # 检查链接是否以.pdf结尾(不区分大小写)
            if pdf_url and pdf_url.lower().endswith('.pdf'):
                # 统一URL中的路径分隔符,将反斜杠替换为正斜杠
                # 某些网站的URL可能使用反斜杠,这在标准URL中是非法的
                pdf_url = pdf_url.replace('\\', '/')

                # 构建完整的PDF下载链接(如果原始链接是相对路径,需要拼接base_url)
                # 这里假设pdf_url已经是完整的URL,如果不是,需要进一步处理
                # 例如:full_pdf_url = urlparse.urljoin(base_url_of_page_containing_link, pdf_url)

                # 提取链接文本作为文件名,并添加.pdf后缀
                # link_tag.text 获取<a>标签的显示文本
                filename = link_tag.text.strip() + '.pdf'

                # 构建完整的本地文件路径
                full_local_path = os.path.join(current_save_path, filename)

                print(f"  - 发现PDF: {filename}")
                print(f"    下载地址: {pdf_url}")
                print(f"    保存至: {full_local_path}")

                try:
                    # 发送GET请求下载PDF文件
                    response_pdf = requests.get(pdf_url, stream=True) # 使用stream=True处理大文件
                    response_pdf.raise_for_status() # 检查PDF下载请求是否成功

                    # 以二进制写入模式保存文件
                    with open(full_local_path, 'wb') as f:
                        for chunk in response_pdf.iter_content(chunk_size=8192):
                            f.write(chunk)
                    print(f"    下载成功: {filename}")
                except requests.exceptions.RequestException as e:
                    print(f"    下载失败 {pdf_url}: {e}")
                except IOError as e:
                    print(f"    文件写入失败 {full_local_path}: {e}")
                print('---')

完整示例代码

将上述所有代码片段整合,形成一个完整的Python脚本:

import os
import requests
from bs4 import BeautifulSoup
from urllib import parse as urlparse # 导入urlparse以备不时之需,尽管本例中未直接使用其编码功能

# 定义目标URL和HTTP请求头
base_url = "https://www.svpo.nl/curriculum.asp"
headers = {
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}

# 定义要查询的班级和科目
klassen = ['1e klas']
vakken = ['Wiskunde']
# 可以扩展为更多科目,例如:
# vakken = ['Engels','Aardrijkskunde','Economie', 'Filosofie','Frans', 'Geschiedenis', 
#           'Nask', 'Natuurkunde', 'Nederlands', 'Scheikunde', 'Spaans', 'Wiskunde',
#           'Biologie', 'Duits', 'Grieks','Latijn','Leesmateriaal', 
#           'Loopbaanorientatie','NLT']

# 定义PDF文件保存的根目录
# 使用原始字符串r''以避免转义问题,并确保路径分隔符的正确性
path_out_root = r'c:\books'

print("开始下载PDF文件...")

for klas in klassen: 
    for vak in vakken: 
        # 构建当前科目和班级的本地保存路径
        # os.path.join 确保跨操作系统的路径兼容性
        current_save_path = os.path.join(path_out_root, klas, vak)
        # 创建目录,如果已存在则忽略错误
        os.makedirs(current_save_path, exist_ok=True)
        print(f"\n--- 处理班级: {klas}, 科目: {vak} ---")

        # 构建POST请求的表单数据
        payload = {'vak': vak, 'klas_en_schoolsoort': klas}

        try:
            # 发送POST请求获取HTML内容
            print(f"正在请求 {base_url} (POST) 获取课程页面...")
            response_page = requests.post(base_url, data=payload, headers=headers, timeout=10)
            response_page.raise_for_status() # 检查请求是否成功,如果状态码不是2xx则抛出异常
            print("课程页面获取成功。")

            # 使用BeautifulSoup解析HTML
            soup = BeautifulSoup(response_page.text, "lxml")
            # 查找所有带有href属性的<a>标签
            all_links = soup.find_all('a', {'href': True})

            pdf_found_count = 0
            for link_tag in all_links:
                pdf_url = link_tag.get('href')

                # 检查链接是否以.pdf结尾(不区分大小写),并且链接不为空
                if pdf_url and pdf_url.lower().endswith('.pdf'):
                    pdf_found_count += 1
                    # 统一URL中的路径分隔符,将反斜杠替换为正斜杠
                    # 某些网站的URL可能使用反斜杠,这在标准URL中是非法的
                    pdf_url = pdf_url.replace('\\', '/')

                    # 提取链接文本作为文件名,并添加.pdf后缀
                    # link_tag.text 获取<a>标签的显示文本,并去除首尾空白
                    filename = link_tag.text.strip() + '.pdf'

                    # 确保文件名在文件系统中的合法性,例如移除特殊字符
                    # 这里可以添加额外的清理逻辑,例如:
                    # import re
                    # filename = re.sub(r'[\\/:*?"<>|]', '', filename) # 移除Windows不允许的字符

                    # 构建完整的本地文件路径
                    full_local_path = os.path.join(current_save_path, filename)

                    print(f"  - 发现PDF (No.{pdf_found_count}):")
                    print(f"    原始链接: {pdf_url}")
                    print(f"    自定义文件名: {filename}")
                    print(f"    保存路径: {full_local_path}")

                    try:
                        # 发送GET请求下载PDF文件
                        # stream=True 允许我们分块下载,适用于大文件,避免一次性加载到内存
                        response_pdf = requests.get(pdf_url, stream=True, headers=headers, timeout=30)
                        response_pdf.raise_for_status() # 检查PDF下载请求是否成功

                        # 以二进制写入模式保存文件
                        with open(full_local_path, 'wb') as f:
                            for chunk in response_pdf.iter_content(chunk_size=8192): # 每次读取8KB
                                f.write(chunk)
                        print(f"    下载成功: {filename}")
                    except requests.exceptions.RequestException as e:
                        print(f"    下载失败 {pdf_url}: {e}")
                    except IOError as e:
                        print(f"    文件写入失败 {full_local_path}: {e}")
                    print('---')

            if pdf_found_count == 0:
                print(f"  未在 {klas} - {vak} 页面中找到任何PDF链接。")

        except requests.exceptions.RequestException as e:
            print(f"获取 {klas} - {vak} 课程页面失败: {e}")
        except Exception as e:
            print(f"处理 {klas} - {vak} 时发生未知错误: {e}")

print("\n所有PDF下载任务完成。")

注意事项与最佳实践

  1. 错误处理:在网络请求和文件操作中,错误是常见的。使用try-except块捕获requests.exceptions.RequestException(网络错误、HTTP错误)和IOError(文件写入错误)可以增强脚本的健壮性。
  2. User-Agent:设置User-Agent请求头是模拟浏览器行为的重要一步,可以避免某些网站的反爬虫机制。
  3. 路径管理:始终使用os.path.join()来拼接路径,这能确保脚本在不同操作系统(Windows、Linux、macOS)上的兼容性,因为它们使用不同的路径分隔符。os.makedirs(path, exist_ok=True)则可以避免目录已存在时抛出错误。
  4. 文件名合法性:从网页文本中提取的文件名可能包含操作系统不允许的字符(如\、/、:、*、?、"、<、>、|)。在保存文件前,最好对文件名进行清理,替换或移除这些非法字符,以避免文件创建失败。
  5. 大文件下载:对于可能较大的PDF文件,使用requests.get(url, stream=True)并结合response.iter_content(chunk_size=...)进行分块下载,可以避免将整个文件一次性加载到内存中,从而节省内存资源。
  6. URL处理:注意处理URL中的路径分隔符。在Windows系统中,文件路径可能使用反斜杠\,但标准URL通常使用正斜杠/。本教程中pdf_url.replace('\\', '/')是必要的。此外,如果href属性提供的是相对路径,您需要使用urlparse.urljoin()来构建完整的URL。
  7. 超时设置:在requests.post和requests.get中添加timeout参数,可以防止请求长时间无响应导致脚本挂起。

总结

通过本教程,您应该已经掌握了如何使用Python的requests和BeautifulSoup库,从动态网页中抓取PDF文件,并根据链接的显示文本自定义文件名。这种方法不仅提高了下载文件的可读性和管理效率,也展示了Python在网页自动化和数据处理方面的强大能力。记住,在进行任何网页抓取活动时,请务必遵守网站的服务条款和相关法律法规。

以上就是《Python下载PDF并自定义命名方法》的详细内容,更多关于的资料请关注golang学习网公众号!

iSlide文件预览模糊解决方法分享iSlide文件预览模糊解决方法分享
上一篇
iSlide文件预览模糊解决方法分享
夸克网盘电脑版登录入口详解
下一篇
夸克网盘电脑版登录入口详解
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3318次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3530次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3560次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4682次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3935次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码