当前位置:首页 > 文章列表 > 文章 > python教程 > 百度百科爬虫HTTP重定向破解攻略

百度百科爬虫HTTP重定向破解攻略

2025-04-01 21:39:45 0浏览 收藏

本文针对使用lxml和xpath爬取百度百科信息时遇到的HTTP重定向问题,提供了解决方案。由于urllib.request.urlopen函数默认不处理重定向,导致爬取失败。文章通过代码示例演示了问题,并提出使用urllib.request.Request对象,结合异常处理,从而实现跟随重定向,最终成功获取百度百科页面内容,有效解决因重定向导致结果为空的难题。 关键词:百度百科爬虫,HTTP重定向,Python爬虫,urllib,lxml,xpath

百度百科网页爬取结果为空,如何解决HTTP重定向问题?

百度百科网页爬取:解决HTTP重定向导致结果为空的问题

本文分析了使用lxml库和xpath表达式爬取百度百科信息时,因HTTP重定向导致结果为空的问题,并提供了解决方案。 代码中使用了urllib.request库,但该库的urlopen函数默认不处理重定向,导致爬取失败。

以下代码片段展示了问题所在:

import urllib.request
import urllib.parse
from lxml import etree

def query(content):
    url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content)
    headers = {
        'user-agent': 'mozilla/5.0 (windows nt 10.0; wow64) applewebkit/537.36 (khtml, like gecko) chrome/67.0.3396.99 safari/537.36'
    }
    req = urllib.request.Request(url=url, headers=headers, method='GET') # 使用Request对象
    try:
        response = urllib.request.urlopen(req)
        text = response.read().decode('utf-8')
        html = etree.html(text)
        sen_list = html.xpath('//div[contains(@class,"lemma-summary") or contains(@class,"lemmawgt-lemmasummary")]//text()')
        sen_list_after_filter = [item.strip('\n') for item in sen_list]
        return ''.join(sen_list_after_filter)
    except urllib.error.HTTPError as e:
        print(f"HTTP Error: {e.code} - {e.reason}")
        return None

if __name__ == '__main__':
    while True:
        content = input('查询词语:')
        result = query(content)
        if result:
            print("查询结果:%s" % result)
        else:
            print("查询失败")

如代码所示,当搜索“叶挺”时,由于百度百科链接重定向到/item/%e5%8f%b6%e6%8c%ba/299649,原始代码无法获取正确页面,导致结果为空。

解决方案:

为了解决这个问题,我们需要让代码能够跟随重定向。 虽然urllib.request.urlopen可以设置follow_redirects=True,但更稳妥的方法是使用urllib.request.Request对象,并结合异常处理:

import urllib.request
import urllib.parse
from lxml import etree

# ... (rest of the code remains the same)

改进后的代码增加了错误处理,能够捕获HTTP错误并返回None,避免程序崩溃。 使用Request对象可以更清晰地控制请求,并且更易于处理各种HTTP状态码。 通过这些改进,爬虫程序就能正确处理重定向,获取到百度百科页面的内容。

到这里,我们也就讲完了《百度百科爬虫HTTP重定向破解攻略》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

PHP连接MySQL后页面空白问题解决方案PHP连接MySQL后页面空白问题解决方案
上一篇
PHP连接MySQL后页面空白问题解决方案
MySQL大数据查询:一次读万条记录的性能优化
下一篇
MySQL大数据查询:一次读万条记录的性能优化
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • PandaWiki开源知识库:AI大模型驱动,智能文档与AI创作、问答、搜索一体化平台
    PandaWiki开源知识库
    PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
    149次使用
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    942次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    964次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    977次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    1046次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码