当前位置:首页 > 文章列表 > 文章 > python教程 > Python爬虫入门:requests使用教程

Python爬虫入门:requests使用教程

2025-06-29 23:43:21 0浏览 收藏

一分耕耘,一分收获!既然都打开这篇《Python爬虫入门:requests库教程》,就坚持看下去,学下去吧!本文主要会给大家讲到等等知识点,如果大家对本文有好的建议或者看到有不足之处,非常欢迎大家积极提出!在后续文章我会继续更新文章相关的内容,希望对大家都有所帮助!

Python爬虫使用requests库发送请求、处理Cookie和Session、设置Headers、处理异常及使用代理IP。1. 发送GET请求用requests.get(url)获取网页内容;2. POST请求通过requests.post(url, data=data)提交数据;3. 创建Session对象自动管理Cookie实现登录访问;4. 通过headers参数模拟浏览器标识防止被识别为爬虫;5. 使用timeout设置超时并结合try-except捕获异常;6. 利用proxies参数配置代理IP防止IP被封。

Python爬虫入门:requests库使用

Python爬虫,核心就是模拟浏览器行为,抓取网页上的数据。requests库,绝对是入门级的神器,用起来简单粗暴,效率还高。

Python爬虫入门:requests库使用

利用requests库,我们可以轻松地向服务器发送HTTP请求,拿到网页的HTML源代码,然后就可以用BeautifulSoup或者XPath来解析提取数据了。

Python爬虫入门:requests库使用

安装requests库很简单,直接pip install requests就搞定了。

如何用requests发送GET和POST请求?

GET请求是最常用的,比如你想获取某个网页的内容:

Python爬虫入门:requests库使用
import requests

url = 'https://www.example.com'
response = requests.get(url)

if response.status_code == 200:
    print(response.text)
else:
    print(f"请求失败,状态码:{response.status_code}")

POST请求一般用于提交数据,比如登录:

import requests

url = 'https://www.example.com/login'
data = {'username': 'your_username', 'password': 'your_password'}
response = requests.post(url, data=data)

if response.status_code == 200:
    print(response.text)
else:
    print(f"请求失败,状态码:{response.status_code}")

注意,response.status_code是HTTP状态码,200表示请求成功。response.text是网页的HTML源代码。

如何处理requests中的Cookie和Session?

有些网站需要登录才能访问,这就涉及到Cookie和Session。requests库可以自动处理Cookie,你只需要创建一个Session对象:

import requests

session = requests.Session()

# 先登录
url_login = 'https://www.example.com/login'
data_login = {'username': 'your_username', 'password': 'your_password'}
response_login = session.post(url_login, data=data_login)

# 登录后访问需要权限的页面
url_protected = 'https://www.example.com/protected'
response_protected = session.get(url_protected)

if response_protected.status_code == 200:
    print(response_protected.text)
else:
    print(f"请求失败,状态码:{response_protected.status_code}")

Session对象会自动保存Cookie,下次请求会自动带上。

requests库如何设置请求头(Headers)?

有些网站会检查请求头,防止爬虫。我们可以通过设置Headers来模拟浏览器:

import requests

url = 'https://www.example.com'
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
}
response = requests.get(url, headers=headers)

if response.status_code == 200:
    print(response.text)
else:
    print(f"请求失败,状态码:{response.status_code}")

User-Agent是浏览器标识,可以从浏览器开发者工具中找到。

requests库如何处理超时和异常?

网络请求可能会超时或者出现其他异常,我们需要处理这些情况:

import requests

url = 'https://www.example.com'

try:
    response = requests.get(url, timeout=5)  # 设置超时时间为5秒
    response.raise_for_status()  # 检查HTTP状态码,如果不是200,抛出异常
    print(response.text)
except requests.exceptions.RequestException as e:
    print(f"请求出错:{e}")

timeout参数设置超时时间。response.raise_for_status()会检查HTTP状态码,如果不是200,会抛出异常。

如何使用代理IP防止被封?

频繁的爬取可能会被网站封IP,使用代理IP可以解决这个问题:

import requests

url = 'https://www.example.com'
proxies = {
    'http': 'http://10.10.1.10:3128',
    'https': 'http://10.10.1.10:1080',
}
try:
    response = requests.get(url, proxies=proxies, timeout=5)
    response.raise_for_status()
    print(response.text)
except requests.exceptions.RequestException as e:
    print(f"请求出错:{e}")

你需要替换http://10.10.1.10:3128http://10.10.1.10:1080为你的代理IP地址。

今天带大家了解了的相关知识,希望对你有所帮助;关于文章的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

监控MongoDB运行状态的实用方法监控MongoDB运行状态的实用方法
上一篇
监控MongoDB运行状态的实用方法
PHP导入CSV到MySQL教程详解
下一篇
PHP导入CSV到MySQL教程详解
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    176次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    175次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    177次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    183次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    197次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码