当前位置:首页 > 文章列表 > 文章 > python教程 > Python抓取Yahoo财报数据方法

Python抓取Yahoo财报数据方法

2025-12-05 10:48:33 0浏览 收藏
推广推荐
免费电影APP ➜
支持 PC / 移动端,安全直达

各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题《Python抓取Yahoo财报数据教程》,很明显是关于文章的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!

使用Python模拟API请求抓取Yahoo Finance历史财报数据

本教程旨在解决使用Python抓取Yahoo Finance动态加载财报数据的问题。由于Yahoo Finance的财报页面内容通过JavaScript动态加载,传统的BeautifulSoup直接解析HTML的方法往往无法获取完整数据。我们将深入探讨如何通过模拟浏览器API请求,直接从Yahoo Finance的后端接口获取结构化的历史财报数据,包括构建请求头、URL参数、JSON载荷以及处理日期筛选等关键步骤。

1. 动态内容抓取的挑战与API模拟

在尝试从Yahoo Finance等现代网站抓取数据时,一个常见的问题是页面内容并非全部包含在初始HTML响应中。特别是像财报日历这样的数据,通常会通过JavaScript在页面加载后异步地从后端API获取并渲染。这意味着,如果直接使用requests库获取页面HTML并结合BeautifulSoup进行解析,很可能只能得到一个空的或不完整的数据集。

原始尝试中,使用requests和BeautifulSoup去解析https://finance.yahoo.com/calendar/earnings?day={yesterday}页面,发现获取到的并非预期中的“昨日”财报数据,而是当前日期(如周日)的少量信息,这正是动态内容加载的典型表现。

解决这类问题的核心方法是模拟浏览器行为,直接调用网站后端用于获取数据的API接口。通过浏览器开发者工具(Network标签页),我们可以观察到页面加载过程中发出的XHR(XMLHttpRequest)请求,这些请求通常会返回JSON格式的结构化数据,这比解析HTML要高效和稳定得多。

2. 识别并模拟Yahoo Finance的财报API请求

通过分析Yahoo Finance财报页面的网络请求,我们可以发现其财报数据是通过向https://query2.finance.yahoo.com/v1/finance/visualization这个URL发送POST请求来获取的。这个请求的特点是:

  • 请求方法: POST
  • 请求URL: https://query2.finance.yahoo.com/v1/finance/visualization
  • 请求头 (Headers): 包含User-Agent等,模拟浏览器行为。
  • URL参数 (Params): 包含crumb、lang、region等。
  • 请求体 (JSON Payload): 这是一个复杂的JSON对象,定义了需要查询的实体类型、包含的字段、日期范围、排序方式等。
  • Cookie: 可能需要特定的Cookie(如A3)来维持会话或通过认证。

3. 构建API请求参数

为了成功模拟这个API请求,我们需要精确地构建上述各项参数。

3.1 请求头 (Headers)

User-Agent是必不可少的,它让服务器认为我们是一个合法的浏览器请求。

headers = {
    "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:120.0) Gecko/20100101 Firefox/120.0",
}

3.2 URL参数 (Params)

crumb是一个安全令牌,通常用于防止CSRF攻击,它的值可能会动态变化。lang和region定义了语言和地区。

params = {
    "crumb": "EwuCwsPbKM2", # 注意:此crumb可能随时间变化,需要动态获取或更新
    "lang": "en-US",
    "region": "US",
    "corsDomain": "finance.yahoo.com",
}

3.3 请求体 (JSON Payload - query)

这是最关键的部分,它定义了我们想要获取的数据。

  • entityIdType: 指定查询类型,这里是"earnings"。
  • includeFields: 一个列表,包含我们希望在结果中看到的字段,例如股票代码、公司名称、EPS估值、实际EPS等。
  • offset 和 size: 用于分页,offset是偏移量,size是每页返回的条目数。
  • query: 定义了筛选条件。其中operands是一个列表,每个元素是一个条件。
    • 例如,{"operands": ["startdatetime", "2023-12-15"], "operator": "gte"}表示开始日期大于等于2023-12-15。
    • {"operands": ["startdatetime", "2023-12-16"], "operator": "lt"}表示开始日期小于2023-12-16。
    • 这两个条件结合起来,就精确筛选出2023-12-15这一天的财报数据。
    • "operator": "and"表示多个条件之间是“与”的关系。
  • sortField 和 sortType: 定义了结果的排序字段和排序方式。
from datetime import date, timedelta

# 假设我们要获取2023年12月15日的财报数据
target_date = date(2023, 12, 15)
# 如果要获取“昨天”的财报,且确保是工作日,需要更复杂的日期逻辑
# 例如:
# today = date.today()
# target_date = today - timedelta(days=1)
# while target_date.weekday() > 4: # 0-Mon, 1-Tue, ..., 4-Fri, 5-Sat, 6-Sun
#     target_date -= timedelta(days=1)

query_payload = {
    "entityIdType": "earnings",
    "includeFields": [
        "ticker",
        "companyshortname",
        "eventname",
        "startdatetime",
        "startdatetimetype",
        "epsestimate",
        "epsactual",
        "epssurprisepct",
        "timeZoneShortName",
        "gmtOffsetMilliSeconds",
    ],
    "offset": 0,
    "query": {
        "operands": [
            {"operands": ["startdatetime", f"{target_date}T00:00:00.000Z"], "operator": "gte"},
            {"operands": ["startdatetime", f"{target_date + timedelta(days=1)}T00:00:00.000Z"], "operator": "lt"},
            {"operands": ["region", "us"], "operator": "eq"},
        ],
        "operator": "and",
    },
    "size": 100, # 可以根据需要调整,获取更多数据
    "sortField": "companyshortname",
    "sortType": "ASC",
}

3.4 Cookie

某些情况下,Yahoo Finance会检查特定的Cookie来验证会话。A3 Cookie就是其中之一。它的值也是动态的,可能会过期。

# 注意:此cookie可能随时间变化,需要动态获取或更新
cookie_value = "d=AQABBK8KXmQCEA8-VE0dBLqG5QEpQ7OglmEFEgABCAHCeWWpZfNtb2UB9qMAAAcIqgpeZJj7vK8&S=AQAAAqhyTAOrxcxONc4ktfzCOkg"

4. 完整示例代码

结合上述所有参数,我们可以构建一个完整的Python脚本来抓取指定日期的Yahoo Finance财报数据。

import requests
from datetime import date, timedelta

def get_yahoo_earnings(target_date: date):
    """
    从Yahoo Finance API获取指定日期的财报数据。

    Args:
        target_date (date): 目标日期,例如 date(2023, 12, 15)。

    Returns:
        list: 包含财报数据的列表,每个元素是一个字典。
    """
    headers = {
        "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:120.0) Gecko/20100101 Firefox/120.0",
    }

    # URL参数,crumb可能需要定期更新
    params = {
        "crumb": "EwuCwsPbKM2", # 示例值,实际使用时可能需要更新
        "lang": "en-US",
        "region": "US",
        "corsDomain": "finance.yahoo.com",
    }

    # 构建JSON请求体,用于指定查询条件
    query_payload = {
        "entityIdType": "earnings",
        "includeFields": [
            "ticker",
            "companyshortname",
            "eventname",
            "startdatetime",
            "startdatetimetype",
            "epsestimate",
            "epsactual",
            "epssurprisepct",
            "timeZoneShortName",
            "gmtOffsetMilliSeconds",
        ],
        "offset": 0,
        "query": {
            "operands": [
                {"operands": ["startdatetime", f"{target_date}T00:00:00.000Z"], "operator": "gte"},
                {"operands": ["startdatetime", f"{target_date + timedelta(days=1)}T00:00:00.000Z"], "operator": "lt"},
                {"operands": ["region", "us"], "operator": "eq"},
            ],
            "operator": "and",
        },
        "size": 100, # 每页获取的最大条目数
        "sortField": "companyshortname",
        "sortType": "ASC",
    }

    # Cookie,A3值也可能需要定期更新
    cookie_value = "d=AQABBK8KXmQCEA8-VE0dBLqG5QEpQ7OglmEFEgABCAHCeWWpZfNtb2UB9qMAAAcIqgpeZJj7vK8&S=AQAAAqhyTAOrxcxONc4ktfzCOkg" # 示例值,实际使用时可能需要更新

    url = "https://query2.finance.yahoo.com/v1/finance/visualization"

    try:
        with requests.Session() as s:
            s.headers.update(headers)
            s.cookies["A3"] = cookie_value # 设置会话cookie

            response = s.post(url, params=params, json=query_payload)
            response.raise_for_status() # 检查HTTP请求是否成功

            data = response.json()

            # 解析结果
            earnings_data = []
            if data and "finance" in data and "result" in data["finance"] and \
               data["finance"]["result"] and data["finance"]["result"][0]["documents"]:
                for doc in data["finance"]["result"][0]["documents"]:
                    if "rows" in doc:
                        for r in doc["rows"]:
                            # r[0]是ticker, r[1]是companyshortname, r[2]是eventname, r[3]是startdatetime
                            earnings_data.append({
                                "ticker": r[0],
                                "company_name": r[1],
                                "event_name": r[2],
                                "start_datetime": r[3],
                                # 其他字段可以根据includeFields的顺序和实际返回的r[]索引添加
                            })
            return earnings_data
    except requests.exceptions.RequestException as e:
        print(f"请求失败: {e}")
        return []
    except KeyError as e:
        print(f"解析JSON数据失败,可能数据结构发生变化: {e}")
        return []

if __name__ == "__main__":
    # 示例:获取2023年12月15日的财报数据
    # 请注意,crumb和cookie_value可能已经失效,需要从浏览器开发者工具中获取最新的值。
    target_date_example = date(2023, 12, 15)
    print(f"正在获取 {target_date_example} 的财报数据...")
    earnings = get_yahoo_earnings(target_date_example)

    if earnings:
        print(f"成功获取到 {len(earnings)} 条财报数据:")
        for item in earnings:
            print(f"公司: {item['company_name']:<40} 事件: {item['event_name'] or '':<40} 时间: {item['start_datetime']}")
    else:
        print("未能获取到财报数据。请检查crumb和cookie是否有效,或日期是否有数据。")

    print("\n--- 尝试获取上一个工作日的财报数据 ---")
    today = date.today()
    last_weekday = today - timedelta(days=1)
    # 循环直到找到一个工作日 (周一到周五)
    while last_weekday.weekday() > 4: # 5是周六,6是周日
        last_weekday -= timedelta(days=1)

    print(f"正在获取上一个工作日 ({last_weekday}) 的财报数据...")
    last_weekday_earnings = get_yahoo_earnings(last_weekday)
    if last_weekday_earnings:
        print(f"成功获取到 {len(last_weekday_earnings)} 条财报数据:")
        for item in last_weekday_earnings[:5]: # 仅打印前5条
            print(f"公司: {item['company_name']:<40} 事件: {item['event_name'] or '':<40} 时间: {item['start_datetime']}")
    else:
        print("未能获取到上一个工作日的财报数据。")

5. 数据解析与处理

API返回的数据是JSON格式,结构清晰。在get_yahoo_earnings函数中,我们通过response.json()获取到Python字典,然后可以根据其结构进行解析。

核心数据位于data["finance"]["result"][0]["documents"][0]["rows"]。每个row是一个列表,其中的元素对应于includeFields中定义的字段顺序。例如,r[0]是ticker,r[1]是companyshortname。为了提高可读性和健壮性,可以将这些列表项映射到字典中,如示例代码所示。

6. 注意事项

  1. 动态参数 (crumb 和 cookie): crumb和A3 Cookie的值是动态生成的,并且可能具有时效性。示例代码中的值可能很快失效。在实际应用中,你可能需要:
    • 定期手动更新: 每次运行脚本前,从浏览器开发者工具中获取最新的crumb和A3 Cookie值。
    • 自动化获取(高级): 使用Selenium或其他自动化工具模拟浏览器访问Yahoo Finance页面,然后从页面源码或网络请求中提取这些动态值。这超出了本教程的范围,但对于生产环境的爬虫是必要的。
  2. 频率限制与IP封禁: 频繁或过快的请求可能会导致你的IP地址被Yahoo Finance暂时或永久封禁。建议在请求之间添加适当的延迟(例如,使用time.sleep()),并考虑使用代理IP池。
  3. API结构变化: Yahoo Finance的API结构可能会在未来发生变化。如果脚本突然失效,请检查其网站的网络请求,看是否有新的API端点、参数或数据结构调整。
  4. 错误处理: 示例代码中包含了基本的try-except块来处理网络请求失败和JSON解析错误。在实际项目中,应增加更详细的错误日志记录和重试机制。
  5. 日期处理: 确保日期格式(YYYY-MM-DDTHH:mm:ss.sssZ)符合API要求。使用datetime模块进行日期计算可以避免许多常见错误。对于获取“上一个工作日”的需求,需要额外的逻辑来跳过周末。

7. 总结

通过模拟API请求,我们成功绕过了Yahoo Finance财报页面动态加载内容的限制,直接获取到了结构化的历史财报数据。这种方法比传统的HTML解析更加稳定和高效,尤其适用于处理JavaScript动态渲染的网站。尽管存在crumb和cookie等动态参数的挑战,但理解其工作原理并采取相应的更新策略,是构建健壮网络爬虫的关键。掌握这种API模拟技术,将极大地扩展你在数据抓取方面的能力。

今天关于《Python抓取Yahoo财报数据方法》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

雨课堂网页版登录与使用方法雨课堂网页版登录与使用方法
上一篇
雨课堂网页版登录与使用方法
Outlook账号登录官网最新入口地址
下一篇
Outlook账号登录官网最新入口地址
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3206次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3419次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3449次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4557次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3827次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码