Python生成器函数怎么写?一文讲清
想知道Python生成器函数怎么写吗?本文为你提供简单易懂的教程。生成器函数的核心在于`yield`关键字,它使函数能够暂停执行并返回值,同时保持函数状态,以便下次迭代时恢复。与普通函数一次性返回所有结果不同,生成器采用惰性计算,按需生成数据,有效降低内存占用。文章将介绍生成器函数的编写方法,并通过实例展示如何利用生成器处理大文件、构建数据流管道和实现无限序列。此外,还会分析生成器函数与普通函数在内存和性能上的差异,并探讨使用`yield from`委托子生成器的技巧,帮助你写出更简洁、健壮的Python代码。
生成器函数的核心是使用yield关键字,它使函数在每次遇到yield时暂停并返回值,保持状态以便后续恢复;2. 与普通函数一次性返回所有结果不同,生成器采用惰性计算,按需生成数据,显著降低内存占用;3. 生成器对象只能迭代一次,耗尽后需重新创建;4. 常见应用场景包括处理大文件、构建数据流管道和实现无限序列;5. 性能上生成器内存效率高,但小数据集可能因上下文开销略慢于列表;6. 使用yield from可优雅地委托子生成器,提升代码简洁性和健壮性。
Python中,要写一个生成器函数来实现迭代,核心在于使用yield
关键字。它不像普通函数那样用return
一次性返回所有结果,而是每次遇到yield
就“暂停”执行,并返回一个值,然后记住当前执行状态,等待下一次被请求时再从上次暂停的地方继续。这样,我们就能得到一个可迭代的对象,但它并不会一次性生成所有数据并存储在内存里,而是按需生成,这对于处理大量数据或无限序列非常有用。
解决方案
编写一个生成器函数非常直观,你只需要在函数体内部使用yield
语句来产生序列中的每个元素。当你调用这个函数时,它不会立即执行函数体内的代码,而是返回一个生成器对象(一个迭代器)。只有当你开始迭代这个生成器对象(比如通过for
循环,或者手动调用next()
)时,函数体内的代码才会开始执行,直到遇到第一个yield
语句,返回一个值,然后暂停。下一次迭代请求时,它会从上次暂停的地方继续执行,直到遇到下一个yield
,或者函数执行完毕。
def simple_generator(): print("开始生成...") yield 1 print("生成了1,继续...") yield 2 print("生成了2,快结束了...") yield 3 print("生成完毕!") # 创建生成器对象 gen = simple_generator() # 迭代生成器 print("--- 第一次迭代 ---") for value in gen: print(f"获取到值: {value}") # 尝试再次迭代同一个生成器(会发现它已经耗尽) print("\n--- 尝试第二次迭代同一个生成器 ---") for value in gen: print(f"再次获取到值: {value}") # 这行不会被执行,因为生成器已经空了 # 如果想再次迭代,需要重新创建一个生成器对象 print("\n--- 重新创建生成器并迭代 ---") new_gen = simple_generator() print(next(new_gen)) # 手动获取下一个值 print(next(new_gen)) print(next(new_gen)) try: print(next(new_gen)) # 尝试获取第四个值,会抛出StopIteration except StopIteration: print("生成器已耗尽,无法再获取值。")
从上面的例子可以看出,生成器对象一旦被遍历完,就“空”了,不能再用来生成值。如果你需要再次遍历,就得重新调用生成器函数,创建一个新的生成器对象。这和列表这样的数据结构完全不同,列表可以反复遍历。
生成器函数与普通函数:它们在内存使用和性能上有何差异?
我个人觉得,理解生成器函数和普通函数的根本区别,是掌握其精髓的关键。普通函数在执行时,通常会一次性完成所有计算,并返回一个最终结果(比如一个列表、一个字典)。如果这个结果集很大,那么在函数返回之前,所有数据都得老老实实地待在内存里。这对于处理几十万、上百万甚至更多条记录的情况,简直是内存杀手。我以前就遇到过因为一次性加载一个巨大CSV文件到内存,导致程序直接崩溃的窘境。
而生成器函数则完全不同,它采用的是“惰性计算”或者说“按需生成”的策略。当你调用生成器函数时,它并不会立即执行函数体内的所有代码,而是返回一个生成器对象。这个对象就像一个“承诺”,它承诺在你需要的时候,会给你下一个值。只有当你明确地请求(比如在for
循环中,或者调用next()
)时,生成器函数才会执行一小段代码,生成一个值,然后暂停,释放掉当前不需要的资源。下一个值?等你需要的时候再说。
这种机制带来的最大好处就是内存效率。你不需要一次性把所有数据都加载到内存中,这对于处理大文件、无限序列(比如斐波那契数列,你可以生成到任意大,而不用担心内存溢出)或者实时数据流(比如日志分析、网络数据包处理)来说,简直是救星。它不是为了追求纯粹的CPU执行速度,而是为了在资源受限的环境下,更优雅、更高效地处理数据。当然,由于每次yield
和next
调用之间存在一些上下文切换的开销,对于非常小的数据集,生成器可能比直接构建列表略慢,但这种差异通常可以忽略不计,而且内存优势往往更重要。
在实际开发中,生成器函数有哪些常见的应用场景?
生成器函数在实际开发中的应用场景非常广泛,尤其是在需要处理大量数据、数据流或者实现自定义迭代逻辑时。
一个非常经典的例子就是读取大型文件。想象一下,你有一个几十GB的日志文件,如果试图用readlines()
一次性读入内存,你的程序很可能直接崩溃。但如果用生成器:
def read_large_file(filepath): with open(filepath, 'r', encoding='utf-8') as f: for line in f: yield line.strip() # 逐行返回,并去除空白字符 # 使用生成器处理文件 # 假设有一个很大的'access.log'文件 # for log_entry in read_large_file('access.log'): # # 处理每一行日志,例如解析、过滤等 # if "ERROR" in log_entry: # print(f"发现错误日志: {log_entry}") # # 内存占用始终保持在较低水平
这样,每次for
循环只处理一行,内存占用极低。
另一个我经常用的场景是数据流处理管道。你可以把一系列数据处理步骤串联起来,每一步都是一个生成器,前一个生成器的输出是后一个生成器的输入。例如,从文件读取数据,然后过滤,再转换:
def get_numbers(filepath): with open(filepath, 'r') as f: for line in f: try: yield int(line.strip()) except ValueError: continue # 忽略非数字行 def filter_even(numbers_gen): for num in numbers_gen: if num % 2 == 0: yield num def square_numbers(even_numbers_gen): for num in even_numbers_gen: yield num * num # 假设'data.txt'包含多行数字和一些文本 # 例如: # 1 # 2 # hello # 3 # 4 # 5 # data.txt 内容: # 1 # 2 # hello # 3 # 4 # 5 # 运行管道 # for squared_even in square_numbers(filter_even(get_numbers('data.txt'))): # print(squared_even) # 输出: # 4 # 16
这种链式调用,每个环节都是惰性求值,数据在管道中流动,不会在任何一个中间步骤积累大量内存。
此外,自定义迭代器也是一个重要应用。当你需要实现一个自定义的复杂数据结构或者算法,并希望它能够像内置的列表、元组一样被for
循环遍历时,生成器函数是实现__iter__
方法的绝佳选择。比如,实现一个无限斐波那契数列生成器:
def fibonacci_sequence(): a, b = 0, 1 while True: # 无限序列 yield a a, b = b, a + b # for i, num in enumerate(fibonacci_sequence()): # if i > 10: # break # print(num) # 输出: # 0 # 1 # 1 # 2 # 3 # 5 # 8 # 13 # 21 # 34 # 55
你甚至可以利用生成器实现一些简单的协程行为,虽然现在有了async/await
,但生成器的send()
、throw()
、close()
方法依然为一些高级并发模式提供了基础。
编写生成器函数时,有哪些常见的陷阱或性能考量?
编写生成器函数时,有一些细节确实需要留意,否则可能会遇到一些意想不到的行为。
一个最常见的“陷阱”就是生成器只能被迭代一次。这跟列表、元组这种数据结构不一样。当你把一个生成器对象传给一个函数,那个函数遍历了一遍,那么这个生成器就“用完了”。如果你想再次遍历,或者把它传给另一个函数,那个函数会发现它已经空了。我第一次遇到这个问题时,还以为是代码哪里写错了,后来才明白这是生成器的设计特性。
def my_numbers(): yield 1 yield 2 yield 3 gen_obj = my_numbers() list_one = list(gen_obj) # 第一次迭代,gen_obj被耗尽 print(f"第一次转换成列表: {list_one}") # 输出: [1, 2, 3] list_two = list(gen_obj) # 第二次尝试转换,gen_obj已经空了 print(f"第二次转换成列表: {list_two}") # 输出: [] # 解决办法:每次需要迭代时,重新调用生成器函数创建新的生成器对象 gen_obj_new = my_numbers() list_three = list(gen_obj_new) print(f"重新创建后转换成列表: {list_three}") # 输出: [1, 2, 3]
所以,如果你在一个地方使用了生成器,并且知道后面可能还需要它,要记得重新创建它,或者一开始就考虑是否真的需要一个生成器,还是一个列表更合适。
在性能考量方面,虽然生成器在内存效率上表现出色,但它并非总是比列表推导式或一次性构建列表更快。每次yield
和next()
的调用,都会涉及一些内部的上下文切换和状态保存,这会带来微小的开销。对于非常小的数据集(比如只有几十个元素),这种开销可能会使得生成器在纯粹的CPU执行时间上略逊于直接构建列表。例如:
import time def generate_small_list(): return [i for i in range(1000)] def generate_small_generator(): for i in range(1000): yield i start = time.perf_counter() _ = generate_small_list() end = time.perf_counter() print(f"列表推导式耗时: {(end - start) * 1000:.2f} ms") start = time.perf_counter() _ = list(generate_small_generator()) # 强制迭代生成器 end = time.perf_counter() print(f"生成器耗时: {(end - start) * 1000:.2f} ms")
你会发现,对于小规模数据,列表推导式可能更快。但请记住,生成器的核心优势是内存,而不是绝对速度。当数据量变得庞大时,内存优势会迅速抵消掉这点微小的速度劣势,并成为决定性的因素。
另一个需要注意的,是当你在生成器内部调用另一个生成器时,可以使用yield from
。它能更优雅地处理子生成器的委托,避免了手动循环next()
的繁琐。
def sub_generator(): yield 'a' yield 'b' def main_generator_manual(): yield 1 for item in sub_generator(): # 手动迭代子生成器 yield item yield 2 def main_generator_yield_from(): yield 1 yield from sub_generator() # 使用yield from委托 yield 2 print(list(main_generator_manual())) # 输出: [1, 'a', 'b', 2] print(list(main_generator_yield_from())) # 输出: [1, 'a', 'b', 2]
yield from
不仅代码更简洁,在处理异常和关闭子生成器时也更健壮。理解这些细节,能帮助我们更高效、更稳定地利用生成器。
今天关于《Python生成器函数怎么写?一文讲清》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

- 上一篇
- async/await如何影响事件循环?

- 下一篇
- 我不是盐神官网入口最新网址
-
- 文章 · python教程 | 34分钟前 |
- Python时序数据填补:插值与前向填充方法
- 147浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- 获取对象所有属性方法详解
- 309浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Matplotlib粒子云动画制作指南
- 338浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Supervisor管理多Git分支实用技巧
- 424浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python数据去重技巧与drop\_duplicates参数详解
- 171浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python网页抓取入门指南详解
- 360浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- DBT模型SQL预览:查看宏与钩子执行语句
- 181浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Flask解决AxiosPOST跨域问题全攻略
- 441浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python操作HBase:happybase连接配置详解
- 300浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- 动态插入连字符的实用技巧分享
- 467浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Python日志配置与使用详解
- 368浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 514次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 千音漫语
- 千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
- 1233次使用
-
- MiniWork
- MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
- 1181次使用
-
- NoCode
- NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
- 1214次使用
-
- 达医智影
- 达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
- 1229次使用
-
- 智慧芽Eureka
- 智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
- 1215次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览