当前位置:首页 > 文章列表 > 文章 > python教程 > Python多进程怎么用?multiprocessing详解

Python多进程怎么用?multiprocessing详解

2025-07-13 16:13:29 0浏览 收藏

## Python多进程怎么用?multiprocessing模块全解析 想要突破Python全局解释器锁(GIL)的限制,实现真正的并行计算?`multiprocessing`模块是你的不二之选。本文将深入解析`multiprocessing`模块的用法,教你如何创建和管理独立的进程,充分利用多核CPU的计算能力。我们将重点介绍`Process`类的使用,以及如何通过`Queue`、`Pipe`和共享内存等方式实现进程间的数据共享和通信。此外,本文还将详细讲解`Pool`类的优势,它能有效管理大量并发任务,简化资源调度与结果收集,显著提升代码的可维护性和执行效率,尤其适用于CPU密集型任务。掌握`multiprocessing`,让你的Python程序真正跑起来!

Python中绕过GIL实现真正并行计算的最直接方式是使用multiprocessing模块;2. 该模块通过创建独立进程,每个进程拥有自己的解释器和内存空间,从而实现多核CPU并行计算;3. multiprocessing提供了Process类创建和管理进程、Queue/Pipe实现进程间通信、以及Pool用于高效管理大量任务;4. 多进程适用于CPU密集型任务,而多线程受限于GIL更适合I/O密集型任务;5. 进程间通信可通过队列(Queue)、管道(Pipe)和共享内存(Shared Memory)实现,各自适用于不同场景;6. 使用Pool能有效管理大量并发任务,简化资源调度与结果收集,提升代码可维护性和执行效率。

Python中如何使用多进程?multiprocessing模块详解

Python中要实现真正的并行计算,绕过全局解释器锁(GIL)的限制,最直接有效的方式就是使用multiprocessing模块。它允许我们创建独立的进程,每个进程都有自己的Python解释器和内存空间,从而能够充分利用多核CPU的计算能力。

Python中如何使用多进程?multiprocessing模块详解

解决方案

使用multiprocessing模块的核心是Process类。你可以创建一个Process对象,指定它要执行的目标函数,然后启动它。

import multiprocessing
import os
import time

def worker_function(name, delay):
    """一个简单的模拟工作函数"""
    pid = os.getpid()
    print(f"进程 {pid} ({name}) 开始工作...")
    time.sleep(delay) # 模拟耗时操作
    print(f"进程 {pid} ({name}) 完成工作。")

if __name__ == '__main__':
    print("主进程开始。")

    # 创建两个进程
    process1 = multiprocessing.Process(target=worker_function, args=("任务A", 2))
    process2 = multiprocessing.Process(target=worker_function, args=("任务B", 1))

    # 启动进程
    process1.start()
    process2.start()

    # 等待所有子进程完成
    # join() 方法会阻塞主进程,直到对应的子进程执行完毕
    process1.join()
    process2.join()

    print("所有子进程已完成,主进程结束。")

在这个例子里,worker_function会在独立的进程中运行。process1.start()process2.start()会立即返回,而不会等待函数执行完毕,这就是并行执行的体现。join()方法则确保主进程在所有子进程结束之前不会退出。值得注意的是,if __name__ == '__main__':这行代码是必须的,尤其是在Windows系统上,它能确保子进程在启动时不会重复导入模块,避免无限循环创建进程的问题。

Python中如何使用多进程?multiprocessing模块详解

为什么需要多进程,它和多线程有什么区别?

这个问题,我个人觉得,是理解Python并发编程的关键。很多人刚开始接触时会混淆多线程和多进程,甚至觉得多线程就足够了。但实际上,对于CPU密集型任务,Python的多线程因为全局解释器锁(GIL)的存在,并不能实现真正的并行计算。GIL一次只允许一个线程执行Python字节码,这意味着即便你有多个线程,它们也只能轮流执行,无法同时利用多核CPU。

而多进程则完全不同。每个进程都有自己独立的内存空间和Python解释器实例,它们之间是相互隔离的。这意味着,一个进程的执行不会受到另一个进程中GIL的限制。所以,当你的任务是计算密集型(比如大量数学运算、数据处理等),需要榨干CPU的性能时,多进程就是你的不二之选。

Python中如何使用多进程?multiprocessing模块详解

简单来说:

  • 多线程: 线程共享同一进程的内存空间。适用于I/O密集型任务(如网络请求、文件读写),因为在等待I/O时,GIL会被释放,其他线程可以继续执行。但对于CPU密集型任务,受限于GIL,无法真正并行。
  • 多进程: 进程拥有独立的内存空间。适用于CPU密集型任务,可以充分利用多核CPU实现真正的并行计算。进程间通信相对复杂一些,因为它们不共享内存。

所以,选择多进程还是多线程,很大程度上取决于你的任务类型。

如何在多进程间共享数据和通信?

一开始接触多进程,最头疼的就是数据共享。你不能像多线程那样直接改个全局变量就完事儿,那样会出大问题。因为每个进程都有自己的内存副本,直接修改是无效的。得换个思路,比如把数据“扔”进队列里,让另一个进程去“捞”出来,这才是正道。multiprocessing模块提供了几种机制来处理进程间通信(IPC):

  1. 队列(Queue): 这是最常用、最灵活的方式,适用于任何类型的数据。Queue是进程安全的,可以用来在生产者-消费者模式中传递消息。

    import multiprocessing
    import time
    
    def producer(queue):
        for i in range(5):
            msg = f"消息 {i}"
            queue.put(msg)
            print(f"生产者发送: {msg}")
            time.sleep(0.5)
        queue.put(None) # 发送结束信号
    
    def consumer(queue):
        while True:
            msg = queue.get()
            if msg is None: # 收到结束信号
                break
            print(f"消费者接收: {msg}")
            time.sleep(0.8)
    
    if __name__ == '__main__':
        q = multiprocessing.Queue()
        p1 = multiprocessing.Process(target=producer, args=(q,))
        p2 = multiprocessing.Process(target=consumer, args=(q,))
    
        p1.start()
        p2.start()
    
        p1.join()
        p2.join()
        print("队列通信示例结束。")
  2. 管道(Pipe): Pipe用于两个进程之间的双向或单向通信。它比Queue更轻量级,但只能用于两个进程。

    import multiprocessing
    
    def sender(conn):
        conn.send("你好,我是发送方!")
        conn.close()
    
    def receiver(conn):
        msg = conn.recv()
        print(f"接收方收到: {msg}")
        conn.close()
    
    if __name__ == '__main__':
        parent_conn, child_conn = multiprocessing.Pipe() # 创建管道
        p1 = multiprocessing.Process(target=sender, args=(child_conn,))
        p2 = multiprocessing.Process(target=receiver, args=(parent_conn,))
    
        p1.start()
        p2.start()
    
        p1.join()
        p2.join()
        print("管道通信示例结束。")
  3. 共享内存(Shared Memory): 对于简单的数值类型或数组,可以使用ValueArray来在进程间共享。但需要注意的是,它们本身不提供同步机制,你可能还需要Lock来避免竞态条件。

    import multiprocessing
    
    def increment(num, arr, lock):
        lock.acquire() # 获取锁
        try:
            num.value += 1
            for i in range(len(arr)):
                arr[i] += 1
            print(f"进程 {multiprocessing.current_process().name} 修改后: num={num.value}, arr={list(arr)}")
        finally:
            lock.release() # 释放锁
    
    if __name__ == '__main__':
        num = multiprocessing.Value('i', 0) # 共享整数
        arr = multiprocessing.Array('i', [0, 0, 0]) # 共享整数数组
        lock = multiprocessing.Lock() # 共享锁
    
        processes = []
        for i in range(3):
            p = multiprocessing.Process(target=increment, args=(num, arr, lock), name=f"Worker-{i}")
            processes.append(p)
            p.start()
    
        for p in processes:
            p.join()
    
        print(f"最终结果: num={num.value}, arr={list(arr)}")

选择哪种方式取决于你的具体需求:Queue是最通用的,Pipe适用于点对点通信,而共享内存则适用于需要直接访问共享数据且对性能有较高要求的场景,但需要手动处理同步。

使用进程池(Pool)管理大量任务的优势是什么?

说实话,一开始我总想着自己手动Process().start()join(),但任务一多起来,比如要处理成百上千个文件,或者对大量数据进行并行计算,那代码就没法看了,而且手动管理进程的生命周期、资源限制也变得非常麻烦。Pool这东西,简直是“解放双手”的神器,它把那些烦人的进程生命周期管理、任务调度都给封装好了,我们只需要关注任务本身就行。

Pool类提供了一种更高级的方式来管理一组工作进程,它可以自动分配任务给这些进程,并在任务完成后回收资源。

主要优势:

  • 资源管理: 可以限制同时运行的进程数量,避免创建过多进程耗尽系统资源。
  • 任务分发: 提供了方便的方法(如mapapply)将任务分发给进程池中的工作进程。
  • 结果收集: 能够方便地收集各个任务的执行结果。

最常用的方法是map()apply_async()

  1. pool.map(func, iterable) 类似于内置的map()函数,它将iterable中的每个元素作为参数传递给func,并并行执行。它会阻塞直到所有结果都返回。

    import multiprocessing
    import time
    
    def square(x):
        time.sleep(0.1) # 模拟计算
        return x * x
    
    if __name__ == '__main__':
        with multiprocessing.Pool(processes=4) as pool: # 创建一个包含4个工作进程的进程池
            # 使用map并行计算列表元素的平方
            results = pool.map(square, range(10))
            print(f"使用map计算结果: {results}")
  2. pool.apply_async(func, args=(), kwds={}) 提交一个任务到进程池,并立即返回一个AsyncResult对象。你可以通过AsyncResult.get()方法获取结果(会阻塞直到结果可用),或者通过AsyncResult.ready()AsyncResult.successful()检查任务状态。这适用于需要异步处理结果,或者任务参数不适合map的情况。

    import multiprocessing
    import time
    
    def complex_task(a, b):
        time.sleep(0.5)
        return f"计算 {a} + {b} = {a + b}"
    
    if __name__ == '__main__':
        with multiprocessing.Pool(processes=3) as pool:
            # 提交异步任务
            async_result1 = pool.apply_async(complex_task, args=(1, 2))
            async_result2 = pool.apply_async(complex_task, args=(3, 4))
            async_result3 = pool.apply_async(complex_task, args=(5, 6))
    
            # 可以做其他事情,然后获取结果
            print("主进程在等待结果...")
            result1 = async_result1.get()
            result2 = async_result2.get()
            result3 = async_result3.get()
    
            print(f"结果1: {result1}")
            print(f"结果2: {result2}")
            print(f"结果3: {result3}")

使用with语句管理Pool是非常推荐的,它能确保进程池在代码块执行完毕后被正确关闭,释放所有资源。Pool是处理大量独立任务的理想选择,它极大地简化了并行编程的复杂性。

到这里,我们也就讲完了《Python多进程怎么用?multiprocessing详解》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

小白也能用!AI工具使用技巧全解析小白也能用!AI工具使用技巧全解析
上一篇
小白也能用!AI工具使用技巧全解析
DeepseekSurferSEO,提升文章排名新玩法
下一篇
DeepseekSurferSEO,提升文章排名新玩法
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI边界平台:智能对话、写作、画图,一站式解决方案
    边界AI平台
    探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
    411次使用
  • 讯飞AI大学堂免费AI认证证书:大模型工程师认证,提升您的职场竞争力
    免费AI认证证书
    科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
    421次使用
  • 茅茅虫AIGC检测:精准识别AI生成内容,保障学术诚信
    茅茅虫AIGC检测
    茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
    559次使用
  • 赛林匹克平台:科技赛事聚合,赋能AI、算力、量子计算创新
    赛林匹克平台(Challympics)
    探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
    660次使用
  • SEO  笔格AIPPT:AI智能PPT制作,免费生成,高效演示
    笔格AIPPT
    SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
    567次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码