Polars列表交集技巧与聚合方法
偷偷努力,悄无声息地变强,然后惊艳所有人!哈哈,小伙伴们又来学习啦~今天我将给大家介绍《Polars列表字符串交集聚合技巧》,这篇文章主要会讲到等等知识点,不知道大家对其都有多少了解,下面我们就一起来看一吧!当然,非常希望大家能多多评论,给出合理的建议,我们一起学习,一起进步!
1. 问题描述与挑战
在数据处理中,我们经常会遇到需要对包含列表(list)类型数据的列进行聚合操作的场景。一个常见的需求是,对于某个分组键(如 id),我们希望找到该组内所有列表的共同元素,即它们的交集。
考虑以下Polars DataFrame:
import polars as pl df = pl.DataFrame( {"id": [1,1,2,2,3,3], "values": [["A", "B"], ["B", "C"], ["A", "B"], ["B", "C"], ["A", "B"], ["B", "C"]] } ) print(df)
输出:
shape: (6, 2) ┌─────┬───────────┐ │ id ┆ values │ │ --- ┆ --- │ │ i64 ┆ list[str] │ ╞═════╪═══════════╡ │ 1 ┆ ["A", "B"]│ │ 1 ┆ ["B", "C"]│ │ 2 ┆ ["A", "B"]│ │ 2 ┆ ["B", "C"]│ │ 3 ┆ ["A", "B"]│ │ 3 ┆ ["B", "C"]│ └─────┴───────────┘
我们的目标是,对于每个 id,计算其 values 列中所有列表的交集。例如,对于 id=1,期望的输出是 ["B"],因为 ["A", "B"] 和 ["B", "C"] 的交集是 ["B"]。
尝试直接使用 pl.reduce 和 list.set_intersection 可能不会立即得到期望的结果,因为 reduce 通常在聚合时处理的是列的 Series 而非内部列表元素的交集逻辑,或者需要更复杂的初始化和累积函数。例如:
# 尝试1:直接reduce # df.group_by("id").agg( # pl.reduce(function=lambda acc, x: acc.list.set_intersection(x), # exprs=pl.col("values")) # ) # 结果是 list[list[str]],不是预期的单个列表交集 # 尝试2:explode后reduce # df.group_by("id").agg( # pl.reduce(function=lambda acc, x: acc.list.set_intersection(x), # exprs=pl.col("values").explode()) # ) # 结果是 list[str] 但包含了所有元素,不是交集
这些尝试表明,直接在列表列上进行集合操作可能需要更精细的控制。
2. Polars解决方案:基于扁平化与计数的方法
解决此问题的关键在于将列表数据扁平化,然后利用Polars强大的分组和窗口函数来识别那些在组内所有原始列表中都存在的元素。
以下是实现这一目标的详细步骤和代码:
步骤 1:计算每个分组的行数 (group_len)
首先,我们需要知道每个 id 分组中有多少行。这对于后续判断一个元素是否在所有列表中都出现至关重要。
df_processed = df.with_columns( pl.len().over("id").alias("group_len") ) print("Step 1: Add group_len") print(df_processed)
输出:
shape: (6, 3) ┌─────┬───────────┬───────────┐ │ id ┆ values ┆ group_len │ │ --- ┆ --- ┆ --- │ │ i64 ┆ list[str] ┆ u32 │ ╞═════╪═══════════╪═══════════╡ │ 1 ┆ ["A", "B"]│ 2 │ │ 1 ┆ ["B", "C"]│ 2 │ │ 2 ┆ ["A", "B"]│ 2 │ │ 2 ┆ ["B", "C"]│ 2 │ │ 3 ┆ ["A", "B"]│ 2 │ │ 3 ┆ ["B", "C"]│ 2 │ └─────┴───────────┴───────────┘
步骤 2:添加行索引 (index)
为了在扁平化后区分原始行,我们需要为每行添加一个唯一的索引。
df_processed = df_processed.with_row_index() print("\nStep 2: Add row index") print(df_processed)
输出:
shape: (6, 4) ┌───────┬─────┬───────────┬───────────┐ │ index ┆ id ┆ values ┆ group_len │ │ --- ┆ --- ┆ --- ┆ --- │ │ u32 ┆ i64 ┆ list[str] ┆ u32 │ ╞═══════╪═════╪═══════════╪═══════════╡ │ 0 ┆ 1 ┆ ["A", "B"]│ 2 │ │ 1 ┆ 1 ┆ ["B", "C"]│ 2 │ │ 2 ┆ 2 ┆ ["A", "B"]│ 2 │ │ 3 ┆ 2 ┆ ["B", "C"]│ 2 │ │ 4 ┆ 3 ┆ ["A", "B"]│ 2 │ │ 5 ┆ 3 ┆ ["B", "C"]│ 2 │ └───────┴─────┴───────────┴───────────┘
步骤 3:扁平化 values 列 (explode)
使用 explode("values") 将 values 列中的每个列表元素展开成独立的行。这样,我们就可以对单个字符串元素进行操作。
df_processed = df_processed.explode("values") print("\nStep 3: Explode values column") print(df_processed)
输出:
shape: (12, 4) ┌───────┬─────┬────────┬───────────┐ │ index ┆ id ┆ values ┆ group_len │ │ --- ┆ --- ┆ --- ┆ --- │ │ u32 ┆ i64 ┆ str ┆ u32 │ ╞═══════╪═════╪════════╪═══════════╡ │ 0 ┆ 1 ┆ A ┆ 2 │ │ 0 ┆ 1 ┆ B ┆ 2 │ │ 1 ┆ 1 ┆ B ┆ 2 │ │ 1 ┆ 1 ┆ C ┆ 2 │ │ 2 ┆ 2 ┆ A ┆ 2 │ │ 2 ┆ 2 ┆ B ┆ 2 │ │ 3 ┆ 2 ┆ B ┆ 2 │ │ 3 ┆ 2 ┆ C ┆ 2 │ │ 4 ┆ 3 ┆ A ┆ 2 │ │ 4 ┆ 3 ┆ B ┆ 2 │ │ 5 ┆ 3 ┆ B ┆ 2 │ │ 5 ┆ 3 ┆ C ┆ 2 │ └───────┴─────┴────────┴───────────┘
4. 计算每个 (id, value) 组合的唯一原始行数 (n_unique)
这是核心步骤。对于每个 id 和 values 的组合,我们计算其对应的原始 index 的唯一数量。如果 n_unique 等于 group_len,则表示这个 values 元素在 id 组内的所有原始行中都存在。
df_processed = df_processed.with_columns( pl.col("index").n_unique().over("id", "values").alias("n_unique") ) print("\nStep 4: Calculate n_unique for each (id, value) pair") print(df_processed)
输出(部分关键行):
shape: (12, 5) ┌───────┬─────┬────────┬───────────┬──────────┐ │ index ┆ id ┆ values ┆ group_len ┆ n_unique │ │ --- ┆ --- ┆ --- ┆ --- ┆ --- │ │ u32 ┆ i64 ┆ str ┆ u32 ┆ u32 │ ╞═══════╪═════╪════════╪═══════════╪══════════╡ │ 0 ┆ 1 ┆ A ┆ 2 ┆ 1 │ # 'A' for id=1 appears only in original row 0 │ 0 ┆ 1 ┆ B ┆ 2 ┆ 2 │ # 'B' for id=1 appears in original rows 0 and 1 │ 1 ┆ 1 ┆ B ┆ 2 ┆ 2 │ │ 1 ┆ 1 ┆ C ┆ 2 ┆ 1 │ # 'C' for id=1 appears only in original row 1 ...
从上面的输出可以看出,对于 id=1,values='B' 的 n_unique 是 2,这与 group_len (2) 相等,说明 'B' 在 id=1 的所有原始列表中都存在。而 'A' 和 'C' 的 n_unique 是 1,不等于 group_len,说明它们只存在于部分列表中。
5. 过滤并重建列表
最后,我们过滤出那些 n_unique 等于 group_len 的行,然后按 id 分组,并将 values 列聚合回列表,同时去除重复项 (unique()) 以确保结果的正确性。
final_result = ( df.with_columns(pl.len().over("id").alias("group_len")) .with_row_index() .explode("values") .filter( pl.col("index").n_unique().over("id", "values") == pl.col("group_len") ) .group_by("id", maintain_order=True) .agg(pl.col("values").unique()) ) print("\nFinal Result:") print(final_result)
最终输出:
shape: (3, 2) ┌─────┬───────────┐ │ id ┆ values │ │ --- ┆ --- │ │ i64 ┆ list[str] │ ╞═════╪═══════════╡ │ 1 ┆ ["B"] │ │ 2 ┆ ["B"] │ │ 3 ┆ ["B"] │ └─────┴───────────┘
这正是我们期望的交集结果。
3. 注意事项与总结
- 扁平化策略:此方法的核心思想是将列表数据扁平化,将列表操作转换为更通用的 DataFrame 行操作。这使得Polars能够高效地利用其向量化和并行处理能力。
- 窗口函数 (over) 的强大:over() 方法在这里发挥了关键作用,它允许我们在特定分组(id, values)内执行聚合操作(n_unique),而无需显式的 group_by。
- 内存考虑:对于非常大的列表或大量分组,explode 操作可能会显著增加 DataFrame 的行数,从而增加内存消耗。在极端情况下,可能需要考虑分块处理或使用其他内存优化技术。
- 通用性:这种模式不仅适用于字符串列表的交集,也可以扩展到其他类型元素的列表,只要能够定义其“存在”和“唯一性”。
通过上述步骤,我们成功地解决了Polars中列表字符串列的交集聚合问题,展示了Polars在处理复杂数据转换和聚合方面的灵活性和强大功能。这种方法避免了直接在列表上进行复杂的 reduce 操作,转而利用了DataFrame的扁平化能力和窗口函数,提供了一个高效且易于理解的解决方案。
终于介绍完啦!小伙伴们,这篇关于《Polars列表交集技巧与聚合方法》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

- 上一篇
- HTML中class命名规范5大原则

- 下一篇
- AI瑜伽工具搭配豆包,轻松跟练教程
-
- 文章 · python教程 | 19秒前 |
- Python多进程怎么用?multiprocessing详解
- 380浏览 收藏
-
- 文章 · python教程 | 8分钟前 |
- Python图像处理:Pillow库进阶技巧解析
- 188浏览 收藏
-
- 文章 · python教程 | 11分钟前 |
- Python正则匹配路径及系统适配技巧
- 148浏览 收藏
-
- 文章 · python教程 | 12分钟前 |
- Python字符串替换技巧详解
- 463浏览 收藏
-
- 文章 · python教程 | 19分钟前 |
- 模糊地址匹配教程:精准定位方法
- 337浏览 收藏
-
- 文章 · python教程 | 21分钟前 | Python API 数据验证 JSONSchema
- Python验证JSON数据的几种方法
- 295浏览 收藏
-
- 文章 · python教程 | 43分钟前 |
- Python内存回收机制全解析
- 439浏览 收藏
-
- 文章 · python教程 | 45分钟前 |
- PythonGIL是什么?有何影响?
- 393浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- PythonOCR教程:Tesseract识别详解
- 475浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python代码混淆技巧:AST模块使用解析
- 413浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python中//整除运算符使用详解
- 216浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python中d代表什么?字符串格式化全解析
- 248浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 边界AI平台
- 探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
- 410次使用
-
- 免费AI认证证书
- 科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
- 420次使用
-
- 茅茅虫AIGC检测
- 茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
- 557次使用
-
- 赛林匹克平台(Challympics)
- 探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
- 655次使用
-
- 笔格AIPPT
- SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
- 564次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览