Polars列表交集技巧与聚合方法
偷偷努力,悄无声息地变强,然后惊艳所有人!哈哈,小伙伴们又来学习啦~今天我将给大家介绍《Polars列表字符串交集聚合技巧》,这篇文章主要会讲到等等知识点,不知道大家对其都有多少了解,下面我们就一起来看一吧!当然,非常希望大家能多多评论,给出合理的建议,我们一起学习,一起进步!

1. 问题描述与挑战
在数据处理中,我们经常会遇到需要对包含列表(list)类型数据的列进行聚合操作的场景。一个常见的需求是,对于某个分组键(如 id),我们希望找到该组内所有列表的共同元素,即它们的交集。
考虑以下Polars DataFrame:
import polars as pl
df = pl.DataFrame(
{"id": [1,1,2,2,3,3],
"values": [["A", "B"], ["B", "C"], ["A", "B"], ["B", "C"], ["A", "B"], ["B", "C"]]
}
)
print(df)输出:
shape: (6, 2) ┌─────┬───────────┐ │ id ┆ values │ │ --- ┆ --- │ │ i64 ┆ list[str] │ ╞═════╪═══════════╡ │ 1 ┆ ["A", "B"]│ │ 1 ┆ ["B", "C"]│ │ 2 ┆ ["A", "B"]│ │ 2 ┆ ["B", "C"]│ │ 3 ┆ ["A", "B"]│ │ 3 ┆ ["B", "C"]│ └─────┴───────────┘
我们的目标是,对于每个 id,计算其 values 列中所有列表的交集。例如,对于 id=1,期望的输出是 ["B"],因为 ["A", "B"] 和 ["B", "C"] 的交集是 ["B"]。
尝试直接使用 pl.reduce 和 list.set_intersection 可能不会立即得到期望的结果,因为 reduce 通常在聚合时处理的是列的 Series 而非内部列表元素的交集逻辑,或者需要更复杂的初始化和累积函数。例如:
# 尝试1:直接reduce
# df.group_by("id").agg(
# pl.reduce(function=lambda acc, x: acc.list.set_intersection(x),
# exprs=pl.col("values"))
# )
# 结果是 list[list[str]],不是预期的单个列表交集
# 尝试2:explode后reduce
# df.group_by("id").agg(
# pl.reduce(function=lambda acc, x: acc.list.set_intersection(x),
# exprs=pl.col("values").explode())
# )
# 结果是 list[str] 但包含了所有元素,不是交集这些尝试表明,直接在列表列上进行集合操作可能需要更精细的控制。
2. Polars解决方案:基于扁平化与计数的方法
解决此问题的关键在于将列表数据扁平化,然后利用Polars强大的分组和窗口函数来识别那些在组内所有原始列表中都存在的元素。
以下是实现这一目标的详细步骤和代码:
步骤 1:计算每个分组的行数 (group_len)
首先,我们需要知道每个 id 分组中有多少行。这对于后续判断一个元素是否在所有列表中都出现至关重要。
df_processed = df.with_columns(
pl.len().over("id").alias("group_len")
)
print("Step 1: Add group_len")
print(df_processed)输出:
shape: (6, 3) ┌─────┬───────────┬───────────┐ │ id ┆ values ┆ group_len │ │ --- ┆ --- ┆ --- │ │ i64 ┆ list[str] ┆ u32 │ ╞═════╪═══════════╪═══════════╡ │ 1 ┆ ["A", "B"]│ 2 │ │ 1 ┆ ["B", "C"]│ 2 │ │ 2 ┆ ["A", "B"]│ 2 │ │ 2 ┆ ["B", "C"]│ 2 │ │ 3 ┆ ["A", "B"]│ 2 │ │ 3 ┆ ["B", "C"]│ 2 │ └─────┴───────────┴───────────┘
步骤 2:添加行索引 (index)
为了在扁平化后区分原始行,我们需要为每行添加一个唯一的索引。
df_processed = df_processed.with_row_index()
print("\nStep 2: Add row index")
print(df_processed)输出:
shape: (6, 4) ┌───────┬─────┬───────────┬───────────┐ │ index ┆ id ┆ values ┆ group_len │ │ --- ┆ --- ┆ --- ┆ --- │ │ u32 ┆ i64 ┆ list[str] ┆ u32 │ ╞═══════╪═════╪═══════════╪═══════════╡ │ 0 ┆ 1 ┆ ["A", "B"]│ 2 │ │ 1 ┆ 1 ┆ ["B", "C"]│ 2 │ │ 2 ┆ 2 ┆ ["A", "B"]│ 2 │ │ 3 ┆ 2 ┆ ["B", "C"]│ 2 │ │ 4 ┆ 3 ┆ ["A", "B"]│ 2 │ │ 5 ┆ 3 ┆ ["B", "C"]│ 2 │ └───────┴─────┴───────────┴───────────┘
步骤 3:扁平化 values 列 (explode)
使用 explode("values") 将 values 列中的每个列表元素展开成独立的行。这样,我们就可以对单个字符串元素进行操作。
df_processed = df_processed.explode("values")
print("\nStep 3: Explode values column")
print(df_processed)输出:
shape: (12, 4) ┌───────┬─────┬────────┬───────────┐ │ index ┆ id ┆ values ┆ group_len │ │ --- ┆ --- ┆ --- ┆ --- │ │ u32 ┆ i64 ┆ str ┆ u32 │ ╞═══════╪═════╪════════╪═══════════╡ │ 0 ┆ 1 ┆ A ┆ 2 │ │ 0 ┆ 1 ┆ B ┆ 2 │ │ 1 ┆ 1 ┆ B ┆ 2 │ │ 1 ┆ 1 ┆ C ┆ 2 │ │ 2 ┆ 2 ┆ A ┆ 2 │ │ 2 ┆ 2 ┆ B ┆ 2 │ │ 3 ┆ 2 ┆ B ┆ 2 │ │ 3 ┆ 2 ┆ C ┆ 2 │ │ 4 ┆ 3 ┆ A ┆ 2 │ │ 4 ┆ 3 ┆ B ┆ 2 │ │ 5 ┆ 3 ┆ B ┆ 2 │ │ 5 ┆ 3 ┆ C ┆ 2 │ └───────┴─────┴────────┴───────────┘
4. 计算每个 (id, value) 组合的唯一原始行数 (n_unique)
这是核心步骤。对于每个 id 和 values 的组合,我们计算其对应的原始 index 的唯一数量。如果 n_unique 等于 group_len,则表示这个 values 元素在 id 组内的所有原始行中都存在。
df_processed = df_processed.with_columns(
pl.col("index").n_unique().over("id", "values").alias("n_unique")
)
print("\nStep 4: Calculate n_unique for each (id, value) pair")
print(df_processed)输出(部分关键行):
shape: (12, 5) ┌───────┬─────┬────────┬───────────┬──────────┐ │ index ┆ id ┆ values ┆ group_len ┆ n_unique │ │ --- ┆ --- ┆ --- ┆ --- ┆ --- │ │ u32 ┆ i64 ┆ str ┆ u32 ┆ u32 │ ╞═══════╪═════╪════════╪═══════════╪══════════╡ │ 0 ┆ 1 ┆ A ┆ 2 ┆ 1 │ # 'A' for id=1 appears only in original row 0 │ 0 ┆ 1 ┆ B ┆ 2 ┆ 2 │ # 'B' for id=1 appears in original rows 0 and 1 │ 1 ┆ 1 ┆ B ┆ 2 ┆ 2 │ │ 1 ┆ 1 ┆ C ┆ 2 ┆ 1 │ # 'C' for id=1 appears only in original row 1 ...
从上面的输出可以看出,对于 id=1,values='B' 的 n_unique 是 2,这与 group_len (2) 相等,说明 'B' 在 id=1 的所有原始列表中都存在。而 'A' 和 'C' 的 n_unique 是 1,不等于 group_len,说明它们只存在于部分列表中。
5. 过滤并重建列表
最后,我们过滤出那些 n_unique 等于 group_len 的行,然后按 id 分组,并将 values 列聚合回列表,同时去除重复项 (unique()) 以确保结果的正确性。
final_result = (
df.with_columns(pl.len().over("id").alias("group_len"))
.with_row_index()
.explode("values")
.filter(
pl.col("index").n_unique().over("id", "values")
== pl.col("group_len")
)
.group_by("id", maintain_order=True)
.agg(pl.col("values").unique())
)
print("\nFinal Result:")
print(final_result)最终输出:
shape: (3, 2) ┌─────┬───────────┐ │ id ┆ values │ │ --- ┆ --- │ │ i64 ┆ list[str] │ ╞═════╪═══════════╡ │ 1 ┆ ["B"] │ │ 2 ┆ ["B"] │ │ 3 ┆ ["B"] │ └─────┴───────────┘
这正是我们期望的交集结果。
3. 注意事项与总结
- 扁平化策略:此方法的核心思想是将列表数据扁平化,将列表操作转换为更通用的 DataFrame 行操作。这使得Polars能够高效地利用其向量化和并行处理能力。
- 窗口函数 (over) 的强大:over() 方法在这里发挥了关键作用,它允许我们在特定分组(id, values)内执行聚合操作(n_unique),而无需显式的 group_by。
- 内存考虑:对于非常大的列表或大量分组,explode 操作可能会显著增加 DataFrame 的行数,从而增加内存消耗。在极端情况下,可能需要考虑分块处理或使用其他内存优化技术。
- 通用性:这种模式不仅适用于字符串列表的交集,也可以扩展到其他类型元素的列表,只要能够定义其“存在”和“唯一性”。
通过上述步骤,我们成功地解决了Polars中列表字符串列的交集聚合问题,展示了Polars在处理复杂数据转换和聚合方面的灵活性和强大功能。这种方法避免了直接在列表上进行复杂的 reduce 操作,转而利用了DataFrame的扁平化能力和窗口函数,提供了一个高效且易于理解的解决方案。
终于介绍完啦!小伙伴们,这篇关于《Polars列表交集技巧与聚合方法》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!
HTML中class命名规范5大原则
- 上一篇
- HTML中class命名规范5大原则
- 下一篇
- AI瑜伽工具搭配豆包,轻松跟练教程
-
- 文章 · python教程 | 4小时前 |
- Pandas列扩展与行值移动方法
- 422浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- FlaskSQLAlchemy更新用户积分教程详解
- 345浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Pandas行标准差计算方法详解
- 253浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- Python调用srun性能分析与优化
- 263浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- Python指定文件路径的方法及技巧
- 362浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- Pandas统计连续相同值并新增列技巧
- 297浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- DjangoQ对象使用技巧与优化方法
- 245浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- Dagster数据流转与参数配置方法
- 211浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- OpenCV调整亮度技巧与方法
- 204浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- Python轻松生成九九乘法表并导出Excel
- 147浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3212次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3425次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3455次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4564次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3832次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

