当前位置:首页 > 文章列表 > 文章 > python教程 > Polars列表交集技巧与聚合方法

Polars列表交集技巧与聚合方法

2025-07-13 09:00:30 0浏览 收藏

偷偷努力,悄无声息地变强,然后惊艳所有人!哈哈,小伙伴们又来学习啦~今天我将给大家介绍《Polars列表字符串交集聚合技巧》,这篇文章主要会讲到等等知识点,不知道大家对其都有多少了解,下面我们就一起来看一吧!当然,非常希望大家能多多评论,给出合理的建议,我们一起学习,一起进步!

Polars中列表字符串列的交集聚合技巧

本文详细介绍了如何在Polars中对包含字符串列表的列进行分组聚合,以找出每个组内所有列表的交集元素。通过巧妙地结合explode、with_row_index、over以及条件过滤等操作,我们将复杂的列表交集问题转化为高效的扁平化数据处理,最终实现精确的分组交集聚合。

1. 问题描述与挑战

在数据处理中,我们经常会遇到需要对包含列表(list)类型数据的列进行聚合操作的场景。一个常见的需求是,对于某个分组键(如 id),我们希望找到该组内所有列表的共同元素,即它们的交集。

考虑以下Polars DataFrame:

import polars as pl

df = pl.DataFrame(
   {"id": [1,1,2,2,3,3],
    "values": [["A", "B"], ["B", "C"], ["A", "B"], ["B", "C"], ["A", "B"], ["B", "C"]]
   }
)
print(df)

输出:

shape: (6, 2)
┌─────┬───────────┐
│ id  ┆ values    │
│ --- ┆ ---       │
│ i64 ┆ list[str] │
╞═════╪═══════════╡
│ 1   ┆ ["A", "B"]│
│ 1   ┆ ["B", "C"]│
│ 2   ┆ ["A", "B"]│
│ 2   ┆ ["B", "C"]│
│ 3   ┆ ["A", "B"]│
│ 3   ┆ ["B", "C"]│
└─────┴───────────┘

我们的目标是,对于每个 id,计算其 values 列中所有列表的交集。例如,对于 id=1,期望的输出是 ["B"],因为 ["A", "B"] 和 ["B", "C"] 的交集是 ["B"]。

尝试直接使用 pl.reduce 和 list.set_intersection 可能不会立即得到期望的结果,因为 reduce 通常在聚合时处理的是列的 Series 而非内部列表元素的交集逻辑,或者需要更复杂的初始化和累积函数。例如:

# 尝试1:直接reduce
# df.group_by("id").agg(
#     pl.reduce(function=lambda acc, x: acc.list.set_intersection(x),
#               exprs=pl.col("values"))
# )
# 结果是 list[list[str]],不是预期的单个列表交集

# 尝试2:explode后reduce
# df.group_by("id").agg(
#     pl.reduce(function=lambda acc, x: acc.list.set_intersection(x),
#               exprs=pl.col("values").explode())
# )
# 结果是 list[str] 但包含了所有元素,不是交集

这些尝试表明,直接在列表列上进行集合操作可能需要更精细的控制。

2. Polars解决方案:基于扁平化与计数的方法

解决此问题的关键在于将列表数据扁平化,然后利用Polars强大的分组和窗口函数来识别那些在组内所有原始列表中都存在的元素。

以下是实现这一目标的详细步骤和代码:

步骤 1:计算每个分组的行数 (group_len)

首先,我们需要知道每个 id 分组中有多少行。这对于后续判断一个元素是否在所有列表中都出现至关重要。

df_processed = df.with_columns(
    pl.len().over("id").alias("group_len")
)
print("Step 1: Add group_len")
print(df_processed)

输出:

shape: (6, 3)
┌─────┬───────────┬───────────┐
│ id  ┆ values    ┆ group_len │
│ --- ┆ ---       ┆ ---       │
│ i64 ┆ list[str] ┆ u32       │
╞═════╪═══════════╪═══════════╡
│ 1   ┆ ["A", "B"]│ 2         │
│ 1   ┆ ["B", "C"]│ 2         │
│ 2   ┆ ["A", "B"]│ 2         │
│ 2   ┆ ["B", "C"]│ 2         │
│ 3   ┆ ["A", "B"]│ 2         │
│ 3   ┆ ["B", "C"]│ 2         │
└─────┴───────────┴───────────┘

步骤 2:添加行索引 (index)

为了在扁平化后区分原始行,我们需要为每行添加一个唯一的索引。

df_processed = df_processed.with_row_index()
print("\nStep 2: Add row index")
print(df_processed)

输出:

shape: (6, 4)
┌───────┬─────┬───────────┬───────────┐
│ index ┆ id  ┆ values    ┆ group_len │
│ ---   ┆ --- ┆ ---       ┆ ---       │
│ u32   ┆ i64 ┆ list[str] ┆ u32       │
╞═══════╪═════╪═══════════╪═══════════╡
│ 0     ┆ 1   ┆ ["A", "B"]│ 2         │
│ 1     ┆ 1   ┆ ["B", "C"]│ 2         │
│ 2     ┆ 2   ┆ ["A", "B"]│ 2         │
│ 3     ┆ 2   ┆ ["B", "C"]│ 2         │
│ 4     ┆ 3   ┆ ["A", "B"]│ 2         │
│ 5     ┆ 3   ┆ ["B", "C"]│ 2         │
└───────┴─────┴───────────┴───────────┘

步骤 3:扁平化 values 列 (explode)

使用 explode("values") 将 values 列中的每个列表元素展开成独立的行。这样,我们就可以对单个字符串元素进行操作。

df_processed = df_processed.explode("values")
print("\nStep 3: Explode values column")
print(df_processed)

输出:

shape: (12, 4)
┌───────┬─────┬────────┬───────────┐
│ index ┆ id  ┆ values ┆ group_len │
│ ---   ┆ --- ┆ ---    ┆ ---       │
│ u32   ┆ i64 ┆ str    ┆ u32       │
╞═══════╪═════╪════════╪═══════════╡
│ 0     ┆ 1   ┆ A      ┆ 2         │
│ 0     ┆ 1   ┆ B      ┆ 2         │
│ 1     ┆ 1   ┆ B      ┆ 2         │
│ 1     ┆ 1   ┆ C      ┆ 2         │
│ 2     ┆ 2   ┆ A      ┆ 2         │
│ 2     ┆ 2   ┆ B      ┆ 2         │
│ 3     ┆ 2   ┆ B      ┆ 2         │
│ 3     ┆ 2   ┆ C      ┆ 2         │
│ 4     ┆ 3   ┆ A      ┆ 2         │
│ 4     ┆ 3   ┆ B      ┆ 2         │
│ 5     ┆ 3   ┆ B      ┆ 2         │
│ 5     ┆ 3   ┆ C      ┆ 2         │
└───────┴─────┴────────┴───────────┘

4. 计算每个 (id, value) 组合的唯一原始行数 (n_unique)

这是核心步骤。对于每个 id 和 values 的组合,我们计算其对应的原始 index 的唯一数量。如果 n_unique 等于 group_len,则表示这个 values 元素在 id 组内的所有原始行中都存在。

df_processed = df_processed.with_columns(
    pl.col("index").n_unique().over("id", "values").alias("n_unique")
)
print("\nStep 4: Calculate n_unique for each (id, value) pair")
print(df_processed)

输出(部分关键行):

shape: (12, 5)
┌───────┬─────┬────────┬───────────┬──────────┐
│ index ┆ id  ┆ values ┆ group_len ┆ n_unique │
│ ---   ┆ --- ┆ ---    ┆ ---       ┆ ---      │
│ u32   ┆ i64 ┆ str    ┆ u32       ┆ u32      │
╞═══════╪═════╪════════╪═══════════╪══════════╡
│ 0     ┆ 1   ┆ A      ┆ 2         ┆ 1        │ # 'A' for id=1 appears only in original row 0
│ 0     ┆ 1   ┆ B      ┆ 2         ┆ 2        │ # 'B' for id=1 appears in original rows 0 and 1
│ 1     ┆ 1   ┆ B      ┆ 2         ┆ 2        │
│ 1     ┆ 1   ┆ C      ┆ 2         ┆ 1        │ # 'C' for id=1 appears only in original row 1
...

从上面的输出可以看出,对于 id=1,values='B' 的 n_unique 是 2,这与 group_len (2) 相等,说明 'B' 在 id=1 的所有原始列表中都存在。而 'A' 和 'C' 的 n_unique 是 1,不等于 group_len,说明它们只存在于部分列表中。

5. 过滤并重建列表

最后,我们过滤出那些 n_unique 等于 group_len 的行,然后按 id 分组,并将 values 列聚合回列表,同时去除重复项 (unique()) 以确保结果的正确性。

final_result = (
    df.with_columns(pl.len().over("id").alias("group_len"))
    .with_row_index()
    .explode("values")
    .filter(
        pl.col("index").n_unique().over("id", "values")
        == pl.col("group_len")
    )
    .group_by("id", maintain_order=True)
    .agg(pl.col("values").unique())
)

print("\nFinal Result:")
print(final_result)

最终输出:

shape: (3, 2)
┌─────┬───────────┐
│ id  ┆ values    │
│ --- ┆ ---       │
│ i64 ┆ list[str] │
╞═════╪═══════════╡
│ 1   ┆ ["B"]     │
│ 2   ┆ ["B"]     │
│ 3   ┆ ["B"]     │
└─────┴───────────┘

这正是我们期望的交集结果。

3. 注意事项与总结

  • 扁平化策略:此方法的核心思想是将列表数据扁平化,将列表操作转换为更通用的 DataFrame 行操作。这使得Polars能够高效地利用其向量化和并行处理能力。
  • 窗口函数 (over) 的强大:over() 方法在这里发挥了关键作用,它允许我们在特定分组(id, values)内执行聚合操作(n_unique),而无需显式的 group_by。
  • 内存考虑:对于非常大的列表或大量分组,explode 操作可能会显著增加 DataFrame 的行数,从而增加内存消耗。在极端情况下,可能需要考虑分块处理或使用其他内存优化技术。
  • 通用性:这种模式不仅适用于字符串列表的交集,也可以扩展到其他类型元素的列表,只要能够定义其“存在”和“唯一性”。

通过上述步骤,我们成功地解决了Polars中列表字符串列的交集聚合问题,展示了Polars在处理复杂数据转换和聚合方面的灵活性和强大功能。这种方法避免了直接在列表上进行复杂的 reduce 操作,转而利用了DataFrame的扁平化能力和窗口函数,提供了一个高效且易于理解的解决方案。

终于介绍完啦!小伙伴们,这篇关于《Polars列表交集技巧与聚合方法》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

HTML中class命名规范5大原则HTML中class命名规范5大原则
上一篇
HTML中class命名规范5大原则
AI瑜伽工具搭配豆包,轻松跟练教程
下一篇
AI瑜伽工具搭配豆包,轻松跟练教程
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI边界平台:智能对话、写作、画图,一站式解决方案
    边界AI平台
    探索AI边界平台,领先的智能AI对话、写作与画图生成工具。高效便捷,满足多样化需求。立即体验!
    410次使用
  • 讯飞AI大学堂免费AI认证证书:大模型工程师认证,提升您的职场竞争力
    免费AI认证证书
    科大讯飞AI大学堂推出免费大模型工程师认证,助力您掌握AI技能,提升职场竞争力。体系化学习,实战项目,权威认证,助您成为企业级大模型应用人才。
    420次使用
  • 茅茅虫AIGC检测:精准识别AI生成内容,保障学术诚信
    茅茅虫AIGC检测
    茅茅虫AIGC检测,湖南茅茅虫科技有限公司倾力打造,运用NLP技术精准识别AI生成文本,提供论文、专著等学术文本的AIGC检测服务。支持多种格式,生成可视化报告,保障您的学术诚信和内容质量。
    557次使用
  • 赛林匹克平台:科技赛事聚合,赋能AI、算力、量子计算创新
    赛林匹克平台(Challympics)
    探索赛林匹克平台Challympics,一个聚焦人工智能、算力算法、量子计算等前沿技术的赛事聚合平台。连接产学研用,助力科技创新与产业升级。
    655次使用
  • SEO  笔格AIPPT:AI智能PPT制作,免费生成,高效演示
    笔格AIPPT
    SEO 笔格AIPPT是135编辑器推出的AI智能PPT制作平台,依托DeepSeek大模型,实现智能大纲生成、一键PPT生成、AI文字优化、图像生成等功能。免费试用,提升PPT制作效率,适用于商务演示、教育培训等多种场景。
    564次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码