pandas去重方法_drop_duplicates详解
一分耕耘,一分收获!既然打开了这篇文章《pandas删除重复行方法\_drop_duplicates()去重详解》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!
pandas的drop_duplicates()函数用于删除重复行,默认保留首次出现的记录并返回新DataFrame。通过subset参数可指定列进行去重,keep参数控制保留首条、末条或删除所有重复项,inplace决定是否修改原数据,ignore_index用于重置索引。

pandas库提供了一个极其便利且功能强大的drop_duplicates()函数,它是处理数据集中重复行的核心利器。简单来说,这个函数能根据你设定的规则,识别并移除那些完全相同或在特定列上重复的记录,确保你的数据保持独一无二的干净状态。
解决方案
pandas.DataFrame.drop_duplicates()是你在pandas中删除重复行的主要工具。它的基本用法非常直观,默认情况下会检查DataFrame中的所有列,如果发现某两行或多行在所有列上的值都完全相同,它会保留第一次出现的行,并删除后续的重复行。
让我们看一个基础的例子:
import pandas as pd
import numpy as np
# 创建一个包含重复数据的DataFrame
data = {
'A': ['foo', 'bar', 'foo', 'bar', 'qux', 'foo'],
'B': ['one', 'one', 'two', 'three', 'two', 'one'],
'C': [1, 2, 1, 3, 2, 1]
}
df = pd.DataFrame(data)
print("原始DataFrame:")
print(df)
# 使用drop_duplicates()删除重复行
# 默认:检查所有列,保留第一次出现的重复行
df_deduplicated = df.drop_duplicates()
print("\n去重后的DataFrame (默认):")
print(df_deduplicated)在这个例子中,('foo', 'one', 1)这行出现了两次,drop_duplicates()默认保留了第一个,移除了第二个。这个函数返回一个新的DataFrame,而不会修改原始DataFrame,除非你明确指定了inplace=True参数。
drop_duplicates()的强大之处在于它的灵活性,通过几个关键参数,你可以精确控制去重行为:
subset: 指定要用于识别重复行的列名列表。keep: 指定保留哪条重复记录,可以是'first'(默认)、'last'或False(删除所有重复项)。inplace: 如果为True,则直接修改原始DataFrame并返回None。ignore_index: 如果为True,则在删除行后重置索引。
如何仅根据部分列进行去重,而不是整行?
很多时候,我们并不是要删除所有列都完全相同的行。比如,你可能有一个用户行为日志,里面记录了用户的每次操作,但你只想知道有哪些“独立用户”访问了某个页面,而不管他们访问了多少次。或者,你可能有一个订单列表,你只想确保每个订单号是唯一的,至于订单的其他细节,只要订单号唯一就行。这时,subset参数就显得尤为重要了。
使用subset参数,你可以传入一个包含列名的列表。drop_duplicates()会只关注这些指定的列,如果这些列的值组合重复了,那么它就认为这是一条重复记录。
# 假设我们只想根据'A'列和'B'列的组合来去重
# 比如,我们认为('foo', 'one')这个组合出现多次就算重复
df_subset_deduplicated = df.drop_duplicates(subset=['A', 'B'])
print("\n根据'A'和'B'列去重后的DataFrame:")
print(df_subset_deduplicated)
# 原始数据
# A B C
# 0 foo one 1
# 1 bar one 2
# 2 foo two 1
# 3 bar three 3
# 4 qux two 2
# 5 foo one 1 <-- ('foo', 'one')重复
# 结果会保留第一条 ('foo', 'one'),删除第六条这种用法在处理日志数据、用户会话或者任何需要基于特定标识符进行唯一性判断的场景下都非常实用。它提供了一种精细化的控制,避免了过度删除可能仍有价值的信息。我个人在处理用户画像数据时经常会用到这个,比如确保每个用户ID只对应一条最新的属性记录。
去重时,如何选择保留哪条重复记录?是第一条还是最后一条?
drop_duplicates()的keep参数决定了在遇到重复行时,我们究竟要保留哪一个。这个选择看似简单,但在实际数据处理中却常常需要仔细权衡,因为它直接影响了最终数据集的形态和信息偏向。
keep参数有三个选项:
'first'(默认值): 保留第一次出现的重复行。'last': 保留最后一次出现的重复行。False: 删除所有重复的行,也就是说,如果某行是重复的,那么它所有的副本都会被删除,只有那些完全不重复的行才会被保留下来。
让我们用例子来说明:
# 创建一个包含重复数据的DataFrame,这次我们让重复行有点差异,便于观察
data_keep = {
'ID': [1, 2, 1, 3, 2, 1],
'Value': ['A', 'B', 'C', 'D', 'E', 'F'],
'Timestamp': [10, 20, 30, 40, 50, 60] # 模拟时间戳
}
df_keep = pd.DataFrame(data_keep)
print("\n原始DataFrame (含时间戳):")
print(df_keep)
# 根据'ID'列去重,保留第一次出现的记录
df_first = df_keep.drop_duplicates(subset=['ID'], keep='first')
print("\n根据'ID'去重,保留'first':")
print(df_first)
# ID 1, Value A, Timestamp 10 会被保留
# 根据'ID'列去重,保留最后一次出现的记录
df_last = df_keep.drop_duplicates(subset=['ID'], keep='last')
print("\n根据'ID'去重,保留'last':")
print(df_last)
# ID 1, Value F, Timestamp 60 会被保留
# 根据'ID'列去重,删除所有重复的记录 (只有ID=3是唯一的)
df_false = df_keep.drop_duplicates(subset=['ID'], keep=False)
print("\n根据'ID'去重,删除所有重复的记录 (keep=False):")
print(df_false)
# 只有ID=3的记录会被保留在实际工作中,keep='first'通常是安全的默认选项,尤其当你只是想获取一个唯一列表时。但如果你的数据有明确的顺序性,比如日志记录或状态更新,并且你希望总是获取最新的信息,那么keep='last'就非常有用。举个例子,如果我有一系列用户状态更新,我通常会用keep='last'来确保我拿到的是用户当前最新的状态。至于keep=False,它在需要严格筛选出“绝对唯一”项的场景下非常有效,比如你想找出那些只出现过一次的异常事件。
去重操作会修改原始DataFrame吗?如何处理索引?
这是一个新手,甚至包括我自己刚开始用pandas时,经常会混淆的问题。默认情况下,drop_duplicates()函数并不会直接修改你原始的DataFrame。它会返回一个新的DataFrame,这个新的DataFrame包含了去重后的数据。这意味着如果你不把它的返回值赋给一个变量(包括原来的变量名),那么你的去重操作就“白做了”,原始DataFrame还是老样子。
# 假设我们有一个DataFrame
df_original = pd.DataFrame({'col1': [1, 2, 1], 'col2': ['A', 'B', 'A']})
print("原始DataFrame:")
print(df_original)
# 尝试去重,但不赋值
df_original.drop_duplicates()
print("\n去重操作后,但未赋值的原始DataFrame:")
print(df_original) # 发现df_original并没有改变
# 正确的做法:将去重结果赋值给一个新变量或覆盖原变量
df_deduplicated_new = df_original.drop_duplicates()
print("\n赋值给新变量后的去重DataFrame:")
print(df_deduplicated_new)
# 或者,使用inplace=True直接修改原始DataFrame
df_original_inplace = pd.DataFrame({'col1': [1, 2, 1], 'col2': ['A', 'B', 'A']})
print("\n使用inplace=True前的DataFrame:")
print(df_original_inplace)
df_original_inplace.drop_duplicates(inplace=True)
print("\n使用inplace=True后的DataFrame:")
print(df_original_inplace) # df_original_inplace已被修改关于索引,drop_duplicates()在删除行后,默认会保留原始行的索引。这意味着如果第0行和第2行是重复的,删除了第2行后,DataFrame的索引可能就不再是连续的了(比如,0, 1, 3, 4...)。在某些情况下,这可能是你想要的,因为它保留了原始数据的“血统”。但更多时候,尤其是在进行后续的数据处理或分析时,一个连续的、重置的索引会更方便。
这时,ignore_index=True参数就派上用场了。当你设置ignore_index=True时,pandas会在删除重复行后,重新生成一个从0开始的、连续的整数索引。
df_indexed = pd.DataFrame({'col1': [1, 2, 1, 3], 'col2': ['A', 'B', 'A', 'C']})
print("\n去重前,有重复索引的DataFrame:")
print(df_indexed)
# 默认去重,不重置索引
df_default_index = df_indexed.drop_duplicates()
print("\n默认去重 (索引未重置):")
print(df_default_index)
# 索引会是 0, 1, 3
# 去重并重置索引
df_reset_index = df_indexed.drop_duplicates(ignore_index=True)
print("\n去重并重置索引 (ignore_index=True):")
print(df_reset_index)
# 索引会是 0, 1理解inplace和ignore_index这两个参数对于编写健壮且可预测的pandas代码至关重要。我个人的习惯是,除非我明确知道我需要修改原始DataFrame,否则我通常会避免使用inplace=True,而是将结果赋给一个新的变量,这样可以更好地控制数据流,减少意外修改的风险。至于索引,如果后续操作不依赖于原始索引,我通常会选择ignore_index=True,让索引保持整洁。
本篇关于《pandas去重方法_drop_duplicates详解》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!
夸克浏览器官网入口快速链接
- 上一篇
- 夸克浏览器官网入口快速链接
- 下一篇
- 天眼查查企业资质证书方法
-
- 文章 · python教程 | 1小时前 |
- Python如何重命名数据列名?columns教程
- 165浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- 异步Python机器人如何非阻塞运行?
- 216浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- Python排序忽略大小写技巧详解
- 325浏览 收藏
-
- 文章 · python教程 | 3小时前 |
- Python列表引用与复制技巧
- 300浏览 收藏
-
- 文章 · python教程 | 3小时前 | 数据处理 流处理 PythonAPI PyFlink ApacheFlink
- PyFlink是什么?Python与Flink结合解析
- 385浏览 收藏
-
- 文章 · python教程 | 4小时前 | sdk 邮件API requests库 smtplib Python邮件发送
- Python发送邮件API调用方法详解
- 165浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Pandasmerge_asof快速匹配最近时间数据
- 254浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- 列表推导式与生成器表达式区别解析
- 427浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Pythonopen函数使用技巧详解
- 149浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- Python合并多个列表的几种方法
- 190浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3190次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3402次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3433次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4540次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3811次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

