Python列表去重技巧大全
Python列表去重是数据处理中常见的需求,本文深入解析了多种高效的去重方法,旨在帮助开发者选择最适合自身场景的方案。文章首先介绍了利用set的唯一性进行去重,虽然高效但不保留顺序。针对需要保留顺序的情况,重点推荐了`collections.OrderedDict.fromkeys()`和列表推导式结合辅助set的方法,它们在保持O(n)时间复杂度的同时,也能保证元素的原始顺序。此外,文章还探讨了处理包含不可哈希对象的列表去重技巧,如转换为元组或自定义`__hash__`和`__eq__`方法,为读者提供了全面的解决方案,助力提升Python编程效率。
Python列表去重的核心思路是利用集合的唯一性或遍历记录元素。最高效方法是使用set,但不保留顺序;若需保留顺序,推荐collections.OrderedDict.fromkeys()或列表推导式结合辅助set,两者均高效且保持O(n)时间复杂度;对于不可哈希对象,可通过转换为元组或自定义__hash__和__eq__方法处理。

Python列表中删除重复项的核心思路,无非就是利用数据结构的特性(比如集合的唯一性),或者通过遍历并记录已出现过的元素来实现。最直接且高效的方法通常是借助Python内置的set类型,它天生就保证了元素的唯一性。如果需要保留原有顺序,则需要一些额外的技巧,比如结合set和列表遍历,或者利用collections.OrderedDict。
解决方案
说实话,每次遇到列表去重的问题,我脑子里首先跳出来的就是set。它简直是为去重而生。
方法一:利用 set 的特性(最简洁高效,但不保留顺序)
这是最Pythonic,也是我个人最喜欢的一种方法,尤其是在对元素顺序没有要求的时候。set是一个无序不重复的元素集,所以你把列表转换成set,它自然就把重复的元素给“过滤”掉了。
original_list = [1, 2, 2, 3, 4, 4, 5, 1] unique_elements = list(set(original_list)) print(unique_elements) # 输出可能是 [1, 2, 3, 4, 5] 或其他顺序
这个方法的优点是代码极其简洁,执行效率也相当高,尤其对于大型列表。但它有个明显的“副作用”:原始列表的顺序会丢失,因为set本身就是无序的。如果你对顺序有要求,那这个方法就不太合适了。
方法二:使用循环和辅助列表(保留顺序,但效率相对低)
这种方法更像是我们用“人脑”去重的方式:遍历一遍列表,看到一个元素,如果它之前没出现过,就把它加到新列表里。
original_list = [1, 2, 2, 3, 4, 4, 5, 1]
unique_elements = []
for item in original_list:
if item not in unique_elements:
unique_elements.append(item)
print(unique_elements) # 输出: [1, 2, 3, 4, 5]这种方法能完美保留元素的原始顺序。但效率上,当original_list非常大时,item not in unique_elements这个操作的开销会变得很大,因为它需要遍历unique_elements来查找,最坏情况下时间复杂度接近O(n^2)。所以,如果列表特别长,我一般会避免这种直接的循环查找。
方法三:利用 collections.OrderedDict.fromkeys()(保留顺序,且高效)
这是一个非常优雅且高效的解决方案,它结合了字典键的唯一性和OrderedDict的顺序保持特性。OrderedDict.fromkeys(iterable)会创建一个字典,其中iterable中的元素作为键,值都为None。由于字典的键必须是唯一的,重复的元素自然就被忽略了,同时OrderedDict会记住键的插入顺序。
from collections import OrderedDict original_list = [1, 2, 2, 3, 4, 4, 5, 1] unique_elements = list(OrderedDict.fromkeys(original_list)) print(unique_elements) # 输出: [1, 2, 3, 4, 5]
我个人觉得这个方法非常巧妙,它在保证了顺序的同时,也保持了接近set的效率(平均O(n))。这是我处理需要保留顺序的去重任务时,经常会用的一个“小窍门”。
方法四:使用列表推导式与辅助 set(保留顺序,高效且Pythonic)
这其实是方法二的优化版,用一个set来快速判断元素是否已出现,而不是遍历unique_elements列表。
original_list = [1, 2, 2, 3, 4, 4, 5, 1] seen = set() unique_elements = [item for item in original_list if item not in seen and not seen.add(item)] print(unique_elements) # 输出: [1, 2, 3, 4, 5]
这里not seen.add(item)是一个常见的Python技巧。set.add()方法总是返回None,而not None是True。所以这个条件判断的逻辑是:如果item不在seen中,那么item not in seen为True,seen.add(item)会被执行(将item加入seen),然后not seen.add(item)也为True,item就会被加入unique_elements。如果item已经在seen中,那么item not in seen为False,整个条件判断就短路了,item不会被加入。这种写法非常Pythonic,兼顾了效率和简洁性。
Python列表去重,哪种方法最快?
要说“最快”,这其实得看具体情况和你的需求。但我们通常可以根据元素的数量级和是否需要保持顺序来做个大致的判断。
从理论上讲,基于哈希表(set或dict)的去重方法,平均时间复杂度是O(n),这意味着处理时间与列表长度成线性关系。而那些需要遍历列表并在另一个列表中查找元素的方法,最坏情况下可能达到O(n^2)。
set()转换法: 这是最快的,毫无疑问。因为它直接利用了Python底层对哈希表的优化。如果你对元素的原始顺序不关心,或者说,去重后重新排序对你来说不是问题,那么list(set(your_list))绝对是首选。它的速度优势在大列表面前尤其明显。collections.OrderedDict.fromkeys()法: 这个方法在保持原有顺序的前提下,效率也非常高,接近set转换法。它内部也是基于哈希表实现的,所以平均时间复杂度也是O(n)。对于需要保留顺序的场景,它是我个人认为性能和简洁性兼顾的最佳选择。列表推导式与辅助
set法: 这种方法同样保持了O(n)的平均时间复杂度,因为它用set来快速判断元素是否已存在。它的性能和OrderedDict.fromkeys()法非常接近,在某些微基准测试中可能会略有差异,但实际应用中基本可以认为是同级别的。循环遍历与
in操作法: 这是最慢的,尤其是当unique_elements列表变得很长时。每次item not in unique_elements都需要线性扫描unique_elements,导致总时间复杂度上升到O(n^2)。对于小列表(比如几十个元素),你可能感觉不到差异,但对于成千上万甚至更多的元素,它会显著拖慢你的程序。
总结一下我的看法:
- 不关心顺序,只求最快:
list(set(your_list)),简单粗暴有效。 - 关心顺序,同时追求效率:
list(OrderedDict.fromkeys(your_list))或 列表推导式加辅助set,这两者都很棒。 - 列表非常小,且代码可读性优先:循环遍历加
in操作也未尝不可,但要心里有数它的性能瓶颈。
我通常会根据实际项目需求和列表规模来选择。如果不是性能瓶颈,我更倾向于代码的清晰和简洁。
处理包含不可哈希对象的Python列表去重,有什么特别技巧吗?
这确实是个让人头疼的问题!当你的列表里装着一些“不听话”的家伙,比如其他列表、字典,或者自定义的、没有实现__hash__方法的对象时,set()和OrderedDict.fromkeys()这些依赖哈希值的“神器”就统统失效了。Python会直接给你抛出一个TypeError: unhashable type: 'list'之类的错误。
面对这种场景,我们得换个思路,或者说,得“曲线救国”。
技巧一:手动遍历,并自定义“相等”判断
这是最通用但也最“笨拙”的方法,但它能处理一切情况。你需要自己定义什么是“重复”。
original_list_of_lists = [[1, 2], [3, 4], [1, 2], [5, 6], [3, 4, 5]]
unique_elements = []
for item in original_list_of_lists:
# 这里的关键是判断 item 是否已存在于 unique_elements 中
# 对于列表,Python默认的 == 操作符会进行值比较
if item not in unique_elements:
unique_elements.append(item)
print(unique_elements) # 输出: [[1, 2], [3, 4], [5, 6], [3, 4, 5]]这种方法的核心在于item not in unique_elements这一步。对于列表、字典这类不可哈希对象,Python会使用它们的__eq__方法进行值比较。它的缺点是效率低下,和之前提到的O(n^2)方法一样,不适合处理大型列表。
技巧二:将不可哈希对象转换为可哈希的“代理”形式
这是我个人觉得比较优雅且高效的解决方案,前提是你的不可哈希对象能被可靠地转换为可哈希的形式。
对于列表的列表(list of lists): 我们可以把内部的列表转换为元组(tuple),因为元组是不可变的,因此是可哈希的。
original_list_of_lists = [[1, 2], [3, 4], [1, 2], [5, 6], [3, 4, 5]] # 将内部列表转换为元组,然后用set去重 # 这里用map很简洁,也可以用列表推导式 tuple_list = list(map(tuple, original_list_of_lists)) unique_tuples = list(set(tuple_list)) # 如果需要,再转回列表的列表 unique_elements = list(map(list, unique_tuples)) print(unique_elements) # 输出: [[1, 2], [3, 4], [5, 6], [3, 4, 5]] (顺序可能打乱)
如果需要保留顺序,可以结合
OrderedDict:from collections import OrderedDict original_list_of_lists = [[1, 2], [3, 4], [1, 2], [5, 6], [3, 4, 5]] # 将内部列表转换为元组,然后用OrderedDict去重 unique_tuples_ordered = list(OrderedDict.fromkeys(map(tuple, original_list_of_lists))) unique_elements_ordered = list(map(list, unique_tuples_ordered)) print(unique_elements_ordered) # 输出: [[1, 2], [3, 4], [5, 6], [3, 4, 5]] (顺序保留)
对于字典的列表(list of dicts): 字典是不可哈希的。如果你想基于字典的内容去重,一个常见的做法是:
- 将字典转换为一个可哈希的表示,比如按键排序后的元组的元组(tuple of sorted key-value tuples)。
- 或者,将字典序列化为JSON字符串(如果字典内容复杂且有嵌套)。
list_of_dicts = [ {'id': 1, 'name': 'Alice'}, {'id': 2, 'name': 'Bob'}, {'name': 'Alice', 'id': 1}, # 这是一个重复项,但键顺序不同 {'id': 3, 'name': 'Charlie'} ] seen_hashes = set() unique_dicts = [] for d in list_of_dicts: # 将字典转换为可哈希的形式 # 确保键值对的顺序一致,以便生成相同的哈希 # 排序后的items()返回一个列表,再转为元组 dict_hashable = tuple(sorted(d.items())) if dict_hashable not in seen_hashes: seen_hashes.add(dict_hashable) unique_dicts.append(d) print(unique_dicts) # 输出: [{'id': 1, 'name': 'Alice'}, {'id': 2, 'name': 'Bob'}, {'id': 3, 'name': 'Charlie'}]这里我们通过
tuple(sorted(d.items()))将字典转换成了一个可哈希的元组,这样就可以用set来快速判断是否重复了。
技巧三:自定义对象的 __hash__ 和 __eq__ 方法
如果你处理的是自定义类的实例,并且希望它们能被用于set或作为字典的键,那么你就需要在类中实现__hash__和__eq__方法。
class MyObject:
def __init__(self, id, name):
self.id = id
self.name = name
# 定义相等性:当id和name都相同时,两个MyObject实例被认为是相等的
def __eq__(self, other):
if not isinstance(other, MyObject):
return NotImplemented
return self.id == other.id and self.name == other.name
# 定义哈希值:基于id和name的哈希值
# 注意:如果两个对象相等,它们的哈希值必须相等
def __hash__(self):
return hash((self.id, self.name))
def __repr__(self):
return f"MyObject(id={self.id}, name='{self.name}')"
objects = [
MyObject(1, 'A'),
MyObject(2, 'B'),
MyObject(1, 'A'), # 重复项
MyObject(3, 'C')
]
unique_objects = list(set(objects))
print(unique_objects) # 输出: [MyObject(id=1, name='A'), MyObject(id=2, name='B'), MyObject(id=3, name='C')]实现这两个魔法方法后,你的自定义对象就变得“哈希友好”了,可以和普通的可哈希对象一样,直接用set或OrderedDict进行去重。这是处理自定义对象去重的最“正规”也是最推荐的方式。
Python列表去重时,如何保持原有顺序?
在实际开发中,列表元素的顺序往往很重要。你可能不希望去重后,原本的排列被打乱。幸运的是,Python提供了几种既能去重又能保留原始顺序的方法。我个人在处理这类问题时,通常会在效率和代码简洁性之间做权衡。
使用
collections.OrderedDict.fromkeys()(推荐,简洁高效) 这是我个人最喜欢且最常使用的方法,因为它兼顾了效率和代码的优雅。OrderedDict会记住元素的插入顺序,而fromkeys()方法又保证了键的唯一性。from collections import OrderedDict my_list = ['apple', 'banana', 'orange', 'apple', 'grape', 'banana'] unique_ordered_list = list(OrderedDict.fromkeys(my_list)) print(unique_ordered_list) # 输出: ['apple', 'banana', 'orange', 'grape']
这个方法非常直观,一行代码就能搞定,而且底层实现基于哈希表,所以效率很高,平均时间复杂度是O(n)。这是我处理哈希able对象去重并保留顺序时的首选。
使用列表推导式与辅助
set(推荐,Pythonic) 这种方法稍微比OrderedDict多写几行,但它同样高效且易于理解。它通过一个set来记录已经见过的元素,确保只将未见过的元素添加到结果列表中。my_list = ['apple', 'banana', 'orange', 'apple', 'grape', 'banana'] seen = set() unique_ordered_list = [item for item in my_list if item not in seen and not seen.add(item)] print(unique_ordered_list) # 输出: ['apple', 'banana', 'orange', 'grape']
这里的
not seen.add(item)是一个巧妙的用法。set.add()方法返回None,not None即为True。所以,当item不在seen中时,item not in seen为True,seen.add(item)被执行,并且not seen.add(item)也为True,item因此被添加到unique_ordered_list。如果item已在seen中,item not in seen为False,整个条件判断短路,item不会被添加。这种方式同样是O(n)的平均时间复杂度。传统循环与辅助
set(易理解,但不如列表推导式简洁) 这其实是上面列表推导式方法的“展开版”,对于初学者来说可能更容易理解其逻辑。my_list = ['apple', 'banana', 'orange', 'apple', 'grape', 'banana'] unique_ordered_list
今天关于《Python列表去重技巧大全》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!
韩网Naver账号安全登录方法
- 上一篇
- 韩网Naver账号安全登录方法
- 下一篇
- 趣书网bookdown资源下载及使用教程
-
- 文章 · python教程 | 21分钟前 |
- Python字符串替换实用技巧分享
- 326浏览 收藏
-
- 文章 · python教程 | 27分钟前 |
- Python日期格式解析与验证技巧
- 220浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- PythonOpenCV像素操作教程
- 362浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python条件优化:告别嵌套if-else陷阱
- 147浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Pandas与NumPyNaN查找区别详解
- 278浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python中type函数的作用是什么
- 393浏览 收藏
-
- 文章 · python教程 | 2小时前 |
- 多进程处理大数据的实用技巧
- 330浏览 收藏
-
- 文章 · python教程 | 10小时前 |
- PandasDataFrame列赋值NaN方法解析
- 205浏览 收藏
-
- 文章 · python教程 | 10小时前 |
- Python元组括号用法与列表推导注意事项
- 143浏览 收藏
-
- 文章 · python教程 | 11小时前 |
- ib\_insync获取SPX历史数据教程
- 395浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3168次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3381次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3410次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4514次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3790次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

