JS数组去重方法全解析
在文章实战开发的过程中,我们经常会遇到一些这样那样的问题,然后要卡好半天,等问题解决了才发现原来一些细节知识点还是没有掌握好。今天golang学习网就整理分享《JS数组去重方法大全》,聊聊,希望可以帮助到正在努力赚钱的你。
最高效的JS数组去重方法是利用Set对象,因其底层基于哈希表,平均时间复杂度为O(N),性能最优;2. filter结合indexOf方法兼容性好但时间复杂度为O(N^2),适合小规模数组;3. reduce结合Map同样具有O(N)时间复杂度,灵活性高,适用于需要自定义去重逻辑或处理对象数组的场景;4. 对于对象数组去重,需基于唯一标识属性(如id)或组合键使用filter加Set/Map,或利用Map覆盖机制保留最后出现的元素;5. Set、filter+indexOf和reduce+Map三种方法在现代JavaScript环境中均能保持元素的原始顺序,其中Set在实际引擎实现中按插入顺序迭代,确保去重后顺序一致;综上,优先推荐使用Set进行基本类型去重,在需要兼容性或复杂逻辑时选用reduce加Map方案,对象数组则依据属性定义唯一性标准进行处理,所有方法均能有效保持原始顺序。

JS数组去重,说白了,就是把一个数组里重复的元素给剔除掉,只留下那些独一无二的。这事儿在前端开发里挺常见的,比如你从后端拿到一份数据列表,里面可能因为各种原因出现了重复项,这时候你就得想办法把它“洗干净”。选择哪种方法,其实挺看你的具体场景和对性能、代码简洁度的偏好。
利用Set对象去重是最现代也最直接的方式。Set是ES6引入的一种新的数据结构,它最大的特点就是成员的值都是唯一的。所以,把数组扔进Set里走一圈,再把它变回数组,基本上就搞定了。
const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN, {}, {}];
const uniqueArrayBySet = [...new Set(originalArray)];
console.log(uniqueArrayBySet);
// 结果:[1, 2, 'hello', 'world', null, undefined, NaN, {}, {}]
// 注意:Set在处理NaN时,会认为所有NaN都是同一个值,但对于对象,它会认为两个空对象字面量({})是不同的,因为它们的引用地址不同。这种方法代码量极少,可读性也好,对于基本数据类型(数字、字符串、布尔值、null、undefined、NaN)去重非常高效和准确。但记住一点,它对对象的去重是基于引用地址的,两个内容完全一样的对象,如果内存地址不同,Set会把它们当作两个不同的元素。
除了Set,我们也可以利用数组自身的filter()方法结合indexOf()来去重。这个方法相对传统,理解起来也比较直观:遍历数组,如果当前元素是它第一次出现,就保留它。
const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN];
const uniqueArrayByFilter = originalArray.filter((item, index, self) => {
// indexOf会返回元素在数组中第一次出现的索引
// 如果当前元素的索引和它第一次出现的索引相同,说明它是第一次出现,就保留
return self.indexOf(item) === index;
});
console.log(uniqueArrayByFilter);
// 结果:[1, 2, 'hello', 'world', null, undefined, NaN]
// 注意:indexOf在处理NaN时,会有些“奇怪”,因为NaN !== NaN,所以indexOf(NaN)总是-1,可能导致多个NaN被保留。
// 同样,它也无法直接处理对象去重。这种方式的优点是兼容性好,在老旧浏览器环境里也能跑。但它的性能在数组元素较多时会明显下降,因为indexOf在每次迭代时都要从头开始搜索,导致时间复杂度上升。
再者,如果我们需要更精细的控制,或者要兼顾性能和顺序,reduce()方法结合Map或普通JavaScript对象来做查找表也是个不错的选择。
const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN];
const seenMap = new Map(); // 或者用一个普通对象 {}
const uniqueArrayByReduce = originalArray.reduce((accumulator, currentItem) => {
// Map的key可以是任何类型,包括NaN,并且对NaN的判断是正确的
if (!seenMap.has(currentItem)) {
seenMap.set(currentItem, true);
accumulator.push(currentItem);
}
return accumulator;
}, []);
console.log(uniqueArrayByReduce);
// 结果:[1, 2, 'hello', 'world', null, undefined, NaN]
// 这个方法能正确处理NaN,并且保持了元素的原始顺序。这种方法在性能上通常比filter+indexOf要好,因为它利用了哈希表的O(1)查找特性。同时,它也灵活,可以扩展去处理更复杂的去重逻辑,比如对象数组去重。
哪种JS数组去重方法更高效?性能考量与选择
谈到效率,这事儿就得具体分析了。在我看来,大多数时候,Set方法是你的首选。为什么呢?因为它底层实现通常是哈希表(或者说,是高度优化的数据结构),查找和插入的平均时间复杂度都是O(1)。这意味着,即使你的数组有几万甚至几十万个元素,它的处理速度也相当快,总的时间复杂度接近O(N)——也就是线性时间,数组多大,就大致花多少时间。
相比之下,filter()结合indexOf()的效率就没那么理想了。indexOf()在数组中查找元素,最坏情况下需要遍历整个数组。所以,在filter的每次迭代里,你又进行了一次潜在的O(N)操作,整个过程下来,时间复杂度就变成了O(N^2)。当数组规模小的时候,这点差异你可能感觉不到,但一旦数组达到几千甚至上万个元素,你就会明显感觉到页面卡顿,甚至浏览器崩溃。这种方法,我个人是不太推荐在生产环境中大规模使用的,除非你明确知道数组规模很小且不会增长。
至于reduce()结合Map(或者普通对象)的方案,它的性能表现和Set非常接近,平均时间复杂度也是O(N)。因为它同样利用了哈希表的快速查找能力。在某些老旧环境不支持Set,或者你需要更精细控制(比如你想在去重时对元素做一些额外处理)的场景下,这个方法就显得尤为有用。它能很好地平衡性能和灵活性。
所以,如果问我哪种最快,我通常会毫不犹豫地指向Set。如果兼容性是首要考量,或者你需要处理的对象类型比较特殊,reduce加Map会是更稳妥的选择。
如何处理对象数组去重?深入探讨复杂数据类型的挑战
处理对象数组去重,这可就不是简单地用Set或者indexOf能搞定的了。因为JavaScript在比较对象时,默认是比较它们的内存地址(引用),而不是它们的内容。所以,即使两个对象长得一模一样,比如{id: 1, name: 'A'}和另一个{id: 1, name: 'A'},它们在内存中是两个独立的个体,Set会认为它们是不同的。
这时候,我们就需要定义一个“唯一性”的标准。通常,我们会基于对象的一个或多个属性来判断它们是否重复。比如,如果你的对象都有一个id属性,并且id是唯一的,那么我们就可以根据id来去重。
一个比较常见的做法是结合filter()和Set(或者Map)来记录已经“见过”的id:
const users = [
{ id: 1, name: 'Alice', age: 30 },
{ id: 2, name: 'Bob', age: 25 },
{ id: 1, name: 'Alice', age: 30 }, // 重复项
{ id: 3, name: 'Charlie', age: 35 },
{ id: 2, name: 'Bob', age: 26 } // id重复,但age不同
];
const seenIds = new Set();
const uniqueUsers = users.filter(user => {
// 如果这个id之前没见过
if (!seenIds.has(user.id)) {
seenIds.add(user.id); // 把它标记为已见过
return true; // 保留这个用户对象
}
return false; // 否则,丢弃
});
console.log(uniqueUsers);
// 结果:
// [
// { id: 1, name: 'Alice', age: 30 },
// { id: 2, name: 'Bob', age: 25 },
// { id: 3, name: 'Charlie', age: 35 }
// ]这种方式非常实用,因为它允许你自定义去重的逻辑。如果对象的唯一性需要由多个属性共同决定,比如id和type,你可以组合它们作为Set的key,例如user.id + '-' + user.type。
另一种稍微复杂但更通用的方法是利用Map来存储对象,以某个属性(或组合属性)作为key,对象本身作为value。这在需要保留“最新”或“最旧”的重复项时特别有用。
const users = [
{ id: 1, name: 'Alice', age: 30 },
{ id: 2, name: 'Bob', age: 25 },
{ id: 1, name: 'Alice', age: 30 },
{ id: 3, name: 'Charlie', age: 35 },
{ id: 2, name: 'Bob', age: 26 } // id重复,但age不同,我们希望保留最新的(即这个)
];
const uniqueMap = new Map();
users.forEach(user => {
// 以id作为key,每次遇到重复id,新的对象会覆盖旧的,从而保留最后一个
uniqueMap.set(user.id, user);
});
const uniqueUsersFromMap = Array.from(uniqueMap.values());
// 或者 [...uniqueMap.values()]
console.log(uniqueUsersFromMap);
// 结果:
// [
// { id: 1, name: 'Alice', age: 30 },
// { id: 2, name: 'Bob', age: 26 }, // 注意,这里保留了age为26的Bob
// { id: 3, name: 'Charlie', age: 35 }
// ]这种Map的方式,不仅能去重,还能灵活控制保留哪个重复项(比如最后一个出现的)。当然,如果你需要根据所有属性都完全一致才算重复,那么JSON.stringify()可以临时作为key,但要注意它的局限性:属性顺序不同会生成不同的字符串,且不能处理循环引用。
去重时如何保持原始顺序?兼顾效率与数据完整性
去重的时候,很多时候我们不仅要剔除重复项,还希望剩下的元素能保持它们在原始数组中的相对顺序。这其实是个挺重要的细节,因为数据的顺序有时会承载特定的业务含义。
幸运的是,我们前面提到的一些主流去重方法,在现代JavaScript环境中,大多都能很好地保持原始顺序。
Set方法: 在ES6规范中,Set的迭代顺序并没有明确规定。但在实际的现代JavaScript引擎实现中(比如V8,也就是Chrome和Node.js用的),Set是会保持元素插入顺序的。所以,如果你用[...new Set(arr)],结果数组的顺序会和原始数组中第一次出现的元素顺序一致。这对我来说,是Set能成为首选去重方法的重要原因之一,因为它同时兼顾了简洁、高效和顺序。filter()结合indexOf(): 这个方法是天然保持顺序的。它的逻辑就是“如果当前元素是它第一次出现,我就保留它”。自然而然地,保留下来的元素,它们的相对顺序和原始数组是完全一致的。所以,如果你对性能要求不是特别极致,或者数组规模不大,这个方法在保持顺序方面是完全可靠的。reduce()结合Map(或对象): 这种方式也能够完美地保持原始顺序。在reduce的迭代过程中,我们是按照原始数组的顺序一个接一个地处理元素的。当一个元素被判断为不重复并被push到累加器数组中时,它就是按照原始顺序被添加进去的。Map本身也保持了key的插入顺序,这进一步保证了最终结果的顺序性。
// 示例:使用reduce + Map 保持顺序
const disorderedArr = ['apple', 'banana', 'apple', 'orange', 'banana', 'grape'];
const uniqueAndOrdered = disorderedArr.reduce((acc, item) => {
if (!seenMap.has(item)) { // 假设seenMap已定义
seenMap.set(item, true);
acc.push(item);
}
return acc;
}, []);
console.log(uniqueAndOrdered); // ['apple', 'banana', 'orange', 'grape'] - 顺序完全保留所以,你不需要为了保持顺序而额外做太多工作。选择Set或者reduce+Map通常就能满足你的需求,它们在保持顺序的同时,也提供了不错的性能。只有在极少数需要兼容非常老旧的Set实现,或者对filter+indexOf的O(N^2)性能有严格限制时,你才需要特别去权衡。但就我个人经验而言,现代开发中,Set的方案几乎是万金油。
理论要掌握,实操不能落!以上关于《JS数组去重方法全解析》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!
Python协程怎么用?全面教程详解
- 上一篇
- Python协程怎么用?全面教程详解
- 下一篇
- JavaArrayList按属性查找元素的正确方法
-
- 文章 · 前端 | 5小时前 |
- JavaScript缓存与本地存储技巧
- 212浏览 收藏
-
- 文章 · 前端 | 5小时前 | 注解 本地存储 localStorage JSDoc 自定义标签
- JS本地存储注解与操作详解
- 492浏览 收藏
-
- 文章 · 前端 | 5小时前 | JavaScript 调试 DOM操作 事件监听器 HTML交互
- HTML交互方法与实用技巧分享
- 459浏览 收藏
-
- 文章 · 前端 | 5小时前 |
- CSS按钮hover颜色太淡怎么调?
- 396浏览 收藏
-
- 文章 · 前端 | 5小时前 |
- HTML链接CSS的正确方法与路径设置
- 174浏览 收藏
-
- 文章 · 前端 | 5小时前 |
- CSSFlexbox卡片自适应宽度技巧
- 383浏览 收藏
-
- 文章 · 前端 | 6小时前 |
- 前端框架原理与实现深度解析
- 496浏览 收藏
-
- 文章 · 前端 | 6小时前 |
- BigInt应用:大数运算与高精度场景解析
- 471浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3166次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3378次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3407次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4511次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3787次使用
-
- JavaScript函数定义及示例详解
- 2025-05-11 502浏览
-
- 优化用户界面体验的秘密武器:CSS开发项目经验大揭秘
- 2023-11-03 501浏览
-
- 使用微信小程序实现图片轮播特效
- 2023-11-21 501浏览
-
- 解析sessionStorage的存储能力与限制
- 2024-01-11 501浏览
-
- 探索冒泡活动对于团队合作的推动力
- 2024-01-13 501浏览

