当前位置:首页 > 文章列表 > 文章 > 前端 > JS数组去重方法全解析

JS数组去重方法全解析

2025-08-19 16:06:29 0浏览 收藏

JS数组去重是前端开发中常见的需求,旨在剔除数组中的重复元素,保留唯一项。本文深入探讨了多种高效的JS数组去重方法,并针对不同场景给出最佳实践。**Set对象**因其基于哈希表,平均时间复杂度仅为O(N),成为基本类型去重的首选方案。**filter结合indexOf**方法虽然兼容性好,但时间复杂度较高,适合小规模数组。**reduce结合Map**则兼具O(N)的时间复杂度和灵活性,适用于自定义去重逻辑或处理对象数组。对于对象数组,需基于唯一标识属性或组合键进行去重。同时,文章还强调了在去重过程中保持原始顺序的重要性,并分析了Set、filter+indexOf和reduce+Map三种方法在保持顺序方面的优势。

最高效的JS数组去重方法是利用Set对象,因其底层基于哈希表,平均时间复杂度为O(N),性能最优;2. filter结合indexOf方法兼容性好但时间复杂度为O(N^2),适合小规模数组;3. reduce结合Map同样具有O(N)时间复杂度,灵活性高,适用于需要自定义去重逻辑或处理对象数组的场景;4. 对于对象数组去重,需基于唯一标识属性(如id)或组合键使用filter加Set/Map,或利用Map覆盖机制保留最后出现的元素;5. Set、filter+indexOf和reduce+Map三种方法在现代JavaScript环境中均能保持元素的原始顺序,其中Set在实际引擎实现中按插入顺序迭代,确保去重后顺序一致;综上,优先推荐使用Set进行基本类型去重,在需要兼容性或复杂逻辑时选用reduce加Map方案,对象数组则依据属性定义唯一性标准进行处理,所有方法均能有效保持原始顺序。

js如何实现数组去重

JS数组去重,说白了,就是把一个数组里重复的元素给剔除掉,只留下那些独一无二的。这事儿在前端开发里挺常见的,比如你从后端拿到一份数据列表,里面可能因为各种原因出现了重复项,这时候你就得想办法把它“洗干净”。选择哪种方法,其实挺看你的具体场景和对性能、代码简洁度的偏好。

利用Set对象去重是最现代也最直接的方式。Set是ES6引入的一种新的数据结构,它最大的特点就是成员的值都是唯一的。所以,把数组扔进Set里走一圈,再把它变回数组,基本上就搞定了。

const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN, {}, {}];
const uniqueArrayBySet = [...new Set(originalArray)];

console.log(uniqueArrayBySet);
// 结果:[1, 2, 'hello', 'world', null, undefined, NaN, {}, {}]
// 注意:Set在处理NaN时,会认为所有NaN都是同一个值,但对于对象,它会认为两个空对象字面量({})是不同的,因为它们的引用地址不同。

这种方法代码量极少,可读性也好,对于基本数据类型(数字、字符串、布尔值、null、undefined、NaN)去重非常高效和准确。但记住一点,它对对象的去重是基于引用地址的,两个内容完全一样的对象,如果内存地址不同,Set会把它们当作两个不同的元素。

除了Set,我们也可以利用数组自身的filter()方法结合indexOf()来去重。这个方法相对传统,理解起来也比较直观:遍历数组,如果当前元素是它第一次出现,就保留它。

const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN];
const uniqueArrayByFilter = originalArray.filter((item, index, self) => {
  // indexOf会返回元素在数组中第一次出现的索引
  // 如果当前元素的索引和它第一次出现的索引相同,说明它是第一次出现,就保留
  return self.indexOf(item) === index;
});

console.log(uniqueArrayByFilter);
// 结果:[1, 2, 'hello', 'world', null, undefined, NaN]
// 注意:indexOf在处理NaN时,会有些“奇怪”,因为NaN !== NaN,所以indexOf(NaN)总是-1,可能导致多个NaN被保留。
// 同样,它也无法直接处理对象去重。

这种方式的优点是兼容性好,在老旧浏览器环境里也能跑。但它的性能在数组元素较多时会明显下降,因为indexOf在每次迭代时都要从头开始搜索,导致时间复杂度上升。

再者,如果我们需要更精细的控制,或者要兼顾性能和顺序,reduce()方法结合Map或普通JavaScript对象来做查找表也是个不错的选择。

const originalArray = [1, 2, 2, 'hello', 'world', 'hello', null, null, undefined, undefined, NaN, NaN];
const seenMap = new Map(); // 或者用一个普通对象 {}
const uniqueArrayByReduce = originalArray.reduce((accumulator, currentItem) => {
  // Map的key可以是任何类型,包括NaN,并且对NaN的判断是正确的
  if (!seenMap.has(currentItem)) {
    seenMap.set(currentItem, true);
    accumulator.push(currentItem);
  }
  return accumulator;
}, []);

console.log(uniqueArrayByReduce);
// 结果:[1, 2, 'hello', 'world', null, undefined, NaN]
// 这个方法能正确处理NaN,并且保持了元素的原始顺序。

这种方法在性能上通常比filter+indexOf要好,因为它利用了哈希表的O(1)查找特性。同时,它也灵活,可以扩展去处理更复杂的去重逻辑,比如对象数组去重。

哪种JS数组去重方法更高效?性能考量与选择

谈到效率,这事儿就得具体分析了。在我看来,大多数时候,Set方法是你的首选。为什么呢?因为它底层实现通常是哈希表(或者说,是高度优化的数据结构),查找和插入的平均时间复杂度都是O(1)。这意味着,即使你的数组有几万甚至几十万个元素,它的处理速度也相当快,总的时间复杂度接近O(N)——也就是线性时间,数组多大,就大致花多少时间。

相比之下,filter()结合indexOf()的效率就没那么理想了。indexOf()在数组中查找元素,最坏情况下需要遍历整个数组。所以,在filter的每次迭代里,你又进行了一次潜在的O(N)操作,整个过程下来,时间复杂度就变成了O(N^2)。当数组规模小的时候,这点差异你可能感觉不到,但一旦数组达到几千甚至上万个元素,你就会明显感觉到页面卡顿,甚至浏览器崩溃。这种方法,我个人是不太推荐在生产环境中大规模使用的,除非你明确知道数组规模很小且不会增长。

至于reduce()结合Map(或者普通对象)的方案,它的性能表现和Set非常接近,平均时间复杂度也是O(N)。因为它同样利用了哈希表的快速查找能力。在某些老旧环境不支持Set,或者你需要更精细控制(比如你想在去重时对元素做一些额外处理)的场景下,这个方法就显得尤为有用。它能很好地平衡性能和灵活性。

所以,如果问我哪种最快,我通常会毫不犹豫地指向Set。如果兼容性是首要考量,或者你需要处理的对象类型比较特殊,reduceMap会是更稳妥的选择。

如何处理对象数组去重?深入探讨复杂数据类型的挑战

处理对象数组去重,这可就不是简单地用Set或者indexOf能搞定的了。因为JavaScript在比较对象时,默认是比较它们的内存地址(引用),而不是它们的内容。所以,即使两个对象长得一模一样,比如{id: 1, name: 'A'}和另一个{id: 1, name: 'A'},它们在内存中是两个独立的个体,Set会认为它们是不同的。

这时候,我们就需要定义一个“唯一性”的标准。通常,我们会基于对象的一个或多个属性来判断它们是否重复。比如,如果你的对象都有一个id属性,并且id是唯一的,那么我们就可以根据id来去重。

一个比较常见的做法是结合filter()Set(或者Map)来记录已经“见过”的id

const users = [
  { id: 1, name: 'Alice', age: 30 },
  { id: 2, name: 'Bob', age: 25 },
  { id: 1, name: 'Alice', age: 30 }, // 重复项
  { id: 3, name: 'Charlie', age: 35 },
  { id: 2, name: 'Bob', age: 26 } // id重复,但age不同
];

const seenIds = new Set();
const uniqueUsers = users.filter(user => {
  // 如果这个id之前没见过
  if (!seenIds.has(user.id)) {
    seenIds.add(user.id); // 把它标记为已见过
    return true; // 保留这个用户对象
  }
  return false; // 否则,丢弃
});

console.log(uniqueUsers);
// 结果:
// [
//   { id: 1, name: 'Alice', age: 30 },
//   { id: 2, name: 'Bob', age: 25 },
//   { id: 3, name: 'Charlie', age: 35 }
// ]

这种方式非常实用,因为它允许你自定义去重的逻辑。如果对象的唯一性需要由多个属性共同决定,比如idtype,你可以组合它们作为Set的key,例如user.id + '-' + user.type

另一种稍微复杂但更通用的方法是利用Map来存储对象,以某个属性(或组合属性)作为key,对象本身作为value。这在需要保留“最新”或“最旧”的重复项时特别有用。

const users = [
  { id: 1, name: 'Alice', age: 30 },
  { id: 2, name: 'Bob', age: 25 },
  { id: 1, name: 'Alice', age: 30 },
  { id: 3, name: 'Charlie', age: 35 },
  { id: 2, name: 'Bob', age: 26 } // id重复,但age不同,我们希望保留最新的(即这个)
];

const uniqueMap = new Map();
users.forEach(user => {
  // 以id作为key,每次遇到重复id,新的对象会覆盖旧的,从而保留最后一个
  uniqueMap.set(user.id, user);
});

const uniqueUsersFromMap = Array.from(uniqueMap.values());
// 或者 [...uniqueMap.values()]

console.log(uniqueUsersFromMap);
// 结果:
// [
//   { id: 1, name: 'Alice', age: 30 },
//   { id: 2, name: 'Bob', age: 26 }, // 注意,这里保留了age为26的Bob
//   { id: 3, name: 'Charlie', age: 35 }
// ]

这种Map的方式,不仅能去重,还能灵活控制保留哪个重复项(比如最后一个出现的)。当然,如果你需要根据所有属性都完全一致才算重复,那么JSON.stringify()可以临时作为key,但要注意它的局限性:属性顺序不同会生成不同的字符串,且不能处理循环引用。

去重时如何保持原始顺序?兼顾效率与数据完整性

去重的时候,很多时候我们不仅要剔除重复项,还希望剩下的元素能保持它们在原始数组中的相对顺序。这其实是个挺重要的细节,因为数据的顺序有时会承载特定的业务含义。

幸运的是,我们前面提到的一些主流去重方法,在现代JavaScript环境中,大多都能很好地保持原始顺序。

  1. Set方法: 在ES6规范中,Set的迭代顺序并没有明确规定。但在实际的现代JavaScript引擎实现中(比如V8,也就是Chrome和Node.js用的),Set保持元素插入顺序的。所以,如果你用[...new Set(arr)],结果数组的顺序会和原始数组中第一次出现的元素顺序一致。这对我来说,是Set能成为首选去重方法的重要原因之一,因为它同时兼顾了简洁、高效和顺序。

  2. filter()结合indexOf() 这个方法是天然保持顺序的。它的逻辑就是“如果当前元素是它第一次出现,我就保留它”。自然而然地,保留下来的元素,它们的相对顺序和原始数组是完全一致的。所以,如果你对性能要求不是特别极致,或者数组规模不大,这个方法在保持顺序方面是完全可靠的。

  3. reduce()结合Map(或对象): 这种方式也能够完美地保持原始顺序。在reduce的迭代过程中,我们是按照原始数组的顺序一个接一个地处理元素的。当一个元素被判断为不重复并被push到累加器数组中时,它就是按照原始顺序被添加进去的。Map本身也保持了key的插入顺序,这进一步保证了最终结果的顺序性。

// 示例:使用reduce + Map 保持顺序
const disorderedArr = ['apple', 'banana', 'apple', 'orange', 'banana', 'grape'];
const uniqueAndOrdered = disorderedArr.reduce((acc, item) => {
    if (!seenMap.has(item)) { // 假设seenMap已定义
        seenMap.set(item, true);
        acc.push(item);
    }
    return acc;
}, []);
console.log(uniqueAndOrdered); // ['apple', 'banana', 'orange', 'grape'] - 顺序完全保留

所以,你不需要为了保持顺序而额外做太多工作。选择Set或者reduce+Map通常就能满足你的需求,它们在保持顺序的同时,也提供了不错的性能。只有在极少数需要兼容非常老旧的Set实现,或者对filter+indexOf的O(N^2)性能有严格限制时,你才需要特别去权衡。但就我个人经验而言,现代开发中,Set的方案几乎是万金油。

本篇关于《JS数组去重方法全解析》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!

富文本编辑实现方法及工具推荐富文本编辑实现方法及工具推荐
上一篇
富文本编辑实现方法及工具推荐
剪映曲线变速怎么调?专业版速度设置教程
下一篇
剪映曲线变速怎么调?专业版速度设置教程
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    206次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    209次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    205次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    212次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    230次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码