Java词频统计方法及实例解析
知识点掌握了,还需要不断练习才能熟练运用。下面golang学习网给大家带来一个文章开发实战,手把手教大家学习《如何使用Java进行词频统计 Java统计词频的实例方法》,在实现功能的过程中也带大家重新温习相关知识点,温故而知新,回头看看说不定又有不一样的感悟!
要处理文本预处理中的标点符号和大小写问题,首先应统一大小写,通常使用toLowerCase()方法将所有字符转为小写;其次使用正则表达式replaceAll("1", " ")移除标点符号,将其替换为空格;最后根据需求调整正则表达式以适应数字或特定符号的统计。a-z\s ↩
在Java中进行词频统计,核心思路无非就是把文本拆分成单个词语,然后用一个映射表(Map)来记录每个词出现的次数。这听起来简单,但实际操作起来,文本预处理、效率考量,甚至最终结果的呈现方式,都有不少可以琢磨的地方。本质上,我们是在构建一个词语到其出现频率的映射,而Java的集合框架,特别是HashMap
,简直是为这个任务量身定做的。

解决方案
import java.io.IOException; import java.nio.file.Files; import java.nio.file.Paths; import java.util.Arrays; import java.util.Comparator; import java.util.HashMap; import java.util.Map; import java.util.stream.Collectors; public class WordFrequencyCounter { /** * 统计给定文本内容的词频。 * 进行了简单的预处理:转换为小写,移除标点符号。 * * @param text 要统计词频的文本内容 * @return 包含词语及其出现次数的Map */ public Map<String, Integer> countWords(String text) { if (text == null || text.trim().isEmpty()) { return new HashMap<>(); } // 1. 文本预处理:转换为小写,移除除了字母和空格之外的所有字符 // 这一步很关键,它决定了我们“看”到的词语是什么样子 String cleanedText = text.toLowerCase().replaceAll("[^a-z\\s]", " "); // 2. 分割文本为词语数组 // 使用空格作为分隔符,并过滤掉空字符串(例如,多个空格连在一起会产生空字符串) String[] words = cleanedText.split("\\s+"); // 3. 使用HashMap统计词频 Map<String, Integer> wordCounts = new HashMap<>(); for (String word : words) { if (!word.trim().isEmpty()) { // 再次确保不是空词 wordCounts.put(word, wordCounts.getOrDefault(word, 0) + 1); } } return wordCounts; } /** * 演示如何使用Java 8 Stream API更简洁地实现词频统计。 * 这种方式在代码可读性和表达力上,个人觉得更胜一筹。 * * @param text 要统计词频的文本内容 * @return 包含词语及其出现次数的Map */ public Map<String, Long> countWordsWithStreams(String text) { if (text == null || text.trim().isEmpty()) { return new HashMap<>(); } return Arrays.stream(text.toLowerCase().replaceAll("[^a-z\\s]", " ").split("\\s+")) .filter(word -> !word.trim().isEmpty()) .collect(Collectors.groupingBy(word -> word, Collectors.counting())); } public static void main(String[] args) { WordFrequencyCounter counter = new WordFrequencyCounter(); String sampleText = "Java is a programming language. Java is widely used. Learn Java, enjoy Java!"; System.out.println("--- 传统方法统计 ---"); Map<String, Integer> traditionalCounts = counter.countWords(sampleText); traditionalCounts.entrySet().stream() .sorted(Map.Entry.comparingByValue(Comparator.reverseOrder())) .forEach(entry -> System.out.println(entry.getKey() + ": " + entry.getValue())); System.out.println("\n--- Stream API方法统计 ---"); Map<String, Long> streamCounts = counter.countWordsWithStreams(sampleText); streamCounts.entrySet().stream() .sorted(Map.Entry.comparingByValue(Comparator.reverseOrder())) .forEach(entry -> System.out.println(entry.getKey() + ": " + entry.getValue())); // 尝试从文件读取并统计 System.out.println("\n--- 从文件读取并统计 (Stream API) ---"); try { String fileContent = Files.readString(Paths.get("sample.txt")); // 假设有sample.txt文件 Map<String, Long> fileWordCounts = counter.countWordsWithStreams(fileContent); fileWordCounts.entrySet().stream() .sorted(Map.Entry.comparingByValue(Comparator.reverseOrder())) .limit(10) // 只显示前10个高频词 .forEach(entry -> System.out.println(entry.getKey() + ": " + entry.getValue())); } catch (IOException e) { System.err.println("读取文件失败,请确保 'sample.txt' 存在并有内容。错误信息: " + e.getMessage()); // 随便写点内容到sample.txt方便测试 try { Files.writeString(Paths.get("sample.txt"), "This is a test file for word frequency counting. This file contains some words. Test, test, test."); System.out.println("已创建 'sample.txt' 文件,请重新运行程序以查看结果。"); } catch (IOException ex) { System.err.println("创建 'sample.txt' 也失败了: " + ex.getMessage()); } } } }
如何处理文本预处理中的标点符号和大小写问题?
这在词频统计里是个绕不开的话题,而且处理得好不好,直接影响最终结果的“干净度”和“准确性”。就拿“Java.”和“java”来说,我们通常希望它们被认为是同一个词。标点符号更是烦人,一个逗号、句号,就能把一个完整的词给“粘”住。
我的习惯做法是,先统一大小写,通常是全部转为小写。String.toLowerCase()
方法就是干这个的。然后,处理标点符号。最直接的方式是使用正则表达式replaceAll()
。比如,replaceAll("[^a-z\\s]", " ")
这个表达式,它的意思是把所有不是小写字母(a-z)也不是空白符(\s)的字符,都替换成空格。这样,像“Hello, world!”就会变成“hello world”,句号和逗号都被“抹平”了,只剩下我们关心的词语。

但这里有个小陷阱,如果文本里有数字或者我们希望统计的特定符号(比如编程语言中的_
),这个正则就需要调整了。比如,如果想统计包含数字的词(像“Java8”),可能就需要replaceAll("[^a-zA-Z0-9\\s]", " ")
。这其实是个权衡,没有一劳永逸的方案,得看你对“词”的定义有多宽泛。有时,我甚至会考虑更复杂的词法分析器,比如Apache OpenNLP或者Stanford CoreNLP,它们能更智能地识别词语边界,处理连字符、缩写等等,但对于简单的词频统计,手写正则通常就够用了。
如何高效地统计大量文本的词频?
处理大量文本时,效率确实是个大问题。如果文件很大,比如几个GB的文本,一次性Files.readString()
读到内存里,内存可能就爆了。

这时候,逐行读取是个更稳妥的选择。Java NIO的Files.lines(Path path)
方法就非常适合,它返回一个Stream
,可以一行一行地处理,避免了内存溢出的风险。你可以把每一行看作一个小的文本块,对它进行预处理和词语分割,然后把这些词语汇总到同一个Map
里。
另外,Java 8的Stream API在这里也能发挥巨大作用。它不仅让代码更简洁,而且在处理集合时,如果数据量足够大,通过parallelStream()
可以很方便地利用多核CPU进行并行处理。比如,你可以把整个文本文件切分成多个小块,每个小块在一个单独的线程中进行词频统计,最后再把各个线程的结果合并起来。Collectors.groupingBy
结合Collectors.counting
,在内部实现上已经做了很多优化,对于一般的词频统计,它的性能通常都很不错。
当然,如果文本量达到TB级别,或者需要实时处理,那可能就要考虑更专业的工具和技术了,比如分布式计算框架(Hadoop MapReduce, Spark)或者搜索引擎(Elasticsearch, Solr),它们为这种规模的数据分析提供了更强大的能力。但对于大部分单机应用场景,Java的NIO和Stream API组合,已经能很好地应对了。
除了HashMap,还有哪些数据结构可以用于词频统计?它们各有什么优缺点?
HashMap
无疑是词频统计的首选,因为它提供了O(1)的平均时间复杂度来插入和查找,这对于海量词语的计数来说非常高效。但它不保证顺序,如果你需要按字母顺序或者按词频高低排序,还需要额外的步骤。
TreeMap
:- 优点:
TreeMap
是基于红黑树实现的,它能自动根据键(这里是词语)的自然顺序进行排序。这意味着当你遍历TreeMap
时,词语会是按字母顺序排列的。如果你在统计完词频后,经常需要按字母顺序展示结果,那么直接使用TreeMap
可以省去额外的排序步骤。 - 缺点: 相比
HashMap
,TreeMap
的插入、删除和查找操作的平均时间复杂度是O(logN),效率略低。对于非常大的数据集,这个对数级别的开销可能会变得比较明显。
- 优点:
Trie
(前缀树/字典树):- 优点:
Trie
是一种专门用于处理字符串集合的树形数据结构。它的主要优势在于可以高效地进行前缀匹配。在词频统计中,如果你不仅想统计完整词语的频率,还需要进行诸如“以'java'开头的词有哪些,它们的总频率是多少”之类的查询,Trie
会非常高效。每个节点可以存储一个计数器,表示到该节点为止的字符串出现的次数。 - 缺点:
Trie
的实现相对复杂,而且通常会占用更多的内存空间,因为每个节点都需要存储指向子节点的引用。对于仅仅是统计词频,然后按频率排序的简单需求,Trie
的复杂性可能有点过度。
- 优点:
总的来说,对于大多数词频统计任务,HashMap
依然是兼顾效率和简洁性的最佳选择。如果你对结果的排序有强烈的需求,可以考虑TreeMap
。而Trie
则更适用于需要进行复杂字符串匹配和前缀查询的场景。在选择数据结构时,始终要考虑你的具体需求和数据集的规模,没有银弹,只有最适合的方案。
以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

- 上一篇
- Linux权限修改教程:chmod与chown全解析

- 下一篇
- CSS渐变背景与多背景设置技巧
-
- 文章 · java教程 | 12分钟前 |
- SpringCloudSleuth链路追踪教程详解
- 322浏览 收藏
-
- 文章 · java教程 | 19分钟前 |
- 绕过SpringSecurityBasic认证的技巧
- 402浏览 收藏
-
- 文章 · java教程 | 22分钟前 |
- Java文件复制方法与代码示例
- 140浏览 收藏
-
- 文章 · java教程 | 37分钟前 |
- Java+OpenCV实现运动检测监控方案
- 169浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- Java大文件处理:NIO高效读写方法
- 107浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- Java深拷贝怎么实现?全面解析方法
- 401浏览 收藏
-
- 文章 · java教程 | 1小时前 | 并发集合 迭代器 快速失败 ConcurrentModificationException CopyOnWrite
- 避免ConcurrentModificationException的实用方法
- 112浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- Java爬虫教程:Jsoup解析HTML实战指南
- 133浏览 收藏
-
- 文章 · java教程 | 1小时前 |
- Java并行流高效使用方法
- 356浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
-
- 满分语法
- 满分语法是一款免费在线英语语法检查器,助您一键纠正所有英语语法、拼写、标点错误及病句。支持论文、作文、翻译、邮件语法检查与文本润色,并提供详细语法讲解,是英语学习与使用者必备工具。
- 12次使用
-
- 易销AI-专为跨境
- 易销AI是专为跨境电商打造的AI营销神器,提供多语言广告/产品文案高效生成、精准敏感词规避,并配备定制AI角色,助力卖家提升全球市场广告投放效果与回报率。
- 14次使用
-
- WisFile-批量改名
- WisFile是一款免费AI本地工具,专为解决文件命名混乱、归类无序难题。智能识别关键词,AI批量重命名,100%隐私保护,让您的文件井井有条,触手可及。
- 13次使用
-
- 曦灵数字人
- 曦灵数字人平台:提供AI视频、直播、2D/3D超写实数字人及声音克隆服务。3分钟快速克隆,5分钟生成3D数字人,助力高效智能内容创作与营销。
- 10次使用
-
- 字加AI
- 字加AI:您的智能字体管家,高效整合字体获取、使用与管理功能,赋能设计创意,提升工作效率。
- 15次使用
-
- 提升Java功能开发效率的有力工具:微服务架构
- 2023-10-06 501浏览
-
- 掌握Java海康SDK二次开发的必备技巧
- 2023-10-01 501浏览
-
- 如何使用java实现桶排序算法
- 2023-10-03 501浏览
-
- Java开发实战经验:如何优化开发逻辑
- 2023-10-31 501浏览
-
- 如何使用Java中的Math.max()方法比较两个数的大小?
- 2023-11-18 501浏览