Pandas文本分类与标签生成教程
2025-09-19 08:09:29
0浏览
收藏
在文章实战开发的过程中,我们经常会遇到一些这样那样的问题,然后要卡好半天,等问题解决了才发现原来一些细节知识点还是没有掌握好。今天golang学习网就整理分享《Pandas文本关键词分类与标签生成教程》,聊聊,希望可以帮助到正在努力赚钱的你。
在处理非结构化文本数据时,经常需要根据文本内容将其归类到预定义的类别中。一个常见的方法是识别文本中特定关键词的出现频率,并以此作为判断其类别倾向的依据。本教程将指导您完成一个实用的文本分类任务:给定一个包含文本内容的Pandas DataFrame列和一组按类别划分的关键词列表,计算每行文本中每个关键词类别的“概率”,并最终为每行分配概率最高的类别标签。
核心概念与方法
要实现上述目标,我们需要掌握以下几个核心概念和方法:
- 关键词组定义与管理: 将不同类别的关键词组织成一个易于访问和迭代的结构,例如Python字典。
- 文本预处理与分词: 对原始文本进行标准化处理,如转换为小写,并将其拆分成独立的单词(分词),以便进行准确的匹配和计数。
- 词频统计: 高效地统计分词后文本中每个单词的出现频率,这是计算概率的基础。
- 类别概率计算: 根据预定义的关键词列表和文本中的词频,计算每个类别的“概率”。这里的概率定义为:特定类别关键词总数 / 文本总词数。
- 最高概率类别选择: 比较所有类别的概率,选出最高者作为最终标签。如果所有类别概率均为零,则返回一个默认值(如NaN)。
- Pandas apply 函数的正确使用: 将自定义的分类逻辑高效地应用到DataFrame的每一行或每一列。
实现步骤与代码示例
我们将通过一个具体的例子来演示上述过程。假设我们有一个包含“内容(content)”列的DataFrame,并且我们希望根据其中出现的“水果”、“动物”或“国家”关键词来打标签。
首先,导入必要的库并定义我们的关键词类别。
import re import pandas as pd from collections import Counter # 定义关键词类别及其对应的关键词列表 labels = { 'fruits': ['mango', 'apple', 'lichi'], 'animals': ['dog', 'cat', 'cow', 'monkey'], 'country': ['us', 'ca', 'au', 'br'], } # 示例DataFrame data = { 'content': [ 'My favorite fruit is mango. I like lichies too. I live in au. Cows are domestic animals.', 'I own RTX 4090...', 'There is political conflict between us and ca.', 'au, br mango, lichi apple,.... \n cat, cow, monkey donkey dogs' ] } df = pd.DataFrame(data) print("原始DataFrame:") print(df)
接下来,我们编写核心函数 calculate_probability,它将负责对单行文本进行处理并返回最高概率的标签。
def calculate_probability(text, labels_dict): """ 计算给定文本中各关键词类别的概率,并返回最高概率的类别标签。 参数: text (str): 输入的文本字符串。 labels_dict (dict): 包含关键词类别的字典,键为类别名称,值为关键词列表。 返回: str: 概率最高的类别标签,如果所有类别概率为0则返回 'NaN'。 """ # 1. 文本预处理与分词:转换为小写并提取所有单词 words = re.findall(r'\b\w+\b', text.lower()) word_count = len(words) # 如果文本为空或没有单词,则无法计算概率 if word_count == 0: return 'NaN' # 2. 词频统计:使用Counter高效统计单词频率 counts = Counter(words) # 3. 类别概率计算:遍历每个类别,累加关键词词频 probs = {} for k, l_list in labels_dict.items(): # 对于每个类别,统计其关键词在文本中出现的总次数 # 注意:这里是精确匹配分词后的单词。 category_keyword_count = sum(counts[w] for w in l_list) probs[k] = category_keyword_count / word_count # 4. 最高概率类别选择 # 找出概率最高的类别名称 max_label = max(probs, key=probs.get) # 如果最高概率大于0,则返回该标签;否则返回'NaN' return max_label if probs[max_label] > 0 else 'NaN' # 将函数应用到DataFrame的 'content' 列 # 注意:当对Series应用函数时,函数应接收Series的单个元素作为输入。 # 额外的参数 (labels_dict) 通过关键字参数传递给apply。 df['label'] = df['content'].apply(calculate_probability, labels_dict=labels) print("\n处理后的DataFrame:") print(df)
代码解析
re.findall(r'\b\w+\b', text.lower()):
- text.lower(): 将所有文本转换为小写,确保大小写不敏感的匹配。
- r'\b\w+\b': 这是一个正则表达式模式。
- \b:匹配单词边界,确保只匹配完整的单词。
- \w+:匹配一个或多个字母、数字或下划线字符。
- re.findall():查找所有不重叠的匹配项,并以列表形式返回。这有效地将文本分词为独立的单词。
collections.Counter(words):
- Counter 是Python collections 模块提供的一个非常有用的工具,专门用于计数可哈希对象。
- 它接收一个可迭代对象(这里是单词列表 words),并返回一个字典子类,其中键是元素,值是它们的计数。这比手动构建字典进行计数更简洁高效。
probs = {} ... for k, l_list in labels_dict.items(): ... sum(counts[w] for w in l_list) ...:
- 这个循环遍历 labels_dict 中的每个类别(例如 'fruits', 'animals')。
- 对于每个类别 k,它获取其对应的关键词列表 l_list。
- sum(counts[w] for w in l_list):这是一个生成器表达式,它遍历 l_list 中的每个关键词 w,然后从 counts (词频统计结果)中获取 w 的出现次数。如果 w 不在 counts 中,counts[w] 会返回 0。所有这些计数被累加,得到该类别关键词在文本中的总出现次数。
- 最后,将总出现次数除以 word_count
终于介绍完啦!小伙伴们,这篇关于《Pandas文本分类与标签生成教程》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!

- 上一篇
- 百度识图官网入口百度识图网页版网址

- 下一篇
- Python宽表转长表技巧:melt方法全解析
查看更多
最新文章
-
- 文章 · python教程 | 12分钟前 | orm 连接池 sql注入 Python连接数据库 驱动库
- Python连接数据库全攻略
- 213浏览 收藏
-
- 文章 · python教程 | 29分钟前 |
- Python中print的使用方法与作用详解
- 306浏览 收藏
-
- 文章 · python教程 | 1小时前 | Python 数学运算 collections.Counter 统计元素数量 most_common
- PythonCounter统计元素数量方法详解
- 290浏览 收藏
-
- 文章 · python教程 | 1小时前 |
- Python宽表转长表技巧:melt方法全解析
- 123浏览 收藏
-
- 文章 · python教程 | 10小时前 |
- Python数据建模:Statsmodels使用教程
- 404浏览 收藏
-
- 文章 · python教程 | 10小时前 |
- PythonVR开发环境搭建教程
- 385浏览 收藏
-
- 文章 · python教程 | 12小时前 |
- Python字符串与列表反转技巧
- 188浏览 收藏
-
- 文章 · python教程 | 12小时前 |
- Windows编译RustPython扩展教程
- 290浏览 收藏
-
- 文章 · python教程 | 12小时前 |
- PostgreSQL处理万列CSV:JSONB与GIN索引实战指南
- 382浏览 收藏
-
- 文章 · python教程 | 12小时前 |
- Python发送HTTP请求教程详解
- 425浏览 收藏
-
- 文章 · python教程 | 12小时前 |
- Pythonbreak与continue用法详解
- 438浏览 收藏
查看更多
课程推荐
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 499次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 484次学习
查看更多
AI推荐
-
- PandaWiki开源知识库
- PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
- 13次使用
-
- AI Mermaid流程图
- SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
- 828次使用
-
- 搜获客【笔记生成器】
- 搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
- 845次使用
-
- iTerms
- iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
- 863次使用
-
- TokenPony
- TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
- 929次使用
查看更多
相关文章
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览