Pandas文本预处理与类型处理技巧
大家好,我们又见面了啊~本文《Pandas中NLP文本预处理步骤与类型处理》的内容中将会涉及到等等。如果你正在学习文章相关知识,欢迎关注我,以后会给大家带来更多文章相关文章,希望我们能一起进步!下面就开始本文的正式内容~

引言:NLP文本预处理的挑战
在自然语言处理(NLP)任务中,文本预处理是至关重要的一步,它直接影响后续模型训练的效果和性能。然而,当我们在Pandas DataFrame中处理文本数据时,常常会遇到一个核心挑战:不同预处理函数对输入数据类型(字符串或字符串列表)的要求不一致,导致 AttributeError 等类型错误。例如,str.split() 方法只能应用于字符串,而不能应用于列表。理解数据在不同处理阶段的类型变化,并采取相应的处理策略,是构建健壮高效预处理管道的关键。
核心问题:类型不匹配与处理顺序
在构建文本预处理流程时,一个常见的错误是将分词(Tokenization)操作过早地应用于DataFrame列,导致列中的每个单元格从单个字符串变为一个单词列表。此后,如果继续使用期望字符串作为输入的函数(例如 contractions.fix()、unidecode() 或 re.sub()),就会引发 AttributeError: 'list' object has no attribute 'split' 等错误。
正确的处理方式是,一旦数据被分词成列表,后续所有针对单个单词的操作都必须通过遍历列表中的每个单词来完成。这意味着需要将操作封装在列表推导式中,如 [func(word) for word in x],其中 x 是一个单词列表。
构建类型安全的预处理管道
为了解决上述问题并构建一个类型安全的文本预处理管道,我们需要仔细规划每个步骤,并确保函数能够正确处理当前数据类型。
1. 必要的库和资源导入
首先,导入所需的Python库和NLTK资源。
import pandas as pd
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.corpus import wordnet
from nltk.tokenize import word_tokenize
import re
import string
from unidecode import unidecode
import contractions
from textblob import TextBlob # 注意:TextBlob可能需要单独安装
# nltk.download('punkt')
# nltk.download('stopwords')
# nltk.download('wordnet')
# nltk.download('averaged_perceptron_tagger')2. 辅助函数:智能词形还原(Lemmatization)
词形还原通常需要词性(Part-of-Speech, POS)信息以获得更准确的结果。由于我们的数据在经过分词后将是单词列表,我们需要一个能够接受单词列表并对每个单词进行POS标记和词形还原的辅助函数。
def lemmatize_words(words_list, lemmatizer, pos_tag_dict):
"""
对单词列表进行POS标记并执行词形还原。
Args:
words_list (list): 待处理的单词列表。
lemmatizer (nltk.stem.WordNetLemmatizer): WordNet词形还原器实例。
pos_tag_dict (dict): NLTK POS标签到WordNet POS标签的映射字典。
Returns:
list: 词形还原后的单词列表。
"""
lemmatized_words = []
# 对整个单词列表进行POS标记,效率更高
pos_tuples = nltk.pos_tag(words_list)
for word, nltk_word_pos in pos_tuples:
# 获取WordNet对应的词性
wordnet_word_pos = pos_tag_dict.get(nltk_word_pos[0].upper(), None)
if wordnet_word_pos is not None:
new_word = lemmatizer.lemmatize(word, wordnet_word_pos)
else:
new_word = lemmatizer.lemmatize(word) # 默认动词
lemmatized_words.append(new_word)
return lemmatized_words3. 主处理函数:processing_steps(df)
这个函数将包含所有预处理步骤,并确保每一步都正确处理数据类型。
def processing_steps(df):
"""
对DataFrame中的文本列执行一系列NLP预处理步骤。
Args:
df (pd.DataFrame): 包含文本数据的DataFrame。
Returns:
pd.DataFrame: 预处理后的DataFrame。
"""
lemmatizer = WordNetLemmatizer()
# 定义NLTK POS标签到WordNet POS标签的映射
pos_tag_dict = {"J": wordnet.ADJ, "N": wordnet.NOUN, "V": wordnet.VERB, "R": wordnet.ADV}
# 初始化停用词列表
local_stopwords = set(stopwords.words('english'))
additional_stopwords = ["http", "u", "get", "like", "let", "nan"]
words_to_keep = ["i'", "i", "me", "my", "we", "our", "us"] # 确保这些词不会被移除
local_stopwords.update(additional_stopwords)
# 从停用词中移除需要保留的词
for word in words_to_keep:
if word in local_stopwords:
local_stopwords.remove(word)
new_data = {} # 用于存储处理后的数据
for column in df.columns:
# 复制原始列数据进行处理,避免直接修改原始DataFrame
results = df[column].copy()
# 1. 分词 (Tokenization)
# 将每个字符串单元格转换为单词列表
results = results.apply(word_tokenize)
# 从这里开始,'results' 中的每个元素都是一个单词列表。
# 因此,所有后续操作都需要通过列表推导式应用于列表中的每个单词。
# 2. 小写化 (Lowercasing each word within the list)
results = results.apply(lambda x: [word.lower() for word in x])
# 3. 移除停用词 (Removing stopwords)
# 移除非字母字符和停用词
results = results.apply(lambda tokens: [word for word in tokens if word.isalpha() and word not in local_stopwords])
# 4. 替换变音符号 (Replace diacritics)
# unidecode函数期望字符串输入,因此需要对列表中的每个单词应用
results = results.apply(lambda x: [unidecode(word, errors="preserve") for word in x])
# 5. 扩展缩写 (Expand contractions)
# contractions.fix期望字符串输入。这里假设每个“单词”可能包含缩写(如"don't"),
# 并且扩展后可能变成多个词(如"do not")。
# word.split()在这里是为了确保contractions.fix处理的是一个完整的短语,
# 并将可能产生的多个词重新组合。
results = results.apply(lambda x: [" ".join([contractions.fix(expanded_word) for expanded_word in word.split()]) for word in x])
# 6. 移除数字 (Remove numbers)
# re.sub期望字符串输入,对列表中的每个单词应用
results = results.apply(lambda x: [re.sub(r'\d+', '', word) for word in x])
# 7. 移除标点符号 (Remove punctuation except period)
# re.sub期望字符串输入,对列表中的每个单词应用
# 保留句号,因为它们可能用于句子的分割或表示缩写
results = results.apply(lambda x: [re.sub('[%s]' % re.escape(string.punctuation.replace('.', '')), '' , word) for word in x])
# 8. 移除多余空格 (Remove double space)
# re.sub期望字符串输入,对列表中的每个单词应用
results = results.apply(lambda x: [re.sub(' +', ' ', word).strip() for word in x]) # .strip()去除首尾空格
# 9. 词形还原 (Lemmatization)
# 使用我们自定义的lemmatize_words函数,它接受一个单词列表
results = results.apply(lambda x: lemmatize_words(x, lemmatizer, pos_tag_dict))
# 10. (可选) 拼写纠错 (Typos correction)
# TextBlob.correct() 通常在完整的句子或段落上表现更好。
# 如果在此阶段应用,它将对每个单词进行纠错,可能效果不佳或效率低下。
# 如果需要,可以考虑在分词前进行,或在所有处理完成后将词列表重新连接成字符串再进行。
# results = results.apply(lambda x: [str(TextBlob(word).correct()) for word in x])
# 将处理后的列存入新字典
new_data[column] = results
# 将处理后的数据转换为新的DataFrame
new_df = pd.DataFrame(new_data)
return new_df示例用法:
# 创建一个示例DataFrame
data = {
'title': ["Don't you love NLP?", "This is an amazing article about ML. I've read it 10 times."],
'body': ["It's really cool. I'm learning a lot. https://example.com", "The author is great! He doesn't skip anything."]
}
df = pd.DataFrame(data)
print("原始DataFrame:")
print(df)
# 执行预处理
processed_df = processing_steps(df.copy()) # 传入副本,避免修改原始df
print("\n预处理后的DataFrame:")
print(processed_df)预处理的最佳实践与注意事项
- 操作顺序的重要性:
- 缩写扩展:contractions.fix() 最好在分词前或在分词后针对每个词进行。如果在分词后进行,需要确保它能处理单个词,并正确处理扩展后可能产生的多个词。
- 大小写转换:通常在早期进行,以便后续操作(如停用词移除)能够正确匹配。
- 停用词、数字、标点移除:通常在分词和大小写转换后进行,因为它们依赖于识别单个词。
- 词形还原/词干提取:通常在分词、大小写转换和POS标记后进行。
- 拼写纠错:TextBlob 等工具在处理完整的句子或较长的文本时效果最佳。如果在分词
以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。
Golang开发GraphQL服务:gqlgen实战教程详解
- 上一篇
- Golang开发GraphQL服务:gqlgen实战教程详解
- 下一篇
- 事件循环:程序高效响应的核心机制
-
- 文章 · python教程 | 4小时前 |
- Python如何重命名数据列名?columns教程
- 165浏览 收藏
-
- 文章 · python教程 | 4小时前 |
- 异步Python机器人如何非阻塞运行?
- 216浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- Python排序忽略大小写技巧详解
- 325浏览 收藏
-
- 文章 · python教程 | 5小时前 |
- Python列表引用与复制技巧
- 300浏览 收藏
-
- 文章 · python教程 | 5小时前 | 数据处理 流处理 PythonAPI PyFlink ApacheFlink
- PyFlink是什么?Python与Flink结合解析
- 385浏览 收藏
-
- 文章 · python教程 | 6小时前 | sdk 邮件API requests库 smtplib Python邮件发送
- Python发送邮件API调用方法详解
- 165浏览 收藏
-
- 文章 · python教程 | 6小时前 |
- Pandasmerge_asof快速匹配最近时间数据
- 254浏览 收藏
-
- 文章 · python教程 | 7小时前 |
- 列表推导式与生成器表达式区别解析
- 427浏览 收藏
-
- 文章 · python教程 | 7小时前 |
- Pythonopen函数使用技巧详解
- 149浏览 收藏
-
- 文章 · python教程 | 7小时前 |
- Python合并多个列表的几种方法
- 190浏览 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 485次学习
-
- ChatExcel酷表
- ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
- 3193次使用
-
- Any绘本
- 探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
- 3405次使用
-
- 可赞AI
- 可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
- 3436次使用
-
- 星月写作
- 星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
- 4543次使用
-
- MagicLight
- MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
- 3814次使用
-
- Flask框架安装技巧:让你的开发更高效
- 2024-01-03 501浏览
-
- Django框架中的并发处理技巧
- 2024-01-22 501浏览
-
- 提升Python包下载速度的方法——正确配置pip的国内源
- 2024-01-17 501浏览
-
- Python与C++:哪个编程语言更适合初学者?
- 2024-03-25 501浏览
-
- 品牌建设技巧
- 2024-04-06 501浏览

