当前位置:首页 > 文章列表 > 文章 > python教程 > Pandas文本预处理与类型处理技巧

Pandas文本预处理与类型处理技巧

2025-08-14 22:42:33 0浏览 收藏

大家好,我们又见面了啊~本文《Pandas中NLP文本预处理步骤与类型处理》的内容中将会涉及到等等。如果你正在学习文章相关知识,欢迎关注我,以后会给大家带来更多文章相关文章,希望我们能一起进步!下面就开始本文的正式内容~

Pandas DataFrame中NLP文本预处理的正确顺序与类型处理

本文深入探讨在Pandas DataFrame中进行NLP文本预处理时常见的类型不匹配问题及其解决方案。重点阐述了在不同预处理步骤中(如分词、大小写转换、停用词移除、词形还原等)如何正确处理字符串与列表类型数据的转换,并提供了一个结构清晰、类型安全的Python代码示例,以确保预处理流程的顺畅与高效。

引言:NLP文本预处理的挑战

在自然语言处理(NLP)任务中,文本预处理是至关重要的一步,它直接影响后续模型训练的效果和性能。然而,当我们在Pandas DataFrame中处理文本数据时,常常会遇到一个核心挑战:不同预处理函数对输入数据类型(字符串或字符串列表)的要求不一致,导致 AttributeError 等类型错误。例如,str.split() 方法只能应用于字符串,而不能应用于列表。理解数据在不同处理阶段的类型变化,并采取相应的处理策略,是构建健壮高效预处理管道的关键。

核心问题:类型不匹配与处理顺序

在构建文本预处理流程时,一个常见的错误是将分词(Tokenization)操作过早地应用于DataFrame列,导致列中的每个单元格从单个字符串变为一个单词列表。此后,如果继续使用期望字符串作为输入的函数(例如 contractions.fix()、unidecode() 或 re.sub()),就会引发 AttributeError: 'list' object has no attribute 'split' 等错误。

正确的处理方式是,一旦数据被分词成列表,后续所有针对单个单词的操作都必须通过遍历列表中的每个单词来完成。这意味着需要将操作封装在列表推导式中,如 [func(word) for word in x],其中 x 是一个单词列表。

构建类型安全的预处理管道

为了解决上述问题并构建一个类型安全的文本预处理管道,我们需要仔细规划每个步骤,并确保函数能够正确处理当前数据类型。

1. 必要的库和资源导入

首先,导入所需的Python库和NLTK资源。

import pandas as pd
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.corpus import wordnet
from nltk.tokenize import word_tokenize
import re
import string
from unidecode import unidecode
import contractions
from textblob import TextBlob # 注意:TextBlob可能需要单独安装
# nltk.download('punkt')
# nltk.download('stopwords')
# nltk.download('wordnet')
# nltk.download('averaged_perceptron_tagger')

2. 辅助函数:智能词形还原(Lemmatization)

词形还原通常需要词性(Part-of-Speech, POS)信息以获得更准确的结果。由于我们的数据在经过分词后将是单词列表,我们需要一个能够接受单词列表并对每个单词进行POS标记和词形还原的辅助函数。

def lemmatize_words(words_list, lemmatizer, pos_tag_dict):
    """
    对单词列表进行POS标记并执行词形还原。
    Args:
        words_list (list): 待处理的单词列表。
        lemmatizer (nltk.stem.WordNetLemmatizer): WordNet词形还原器实例。
        pos_tag_dict (dict): NLTK POS标签到WordNet POS标签的映射字典。
    Returns:
        list: 词形还原后的单词列表。
    """
    lemmatized_words = []
    # 对整个单词列表进行POS标记,效率更高
    pos_tuples = nltk.pos_tag(words_list)

    for word, nltk_word_pos in pos_tuples:
        # 获取WordNet对应的词性
        wordnet_word_pos = pos_tag_dict.get(nltk_word_pos[0].upper(), None)
        if wordnet_word_pos is not None:
            new_word = lemmatizer.lemmatize(word, wordnet_word_pos)
        else:
            new_word = lemmatizer.lemmatize(word) # 默认动词
        lemmatized_words.append(new_word)
    return lemmatized_words

3. 主处理函数:processing_steps(df)

这个函数将包含所有预处理步骤,并确保每一步都正确处理数据类型。

def processing_steps(df):
    """
    对DataFrame中的文本列执行一系列NLP预处理步骤。
    Args:
        df (pd.DataFrame): 包含文本数据的DataFrame。
    Returns:
        pd.DataFrame: 预处理后的DataFrame。
    """
    lemmatizer = WordNetLemmatizer()
    # 定义NLTK POS标签到WordNet POS标签的映射
    pos_tag_dict = {"J": wordnet.ADJ, "N": wordnet.NOUN, "V": wordnet.VERB, "R": wordnet.ADV}

    # 初始化停用词列表
    local_stopwords = set(stopwords.words('english'))
    additional_stopwords = ["http", "u", "get", "like", "let", "nan"]
    words_to_keep = ["i'", "i", "me", "my", "we", "our", "us"] # 确保这些词不会被移除
    local_stopwords.update(additional_stopwords)
    # 从停用词中移除需要保留的词
    for word in words_to_keep:
      if word in local_stopwords:
        local_stopwords.remove(word)

    new_data = {} # 用于存储处理后的数据

    for column in df.columns:
        # 复制原始列数据进行处理,避免直接修改原始DataFrame
        results = df[column].copy()

        # 1. 分词 (Tokenization)
        # 将每个字符串单元格转换为单词列表
        results = results.apply(word_tokenize)

        # 从这里开始,'results' 中的每个元素都是一个单词列表。
        # 因此,所有后续操作都需要通过列表推导式应用于列表中的每个单词。

        # 2. 小写化 (Lowercasing each word within the list)
        results = results.apply(lambda x: [word.lower() for word in x])

        # 3. 移除停用词 (Removing stopwords)
        # 移除非字母字符和停用词
        results = results.apply(lambda tokens: [word for word in tokens if word.isalpha() and word not in local_stopwords])

        # 4. 替换变音符号 (Replace diacritics)
        # unidecode函数期望字符串输入,因此需要对列表中的每个单词应用
        results = results.apply(lambda x: [unidecode(word, errors="preserve") for word in x])

        # 5. 扩展缩写 (Expand contractions)
        # contractions.fix期望字符串输入。这里假设每个“单词”可能包含缩写(如"don't"),
        # 并且扩展后可能变成多个词(如"do not")。
        # word.split()在这里是为了确保contractions.fix处理的是一个完整的短语,
        # 并将可能产生的多个词重新组合。
        results = results.apply(lambda x: [" ".join([contractions.fix(expanded_word) for expanded_word in word.split()]) for word in x])

        # 6. 移除数字 (Remove numbers)
        # re.sub期望字符串输入,对列表中的每个单词应用
        results = results.apply(lambda x: [re.sub(r'\d+', '', word) for word in x])

        # 7. 移除标点符号 (Remove punctuation except period)
        # re.sub期望字符串输入,对列表中的每个单词应用
        # 保留句号,因为它们可能用于句子的分割或表示缩写
        results = results.apply(lambda x: [re.sub('[%s]' % re.escape(string.punctuation.replace('.', '')), '' , word) for word in x])

        # 8. 移除多余空格 (Remove double space)
        # re.sub期望字符串输入,对列表中的每个单词应用
        results = results.apply(lambda x: [re.sub(' +', ' ', word).strip() for word in x]) # .strip()去除首尾空格

        # 9. 词形还原 (Lemmatization)
        # 使用我们自定义的lemmatize_words函数,它接受一个单词列表
        results = results.apply(lambda x: lemmatize_words(x, lemmatizer, pos_tag_dict))

        # 10. (可选) 拼写纠错 (Typos correction)
        # TextBlob.correct() 通常在完整的句子或段落上表现更好。
        # 如果在此阶段应用,它将对每个单词进行纠错,可能效果不佳或效率低下。
        # 如果需要,可以考虑在分词前进行,或在所有处理完成后将词列表重新连接成字符串再进行。
        # results = results.apply(lambda x: [str(TextBlob(word).correct()) for word in x])

        # 将处理后的列存入新字典
        new_data[column] = results

    # 将处理后的数据转换为新的DataFrame
    new_df = pd.DataFrame(new_data)

    return new_df

示例用法:

# 创建一个示例DataFrame
data = {
    'title': ["Don't you love NLP?", "This is an amazing article about ML. I've read it 10 times."],
    'body': ["It's really cool. I'm learning a lot. https://example.com", "The author is great! He doesn't skip anything."]
}
df = pd.DataFrame(data)

print("原始DataFrame:")
print(df)

# 执行预处理
processed_df = processing_steps(df.copy()) # 传入副本,避免修改原始df

print("\n预处理后的DataFrame:")
print(processed_df)

预处理的最佳实践与注意事项

  1. 操作顺序的重要性
    • 缩写扩展:contractions.fix() 最好在分词前或在分词后针对每个词进行。如果在分词后进行,需要确保它能处理单个词,并正确处理扩展后可能产生的多个词。
    • 大小写转换:通常在早期进行,以便后续操作(如停用词移除)能够正确匹配。
    • 停用词、数字、标点移除:通常在分词和大小写转换后进行,因为它们依赖于识别单个词。
    • 词形还原/词干提取:通常在分词、大小写转换和POS标记后进行。
    • 拼写纠错:TextBlob 等工具在处理完整的句子或较长的文本时效果最佳。如果在分词

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

Golang开发GraphQL服务:gqlgen实战教程详解Golang开发GraphQL服务:gqlgen实战教程详解
上一篇
Golang开发GraphQL服务:gqlgen实战教程详解
事件循环:程序高效响应的核心机制
下一篇
事件循环:程序高效响应的核心机制
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    168次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    165次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    170次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    172次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    186次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码