当前位置:首页 > 文章列表 > 文章 > python教程 > Pythoncsv.writer引号与转义设置全解析

Pythoncsv.writer引号与转义设置全解析

2025-07-16 19:39:28 0浏览 收藏

欢迎各位小伙伴来到golang学习网,相聚于此都是缘哈哈哈!今天我给大家带来《Python csv.writer转义与引用设置详解》,这篇文章主要讲到等等知识,如果你对文章相关的知识非常感兴趣或者正在自学,都可以关注我,我会持续更新相关文章!当然,有什么建议也欢迎在评论留言提出!一起学习!

解决Python csv.writer的转义字符和引用参数问题

摘要

本文旨在解决在使用Python的csv.writer时,由于未正确设置delimiter、quotechar、escapechar等参数,导致输出CSV文件内容被双引号包裹的问题。我们将通过一个实际案例,详细讲解如何正确配置这些参数,避免不必要的引用,并提供修改后的代码示例,以确保CSV文件按照预期格式输出。

正文

在使用Python的csv模块处理CSV文件时,csv.writer是一个非常常用的工具。然而,如果不正确地配置其参数,可能会导致一些意想不到的问题,例如输出的CSV文件中的所有字段都被双引号包裹。本文将通过一个具体的例子,展示如何避免这个问题,并提供一个可行的解决方案。

问题描述

假设我们需要编写一个Python脚本,该脚本能够:

  1. 读取一个CSV文件。
  2. 指定CSV文件中的某些列。
  3. 将指定列中的某个字符串A替换为字符串B。
  4. 将修改后的数据写入新的CSV文件。

在实现过程中,如果直接使用默认的csv.writer,可能会发现输出的CSV文件中的每一行都被双引号包裹,这并不是我们期望的结果。

示例

假设我们有如下的CSV文件(myreport.csv):

code1;code2;money1;code3;type_payment;money2
74;1;185.04;10;AMEXCO;36.08
74;1;8.06;11;MASTERCARD;538.30
74;1;892.46;12;VISA;185.04
74;1;75.10;15;MAESTRO;8.06
74;1;63.92;16;BANCOMAT;892.46

我们希望将money1和money2列中的.替换为,。期望的输出如下:

code1;code2;money1;code3;type_payment;money2
74;1;185,04;10;AMEXCO;36,08
74;1;8,06;11;MASTERCARD;538,30
74;1;892,46;12;VISA;185,04
74;1;75,10;15;MAESTRO;8,06
74;1;63,92;16;BANCOMAT;892,46

但是,如果使用不正确的csv.writer配置,可能会得到如下的输出:

code1;code2;money1;code3;type_payment;money2
"74;1;185,04;10;AMEXCO;36,08"
"74;1;8,06;11;MASTERCARD;538,30"
"74;1;892,46;12;VISA;185,04"
"74;1;75,10;15;MAESTRO;8,06"
"74;1;63,92;16;BANCOMAT;892,46"

解决方案

问题的根源在于csv.reader和csv.writer的默认行为。默认情况下,csv.writer可能会自动对包含分隔符的字段进行引用(用双引号包裹)。为了避免这种情况,我们需要显式地指定delimiter(分隔符)、quotechar(引用符)和quoting(引用规则)等参数。

以下是修改后的代码示例:

import csv, io
import os, shutil

result = {}

csv_file_path = 'myreport.csv'
columns_to_process = ['money1', 'money2']
string_to_be_replaced = "."
string_to_replace_with = ","
mydelimiter =  ";"

# 检查文件是否存在
if not os.path.isfile(csv_file_path):
    raise IOError("csv_file_path is not valid or does not exists: {}".format(csv_file_path))

# 检查分隔符是否存在
with open(csv_file_path, 'r') as csvfile:
    first_line = csvfile.readline()
    if mydelimiter not in first_line:
        delimiter_warning_message = "No delimiter found in file first line."
        result['warning_messages'].append(delimiter_warning_message)

# 统计文件行数
NOL = sum(1 for _ in io.open(csv_file_path, "r"))

if NOL > 0:
    # 获取列名
    with open(csv_file_path, 'r') as csvfile:
        columnslist = csv.DictReader(csvfile, delimiter=mydelimiter)      
        list_of_dictcolumns = []
        for row in columnslist:
            list_of_dictcolumns.append(row)
            break  

    first_dictcolumn = list_of_dictcolumns[0]        
    list_of_column_names = list(first_dictcolumn.keys())
    number_of_columns = len(list_of_column_names)

    # 检查列是否存在
    column_existence = [ (column_name in list_of_column_names ) for column_name in columns_to_process ]
    if not all(column_existence):
        raise ValueError("File {} does not contains all the columns given in input for processing:\nFile columns names: {}\nInput columns names: {}".format(csv_file_path, list_of_column_names, columns_to_process))

    # 确定要处理的列的索引
    indexes_of_columns_to_process = [i for i, column_name in enumerate(list_of_column_names) if column_name in columns_to_process]
    print("indexes_of_columns_to_process: ", indexes_of_columns_to_process)

    # 构建输出文件路径
    inputcsv_absname, inputcsv_extension = os.path.splitext(csv_file_path)
    csv_output_file_path = inputcsv_absname + '__output' + inputcsv_extension

    # 定义处理函数
    def replace_string_in_columns(input_csv, output_csv, indexes_of_columns_to_process, string_to_be_replaced, string_to_replace_with):
        number_of_replacements = 0

        with open(input_csv, 'r', newline='') as infile, open(output_csv, 'w', newline='') as outfile:
            reader = csv.reader(infile, quoting=csv.QUOTE_NONE, delimiter=mydelimiter, quotechar='',escapechar='\\')
            writer = csv.writer(outfile, quoting=csv.QUOTE_NONE, delimiter=mydelimiter, quotechar='',escapechar='\\')

            row_index=0

            for row in reader:              
                for col_index in indexes_of_columns_to_process:
                    # 处理空行
                    if not row:
                        continue

                    cell = row[col_index]
                    if string_to_be_replaced in cell and row_index != 0:                        
                        # 进行替换
                        cell = cell.replace(string_to_be_replaced, string_to_replace_with)
                        number_of_replacements += 1
                        row[col_index] = cell  # Update the row with the replaced cell

                # 写入新文件
                writer.writerow(row)
                row_index+=1

        return number_of_replacements

    # 执行替换
    result['number_of_modified_cells'] =  replace_string_in_columns(csv_file_path, csv_output_file_path, indexes_of_columns_to_process, string_to_be_replaced, string_to_replace_with)

    # 替换原始文件
    shutil.copyfile(csv_output_file_path, csv_file_path)
    os.remove(csv_output_file_path)

    result['changed'] = result['number_of_modified_cells'] > 0
else:
    result['changed'] = False

result['source_csv_number_of_raw_lines'] = NOL
result['source_csv_number_of_lines'] = NOL - 1

print("result:\n\n", result)

关键修改

在上述代码中,我们修改了csv.reader和csv.writer的初始化方式:

reader = csv.reader(infile, quoting=csv.QUOTE_NONE, delimiter=mydelimiter, quotechar='',escapechar='\\')
writer = csv.writer(outfile, quoting=csv.QUOTE_NONE, delimiter=mydelimiter, quotechar='',escapechar='\\')

这里,我们做了以下设置:

  • delimiter=mydelimiter: 指定CSV文件的分隔符。
  • quoting=csv.QUOTE_NONE: 告诉csv.writer不要对任何字段进行引用。
  • quotechar='': 设置空引用字符,与quoting=csv.QUOTE_NONE配合使用,确保不进行任何引用。
  • escapechar='\\':指定转义字符为反斜杠。

通过显式地设置这些参数,我们成功地避免了csv.writer自动对字段进行引用的行为,从而得到了期望的输出结果。

总结与注意事项

  • 在使用csv.reader和csv.writer时,务必仔细阅读官方文档,了解各个参数的含义和作用。
  • 根据实际需求,显式地设置delimiter、quotechar、quoting等参数,以确保CSV文件按照预期格式输出。
  • quoting=csv.QUOTE_NONE是一个非常有用的选项,可以避免不必要的引用。
  • 始终检查你的输入和输出,以确保数据处理的正确性。

通过本文的讲解和示例,相信你已经掌握了如何正确使用csv.writer,避免输出CSV文件内容被双引号包裹的问题。希望这些知识能帮助你在实际工作中更加高效地处理CSV数据。

今天关于《Pythoncsv.writer引号与转义设置全解析》的内容介绍就到此结束,如果有什么疑问或者建议,可以在golang学习网公众号下多多回复交流;文中若有不正之处,也希望回复留言以告知!

Golang编译优化:依赖管理与增量编译解析Golang编译优化:依赖管理与增量编译解析
上一篇
Golang编译优化:依赖管理与增量编译解析
Golang文件上传处理与优化指南
下一篇
Golang文件上传处理与优化指南
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • TextIn智能文字识别:高效文档处理,助力企业数字化转型
    TextIn智能文字识别平台
    TextIn智能文字识别平台,提供OCR、文档解析及NLP技术,实现文档采集、分类、信息抽取及智能审核全流程自动化。降低90%人工审核成本,提升企业效率。
    7次使用
  • SEO  简篇 AI 排版:3 秒生成精美文章,告别排版烦恼
    简篇AI排版
    SEO 简篇 AI 排版,一款强大的 AI 图文排版工具,3 秒生成专业文章。智能排版、AI 对话优化,支持工作汇报、家校通知等数百场景。会员畅享海量素材、专属客服,多格式导出,一键分享。
    7次使用
  • SEO  小墨鹰 AI 快排:公众号图文排版神器,30 秒搞定精美排版
    小墨鹰AI快排
    SEO 小墨鹰 AI 快排,新媒体运营必备!30 秒自动完成公众号图文排版,更有 AI 写作助手、图片去水印等功能。海量素材模板,一键秒刷,提升运营效率!
    8次使用
  • AI Fooler:免费在线AI音频处理,人声分离/伴奏提取神器
    Aifooler
    AI Fooler是一款免费在线AI音频处理工具,无需注册安装,即可快速实现人声分离、伴奏提取。适用于音乐编辑、视频制作、练唱素材等场景,提升音频创作效率。
    7次使用
  • 易我人声分离:AI智能音频处理,一键分离人声与背景音乐
    易我人声分离
    告别传统音频处理的繁琐!易我人声分离,基于深度学习的AI工具,轻松分离人声和背景音乐,支持在线使用,无需安装,简单三步,高效便捷。
    8次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码