当前位置:首页 > 文章列表 > Golang > Go问答 > io.Pipe() 导致 WaitGroup 卡住

io.Pipe() 导致 WaitGroup 卡住

来源:stackoverflow 2024-04-19 17:00:35 0浏览 收藏

从现在开始,我们要努力学习啦!今天我给大家带来《io.Pipe() 导致 WaitGroup 卡住》,感兴趣的朋友请继续看下去吧!下文中的内容我们主要会涉及到等等知识点,如果在阅读本文过程中有遇到不清楚的地方,欢迎留言呀!我们一起讨论,一起学习!

问题内容

我正在处理一个巨大的数据文件,大约是。 100 gb。这个巨大文件中的每一行都是一段 json 数据,我想读取、压缩并将其存储在内存数据库中。

var wg sync.WaitGroup
for {
    line, err := reader.ReadString('\n')
    if err != nil {
        break
    }
    go func(index int) {
        wg.Add(1)
        pr, pw := io.Pipe()
        zw := lzw.NewWriter(pw, lzw.LSB, 8)
        _, err := io.Copy(zw, strings.NewReader(line))
        pw.Close()
        zw.Close()
        if err != nil {
            fmt.Println(err.Error())
        }
        b, err := io.ReadAll(pr)
        if err != nil {
            fmt.Println(err.Error())
        }
        client.Set(ctx, fmt.Sprintf("%d", index), base64.StdEncoding.EncodeToString(b), time.Hour*1000)
        pr.Close()
        wg.Done()
    }(index)
    if index%10000 == 0 {
        fmt.Println(index)
        wg.Wait()
    }
    index += 1
}

但是,此代码在处理前 10000 行后停止。当我在 zw.close() 之后向下移动 wg.add(1) 时,它会继续处理该行的其余部分(但变得不稳定)。当我尝试以未压缩的方式存储精确值时,如果没有 lzwio.pipe() ,那么一切都可以正常工作。

我不确定我是否没有正确使用 waitgroup 或者是否有与 io.pipe() 相关的东西,而我还不知道。


正确答案


tldr:
1- 删除 pr, pw := io.pipe() 会使代码变得简单,因为它是多余
尝试this

line, err := reader.readstring('\n')
if err == io.eof {
    wg.wait()
    break
}
if err != nil {
    log.fatal(err)
}
wg.add(1)
go func(index int) {
    var buf bytes.buffer
    { // lexical scoping (static scoping)
        zw := lzw.newwriter(&buf, lzw.lsb, 8)
        n, err := zw.write([]byte(line)) // n, err := io.copy(zw, strings.newreader(line))
        if err != nil {
            log.fatal(err)
        }
        if int(n) != len(line) {
            log.fatal(n, len(line))
        }
        // it is the caller's responsibility to call close on the writecloser when finished writing.
        if err = zw.close(); err != nil {
            log.fatal(err)
        }
    }
    ctx, cancelfunc := context.withtimeout(context.background(), 100*time.millisecond)
    client.set(ctx, fmt.sprintf("%d", index), base64.stdencoding.encodetostring(buf.bytes()), 1000*time.hour)

    cancelfunc()
    wg.done()
}(index)

if index%tenthousand == 0 {
    wg.wait()
}

2- 您需要将 wg.add(1) 放在 go func(index int) {:

之前
wg.add(1)
    go func(index int) {

3- wg.wait() 逻辑:

if index%10000 == 0 {
        fmt.println(index)
        wg.wait()
    }

如果 index%10000 != 0,最后一次迭代会发生什么。 因此,当 err == io.eof 时,您需要 wg.wait() 以使所有 goroutine 加入:

if err == io.eof {
    wg.wait()
    fmt.println("\n**** all done **** index =", index)
    break
}

4-您可以使用词法作用域(静态作用域)来限制某些变量作用域并使代码更易于管理 - 并了解何时 clos​​e lzw.newwriter

{ // lexical scoping (static scoping)
    zw := lzw.newwriter(bufio.newwriter(&buf), lzw.lsb, 8)
    n, err := io.copy(zw, strings.newreader(line))
    if err != nil {
        log.fatal(err)
    }
    if int(n) != len(line) {
        log.fatal(n, len(line))
    }
    // it is the caller's responsibility to call close on the writecloser when finished writing.
    if err = zw.close(); err != nil {
        log.fatal(err)
    }
}

5-始终检查错误,例如:

if err = zw.close(); err != nil {
    log.fatal(err)
}

这是接近您代码的工作版本 - 尝试 this 只是为了试验并发逻辑,看看会发生什么(不推荐,因为它有多余的 goroutine 和 io.pipe - 只是工作: p>

package main

import (
    "bufio"
    "compress/lzw"
    "context"
    "encoding/base64"
    "fmt"
    "io"
    "log"
    "strings"
    "sync"
    "time"
)

func main() {
    index := 0
    client := &myclient{}
    reader := bufio.newreader(file)
    // your code:
    var wg sync.waitgroup
    for {
        index++
        line, err := reader.readstring('\n')
        if err != nil {
            msg <- fmt.sprint(index, " done not waiting with err: ", err, time.now())
            wg.wait() // break waiting // if index%tenthousand != 0
            break
        }
        wg.add(1)
        go func(i int) {
            msg <- fmt.sprint(i, " enter running ... ", time.now())
            asyncreader, asyncwriter := io.pipe() // make it async to read and write
            zipwriter := lzw.newwriter(asyncwriter, lzw.lsb, 8)
            go func() { // async
                _, err := io.copy(zipwriter, strings.newreader(line))
                if err != nil {
                    log.fatal(err)
                }
                _ = zipwriter.close()
                _ = asyncwriter.close() // for io.readall
            }()
            b, err := io.readall(asyncreader)
            if err != nil {
                log.fatal(err)
            }
            client.set(context.background(), fmt.sprintf("%d", i), base64.stdencoding.encodetostring(b), time.hour*1000)
            asyncreader.close()
            time.sleep(1 * time.second)
            msg <- fmt.sprint(i, " exit running ... ", time.now())
            wg.done()
        }(index)

        msg <- fmt.sprint(index, " ", index%tenthousand == 0, " after go call")
        if index%tenthousand == 0 {
            wg.wait()
            msg <- fmt.sprint("..", index, " done waiting after go call. ", time.now())
        }
    }
    msg <- "bye forever."

    wg.wait()
    close(msg)
    wgmsg.wait()
}

// just for the go playground:
const tenthousand = 2

type myclient struct {
}

func (p *myclient) set(ctx context.context, a, b string, t time.duration) {
    // fmt.println("a =", a, ", b =", b, ", t =", t)
    if ctx.err() != nil {
        fmt.println(ctx.err())
    }
}

var file, myw = io.pipe()

func init() {
    go func() {
        for i := 1; i <= tenthousand+1; i++ {
            fmt.fprintf(myw, "%d text to compress aaaaaaaaaaaaaa\n", i)
        }
        myw.close()
    }()
    wgmsg.add(1)
    go func() {
        defer wgmsg.done()
        for s := range msg {
            fmt.println(s)
        }
    }()
}

var msg = make(chan string, 100)
var wgmsg sync.waitgroup

输出:

1 false after go call
2 true after go call
1 Enter running ... 2009-11-10 23:00:00 +0000 UTC m=+0.000000001
2 Enter running ... 2009-11-10 23:00:00 +0000 UTC m=+0.000000001
1 Exit running ... 2009-11-10 23:00:01 +0000 UTC m=+1.000000001
2 Exit running ... 2009-11-10 23:00:01 +0000 UTC m=+1.000000001
..2 Done waiting after go call. 2009-11-10 23:00:01 +0000 UTC m=+1.000000001
3 false after go call
3 Enter running ... 2009-11-10 23:00:01 +0000 UTC m=+1.000000001
4 Done not waiting with err: EOF 2009-11-10 23:00:01 +0000 UTC m=+1.000000001
3 Exit running ... 2009-11-10 23:00:02 +0000 UTC m=+2.000000001
Bye forever.

好了,本文到此结束,带大家了解了《io.Pipe() 导致 WaitGroup 卡住》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多Golang知识!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
从 postgres 选择后 UTF8 字符不正确从 postgres 选择后 UTF8 字符不正确
上一篇
从 postgres 选择后 UTF8 字符不正确
4 月中旬试产,消息称台积电美国工厂“冲刺”:投产有望提前到今年年底
下一篇
4 月中旬试产,消息称台积电美国工厂“冲刺”:投产有望提前到今年年底
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    24次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    38次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    37次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    48次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    41次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码