当前位置:首页 > 文章列表 > Golang > Go问答 > 爬虫的并发问题

爬虫的并发问题

来源:stackoverflow 2024-02-25 17:24:24 0浏览 收藏

你在学习Golang相关的知识吗?本文《爬虫的并发问题》,主要介绍的内容就涉及到,如果你想提升自己的开发能力,就不要错过这篇文章,大家要知道编程理论基础和实战操作都是不可或缺的哦!

问题内容

我尝试基于 tour 和其他一些关于此问题的答案构建并发爬虫。我目前所拥有的如下,但我认为这里有两个微妙的问题。

  1. 有时我会收到 16 个 url 响应,有时会收到 17 个(在 main 中调试打印)。我知道这一点,因为当我什至将 writetoslice 更改为 read 时,然后在 read 中,有时“read: end, counter = ”永远不会达到,而且总是在我获得 16 个网址时出现。

  2. 我在使用 err 通道时遇到问题,即使我使用 www.golang.org 这样的地址运行我的主 crawl 方法,也不会在此通道中收到任何消息,因此应通过 err 通道发送没有有效架构的错误

  3. p>

并发确实是一个困难的话题,我们将不胜感激帮助和建议

package main

import (
    "fmt"
    "net/http"
    "sync"

    "golang.org/x/net/html"
)

type urlCache struct {
    urls map[string]struct{}
    sync.Mutex
}

func (v *urlCache) Set(url string) bool {
    v.Lock()
    defer v.Unlock()

    _, exist := v.urls[url]
    v.urls[url] = struct{}{}

    return !exist
}

func newURLCache() *urlCache {
    return &urlCache{
        urls: make(map[string]struct{}),
    }
}

type results struct {
    data chan string
    err  chan error
}

func newResults() *results {
    return &results{
        data: make(chan string, 1),
        err:  make(chan error, 1),
    }
}

func (r *results) close() {
    close(r.data)
    close(r.err)
}

func (r *results) WriteToSlice(s *[]string) {
    for {
        select {
        case data := <-r.data:
            *s = append(*s, data)
        case err := <-r.err:
            fmt.Println("e ", err)
        }
    }
}

func (r *results) Read() {
    fmt.Println("Read: start")
    counter := 0
    for c := range r.data {
        fmt.Println(c)
        counter++
    }
    fmt.Println("Read: end, counter = ", counter)
}

func crawl(url string, depth int, wg *sync.WaitGroup, cache *urlCache, res *results) {
    defer wg.Done()

    if depth == 0 || !cache.Set(url) {
        return
    }

    response, err := http.Get(url)
    if err != nil {
        res.err <- err
        return
    }
    defer response.Body.Close()

    node, err := html.Parse(response.Body)
    if err != nil {
        res.err <- err
        return
    }

    urls := grablUrls(response, node)

    res.data <- url

    for _, url := range urls {
        wg.Add(1)
        go crawl(url, depth-1, wg, cache, res)
    }
}

func grablUrls(resp *http.Response, node *html.Node) []string {
    var f func(*html.Node) []string
    var results []string

    f = func(n *html.Node) []string {
        if n.Type == html.ElementNode && n.Data == "a" {
            for _, a := range n.Attr {
                if a.Key != "href" {
                    continue
                }
                link, err := resp.Request.URL.Parse(a.Val)
                if err != nil {
                    continue
                }
                results = append(results, link.String())
            }
        }

        for c := n.FirstChild; c != nil; c = c.NextSibling {
            f(c)
        }

        return results
    }

    res := f(node)
    return res
}

// Crawl ...
func Crawl(url string, depth int) []string {
    wg := &sync.WaitGroup{}
    output := &[]string{}
    visited := newURLCache()
    results := newResults()
    defer results.close()

    wg.Add(1)
    go crawl(url, depth, wg, visited, results)
    go results.WriteToSlice(output)
    // go results.Read()
    wg.Wait()

    return *output
}

func main() {
    r := Crawl("https://www.golang.org", 2)
    // r := Crawl("www.golang.org", 2) // no schema, error should be generated and send via err

    fmt.Println(len(r))
}

解决方案


您的问题 1 和 2 都是同一错误的结果。

crawl() 中,您不会等待此 go 例程完成:go results.writetoslice(output)。在最后一个 crawl() 函数中,等待组被释放,在 writetoslice 函数完成 dataerr 通道之前返回并打印输出。所以发生的事情是这样的:

  1. crawl() 完成,将数据放入 results.dataresults.err 中。
  2. waitgroup wait() 解除阻塞,导致 main() 打印结果 []string 的长度
  3. writetoslice 将最后一个数据(或错误)项添加到通道

不仅当数据写入通道时,而且当通道完整读取(包括缓冲区)时,您都需要从 crawl() 返回。一个好方法是当您确定已经完成了频道后关闭频道。通过以这种方式组织代码,您可以阻止正在耗尽通道的 go 例程,而不是使用等待组释放到主线程,而是等到通道 100% 完成。

你可以看到这个gobyexample https://gobyexample.com/closing-channels。记住,当你关闭一个通道时,该通道仍然可以使用,直到最后一个项目被拿走。因此,您可以关闭缓冲通道,读取器仍将获得通道中排队的所有项目。

可以更改一些代码结构以使其更清晰,但这里有一种快速修复程序的方法。将 crawl 更改为阻止 writetoslice。爬取函数完成后关闭数据通道,并等待writetoslice完成。

// crawl ...
func crawl(url string, depth int) []string {
    wg := &sync.waitgroup{}
    output := &[]string{}
    visited := newurlcache()
    results := newresults()

    go func() {
        wg.add(1)
        go crawl(url, depth, wg, visited, results)
        wg.wait()
        // all data is written, this makes `writetoslice()` unblock
        close(results.data)
    }()

    // this will block until results.data is closed
    results.writetoslice(output)
    close(results.err)

    return *output
}

然后在写入切片时,您必须检查关闭的通道以退出 for 循环:

func (r *results) WriteToSlice(s *[]string) {
    for {
        select {
        case data, open := <-r.data:
            if !open {
                return // All data done
            }
            *s = append(*s, data)
        case err := <-r.err:
            fmt.Println("e ", err)
        }
    }
}

这里是完整的代码:https://play.golang.org/p/GBpGk-lzrhd(它在演示中不起作用)

到这里,我们也就讲完了《爬虫的并发问题》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
使用Go语言实现的gRPC Hello World程序中的结构嵌套使用Go语言实现的gRPC Hello World程序中的结构嵌套
上一篇
使用Go语言实现的gRPC Hello World程序中的结构嵌套
使用 GoDog 测试框架来增强断言库
下一篇
使用 GoDog 测试框架来增强断言库
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 可图AI 2.0:快手旗下新一代图像生成大模型,专业创作者与普通用户的多模态创作引擎
    可图AI 2.0图片生成
    可图AI 2.0 是快手旗下的新一代图像生成大模型,支持文本生成图像、图像编辑、风格转绘等全链路创作需求。凭借DiT架构和MVL交互体系,提升了复杂语义理解和多模态交互能力,适用于广告、影视、非遗等领域,助力创作者高效创作。
    3次使用
  • 毕业宝AIGC检测:AI生成内容检测工具,助力学术诚信
    毕业宝AIGC检测
    毕业宝AIGC检测是“毕业宝”平台的AI生成内容检测工具,专为学术场景设计,帮助用户初步判断文本的原创性和AI参与度。通过与知网、维普数据库联动,提供全面检测结果,适用于学生、研究者、教育工作者及内容创作者。
    24次使用
  • AI Make Song:零门槛AI音乐创作平台,助你轻松制作个性化音乐
    AI Make Song
    AI Make Song是一款革命性的AI音乐生成平台,提供文本和歌词转音乐的双模式输入,支持多语言及商业友好版权体系。无论你是音乐爱好者、内容创作者还是广告从业者,都能在这里实现“用文字创造音乐”的梦想。平台已生成超百万首原创音乐,覆盖全球20个国家,用户满意度高达95%。
    33次使用
  • SongGenerator.io:零门槛AI音乐生成器,快速创作高质量音乐
    SongGenerator
    探索SongGenerator.io,零门槛、全免费的AI音乐生成器。无需注册,通过简单文本输入即可生成多风格音乐,适用于内容创作者、音乐爱好者和教育工作者。日均生成量超10万次,全球50国家用户信赖。
    31次使用
  •  BeArt AI换脸:免费在线工具,轻松实现照片、视频、GIF换脸
    BeArt AI换脸
    探索BeArt AI换脸工具,免费在线使用,无需下载软件,即可对照片、视频和GIF进行高质量换脸。体验快速、流畅、无水印的换脸效果,适用于娱乐创作、影视制作、广告营销等多种场景。
    35次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码