当前位置:首页 > 文章列表 > Golang > Go教程 > Go语言网络爬虫分析器接口

Go语言网络爬虫分析器接口

来源:云海天教程 2023-02-23 17:10:13 0浏览 收藏

本篇文章向大家介绍《Go语言网络爬虫分析器接口》,主要包括网络爬虫,具有一定的参考价值,需要的朋友可以参考一下。

分析器的接口包含两个额外的方法 RespParsers 和 Analyze,其中前者会返回当前分析器使用的 HTTP 响应解析函数(以下简称解析函数)的列表因此,分析器的实现类型有用于存储此列表的字段。另外,与下载器的实现类型相同,它也有一个 stub.ModuleInternal 类型的匿名字段。相关代码如下:

//分析器的实现类型type myAnalyzer struct { //组件基础实例 stub.ModuleInternal //响应解析器列表 respParsers []module.ParseResponse}该类型及其方法存放在 gopcp.v2/chapter6/webcrawler/module/local/analyzer 代码包 中。大家可以从我的网盘(链接:https://pan.baidu.com/s/1yzWHnK1t2jLDIcTPFMLPCA提取码:slm5)中下载相关的代码包。当然,还有 New 函数:

//用于创建一个分析器实例func New( mid module.MID, respParsers []module.ParseResponse, scoreCalculator module.CalculateScore) (module.Analyzer, error) { moduleBase, err := stub.NewModuleInternal(mid, scoreCalculator) if err != nil { return nil, err } if respParsers == nil { return nil, genParameterError("nil response parsers") } if len(respParsers) == 0 { return nil, genParameterError("empty response parser list") } var innerParsers []module.ParseResponse for i, parser := range respParsers { if parser == nil { return nil, genParameterError(fmt.Sprintf("nil response parser[%d]", i)) } innerParsers = append(innerParsers, parser) } return &myAnalyzer{ ModuleInternal: moduleBase, respParsers: innerParsers, }, nil}该函数中的大部分代码都用于参数检查。对参数 respParsers 的检査要尤为仔细,因为它们一定是网络爬虫框架的使用方提供的,属于外来代码。

分析器的 Analyze 方法的功能是,先接收响应并检查,再把 HTTP 响应依次交给它持有的若干解析函数处理,最后汇总并返回从解析函数那里获得的数据列表和错误列表。

由于 Analyze 方法的实现比较长,这里分段讲解。先来看看检查响应的代码:

func (analyzer *myAnalyzer) Analyze( resp *module.Response) (dataList []module.Data, errorList []error) { analyzer.ModuleInternal.IncrHandlingNumber() defer analyzer.ModuleInternal.DecrHandlingNumber() analyzer.ModuleInternal.IncrCalledCount() if resp == nil { errorList = append(errorList, genParameterError("nil response")) return } httpResp := resp.HTTPResp() if httpResp == nil { errorList = append(errorList, genParameterError("nil HTTP response")) return } httpReq := httpResp.Request if httpReq == nil { errorList = append(errorList, genParameterError("nil HTTP request")) return } var reqURL = httpReq.URL if reqURL == nil { errorList = append(errorList, genParameterError("nil HTTP request URL")) return } analyzer.ModuleInternal.IncrAcceptedCount() respDepth := resp.Depth() logger.Infof("Parse the response (URL: %s, depth: %d)... ", reqURL, respDepth) //省略部分代码}这里的检查非常细,要像庖丁解牛一样检查参数值的内里。因为任何异常都有可能造成解析函数执行失败。我们一定不要给它们造成额外的困扰。一旦检查通过,就可以递增接受计数了。然后打印出一行日志,代表分析器已经开始解析某个响应了。

还记得前面讲的多重读取器吗?现在该用到它了:

func (analyzer *myAnalyzer) Analyze( resp *module.Response) (dataList []module.Data, errorList []error) { //省略部分代码 //解析HTTP响应 if httpResp.Body != nil { defer httpResp.Body.Close() } multipleReader, err := reader.NewMultipleReader(httpResp.Body) if err != nil { errorList = append(errorList, genError(err.Error())) return } dataList = []module.Data{} for respParser := range analyzer.respParsers { httpResp.Body = multipleReader.Reader() pDataList, pErrorList := respParser(httpResp, respDepth) if pDataList != nil { for _, pData := range pDataList { if pData == nil { continue } dataList = appendDataList(dataList, pData, respDepth) } } if pErrorList I- nil { for _, pError := range pErrorList { if pError == nil { continue } errorList = append(errorList, pError) } } } if len(errorList) == 0 { analyzer.ModuleInternal.IncrCompletedCount() } return dataList, errorList}这里先依据 HTTP 响应的 Body 字段初始化一个多重读取器,然后在每次调用解析函数之前先从多重读取器那里获取一个新的读取器并对 HTTP 响应的 Body 字段重新赋值,这样就解决了 Body 字段值的底层数据只能读取一遍的问题。

每个解析函数都可以顺利读出 HTTP 响应体。在所有解析都完成之后,如果错误列表为空,就递增成功完成计数。最后,我会返回收集到的数据列表和错误列表。

由于我们把解析 HTTP 响应的任务都交给了解析函数,所以 Analyze 方法的实现还是比较简单的,代码逻辑也很清晰。

终于介绍完啦!小伙伴们,这篇关于《Go语言网络爬虫分析器接口》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布Golang相关知识,快来关注吧!

版本声明
本文转载于:云海天教程 如有侵犯,请联系study_golang@163.com删除
Go语言网络爬虫条目处理管道Go语言网络爬虫条目处理管道
上一篇
Go语言网络爬虫条目处理管道
Go语言网络爬虫下载器接口
下一篇
Go语言网络爬虫下载器接口
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    29次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    43次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    40次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    51次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    43次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码