当前位置:首页 > 文章列表 > Golang > Go教程 > Go语言网络爬虫分析器接口

Go语言网络爬虫分析器接口

来源:云海天教程 2023-02-23 17:10:13 0浏览 收藏

本篇文章向大家介绍《Go语言网络爬虫分析器接口》,主要包括网络爬虫,具有一定的参考价值,需要的朋友可以参考一下。

分析器的接口包含两个额外的方法 RespParsers 和 Analyze,其中前者会返回当前分析器使用的 HTTP 响应解析函数(以下简称解析函数)的列表因此,分析器的实现类型有用于存储此列表的字段。另外,与下载器的实现类型相同,它也有一个 stub.ModuleInternal 类型的匿名字段。相关代码如下:

//分析器的实现类型type myAnalyzer struct { //组件基础实例 stub.ModuleInternal //响应解析器列表 respParsers []module.ParseResponse}该类型及其方法存放在 gopcp.v2/chapter6/webcrawler/module/local/analyzer 代码包 中。大家可以从我的网盘(链接:https://pan.baidu.com/s/1yzWHnK1t2jLDIcTPFMLPCA提取码:slm5)中下载相关的代码包。当然,还有 New 函数:

//用于创建一个分析器实例func New( mid module.MID, respParsers []module.ParseResponse, scoreCalculator module.CalculateScore) (module.Analyzer, error) { moduleBase, err := stub.NewModuleInternal(mid, scoreCalculator) if err != nil { return nil, err } if respParsers == nil { return nil, genParameterError("nil response parsers") } if len(respParsers) == 0 { return nil, genParameterError("empty response parser list") } var innerParsers []module.ParseResponse for i, parser := range respParsers { if parser == nil { return nil, genParameterError(fmt.Sprintf("nil response parser[%d]", i)) } innerParsers = append(innerParsers, parser) } return &myAnalyzer{ ModuleInternal: moduleBase, respParsers: innerParsers, }, nil}该函数中的大部分代码都用于参数检查。对参数 respParsers 的检査要尤为仔细,因为它们一定是网络爬虫框架的使用方提供的,属于外来代码。

分析器的 Analyze 方法的功能是,先接收响应并检查,再把 HTTP 响应依次交给它持有的若干解析函数处理,最后汇总并返回从解析函数那里获得的数据列表和错误列表。

由于 Analyze 方法的实现比较长,这里分段讲解。先来看看检查响应的代码:

func (analyzer *myAnalyzer) Analyze( resp *module.Response) (dataList []module.Data, errorList []error) { analyzer.ModuleInternal.IncrHandlingNumber() defer analyzer.ModuleInternal.DecrHandlingNumber() analyzer.ModuleInternal.IncrCalledCount() if resp == nil { errorList = append(errorList, genParameterError("nil response")) return } httpResp := resp.HTTPResp() if httpResp == nil { errorList = append(errorList, genParameterError("nil HTTP response")) return } httpReq := httpResp.Request if httpReq == nil { errorList = append(errorList, genParameterError("nil HTTP request")) return } var reqURL = httpReq.URL if reqURL == nil { errorList = append(errorList, genParameterError("nil HTTP request URL")) return } analyzer.ModuleInternal.IncrAcceptedCount() respDepth := resp.Depth() logger.Infof("Parse the response (URL: %s, depth: %d)... ", reqURL, respDepth) //省略部分代码}这里的检查非常细,要像庖丁解牛一样检查参数值的内里。因为任何异常都有可能造成解析函数执行失败。我们一定不要给它们造成额外的困扰。一旦检查通过,就可以递增接受计数了。然后打印出一行日志,代表分析器已经开始解析某个响应了。

还记得前面讲的多重读取器吗?现在该用到它了:

func (analyzer *myAnalyzer) Analyze( resp *module.Response) (dataList []module.Data, errorList []error) { //省略部分代码 //解析HTTP响应 if httpResp.Body != nil { defer httpResp.Body.Close() } multipleReader, err := reader.NewMultipleReader(httpResp.Body) if err != nil { errorList = append(errorList, genError(err.Error())) return } dataList = []module.Data{} for respParser := range analyzer.respParsers { httpResp.Body = multipleReader.Reader() pDataList, pErrorList := respParser(httpResp, respDepth) if pDataList != nil { for _, pData := range pDataList { if pData == nil { continue } dataList = appendDataList(dataList, pData, respDepth) } } if pErrorList I- nil { for _, pError := range pErrorList { if pError == nil { continue } errorList = append(errorList, pError) } } } if len(errorList) == 0 { analyzer.ModuleInternal.IncrCompletedCount() } return dataList, errorList}这里先依据 HTTP 响应的 Body 字段初始化一个多重读取器,然后在每次调用解析函数之前先从多重读取器那里获取一个新的读取器并对 HTTP 响应的 Body 字段重新赋值,这样就解决了 Body 字段值的底层数据只能读取一遍的问题。

每个解析函数都可以顺利读出 HTTP 响应体。在所有解析都完成之后,如果错误列表为空,就递增成功完成计数。最后,我会返回收集到的数据列表和错误列表。

由于我们把解析 HTTP 响应的任务都交给了解析函数,所以 Analyze 方法的实现还是比较简单的,代码逻辑也很清晰。

终于介绍完啦!小伙伴们,这篇关于《Go语言网络爬虫分析器接口》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布Golang相关知识,快来关注吧!

版本声明
本文转载于:云海天教程 如有侵犯,请联系study_golang@163.com删除
Go语言网络爬虫条目处理管道Go语言网络爬虫条目处理管道
上一篇
Go语言网络爬虫条目处理管道
Go语言网络爬虫下载器接口
下一篇
Go语言网络爬虫下载器接口
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3179次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3390次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3418次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4525次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3798次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码