当前位置:首页 > 文章列表 > Golang > Go教程 > 使用 Elasticsearch 在 Go 中构建 Web 搜索引擎

使用 Elasticsearch 在 Go 中构建 Web 搜索引擎

来源:dev.to 2024-11-15 19:31:11 0浏览 收藏

哈喽!大家好,很高兴又见面了,我是golang学习网的一名作者,今天由我给大家带来一篇《使用 Elasticsearch 在 Go 中构建 Web 搜索引擎》,本文主要会讲到等等知识点,希望大家一起学习进步,也欢迎大家关注、点赞、收藏、转发! 下面就一起来看看吧!

网络搜索引擎对于索引大量在线信息至关重要,可以在几毫秒内访问这些信息。在这个项目中,我用 go (golang) 构建了一个名为 relaxsearch 的搜索引擎。它通过与强大的搜索和分析引擎 elasticsearch 集成,将网络抓取、定期数据索引和搜索功能结合在一起。在这篇博客中,我将带您了解 relaxsearch 的主要组件、架构,以及它如何有效地抓取和索引数据,以实现基于关键字的快速搜索。

relaxsearch 概述

relaxsearch 围绕两个主要模块构建:

  1. relaxengine:由 cron 作业提供支持的网络抓取工具,它定期抓取指定的网站、提取内容并在 elasticsearch 中为其建立索引。
  2. relaxweb:一个 restful api 服务器,允许用户搜索索引数据,提供分页、过滤和内容突出显示以实现用户友好的响应。

项目动机

从头开始创建搜索引擎项目是了解网络抓取、数据索引和高效搜索技术的好方法。我想利用 go 的效率和 elasticsearch 强大的索引创建一个简单但实​​用的搜索引擎,具有快速数据检索和易于扩展的特点。

主要特点

  • 自动抓取:使用 cron 作业,relaxengine 可以定期运行,抓取数据并将其存储在 elasticsearch 中。
  • 全文搜索:relaxweb提供全文搜索功能,按关键字索引内容,检索速度快。
  • rest api:可通过带有分页、日期过滤和内容突出显示参数的 restful api 进行访问。
  • 数据存储:索引内容存储在elasticsearch中,允许可扩展且高度响应的查询。

relaxsearch的架构

1.relaxengine(网页抓取器和索引器)

relaxengine 是一个用 go 编写的网络抓取工具,用于导航网页、提取和存储内容。它作为 cron 作业运行,因此可以定期(例如每 30 分钟)运行一次,以保持索引更新为最新的 web 数据。其工作原理如下:

  • 种子 url:relaxengine 开始从指定的种子 url 进行抓取,然后跟踪站点内的链接直至可配置的深度。
  • 内容解析:对于每个页面,它提取标题、描述和关键字,构建信息数据集。
  • elasticsearch 中的索引:抓取的内容在 elasticsearch 中建立索引,准备进行全文搜索。每个页面的数据都存储有唯一的标识符、标题、描述和其他元数据。

2.relaxweb(搜索api)

relaxweb 提供 restful api 端点,可以轻松查询和检索 elasticsearch 中存储的数据。 api 接受关键字、分页、日期过滤等多个参数,以 json 格式返回相关内容。

  • api 端点:/search
  • 查询参数
    • 关键字:主要搜索词。
    • from 和 size:分页控制。
    • daterangestart 和 daterangeend:根据数据时间戳过滤结果。

使用 Elasticsearch 在 Go 中构建 Web 搜索引擎

关键组件和代码片段

下面是一些来自 relaxsearch 的重要组件和代码摘录,以说明其工作原理。

relaxengine 的主要 go 代码

核心功能位于 main.go 文件中,其中 relaxengine 使用 gocron 初始化调度程序来管理 cron 作业,设置 elasticsearch 客户端,并开始从种子 url 进行爬取。

func main() {
    cfg := config.loadconfig()
    esclient := crawler.newelasticsearchclient(cfg.elasticsearchurl)
    c := crawler.newcrawler(cfg.depthlimit, 5)
    seedurl := "https://example.com/" // replace with starting url

    s := gocron.newscheduler(time.utc)
    s.every(30).minutes().do(func() {
        go c.startcrawling(seedurl, 0, esclient)
    })
    s.startblocking()
}

爬虫和索引逻辑

crawler.go 文件处理网页请求、提取内容并为其建立索引。使用elastic包,每个抓取的页面都存储在elasticsearch中。

func (c *crawler) startcrawling(pageurl string, depth int, esclient *elastic.client) {
    if depth > c.depthlimit || c.isvisited(pageurl) {
        return
    }
    c.markvisited(pageurl)
    links, title, content, description, err := c.fetchandparsepage(pageurl)
    if err == nil {
        pagedata := pagedata{url: pageurl, title: title, content: content, description: description}
        indexpagedata(esclient, pagedata)
    }
    for _, link := range links {
        c.startcrawling(link, depth+1, esclient)
    }
}

在relaxweb中搜索api代码

在relaxweb服务中,api端点提供全文搜索功能。端点 /search 接收请求并查询 elasticsearch,根据关键字返回相关内容。

func searchhandler(w http.responsewriter, r *http.request) {
    keyword := r.url.query().get("keyword")
    results := queryelasticsearch(keyword)
    json.newencoder(w).encode(results)
}

设置 relaxsearch

  1. 克隆存储库
   git clone https://github.com/ravikisha/relaxsearch.git
   cd relaxsearch
  1. 配置

    使用 elasticsearch 凭证更新 relaxengine 和 relaxweb 的 .env 文件。

  2. 使用 docker 运行

    relaxsearch 使用 docker 来轻松设置。只需运行:

   docker-compose up --build

docker setup

使用 Elasticsearch 在 Go 中构建 Web 搜索引擎

使用 Elasticsearch 在 Go 中构建 Web 搜索引擎

挑战与改进

  • 可扩展性:elasticsearch 可以很好地扩展,但处理大量链接的大量抓取需要针对更大规模的部署进行优化。
  • 强大的错误处理:增强错误处理和重试机制将提高弹性。

结论

relaxsearch 是基本搜索引擎的教育和实践演示。虽然它仍然是一个原型,但该项目对于理解 web 抓取、全文搜索以及使用 go 和 elasticsearch 进行高效数据索引的基础知识很有帮助。它为可扩展环境中的改进和实际应用开辟了途径。

探索 github 存储库,亲自尝试 relaxsearch!

好了,本文到此结束,带大家了解了《使用 Elasticsearch 在 Go 中构建 Web 搜索引擎》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多Golang知识!

版本声明
本文转载于:dev.to 如有侵犯,请联系study_golang@163.com删除
Colly 初体验:如何解决“无效内存地址或 nil 指针引用”错误?Colly 初体验:如何解决“无效内存地址或 nil 指针引用”错误?
上一篇
Colly 初体验:如何解决“无效内存地址或 nil 指针引用”错误?
如何将三条 MySQL 查询优化为一条?
下一篇
如何将三条 MySQL 查询优化为一条?
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    30次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    44次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    40次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    53次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    43次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码