当前位置:首页 > 文章列表 > 文章 > python教程 > 如何刮

如何刮

来源:dev.to 2024-08-15 18:33:58 0浏览 收藏
推广推荐
免费电影APP ➜
支持 PC / 移动端,安全直达

各位小伙伴们,大家好呀!看看今天我又给各位带来了什么文章?本文标题《如何刮》,很明显是关于文章的文章哈哈哈,其中内容主要会涉及到等等,如果能帮到你,觉得很不错的话,欢迎各位多多点评和分享!

抓取网络抓取 是一种用于以自动方式从网站提取数据的技术。它包括使用程序或脚本导航网页、提取特定信息(例如文本、图像、产品价格等)并保存。

在这篇文章中,我将教我用来做

抓取的过程以及做这件事时要记住的要点。

就我而言,我将在 pccomponentes 中执行

scraping 来收集有关笔记本电脑的信息。这些数据将用于创建一个数据集,作为机器学习模型的基础,旨在根据指定的组件预测笔记本电脑的价格。

首先,需要确定脚本应该访问哪个 url 来执行

抓取

如何刮

在这种情况下,如果我们查看 pccomponentes url,我们可以看到它通过 url 传递了一个参数,我们可以使用该参数来指定我们要搜索的内容。

完成后,我们将看到搜索结果:

如何刮

此后,我们将使用几乎所有浏览器都集成的开发者工具:

如何刮

右键单击,然后选择“检查”选项,开发者工具将打开,我们将看到以下内容:

如何刮

anchor类型的标签(),其中包含有关我们在搜索结果中看到的产品的大量信息。

如果我们查看以下区域,我们将看到几乎所有的产品数据:

如何刮

准备好了!我们有从中提取数据的区域。现在是时候创建脚本来提取它们了。

但是我们遇到了一个问题:如果你直接访问pccomponentes,它总是要求我们接受cookie策略。因此,我们无法发出 get 请求并

抓取结果,因为我们不会得到任何东西。

因此,我们必须使用selenium来模拟浏览器并能够与其交互。

我们首先执行以下操作:


from selenium import webdriver
from selenium.webdriver.firefox.options import options
from selenium.webdriver.support.ui import webdriverwait
from selenium.webdriver.support import expected_conditions as ec
from selenium.webdriver.common.by import by

options = options()
options.headless = true
#abrimos el navegador
driver = webdriver.firefox(options=options)
time.sleep(5)
#vamos a la página indicada pccomponentes.com/laptops
driver.get(url+str(i))
#esperamos 30 segundos hasta que aparezca el botón de cookies y al aparecer hace clic
accept_cookies = webdriverwait(driver, 30).until(
    ec.presence_of_element_located((by.id, 'cookiesacceptall'))
)     
accept_cookies.click()
#descargamos el html
html = driver.page_source
完成后,在 html 变量中我们将获取页面的 html 代码来

scrape.

然而,我们遇到了另一个问题。当使用 selenium 打开浏览器并发出 2 或 3 个请求时,cloudflare 会限制请求并且不允许我们发出更多请求。因此,我们只能

抓取大约 3 个页面,这将是大约 20 台不同的计算机。不足以制作数据集。

我想到的一个解决方案是在本地下载页面并在本地使用 html。完成

抓取后,我们可以打开另一个浏览器(等待合理的时间)并下载以下浏览器。

所以我将上面的代码添加到一个函数中,并将其包装在

for 中,如下所示:

#función que se conecta a pccomponentes y guarda el html en local 
def guarda_datos_html(i=0):
    try:
        options = options()
        options.headless = true
        #abrimos el navegador
        driver = webdriver.firefox(options=options)

        time.sleep(5)
        #vamos a la página indicada pccomponentes.com/laptops
        driver.get(url+str(i))
        #esperamos 30 segundos hasta que aparezca el botón de cookies y al aparecer hace clic
        accept_cookies = webdriverwait(driver, 30).until(
            ec.presence_of_element_located((by.id, 'cookiesacceptall'))
        )

        accept_cookies.click()
        #descargamos el html
        html = driver.page_source
        #lo guardamos en local
        with open(f'html/laptops_{i}.html','w',encoding="utf-8") as document:
            document.write(html)

        driver.close()
    except:
        print(f'error en página: {i}')

for i in range(0,58):
    guarda_datos_html(i)
    time.sleep(30)
现在我们可以恢复 html 并使用它们。为此,我安装了

beautifulsoup,这是一个在scraping中经常使用的包。

由于之前的功能,我们将开发从我们下载的 html 中收集信息的功能。

函数看起来像这样:


# Función que abre el HTML guardado con anterioridad y filtra los datos
# para guardarlos en un CSV ordenados
def get_datos_html(i=0):
    try:
        with open(f'laptop_data_actual.csv','a') as ldata:

            field = ['Company','Inches','Cpu','Ram','Gpu','OpSys','SSD','Price']
            writer = csv.DictWriter(ldata, fieldnames=field)


            with open(f'html/laptops_{i}.html','r',encoding="utf-8") as document:

                html = BeautifulSoup(document.read(), 'html.parser')
                products = html.find_all('a')

                for element in products:
                    pc = element.get('data-product-name')
                    if pc:
                        pc = pc.lower()
                        marca = element.get('data-product-brand')
                        price = element.get('data-product-price')
                        pc_data = pc.split('/')
                        cpu = pc_data[0].split(' ')

                        cpu = buscar_cpu(cpu)
                        gpu = buscar_gpu(pc_data)
                        inches = '.'.join([s for s in re.findall(r'\b\d+\b', pc_data[-1])])
                        OpSys = bucar_opsys(pc_data, marca)

                        row = {
                            'Company': marca,
                            'Inches': inches,
                            'Cpu': cpu,
                            'Ram': pc_data[1],
                            'Gpu': gpu,
                            'OpSys': OpSys,
                            'SSD': pc_data[2],
                            'Price': price
                        }

                        writer.writerow(row)
    except:
        print(f'Error en página: {i}')
基本上,我们打开 csv 文件,在其中保存信息,然后告诉 csv 我们希望它具有哪些字段,然后读取并使用 html。正如您所看到的,我必须执行一些额外的函数才能从我们想要保存在 csv 中的每个字段中提取必要的信息。

我在这里给你留下了完整的脚本,以防你想尝试一下!

pc组件刮板

本篇关于《如何刮》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!

版本声明
本文转载于:dev.to 如有侵犯,请联系study_golang@163.com删除
PHP 函数如何获取 GET 变量?PHP 函数如何获取 GET 变量?
上一篇
PHP 函数如何获取 GET 变量?
PHP 函数名称中允许使用的字符
下一篇
PHP 函数名称中允许使用的字符
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    500次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    485次学习
查看更多
AI推荐
  • ChatExcel酷表:告别Excel难题,北大团队AI助手助您轻松处理数据
    ChatExcel酷表
    ChatExcel酷表是由北京大学团队打造的Excel聊天机器人,用自然语言操控表格,简化数据处理,告别繁琐操作,提升工作效率!适用于学生、上班族及政府人员。
    3210次使用
  • Any绘本:开源免费AI绘本创作工具深度解析
    Any绘本
    探索Any绘本(anypicturebook.com/zh),一款开源免费的AI绘本创作工具,基于Google Gemini与Flux AI模型,让您轻松创作个性化绘本。适用于家庭、教育、创作等多种场景,零门槛,高自由度,技术透明,本地可控。
    3424次使用
  • 可赞AI:AI驱动办公可视化智能工具,一键高效生成文档图表脑图
    可赞AI
    可赞AI,AI驱动的办公可视化智能工具,助您轻松实现文本与可视化元素高效转化。无论是智能文档生成、多格式文本解析,还是一键生成专业图表、脑图、知识卡片,可赞AI都能让信息处理更清晰高效。覆盖数据汇报、会议纪要、内容营销等全场景,大幅提升办公效率,降低专业门槛,是您提升工作效率的得力助手。
    3453次使用
  • 星月写作:AI网文创作神器,助力爆款小说速成
    星月写作
    星月写作是国内首款聚焦中文网络小说创作的AI辅助工具,解决网文作者从构思到变现的全流程痛点。AI扫榜、专属模板、全链路适配,助力新人快速上手,资深作者效率倍增。
    4561次使用
  • MagicLight.ai:叙事驱动AI动画视频创作平台 | 高效生成专业级故事动画
    MagicLight
    MagicLight.ai是全球首款叙事驱动型AI动画视频创作平台,专注于解决从故事想法到完整动画的全流程痛点。它通过自研AI模型,保障角色、风格、场景高度一致性,让零动画经验者也能高效产出专业级叙事内容。广泛适用于独立创作者、动画工作室、教育机构及企业营销,助您轻松实现创意落地与商业化。
    3831次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码