当前位置:首页 > 文章列表 > Golang > Go问答 > 上传分块数据到 AWS S3 的 Golang 实现

上传分块数据到 AWS S3 的 Golang 实现

来源:stackoverflow 2024-02-19 12:06:29 0浏览 收藏

学习知识要善于思考,思考,再思考!今天golang学习网小编就给大家带来《上传分块数据到 AWS S3 的 Golang 实现》,以下内容主要包含等知识点,如果你正在学习或准备学习Golang,就都不要错过本文啦~让我们一起来看看吧,能帮助到你就更好了!

问题内容

如何使用 Golang 将大字符串或字节数组部分上传到 AWS S3 存储桶?

例如,如果我有一个包含数十亿个字符的字符串,并且由于内存限制我想避免一次全部上传,我该如何实现这一点?

我的用例涉及从数据库导出特定数据,将该数据编码为 JSON 对象(存储为字符串),然后将这些部分按顺序上传到 AWS S3 存储桶,直到生成并上传完整的 JSON 文件。目的是让上传到 S3 的最终文件能够以 JSON 格式下载。

我几天前遇到了这个问题,并在此处分享该问题及其答案,以帮助可能面临相同或类似挑战的其他用户。如果您认为为了清晰起见还需要进一步改进,请告诉我!


正确答案


使用 s3manager 包可以实现将大数据分批上传到 aws s3 存储桶的过程。关键是利用 s3manager.UploadInput 结构体的 body 字段,该字段接受 io.reader

您可以使用 io.pipe,它为您提供一个读取器(您将附加到 uploadinputbody 字段)和一个写入器(您将向其写入每个块)。当您写入每个块时,它将上传到您的 s3 存储桶。请记住处理上传过程中可能出现的任何错误。另外,不要忘记关闭 writer,以便 s3 可以完成上传过程。

这是一个您可以开始使用的示例工作代码:

package main

import (
    "fmt"
    "io"

    "github.com/aws/aws-sdk-go/aws"
    "github.com/aws/aws-sdk-go/aws/credentials"
    "github.com/aws/aws-sdk-go/aws/session"
    "github.com/aws/aws-sdk-go/service/s3/s3manager"
)

const (
    // Use environment variables instead for credentials
    ACCESS_KEY = "your-access-key"
    SECRET_KEY = "your-secret-key"

    // Your bucket region and name
    S3_REGION  = "your-bucket-region" // e.g. eu-central-1
    S3_BUCKET  = "your-bucket-name"

    // The number of bytes per chunk. Change this according to your case, this is just
    // an example value used in this code because here we are creating chunks from a string.
    // You can use something like 10 * 1024 * 1024 to set up chunk size to 10MB.
    CHUNK_SIZE = 50
)

func main() {
    // create an aws session
    sess, err := session.NewSession(&aws.Config{
        Region:      aws.String(S3_REGION),
        Credentials: credentials.NewStaticCredentials(ACCESS_KEY, SECRET_KEY, ""),
    })
    if err != nil {
        panic(err)
    }

    // create an uploader
    pr, pw := io.Pipe()
    errch := make(chan error)
    go chunkUploader(sess, "example_file_1", errch, pr)

    // retrieve the data from database
    chunk, skip := retrieveNextChunk(0, CHUNK_SIZE)
    for {
        if len(chunk) == 0 {
            break
        }

        // this uploads the chunk
        pw.Write(chunk)

        // this retrieves new data from "database" and saves the as a new chunk and new
        // skip value for the next retrieving
        chunk, skip = retrieveNextChunk(skip, CHUNK_SIZE)
    }

    // close the writter - this tells S3 to finish uploading your file which will
    // then appear in your bucket object list page
    pw.Close()

    // check for errors
    err = <-errch
    if err != nil {
        panic(err)
    }
    fmt.Println("Data successfully uploaded")
}

// this is an example function for retrieving a part of data from your database
func retrieveNextChunk(skip int, limit int) ([]byte, int) {
    fulldata := "Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum."

    var chunk string
    if skip+limit > len(fulldata) {
        chunk = fulldata[skip:]
    } else {
        chunk = fulldata[skip : skip+limit]
    }
    return []byte(chunk), skip + len(chunk)
}

func chunkUploader(session *session.Session, key string, errch chan<- error, reader *io.PipeReader) {
    _, err := s3manager.NewUploader(session).Upload(&s3manager.UploadInput{
        Bucket:             aws.String(S3_BUCKET),
        Key:                aws.String(key),
        Body:               reader,
        ContentDisposition: aws.String("attachment"), // or "inline" = the file will be displayed in the browser if possible
        ContentType:        aws.String("text/plain"), // change this to you content type, for example application/json
    })
    errch <- err
}

请随意调整此代码以适应您的特定场景。这种方法允许您以可管理的块的形式将大数据上传到 s3,避免内存问题并确保上传过程更顺畅。

好了,本文到此结束,带大家了解了《上传分块数据到 AWS S3 的 Golang 实现》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多Golang知识!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
解决jQuery AJAX请求403错误的方法解决jQuery AJAX请求403错误的方法
上一篇
解决jQuery AJAX请求403错误的方法
CSS中transition与transform的区别及应用场景
下一篇
CSS中transition与transform的区别及应用场景
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    543次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    516次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    499次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • PandaWiki开源知识库:AI大模型驱动,智能文档与AI创作、问答、搜索一体化平台
    PandaWiki开源知识库
    PandaWiki是一款AI大模型驱动的开源知识库搭建系统,助您快速构建产品/技术文档、FAQ、博客。提供AI创作、问答、搜索能力,支持富文本编辑、多格式导出,并可轻松集成与多来源内容导入。
    122次使用
  • SEO  AI Mermaid 流程图:自然语言生成,文本驱动可视化创作
    AI Mermaid流程图
    SEO AI Mermaid 流程图工具:基于 Mermaid 语法,AI 辅助,自然语言生成流程图,提升可视化创作效率,适用于开发者、产品经理、教育工作者。
    919次使用
  • 搜获客笔记生成器:小红书医美爆款内容AI创作神器
    搜获客【笔记生成器】
    搜获客笔记生成器,国内首个聚焦小红书医美垂类的AI文案工具。1500万爆款文案库,行业专属算法,助您高效创作合规、引流的医美笔记,提升运营效率,引爆小红书流量!
    940次使用
  • iTerms:一站式法律AI工作台,智能合同审查起草与法律问答专家
    iTerms
    iTerms是一款专业的一站式法律AI工作台,提供AI合同审查、AI合同起草及AI法律问答服务。通过智能问答、深度思考与联网检索,助您高效检索法律法规与司法判例,告别传统模板,实现合同一键起草与在线编辑,大幅提升法律事务处理效率。
    954次使用
  • TokenPony:AI大模型API聚合平台,一站式接入,高效稳定高性价比
    TokenPony
    TokenPony是讯盟科技旗下的AI大模型聚合API平台。通过统一接口接入DeepSeek、Kimi、Qwen等主流模型,支持1024K超长上下文,实现零配置、免部署、极速响应与高性价比的AI应用开发,助力专业用户轻松构建智能服务。
    1022次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码