当前位置:首页 > 文章列表 > Golang > Go问答 > Docker 构建 LakeFS 失败

Docker 构建 LakeFS 失败

来源:stackoverflow 2024-02-08 08:06:25 0浏览 收藏

哈喽!今天心血来潮给大家带来了《Docker 构建 LakeFS 失败》,想必大家应该对Golang都不陌生吧,那么阅读本文就都不会很困难,以下内容主要涉及到,若是你正在学习Golang,千万别错过这篇文章~希望能帮助到你!

问题内容

我正在尝试开始使用“本地”数据处理生态系统,其中包括 presto、spark、hive。 lakefs 和其他一些。

我的 docker-compose.yml 看起来像这样:

version: "3.5"
services:

  lakefs:
    image: treeverse/lakefs:latest
    container_name: lakefs
    depends_on:
      - minio-setup
    ports:
      - "8000:8000"
    environment:
      - lakefs_database_type=local
      - lakefs_blockstore_type=s3
      - lakefs_blockstore_s3_force_path_style=true
      - lakefs_blockstore_s3_endpoint=http://minio:9000
      - lakefs_blockstore_s3_credentials_access_key_id=minioadmin
      - lakefs_blockstore_s3_credentials_secret_access_key=minioadmin
      - lakefs_auth_encrypt_secret_key=some random secret string
      - lakefs_stats_enabled
      - lakefs_logging_level
      - lakectl_credentials_access_key_id=akiaiosfodnn7example
      - lakectl_credentials_secret_access_key=wjalrxutnfemi/k7mdeng/bpxrficyexamplekey
      - lakectl_server_endpoint_url=http://localhost:8000
    entrypoint: ["/bin/sh", "-c"]
    command:
        - |
          lakefs setup --local-settings --user-name docker --access-key-id akiaiosfodnn7example --secret-access-key wjalrxutnfemi/k7mdeng/bpxrficyexamplekey || true
          lakefs run --local-settings &
          wait-for -t 60 lakefs:8000 -- lakectl repo create lakefs://example s3://example || true
          wait

  minio-setup:
    image: minio/mc
    container_name: minio-setup
    environment:
        - mc_host_lakefs=http://minioadmin:minioadmin@minio:9000
    depends_on:
      - minio
    command: ["mb", "lakefs/example"]

  minio:
    image: minio/minio
    container_name: minio
    ports:
      - "9000:9000"
      - "9001:9001"
    entrypoint: ["minio", "server", "/data", "--console-address", ":9001"]

  mariadb:
    image: mariadb:10
    container_name: mariadb
    environment:
      mysql_root_password: admin
      mysql_user: admin
      mysql_password: admin
      mysql_database: metastore_db

  hive-metastore:
    build: hive
    container_name: hive
    depends_on:
      - mariadb
    ports:
      - "9083:9083"
    environment:
      - db_uri=mariadb:3306
    volumes:
      - ./etc/hive-site.xml:/opt/apache-hive-bin/conf/hive-site.xml
    ulimits:
      nofile:
        soft: 65536
        hard: 65536

  hive-server:
    build: hive
    container_name: hiveserver2
    ports:
      - "10001:10000"
    depends_on:
      - hive-metastore
    environment:
      - db_uri=mariadb:3306
    volumes:
      - ./etc/hive-site.xml:/opt/apache-hive-bin/conf/hive-site.xml
    ulimits:
      nofile:
        soft: 65536
        hard: 65536
    entrypoint: [
      "wait-for-it", "-t", "60", "hive:9083", "--",
      "hive", "--service", "hiveserver2", "--hiveconf", "hive.root.logger=info,console"]

  hive-client:
    build: hive
    profiles: ["client"]
    entrypoint: ["beeline", "-u", "jdbc:hive2://hiveserver2:10000"]

  trino:
    image: trinodb/trino:358
    container_name: trino
    volumes:
      - ./etc/s3.properties:/etc/trino/catalog/s3.properties
    ports:
      - "48080:8080"

  trino-client:
    image: trinodb/trino:358
    profiles: ["client"]
    entrypoint: ["trino", "--server", "trino:8080", "--catalog", "s3", "--schema", "default"]

  spark:
    image: docker.io/bitnami/spark:3
    container_name: spark
    environment:
      - spark_mode=master
      - spark_master_host=spark
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    ports:
      - "18080:8080"
    volumes:
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml

  spark-worker:
    image: docker.io/bitnami/spark:3
    ports:
      - "8081"
    environment:
      - spark_mode=worker
      - spark_master_url=spark://spark:7077
      - spark_worker_memory=1g
      - spark_worker_cores=1
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    deploy:
      replicas: 3
    volumes:
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml

  spark-submit:
    image: docker.io/bitnami/spark:3
    profiles: ["client"]
    entrypoint: /opt/bitnami/spark/bin/spark-submit
    environment:
      - spark_mode=worker
      - spark_master_url=spark://spark:7077
      - spark_worker_memory=1g
      - spark_worker_cores=1
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    volumes:
      - ./:/local
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml

  spark-sql:
    image: docker.io/bitnami/spark:3
    profiles: ["client"]
    environment:
      - spark_mode=worker
      - spark_master_url=spark://spark:7077
      - spark_worker_memory=1g
      - spark_worker_cores=1
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    volumes:
      - ./:/local
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml
    command: ["spark-sql", "--master", "spark://spark:7077"]


  spark-thrift:
    image: docker.io/bitnami/spark:3
    container_name: spark-thrift
    command: ["bash","-c", "/opt/bitnami/entrypoint.sh"]
    depends_on:
      - spark
    environment:
      - spark_mode=master
      - spark_master_url=spark://spark:7077
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_mode=worker
    volumes:
      - ./etc/spark-thrift-entrypoint.sh:/opt/bitnami/entrypoint.sh
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml


  create-dbt-schema-main:
    image: trinodb/trino:358
    profiles: ["client"]
    entrypoint: ["trino", "--server", "trino:8080", "--catalog", "s3", "--execute", "drop schema if exists dbt_main  ;create schema dbt_main with (location = 's3://example/main/dbt' )"]

  dbt:
    build: dbt
    profiles: ["client"]
    volumes:
      - ./dbt/dbt-project:/usr/app
      - ./dbt/profiles.yml:/root/.dbt/profiles.yml
    entrypoint: dbt

  notebook:
    # to login to jupyter notebook, use password:lakefs
    build: jupyter
    container_name: notebook
    ports:
      - 8888:8888
    volumes:
      - ./etc/jupyter_notebook_config.py:/home/jovyan/.jupyter/jupyter_notebook_config.py
      - ./etc/hive-site.xml:/usr/local/spark/conf/hive-site.xml

networks:
  default:
    name: bagel

当我运行“docker compose up”时,出现此错误:

=> error [build 7/8] run --mount=type=cache,target=/root/.cache/go-build     --mount=type=cache,target=/go/pkg     goos=linux goarch=amd64      0.4s
 => cached [lakefs 2/8] run apk add -u --no-cache ca-certificates                                                                                0.0s
 => cached [lakefs 3/8] run apk add netcat-openbsd                                                                                               0.0s
 => cached [lakefs 4/8] workdir /app                                                                                                             0.0s
 => cached [lakefs 5/8] copy ./scripts/wait-for ./                                                                                               0.0s
------                                                                                                                                                
 > [build 7/8] run --mount=type=cache,target=/root/.cache/go-build     --mount=type=cache,target=/go/pkg     goos=linux goarch=amd64     go build -ldflags "-x github.com/treeverse/lakefs/pkg/version.version=dev" -o lakefs ./cmd/lakefs:
#0 0.407 webui/content.go:7:12: pattern dist: no matching files found
------
failed to solve: executor failed running [/bin/sh -c goos=$targetos goarch=$targetarch     go build -ldflags "-x github.com/treeverse/lakefs/pkg/version.version=${version}" -o lakefs ./cmd/lakefs]: exit code: 1

我的操作系统是:

linux b460mds3hacy1 5.15.0-58-generic #64~20.04.1-ubuntu smp fri jan 6 16:42:31 utc 2023 x86_64 x86_64 x86_64 gnu/linux

我的做法是:

go version go1.16.7 linux/amd64

我应该怎样做才能克服这个错误?


正确答案


奇怪 - docker-compose 使用一个镜像,它应该只是拉取它而不是尝试构建一个 docker 镜像。 您可以验证工作目录是否包含您的 docker-compose 吗? 您还可以在调用 docker-compose up 之前通过 docker-compose pull 验证您使用的是最新的镜像。

理论要掌握,实操不能落!以上关于《Docker 构建 LakeFS 失败》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
Go函数:返回包含整数和字符串的二维数组Go函数:返回包含整数和字符串的二维数组
上一篇
Go函数:返回包含整数和字符串的二维数组
在Mac上安装双系统虚拟机的方法
下一篇
在Mac上安装双系统虚拟机的方法
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • AI Make Song:零门槛AI音乐创作平台,助你轻松制作个性化音乐
    AI Make Song
    AI Make Song是一款革命性的AI音乐生成平台,提供文本和歌词转音乐的双模式输入,支持多语言及商业友好版权体系。无论你是音乐爱好者、内容创作者还是广告从业者,都能在这里实现“用文字创造音乐”的梦想。平台已生成超百万首原创音乐,覆盖全球20个国家,用户满意度高达95%。
    26次使用
  • SongGenerator.io:零门槛AI音乐生成器,快速创作高质量音乐
    SongGenerator
    探索SongGenerator.io,零门槛、全免费的AI音乐生成器。无需注册,通过简单文本输入即可生成多风格音乐,适用于内容创作者、音乐爱好者和教育工作者。日均生成量超10万次,全球50国家用户信赖。
    21次使用
  •  BeArt AI换脸:免费在线工具,轻松实现照片、视频、GIF换脸
    BeArt AI换脸
    探索BeArt AI换脸工具,免费在线使用,无需下载软件,即可对照片、视频和GIF进行高质量换脸。体验快速、流畅、无水印的换脸效果,适用于娱乐创作、影视制作、广告营销等多种场景。
    23次使用
  • SEO标题协启动:AI驱动的智能对话与内容生成平台 - 提升创作效率
    协启动
    SEO摘要协启动(XieQiDong Chatbot)是由深圳协启动传媒有限公司运营的AI智能服务平台,提供多模型支持的对话服务、文档处理和图像生成工具,旨在提升用户内容创作与信息处理效率。平台支持订阅制付费,适合个人及企业用户,满足日常聊天、文案生成、学习辅助等需求。
    22次使用
  • Brev AI:零注册门槛的全功能免费AI音乐创作平台
    Brev AI
    探索Brev AI,一个无需注册即可免费使用的AI音乐创作平台,提供多功能工具如音乐生成、去人声、歌词创作等,适用于内容创作、商业配乐和个人创作,满足您的音乐需求。
    24次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码