当前位置:首页 > 文章列表 > Golang > Go问答 > Docker 构建 LakeFS 失败

Docker 构建 LakeFS 失败

来源:stackoverflow 2024-02-08 08:06:25 0浏览 收藏

哈喽!今天心血来潮给大家带来了《Docker 构建 LakeFS 失败》,想必大家应该对Golang都不陌生吧,那么阅读本文就都不会很困难,以下内容主要涉及到,若是你正在学习Golang,千万别错过这篇文章~希望能帮助到你!

问题内容

我正在尝试开始使用“本地”数据处理生态系统,其中包括 presto、spark、hive。 lakefs 和其他一些。

我的 docker-compose.yml 看起来像这样:

version: "3.5"
services:

  lakefs:
    image: treeverse/lakefs:latest
    container_name: lakefs
    depends_on:
      - minio-setup
    ports:
      - "8000:8000"
    environment:
      - lakefs_database_type=local
      - lakefs_blockstore_type=s3
      - lakefs_blockstore_s3_force_path_style=true
      - lakefs_blockstore_s3_endpoint=http://minio:9000
      - lakefs_blockstore_s3_credentials_access_key_id=minioadmin
      - lakefs_blockstore_s3_credentials_secret_access_key=minioadmin
      - lakefs_auth_encrypt_secret_key=some random secret string
      - lakefs_stats_enabled
      - lakefs_logging_level
      - lakectl_credentials_access_key_id=akiaiosfodnn7example
      - lakectl_credentials_secret_access_key=wjalrxutnfemi/k7mdeng/bpxrficyexamplekey
      - lakectl_server_endpoint_url=http://localhost:8000
    entrypoint: ["/bin/sh", "-c"]
    command:
        - |
          lakefs setup --local-settings --user-name docker --access-key-id akiaiosfodnn7example --secret-access-key wjalrxutnfemi/k7mdeng/bpxrficyexamplekey || true
          lakefs run --local-settings &
          wait-for -t 60 lakefs:8000 -- lakectl repo create lakefs://example s3://example || true
          wait

  minio-setup:
    image: minio/mc
    container_name: minio-setup
    environment:
        - mc_host_lakefs=http://minioadmin:minioadmin@minio:9000
    depends_on:
      - minio
    command: ["mb", "lakefs/example"]

  minio:
    image: minio/minio
    container_name: minio
    ports:
      - "9000:9000"
      - "9001:9001"
    entrypoint: ["minio", "server", "/data", "--console-address", ":9001"]

  mariadb:
    image: mariadb:10
    container_name: mariadb
    environment:
      mysql_root_password: admin
      mysql_user: admin
      mysql_password: admin
      mysql_database: metastore_db

  hive-metastore:
    build: hive
    container_name: hive
    depends_on:
      - mariadb
    ports:
      - "9083:9083"
    environment:
      - db_uri=mariadb:3306
    volumes:
      - ./etc/hive-site.xml:/opt/apache-hive-bin/conf/hive-site.xml
    ulimits:
      nofile:
        soft: 65536
        hard: 65536

  hive-server:
    build: hive
    container_name: hiveserver2
    ports:
      - "10001:10000"
    depends_on:
      - hive-metastore
    environment:
      - db_uri=mariadb:3306
    volumes:
      - ./etc/hive-site.xml:/opt/apache-hive-bin/conf/hive-site.xml
    ulimits:
      nofile:
        soft: 65536
        hard: 65536
    entrypoint: [
      "wait-for-it", "-t", "60", "hive:9083", "--",
      "hive", "--service", "hiveserver2", "--hiveconf", "hive.root.logger=info,console"]

  hive-client:
    build: hive
    profiles: ["client"]
    entrypoint: ["beeline", "-u", "jdbc:hive2://hiveserver2:10000"]

  trino:
    image: trinodb/trino:358
    container_name: trino
    volumes:
      - ./etc/s3.properties:/etc/trino/catalog/s3.properties
    ports:
      - "48080:8080"

  trino-client:
    image: trinodb/trino:358
    profiles: ["client"]
    entrypoint: ["trino", "--server", "trino:8080", "--catalog", "s3", "--schema", "default"]

  spark:
    image: docker.io/bitnami/spark:3
    container_name: spark
    environment:
      - spark_mode=master
      - spark_master_host=spark
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    ports:
      - "18080:8080"
    volumes:
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml

  spark-worker:
    image: docker.io/bitnami/spark:3
    ports:
      - "8081"
    environment:
      - spark_mode=worker
      - spark_master_url=spark://spark:7077
      - spark_worker_memory=1g
      - spark_worker_cores=1
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    deploy:
      replicas: 3
    volumes:
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml

  spark-submit:
    image: docker.io/bitnami/spark:3
    profiles: ["client"]
    entrypoint: /opt/bitnami/spark/bin/spark-submit
    environment:
      - spark_mode=worker
      - spark_master_url=spark://spark:7077
      - spark_worker_memory=1g
      - spark_worker_cores=1
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    volumes:
      - ./:/local
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml

  spark-sql:
    image: docker.io/bitnami/spark:3
    profiles: ["client"]
    environment:
      - spark_mode=worker
      - spark_master_url=spark://spark:7077
      - spark_worker_memory=1g
      - spark_worker_cores=1
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_ssl_enabled=no
    volumes:
      - ./:/local
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml
    command: ["spark-sql", "--master", "spark://spark:7077"]


  spark-thrift:
    image: docker.io/bitnami/spark:3
    container_name: spark-thrift
    command: ["bash","-c", "/opt/bitnami/entrypoint.sh"]
    depends_on:
      - spark
    environment:
      - spark_mode=master
      - spark_master_url=spark://spark:7077
      - spark_rpc_authentication_enabled=no
      - spark_rpc_encryption_enabled=no
      - spark_local_storage_encryption_enabled=no
      - spark_mode=worker
    volumes:
      - ./etc/spark-thrift-entrypoint.sh:/opt/bitnami/entrypoint.sh
      - ./etc/hive-site.xml:/opt/bitnami/spark/conf/hive-site.xml


  create-dbt-schema-main:
    image: trinodb/trino:358
    profiles: ["client"]
    entrypoint: ["trino", "--server", "trino:8080", "--catalog", "s3", "--execute", "drop schema if exists dbt_main  ;create schema dbt_main with (location = 's3://example/main/dbt' )"]

  dbt:
    build: dbt
    profiles: ["client"]
    volumes:
      - ./dbt/dbt-project:/usr/app
      - ./dbt/profiles.yml:/root/.dbt/profiles.yml
    entrypoint: dbt

  notebook:
    # to login to jupyter notebook, use password:lakefs
    build: jupyter
    container_name: notebook
    ports:
      - 8888:8888
    volumes:
      - ./etc/jupyter_notebook_config.py:/home/jovyan/.jupyter/jupyter_notebook_config.py
      - ./etc/hive-site.xml:/usr/local/spark/conf/hive-site.xml

networks:
  default:
    name: bagel

当我运行“docker compose up”时,出现此错误:

=> error [build 7/8] run --mount=type=cache,target=/root/.cache/go-build     --mount=type=cache,target=/go/pkg     goos=linux goarch=amd64      0.4s
 => cached [lakefs 2/8] run apk add -u --no-cache ca-certificates                                                                                0.0s
 => cached [lakefs 3/8] run apk add netcat-openbsd                                                                                               0.0s
 => cached [lakefs 4/8] workdir /app                                                                                                             0.0s
 => cached [lakefs 5/8] copy ./scripts/wait-for ./                                                                                               0.0s
------                                                                                                                                                
 > [build 7/8] run --mount=type=cache,target=/root/.cache/go-build     --mount=type=cache,target=/go/pkg     goos=linux goarch=amd64     go build -ldflags "-x github.com/treeverse/lakefs/pkg/version.version=dev" -o lakefs ./cmd/lakefs:
#0 0.407 webui/content.go:7:12: pattern dist: no matching files found
------
failed to solve: executor failed running [/bin/sh -c goos=$targetos goarch=$targetarch     go build -ldflags "-x github.com/treeverse/lakefs/pkg/version.version=${version}" -o lakefs ./cmd/lakefs]: exit code: 1

我的操作系统是:

linux b460mds3hacy1 5.15.0-58-generic #64~20.04.1-ubuntu smp fri jan 6 16:42:31 utc 2023 x86_64 x86_64 x86_64 gnu/linux

我的做法是:

go version go1.16.7 linux/amd64

我应该怎样做才能克服这个错误?


正确答案


奇怪 - docker-compose 使用一个镜像,它应该只是拉取它而不是尝试构建一个 docker 镜像。 您可以验证工作目录是否包含您的 docker-compose 吗? 您还可以在调用 docker-compose up 之前通过 docker-compose pull 验证您使用的是最新的镜像。

理论要掌握,实操不能落!以上关于《Docker 构建 LakeFS 失败》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

版本声明
本文转载于:stackoverflow 如有侵犯,请联系study_golang@163.com删除
Go函数:返回包含整数和字符串的二维数组Go函数:返回包含整数和字符串的二维数组
上一篇
Go函数:返回包含整数和字符串的二维数组
在Mac上安装双系统虚拟机的方法
下一篇
在Mac上安装双系统虚拟机的方法
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    384次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    380次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    371次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    385次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    400次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码