当前位置:首页 > 文章列表 > 文章 > linux > Linux下Kubernetes安装配置教程

Linux下Kubernetes安装配置教程

2025-08-29 10:07:17 0浏览 收藏

本文详细介绍了在Linux系统上安装和配置Kubernetes集群的步骤,旨在帮助读者快速搭建一个高效的容器化应用管理平台。首先,文章强调了部署前的准备工作,包括操作系统选择、硬件资源规划、禁用Swap、配置防火墙和SELinux等关键环节,为后续集群的稳定运行奠定基础。随后,文章详细阐述了使用kubeadm工具初始化主控节点、配置kubectl、部署网络插件以及加入工作节点的具体操作流程。通过本文,读者可以系统地了解Kubernetes的安装配置过程,并掌握集群的初步管理方法,为构建现代云原生架构打下坚实的基础。

答案:部署Kubernetes前需准备操作系统、硬件资源、禁用Swap、配置网络和容器运行时。具体包括更新系统、关闭Swap和防火墙、设置内核参数、安装containerd并配置systemd驱动,确保节点间通信及固定IP,为后续集群初始化奠定基础。

如何在Linux系统中安装和配置Kubernetes?快速部署容器集群的教程

在Linux系统上安装和配置Kubernetes,本质上是为了构建一个能高效管理容器化应用的平台。这个过程通常涉及对操作系统进行一系列预备性调整,然后利用像kubeadm这样的工具来初始化集群的主控节点,接着将工作节点加入其中,并最终部署一个网络插件来打通容器间的通信。它能够极大简化容器化应用的部署、扩展和运维工作,是现代云原生架构中不可或缺的核心组成部分。

解决方案

部署Kubernetes集群,我个人倾向于使用kubeadm工具,它提供了一种快速且相对标准化的方式来搭建一个功能完备的集群。以下是我认为最直接、最实用的步骤:

1. 准备工作: 在所有节点(包括主控节点和工作节点)上执行以下操作:

  • 更新系统并安装必要的工具:

    sudo apt update && sudo apt upgrade -y # Debian/Ubuntu
    sudo yum update -y && sudo yum install -y vim net-tools device-mapper-persistent-data lvm2 # CentOS/RHEL
  • 禁用Swap: Kubernetes对Swap的支持并不友好,因为它可能导致性能问题。

    sudo swapoff -a
    sudo sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab
  • 配置内核参数: 允许br_netfilter模块截获桥接流量,这是网络插件正常工作的基础。

    cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
    br_netfilter
    EOF
    
    cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
    net.bridge.bridge-nf-call-ip6tables = 1
    net.bridge.bridge-nf-call-iptables = 1
    net.ipv4.ip_forward = 1
    EOF
    
    sudo sysctl --system
  • 禁用SELinux (CentOS/RHEL):

    sudo setenforce 0
    sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
  • 安装容器运行时(Container Runtime): Kubernetes需要一个容器运行时来运行容器。containerd是目前推荐的选择。

    对于Containerd:

    # 安装依赖
    sudo apt install -y apt-transport-https ca-certificates curl gnupg lsb-release # Debian/Ubuntu
    sudo yum install -y yum-utils device-mapper-persistent-data lvm2 # CentOS/RHEL
    
    # 添加Docker的官方GPG密钥
    curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg # Debian/Ubuntu
    sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo # CentOS/RHEL
    
    # 添加Docker仓库 (Containerd通常随Docker一起安装或单独安装)
    echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null # Debian/Ubuntu
    
    sudo apt update # Debian/Ubuntu
    sudo apt install -y containerd.io # Debian/Ubuntu
    sudo yum install -y containerd.io # CentOS/RHEL
    
    # 配置containerd
    sudo mkdir -p /etc/containerd
    sudo containerd config default | sudo tee /etc/containerd/config.toml
    sudo sed -i 's/SystemdCgroup = false/SystemdCgroup = true/g' /etc/containerd/config.toml # 关键一步:使用systemd作为cgroup驱动
    sudo systemctl restart containerd
    sudo systemctl enable containerd

2. 安装kubeadm, kubelet, kubectl: 在所有节点上执行:

  • 添加Kubernetes apt/yum仓库:Debian/Ubuntu:

    sudo apt update
    sudo apt install -y apt-transport-https ca-certificates curl
    curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo gpg --dearmor -o /usr/share/keyrings/kubernetes-archive-keyring.gpg
    echo "deb [signed-by=/usr/share/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
    sudo apt update

    CentOS/RHEL:

    cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
    [kubernetes]
    name=Kubernetes
    baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-\$basearch
    enabled=1
    gpgcheck=1
    repo_gpgcheck=1
    gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
    exclude=kubelet kubeadm kubectl
    EOF
    sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes
  • 安装kubelet, kubeadm, kubectl:

    sudo apt install -y kubelet kubeadm kubectl
    sudo apt-mark hold kubelet kubeadm kubectl # 阻止自动更新
    sudo systemctl enable --now kubelet

3. 初始化主控节点 (仅在主控节点上执行): 选择一个主控节点,并执行kubeadm init。这里我通常会指定一个Pod网络CIDR,因为它与后续安装的网络插件相关。

sudo kubeadm init --pod-network-cidr=10.244.0.0/16 --apiserver-advertise-address=<你的主控节点IP>

这个命令会输出一些重要的信息,包括如何配置kubectl以及如何让工作节点加入集群的命令。务必保存好这些信息。

4. 配置kubectl (仅在主控节点上执行): 按照kubeadm init命令的输出,配置当前用户的kubectl环境。

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

5. 部署网络插件 (仅在主控节点上执行): 集群初始化后,Pod之间还无法通信,因为缺少网络插件。我个人比较喜欢Calico,因为它功能强大且稳定。

kubectl apply -f https://raw.githubusercontent.com/projectcalico/calico/v3.25.0/manifests/calico.yaml

(请注意,Calico的版本号可能需要根据实际情况调整,通常我会去Calico的GitHub仓库查看最新的稳定版本。)

6. 加入工作节点 (在每个工作节点上执行): 使用kubeadm init命令输出的kubeadm join命令将工作节点加入集群。

sudo kubeadm join <主控节点IP>:<端口> --token <token> --discovery-token-ca-cert-hash sha256:<hash>

如果token过期,可以使用kubeadm token create --print-join-command在主控节点重新生成。

至此,一个基本的Kubernetes集群就搭建完成了。

在部署Kubernetes之前,我需要做哪些准备工作?

坦白说,很多初学者在部署Kubernetes时,往往会忽视前期的准备工作,导致部署过程中遇到各种意想不到的问题。在我看来,充分的准备是确保集群顺利上线并稳定运行的关键。

首先,操作系统选择与更新是基础。我通常推荐使用Ubuntu Server (LTS版本) 或 CentOS Stream/RHEL。这些发行版对Kubernetes的支持较好,社区资源也丰富。在任何节点上,第一步都应该是彻底更新系统:sudo apt update && sudo apt upgrade -y(或sudo yum update -y)。这不仅能修补安全漏洞,也能确保所有软件包处于最新状态,避免版本兼容性问题。

其次,硬件资源规划不容小觑。虽然Kubernetes可以在树莓派上跑,但对于生产环境,主控节点至少需要2核CPU、2GB内存,而工作节点则应根据预期的负载来配置,通常建议4核CPU、8GB内存起步,并配备SSD硬盘以获得更好的I/O性能。一个常见的误区是认为“够用就好”,但实际上,资源紧张会直接影响集群的稳定性和应用的响应速度。

接下来是几个技术细节:禁用Swap是必须的。Kubernetes的kubelet组件在检测到Swap开启时会报错,因为它会干扰内存管理,导致性能下降和不可预测的行为。通过sudo swapoff -a和修改/etc/fstab来永久禁用它。

防火墙配置也至关重要。Kubernetes集群的各个组件需要通过特定的端口进行通信。例如,API Server默认监听6443端口,kubelet监听10250端口。如果你的环境允许,最简单的做法是在开发测试阶段直接禁用防火墙(如sudo ufw disablesudo systemctl stop firewalld),但生产环境则必须精确配置,开放必要的端口。

SELinux (CentOS/RHEL)也是一个需要特别注意的地方。它的安全策略可能会阻止容器运行时或Kubernetes组件的正常操作。通常,我会选择将其设置为permissive模式,或者在更严格的环境下,仔细配置SELinux策略以允许Kubernetes的运行。

网络配置是另一个潜在的坑。确保所有节点都拥有固定的IP地址,并且它们之间可以互相ping通。如果你的服务器在云端,通常会有一个内部私有网络,确保所有节点都在这个网络中。

最后,容器运行时的选择。Docker曾经是唯一的选择,但现在containerdCRI-O等更轻量级的运行时成为了主流。我个人倾向于containerd,因为它更符合Kubernetes的CRI(Container Runtime Interface)规范,且资源占用更低。安装它,并确保其cgroup驱动与kubelet的配置一致(通常是systemd)。

这些准备工作可能看起来有些繁琐,但它们是构建一个稳固Kubernetes集群的基石。跳过任何一步,都可能在后期带来难以排查的故障。

Kubernetes集群的各个核心组件都有什么作用,它们是如何协同工作的?

要真正理解Kubernetes,光知道如何安装是不够的,还需要明白其内部的各个组件是如何协同工作的。这就像是了解一台汽车的每个零件,才能明白它是如何行驶的。Kubernetes集群可以大致分为两类组件:控制平面(Control Plane)组件和工作节点(Worker Node)组件。

控制平面组件 (Master Node Components):

  1. kube-apiserver: 这是Kubernetes集群的“大脑”和“前门”。所有对集群的操作(创建Pod、更新Service等)都必须通过它。它提供RESTful API,是所有内部和外部组件与集群交互的唯一途径。它的高可用性对整个集群至关重要。

  2. etcd: 这是一个高可用的键值存储系统,它保存了整个Kubernetes集群的所有状态数据,包括Pod、Service、Deployment等各种对象的配置和当前状态。如果etcd丢失数据,整个集群就“失忆”了。因此,etcd的备份和恢复是运维中的重中之重。

  3. kube-scheduler: 顾名思义,它的任务是调度Pod。当一个新的Pod被创建时,调度器会根据资源需求(CPU、内存)、节点亲和性/反亲和性、污点/容忍度等策略,决定这个Pod应该运行在哪个工作节点上。它就像一个高效的交通调度员,确保资源得到合理分配。

  4. kube-controller-manager: 这不是一个单一的控制器,而是一组控制器(如节点控制器、副本控制器、端点控制器、服务账号控制器等)的集合。每个控制器都负责监控集群的特定资源,并努力将集群的实际状态调整到用户期望的状态。例如,副本控制器会确保某个Deployment始终运行着指定数量的Pod副本。

  5. cloud-controller-manager (可选): 如果你的Kubernetes集群部署在云环境中(如AWS、Azure、GCP),这个组件就会发挥作用。它负责与云服务商的API进行交互,管理云资源,例如为Service创建负载均衡器、为持久化存储配置云磁盘等。

工作节点组件 (Worker Node Components):

  1. kubelet: 这是运行在每个工作节点上的代理。它是节点与控制平面通信的关键。kubelet接收来自API Server的指令,管理Pod的生命周期,包括创建、启动、停止和删除Pod中的容器。它还负责向API Server报告节点和Pod的状态。

  2. kube-proxy: 运行在每个工作节点上的网络代理。它维护着节点上的网络规则,负责实现Kubernetes Service的抽象。当一个Service被访问时,kube-proxy会确保请求被正确地路由到后端Pod。它支持多种代理模式,如iptables和IPVS。

  3. Container Runtime (如containerd, Docker): 这是真正运行容器的底层软件。它负责从镜像仓库拉取镜像,然后根据Pod的定义,创建并运行容器。Kubernetes通过CRI(Container Runtime Interface)与这些运行时进行交互。

它们如何协同工作?

我们可以通过一个简单的Pod创建流程来理解它们的协同:

  1. 用户提交Pod定义: 用户通过kubectl apply -f my-pod.yaml命令,将Pod的YAML定义发送给kube-apiserver
  2. API Server接收并存储: kube-apiserver接收到请求后,会验证其合法性,并将Pod的信息存储到etcd中。
  3. 调度器发现新Pod: kube-scheduler持续监控API Server,一旦发现有新的、尚未分配节点(nodeName为空)的Pod,就会开始工作。
  4. 调度决策: 调度器根据各种策略(如资源可用性、节点标签、Pod亲和性等)为Pod选择一个最合适的工作节点。
  5. API Server更新Pod状态: 调度器将选定的节点信息更新到Pod的nodeName字段,并通过API Server存储到etcd。
  6. kubelet接收指令: 目标工作节点上的kubelet通过与API Server的Watch机制,感知到有新的Pod被调度到自己身上。
  7. kubelet创建容器: kubelet指示Container Runtime拉取Pod所需的容器镜像,并根据Pod的定义(如CPU/内存限制、端口映射等)创建并运行容器。
  8. kube-proxy配置网络: 同时,kube-proxy会监听Service和Endpoint的变化。如果这个Pod是某个Service的后端,kube-proxy会在节点上配置相应的网络规则(如iptables或IPVS),确保Service的流量能够正确地转发到这个Pod。
  9. kubelet报告状态: kubelet持续向API Server报告Pod和容器的运行状态,API Server再将这些信息存储到etcd中,供其他组件和用户查询。

这个流程展示了Kubernetes各个组件如何紧密协作,共同完成容器化应用的自动化部署和管理。理解这些组件的功能和交互方式,对于故障排查和集群优化都至关重要。

部署完成后,我该如何验证Kubernetes集群的健康状况并进行初步管理?

集群部署完成,并不意味着万事大吉。验证其健康状况,并学会一些初步的管理命令,是确保你的投入没有白费的关键步骤。这就像你组装了一台电脑,总要开机测试一下各个部件是否正常工作。

首先,最基础的验证是检查节点状态

kubectl get nodes

你应该看到所有节点都处于Ready状态。如果某个节点显示NotReady,那很可能意味着该节点上的kubelet服务有问题,或者网络不通畅。我会立即检查kubelet的日志:sudo journalctl -u kubelet -f

接着,验证系统Pod的状态。Kubernetes自身运行了很多关键的Pod,它们通常位于kube-system命名空间下。

kubectl get pods -n kube-system

这里应该看到所有的Pod都处于Running状态。特别需要关注网络插件(如calico-nodecoredns)的Pod,它们如果出现问题,整个集群的网络功能就会受影响。如果某个Pod卡在PendingCrashLoopBackOff或其他非Running状态,我会用kubectl describe pod -n kube-system查看其详细事件,通常能找到问题线索。

检查网络插件的正常运行是下一步。如果kube-system下的网络插件Pod都正常运行,通常意味着网络层是健康的。你也可以尝试部署一个简单的测试应用,比如一个Nginx Pod,然后暴露一个Service,尝试从集群内部或外部访问它,以验证Pod间通信和Service的负载均衡功能。

# 部署一个Nginx Deployment
kubectl create deployment nginx --image=nginx
# 暴露为NodePort Service
kubectl expose deployment nginx --type=NodePort --port=80
# 查看Service信息,获取NodePort
kubectl get svc nginx

然后你可以通过http://<任意工作节点IP>:来访问Nginx页面。

在日常管理中,查看集群事件是一个非常有用的习惯。

kubectl get events

这会列出集群中最近发生的所有事件,包括Pod的调度、镜像的拉取、容器的启动/停止等。当出现问题时,事件日志往往能提供关键的上下文信息。

查看日志是排查应用或系统Pod问题的利器。

kubectl logs <pod-name> -n <namespace>

如果Pod有多个容器,你需要指定容器名称:kubectl logs -c -n --follow参数可以实时跟踪日志输出。

对于资源管理kubectl top命令能让你快速了解节点和Pod的CPU和内存使用情况。

kubectl top nodes
kubectl top pods -n <namespace> # 可以不指定namespace,查看所有

这对于发现资源瓶颈或异常的

到这里,我们也就讲完了《Linux下Kubernetes安装配置教程》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于Kubernetes,集群部署,kubeadm,容器运行时,kubectl的知识点!

拼多多虚假发货投诉方法及流程详解拼多多虚假发货投诉方法及流程详解
上一篇
拼多多虚假发货投诉方法及流程详解
QQ音乐英雄联盟十周年入口位置解析
下一篇
QQ音乐英雄联盟十周年入口位置解析
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    414次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    416次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    411次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    425次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    446次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码