使用 Velero 备份还原 Kubernetes 集群

云计算
每个 Velero 的操作(比如按需备份、计划备份、还原)都是 CRD 自定义资源,Velero 可以备份或还原集群中的所有对象,也可以按类型、namespace 或标签过滤对象。

[[425938]]

Velero(https://velero.io)(可以提供备份和还原 Kubernetes 集群资源和持久卷的能力,你可以在公有云或本地搭建的私有云环境安装 Velero,可以为你提供以下能力:

  • 备份集群数据,并在集群故障的情况下进行还原
  • 将集群资源迁移到其他集群
  • 将生产集群复制到开发和测试集群

Velero 包含一个在集群上运行的服务器端和在本地运行的命令行客户端。

原理

每个 Velero 的操作(比如按需备份、计划备份、还原)都是 CRD 自定义资源,Velero 可以备份或还原集群中的所有对象,也可以按类型、namespace 或标签过滤对象。Velero 是 Kubernetes 用来灾难恢复的理想选择,也可以在集群上执行系统操作(比如升级)之前对应用程序状态进行快照的理想选择。

按需备份

按需备份操作可以将复制的 Kubernetes 对象的压缩文件上传到云对象存储中,也可以调用云环境提供的 API 来创建持久化卷的磁盘快照。我们可以选择指定在备份期间执行的备份 hook,比如你可能需要在拍摄快照之前告诉数据库将其内存中的缓冲区刷新到磁盘。

需要注意的是集群备份并不是严格的原子备份,如果在备份时创建或编辑 Kubernetes 对象,则它们可能不会被包含在备份中,是可能出现这种状况的。

定时备份

通过定时操作,我们可以定期备份数据,第一次创建日程表时将执行第一次备份,随后的备份将按日程表指定的间隔进行备份,这些间隔由 Cron 表达式指定。

定时备份保存的名称为 <SCHEDULE NAME>-<TIMESTAMP>,其中 <TIMESTAMP> 格式为 YYYYMMDDhhmmss。

备份还原

通过还原操作,我们可以从以前创建的备份中还原所有对象和持久卷,此外我们还可以仅还原对象和持久卷的子集,Velero 支持多个命名空间重新映射。例如在一次还原操作中,可以在命名空间 def 下重新创建命名空间 abc 中的对象,或在 456 之下重新创建名称空间 123 中的对象。

还原的默认名称为<BACKUP NAME>-<TIMESTAMP>,<TIMESTAMP> 格式为 YYYYMMDDhhmmss,还可以指定自定义名称,恢复的对象还包括带有键 velero.io/restore-name 和值的标签 <RESTORE NAME>。

默认情况下,备份存储位置以读写模式创建,但是,在还原期间,可以将备份存储位置配置为只读模式,这将禁用该存储位置的备份创建和删除,这对于确保在还原方案期间不会无意间创建或删除任何备份非常有用。此外我们还可以选择指定在还原期间或还原资源后执行的还原 hook,例如可能需要在数据库应用程序容器启动之前执行自定义数据库还原操作。

备份流程

执行命令 velero backup create test-backup 的时候,会执行下面的操作:

  • Velero 客户端调用 Kubernetes APIServer 创建 Backup 这个 CRD 对象
  • Backup 控制器 watch 到新的 Backup 对象被创建并执行验证
  • Backup 控制器开始执行备份,通过查询 APIServer 来获取资源收集数据进行备份
  • Backup 控制器调用对象存储服务,比如 S3 上传备份文件

默认情况下 velero backup create 支持任何持久卷的磁盘快照,可以通过指定其他参数来调整快照,可以使用 --snapshot-volumes=false 选项禁用快照。

设置备份过期时间

创建备份时,可以通过添加标志 --ttl 来指定 TTL,如果未指定,则将默认的 TTL 值为30天,如果 Velero 检测到有备份资源已过期,它将删除以下相应备份数据:

  • 备份资源
  • 来自云对象存储的备份文件
  • 所有 PersistentVolume 快照
  • 所有关联的还原

同步对象存储

Velero 将对象存储视为资源的来源,它不断检查以确保始终存在正确的备份资源,如果存储桶中有格式正确的备份文件,但 Kubernetes APIServer 中没有相应的备份资源,则 Velero 会将信息从对象存储同步到 Kubernetes,这使还原功能可以在集群迁移方案中工作,在该方案中,新集群中不存在原始的备份对象。同样,如果备份对象存在于 Kubernetes 中,但不存在于对象存储中,则由于备份压缩包不再存在,它将从 Kubernetes 中删除。

备份存储位置和卷快照位置

Velero 有两个自定义资源 BackupStorageLocation 和 VolumeSnapshotLocation,用于配置 Velero 备份及其关联的持久卷快照的存储位置。

  • BackupStorageLocation:定义为存储区,存储所有 Velero 数据的存储区中的前缀以及一组其他特定于提供程序的字段,后面部分会详细介绍该部分所包含的字段。
  • VolumeSnapshotLocation:完全由提供程序提供的特定的字段(例如AWS区域,Azure资源组,Portworx快照类型等)定义。

用户可以预先配置一个或多个可能的 BackupStorageLocations 对象,也可以预先配置一个或多个 VolumeSnapshotLocations 对象,并且可以在创建备份时选择应该存储备份和相关快照的位置。

此配置设计支持许多不同的用法,包括:

  • 在单个 Velero 备份中创建不止一种持久卷的快照。例如,在同时具有 EBS 卷和 Portworx 卷的集群中
  • 在不同地区将数据备份到不同的存储中
  • 对于支持它的卷提供程序(例如Portworx),可以将一些快照存储在本地集群中,而将其他快照存储在云中

安装

在 Github Release 页面(https://github.com/vmware-tanzu/velero/releases)下载指定的 velero 二进制客户端安装包,比如这里我们下载最新稳定版本 v1.6.3,

  1. ➜  ~ wget https://github.com/vmware-tanzu/velero/releases/download/v1.6.3/velero-v1.6.3-darwin-amd64.tar.gz 
  2. # 如果有限制,也可以替换成下面的 URL 加速下载 
  3. # wget https://download.fastgit.org/vmware-tanzu/velero/releases/download/v1.6.3/velero-v1.6.3-darwin-amd64.tar.gz 
  4. ➜  ~ tar -zxvf velero-v1.6.3-darwin-amd64.tar.gz && cd velero-v1.6.3-darwin-amd64 
  5. ➜  ~ tree . 
  6. ├── LICENSE 
  7. ├── examples 
  8. │   ├── README.md 
  9. │   ├── minio 
  10. │   │   └── 00-minio-deployment.yaml 
  11. │   └── nginx-app 
  12. │       ├── README.md 
  13. │       ├── base.yaml 
  14. │       └── with-pv.yaml 
  15. └── velero 
  16.  
  17. 3 directories, 7 files 

将根目录下面的 velero 二进制文件拷贝到 PATH 路径下面:

  1. ➜  ~ cp velero /usr/local/bin && chmod +x /usr/local/bin/velero 
  2. ➜  ~ velero version 
  3. Client: 
  4.         Version: v1.6.3 
  5.         Git commit: 5fe3a50bfddc2becb4c0bd5e2d3d4053a23e95d2 
  6. <error getting server version: no matches for kind "ServerStatusRequest" in version "velero.io/v1"

安装 MINIO

这里我们可以使用 minio 来代替云环境的对象存储,在上面解压的压缩包中包含一个 examples/minio/00-minio-deployment.yaml 的资源清单文件,为了测试方便可以将其中的 Service 更改为 NodePort 类型,我们可以配置一个 console-address 来提供一个 console 页面的访问入口,完整的资源清单文件如下所示:

  1. apiVersion: v1 
  2. kind: Namespace 
  3. metadata: 
  4.   name: velero 
  5. --- 
  6. apiVersion: apps/v1 
  7. kind: Deployment 
  8. metadata: 
  9.   namespace: velero 
  10.   name: minio 
  11.   labels: 
  12.     component: minio 
  13. spec: 
  14.   strategy: 
  15.     type: Recreate 
  16.   selector: 
  17.     matchLabels: 
  18.       component: minio 
  19.   template: 
  20.     metadata: 
  21.       labels: 
  22.         component: minio 
  23.     spec: 
  24.       volumes: 
  25.       - name: storage 
  26.         emptyDir: {} 
  27.       - name: config 
  28.         emptyDir: {} 
  29.       containers: 
  30.       - name: minio 
  31.         image: minio/minio:latest 
  32.         imagePullPolicy: IfNotPresent 
  33.         args: 
  34.         - server 
  35.         - /storage 
  36.         - --config-dir=/config 
  37.         - --console-address=:9001 
  38.         env: 
  39.         - name: MINIO_ACCESS_KEY 
  40.           value: "minio" 
  41.         - name: MINIO_SECRET_KEY 
  42.           value: "minio123" 
  43.         ports: 
  44.         - containerPort: 9000 
  45.         - containerPort: 9001 
  46.         volumeMounts: 
  47.         - name: storage 
  48.           mountPath: "/storage" 
  49.         - name: config 
  50.           mountPath: "/config" 
  51. --- 
  52. apiVersion: v1 
  53. kind: Service 
  54. metadata: 
  55.   namespace: velero 
  56.   name: minio 
  57.   labels: 
  58.     component: minio 
  59. spec: 
  60.   type: NodePort 
  61.   ports: 
  62.     - name: api 
  63.       port: 9000 
  64.       targetPort: 9000 
  65.     - name: console 
  66.       port: 9001 
  67.       targetPort: 9001 
  68.   selector: 
  69.     component: minio 
  70. --- 
  71. apiVersion: batch/v1 
  72. kind: Job 
  73. metadata: 
  74.   namespace: velero 
  75.   name: minio-setup 
  76.   labels: 
  77.     component: minio 
  78. spec: 
  79.   template: 
  80.     metadata: 
  81.       name: minio-setup 
  82.     spec: 
  83.       restartPolicy: OnFailure 
  84.       volumes: 
  85.       - name: config 
  86.         emptyDir: {} 
  87.       containers: 
  88.       - name: mc 
  89.         image: minio/mc:latest 
  90.         imagePullPolicy: IfNotPresent 
  91.         command: 
  92.         - /bin/sh 
  93.         - -c 
  94.         - "mc --config-dir=/config config host add velero http://minio:9000 minio minio123 && mc --config-dir=/config mb -p velero/velero" 
  95.         volumeMounts: 
  96.         - name: config 
  97.           mountPath: "/config" 

然后直接部署在 Kubernetes 集群中即可:

  1. ➜  ~ kubectl apply -f examples/minio/00-minio-deployment.yaml 
  2. namespace/velero created 
  3. deployment.apps/minio created 
  4. service/minio created 
  5. job.batch/minio-setup created 
  6. ➜  ~ kubectl get pods -n velero 
  7. NAME                     READY   STATUS      RESTARTS   AGE 
  8. minio-5b96ffddf8-x8s7p   1/1     Running     0          2m48s 
  9. minio-setup-rhc4d        0/1     Completed   1          2m48s 
  10. ➜  ~ kubectl get svc -n velero 
  11. NAME    TYPE       CLUSTER-IP      EXTERNAL-IP   PORT(S)                         AGE 
  12. minio   NodePort   10.103.132.34   <none>        9000:32036/TCP,9001:31925/TCP   3m56s 

然后我们可以通过 http://:31925 访问 minio 的 console 页面,使用 minio 与 minio 进行登录即可:

当然如果需要在不同 Kubernetes 和存储池集群备份与恢复数据,需要将 minio 服务端安装在 Kubernetes 集群外,保证在集群发生灾难性故障时,不会对备份数据产生影响,可以通过二进制的方式进行安装。

在待安装 minio 的服务器上下载二进制包

  1. ➜  ~ wget https://dl.minio.io/server/minio/release/linux-amd64/minio 
  2. ➜  ~ chmod +x minio 
  3. ➜  ~ sudo mv minio /usr/local/bin/ 
  4. ➜  ~ minio --version 

准备对象存储的磁盘,这里我们跳过该步骤,可以使用 systemd 来方便管理 minio 服务,对于使用 systemd init 系统运行系统的人,请创建用于运行 minio 服务的用户和组:

  1. ➜  ~ sudo groupadd --system minio 
  2. ➜  ~ sudo useradd -s /sbin/nologin --system -g minio minio 

为 /data(上述步骤准备好的磁盘挂载位置)目录提供 minio 用户所有权:

  1. ➜  ~ sudo chown -R minio:minio /data/ 

为 minio 创建 systemd 服务单元文件:

  1. ➜  ~ vi /etc/systemd/system/minio.service 
  2. [Unit] 
  3. Description=Minio 
  4. Documentation=https://docs.minio.io 
  5. Wants=network-online.target 
  6. After=network-online.target 
  7. AssertFileIsExecutable=/usr/local/bin/minio 
  8.  
  9. [Service] 
  10. WorkingDirectory=/data 
  11. User=minio 
  12. Group=minio 
  13. EnvironmentFile=-/etc/default/minio 
  14. ExecStartPre=/bin/bash -c "if [ -z \"${MINIO_VOLUMES}\" ]; then echo \"Variable MINIO_VOLUMES not set in /etc/default/minio\"; exit 1; fi" 
  15. ExecStart=/usr/local/bin/minio server $MINIO_OPTS $MINIO_VOLUMES 
  16. # Let systemd restart this service always 
  17. Restart=always 
  18. # Specifies the maximum file descriptor number that can be opened by this process 
  19. LimitNOFILE=65536 
  20. # Disable timeout logic and wait until process is stopped 
  21. TimeoutStopSec=infinity 
  22. SendSIGKILL=no 
  23.  
  24. [Install] 
  25. WantedBy=multi-user.target 

创建 minio 环境文件 /etc/default/minio:

  1. # Volume to be used for Minio server. 
  2. MINIO_VOLUMES="/data" 
  3.  
  4. # Use if you want to run Minio on a custom port. 
  5. MINIO_OPTS="--address :9000" 
  6.  
  7. # Access Key of the server. 
  8. MINIO_ACCESS_KEY=minio 
  9.  
  10. # Secret key of the server. 
  11. MINIO_SECRET_KEY=minio123 

其中 MINIO_ACCESS_KEY 为长度至少为3个字符的访问密钥,MINIO_SECRET_KEY 为最少8个字符的密钥。重新加载 systemd 并启动 minio 服务:

  1. ➜  ~ sudo systemctl daemon-reload 
  2. ➜  ~ sudo systemctl start minio 

关于 minio 的更多使用方法可以参考官方文档 https://docs.min.io/ 了解更多。

安装 velero 服务端

我们可以使用 velero 客户端来安装服务端,也可以使用 Helm Chart 来进行安装,比如这里我们用客户端来安装,velero 命令默认读取 kubectl 配置的集群上下文,所以前提是 velero 客户端所在的节点有可访问集群的 kubeconfig 配置。

首先准备密钥文件,在当前目录建立一个空白文本文件,内容如下所示:

  1. [default
  2. aws_access_key_id=<access key id> 
  3. aws_secret_access_key=<secret access key

替换为之前步骤中 minio 的对应 access key id 和 secret access key如果 minio 安装在 kubernetes 集群内时按照如下命令安装 velero 服务端:

  1. ➜  ~ velero install    \ 
  2.      --provider aws   \ 
  3.      --bucket velero   \ 
  4.      --image velero/velero:v1.6.3  \ 
  5.   --plugins velero/velero-plugin-for-aws:v1.2.1  \ 
  6.   --namespace velero  \ 
  7.   --secret-file ./credentials-velero  \ 
  8.   --use-volume-snapshots=false \ 
  9.      --use-restic \ 
  10.   --backup-location-config region=minio,s3ForcePathStyle="true",s3Url=http://minio.velero.svc:9000 
  11. ...... 
  12. DaemonSet/restic: created 
  13. Velero is installed! ⛵ Use 'kubectl logs deployment/velero -n velero' to view the status. 
  14. ➜  ~ kubectl get pods -n velero 
  15. NAME                      READY   STATUS      RESTARTS   AGE 
  16. minio-5b96ffddf8-x8s7p    1/1     Running     0          4m1s 
  17. minio-setup-rhc4d         0/1     Completed   1          4m1s 
  18. restic-2qn94              1/1     Running     0          22s 
  19. velero-664598d6cc-dpvxn   1/1     Running     0          22s 

由于我们这里准备使用 minio 来作为对象存储,minio 是兼容 S3 的,所以这里我们配置的 provider(声明使用的 Velero 插件类型)是 aws,--secret-file 用来提供访问 minio 的密钥,--use-restic 表示使用开源免费备份工具 restic 备份和还原持久卷数据,启用该参数后会部署一个名为 restic 的 DaemonSet 对象,--plugins 使用的 velero 插件,我们使用 AWS S3 兼容插件。

安装完成后 velero 的服务端就部署成功了。

测试

比如现在我们部署一个 mysql 应用,资源清单文件如下所示:

  1. # mysql-deployment.yaml 
  2. apiVersion: v1 
  3. kind: PersistentVolumeClaim 
  4. metadata: 
  5.   name: mysql-pv-claim 
  6.   labels: 
  7.     app: mysql 
  8. spec: 
  9.   accessModes: 
  10.     - ReadWriteOnce 
  11.   resources: 
  12.     requests: 
  13.       storage: 20Gi 
  14. --- 
  15. apiVersion: apps/v1 
  16. kind: Deployment 
  17. metadata: 
  18.   name: mysql 
  19.   labels: 
  20.     app: mysql 
  21. spec: 
  22.   selector: 
  23.     matchLabels: 
  24.       app: mysql 
  25.   template: 
  26.     metadata: 
  27.       labels: 
  28.         app: mysql 
  29.     spec: 
  30.       containers: 
  31.       - image: mysql:5.6 
  32.         name: mysql 
  33.         env: 
  34.         - name: MYSQL_ROOT_PASSWORD 
  35.           valueFrom: 
  36.             secretKeyRef: 
  37.               name: mysql-pass 
  38.               keypassword 
  39.         livenessProbe: 
  40.           tcpSocket: 
  41.             port: 3306 
  42.         ports: 
  43.         - containerPort: 3306 
  44.           name: mysql 
  45.         volumeMounts: 
  46.         - name: mysql-persistent-storage 
  47.           mountPath: /var/lib/mysql 
  48.       volumes: 
  49.       - name: mysql-persistent-storage 
  50.         persistentVolumeClaim: 
  51.           claimName: mysql-pv-claim 

直接部署上面的应用:

  1. ➜  ~ kubectl create namespace kube-demo 
  2. ➜  ~ kubectl create secret generic mysql-pass --from-literal=password=password321 -n kube-demo 
  3. ➜  ~ kubectl apply -f mysql-deployment.yaml -n kube-demo 
  4. ➜  ~ kubectl get pods -n kube-demo 
  5. NAME                    READY   STATUS    RESTARTS   AGE 
  6. mysql-c57f676dd-gw5pf   1/1     Running   0          51s 

比如现在我们创建一个新的数据库 velero:

  1. ➜  ~ kubectl exec -it -n kube-demo mysql-c57f676dd-gw5pf -- /bin/bash 
  2. mysql-c57f676dd-gw5pf:/# mysql -uroot -p 
  3. Enter password
  4. Welcome to the MySQL monitor.  Commands end with ; or \g. 
  5. Your MySQL connection id is 7 
  6. Server version: 5.6.51 MySQL Community Server (GPL) 
  7.  
  8. Copyright (c) 2000, 2021, Oracle and/or its affiliates. All rights reserved. 
  9.  
  10. Oracle is a registered trademark of Oracle Corporation and/or its 
  11. affiliates. Other names may be trademarks of their respective 
  12. owners. 
  13.  
  14. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement. 
  15.  
  16. mysql> show databases; 
  17. +--------------------+ 
  18. Database           | 
  19. +--------------------+ 
  20. | information_schema | 
  21. | mysql              | 
  22. | performance_schema | 
  23. +--------------------+ 
  24. rows in set (0.00 sec) 
  25.  
  26. mysql> create database velero; 
  27. Query OK, 1 row affected (0.00 sec) 
  28.  
  29. mysql> show databases; 
  30. +--------------------+ 
  31. Database           | 
  32. +--------------------+ 
  33. | information_schema | 
  34. | mysql              | 
  35. | performance_schema | 
  36. | velero             | 
  37. +--------------------+ 
  38. rows in set (0.00 sec) 
  39.  
  40. mysql> 

现在我们来执行一个备份:

  1. ➜  ~ velero backup create mysql-backup --include-namespaces kube-demo --default-volumes-to-restic 
  2. Backup request "mysql-backup" submitted successfully. 
  3. Run `velero backup describe mysql-backup` or `velero backup logs mysql-backup` for more details. 

其中我们指定的 --default-volumes-to-restic 参数表示使用 restic 备份持久卷到 minio,--include-namespaces 用来备份该命名空间下的所有资源,不包括集群资源,此外还可以使用 --include-resources 指定要备份的资源类型 ,--include-cluster-resources 指定是否备份集群资源。

该命令请求创建一个对项目(命名空间)的备份,备份请求发送之后可以用命令查看备份状态,等到 STATUS 列变为 Completed 表示备份完成。

  1. ➜  ~ velero backup get 
  2. NAME           STATUS      ERRORS   WARNINGS   CREATED                         EXPIRES   STORAGE LOCATION   SELECTOR 
  3. mysql-backup   Completed   0        0          2021-09-16 16:58:51 +0800 CST   29d       default            <none> 
  4. ➜  ~ velero backup describe mysql-backup 
  5. Name:         mysql-backup 
  6. Namespace:    velero 
  7. Labels:       velero.io/storage-location=default 
  8. Annotations:  velero.io/source-cluster-k8s-gitversion=v1.18.4-tke.6 
  9.               velero.io/source-cluster-k8s-major-version=1 
  10.               velero.io/source-cluster-k8s-minor-version=18+ 
  11.  
  12. Phase:  Completed 
  13.  
  14. Errors:    0 
  15. Warnings:  0 
  16.  
  17. Namespaces: 
  18.   Included:  kube-demo 
  19.   Excluded:  <none> 
  20.  
  21. Resources: 
  22.   Included:        * 
  23.   Excluded:        <none> 
  24.   Cluster-scoped:  auto 
  25.  
  26. Label selector:  <none> 
  27.  
  28. Storage Location:  default 
  29.  
  30. Velero-Native Snapshot PVs:  auto 
  31.  
  32. TTL:  720h0m0s 
  33.  
  34. Hooks:  <none> 
  35.  
  36. Backup Format Version:  1.1.0 
  37.  
  38. Started:    2021-09-16 16:58:51 +0800 CST 
  39. Completed:  2021-09-16 16:59:08 +0800 CST 
  40.  
  41. Expiration:  2021-10-16 16:58:51 +0800 CST 
  42.  
  43. Total items to be backed up:  30 
  44. Items backed up:              30 
  45.  
  46. Velero-Native Snapshots: <none included> 
  47.  
  48. Restic Backups (specify --details for more information): 
  49.   Completed:  1 

备份完成后可以去 minio 的 bucket 上查看是否有对应的备份数据:

现在我们删除应用所在的命名空间来模拟生产环境发生灾难或运维错误导致应用失败的场景:

  1. ➜  ~ kubectl delete namespace kube-demo 

这个时候我们肯定访问不了我们的 MySQL 数据库了,这时候我们可以用一条命令,使用 velero 从 minio 中来恢复应用和数据:

  1. ➜  ~ velero restore create --from-backup mysql-backup 
  2. Restore request "mysql-backup-20210916172100" submitted successfully. 
  3. Run `velero restore describe mysql-backup-20210916172100` or `velero restore logs mysql-backup-20210916172100` for more details. 

同样我们可以使用 velero restore get 来查看还原的进度,等到 STATUS 列变为 Completed 表示还原完成:

  1. ➜  ~ velero restore get 
  2. NAME                          BACKUP         STATUS      STARTED                         COMPLETED                       ERRORS   WARNINGS   CREATED                         SELECTOR 
  3. mysql-backup-20210916172100   mysql-backup   Completed   2021-09-16 17:21:00 +0800 CST   2021-09-16 17:21:22 +0800 CST   0        0          2021-09-16 17:21:00 +0800 CST   <none> 
  4. ➜  ~ velero restore describe mysql-backup-20210916172100 
  5. Name:         mysql-backup-20210916172100 
  6. Namespace:    velero 
  7. Labels:       <none> 
  8. Annotations:  <none> 
  9.  
  10. Phase:                       Completed 
  11. Total items to be restored:  10 
  12. Items restored:              10 
  13.  
  14. Started:    2021-09-16 17:21:00 +0800 CST 
  15. Completed:  2021-09-16 17:21:22 +0800 CST 
  16.  
  17. Backup:  mysql-backup 
  18.  
  19. Namespaces: 
  20.   Included:  all namespaces found in the backup 
  21.   Excluded:  <none> 
  22.  
  23. Resources: 
  24.   Included:        * 
  25.   Excluded:        nodes, events, events.events.k8s.io, backups.velero.io, restores.velero.io, resticrepositories.velero.io 
  26.   Cluster-scoped:  auto 
  27.  
  28. Namespace mappings:  <none> 
  29.  
  30. Label selector:  <none> 
  31.  
  32. Restore PVs:  auto 
  33.  
  34. Restic Restores (specify --details for more information): 
  35.   Completed:  1 
  36.  
  37. Preserve Service NodePorts:  auto 

还原完成后我们再去查看之前我们的 kube-demo 命名空间下面的应用数据是否正确:

  1. ➜  ~ kubectl get ns kube-demo 
  2. NAME        STATUS   AGE 
  3. kube-demo   Active   3m29s 
  4. ➜  ~ kubectl get pods -n kube-demo 
  5. NAME                    READY   STATUS    RESTARTS   AGE 
  6. mysql-c57f676dd-gw5pf   1/1     Running   0          6m28s 
  7. ➜  ~ kubectl exec -it -n kube-demo mysql-c57f676dd-gw5pf -- /bin/bash 
  8. root@mysql-c57f676dd-gw5pf:/# mysql -uroot -p 
  9. Enter password
  10. Welcome to the MySQL monitor.  Commands end with ; or \g. 
  11. Your MySQL connection id is 42 
  12. Server version: 5.6.51 MySQL Community Server (GPL) 
  13.  
  14. Copyright (c) 2000, 2021, Oracle and/or its affiliates. All rights reserved. 
  15.  
  16. Oracle is a registered trademark of Oracle Corporation and/or its 
  17. affiliates. Other names may be trademarks of their respective 
  18. owners. 
  19.  
  20. Type 'help;' or '\h' for help. Type '\c' to clear the current input statement. 
  21.  
  22. mysql> show databases; 
  23. +---------------------+ 
  24. Database            | 
  25. +---------------------+ 
  26. | information_schema  | 
  27. | #mysql50#lost+found | 
  28. | mysql               | 
  29. | performance_schema  | 
  30. | velero              | 
  31. +---------------------+ 
  32. rows in set (0.00 sec) 
  33.  
  34. mysql> 

可以看到我们的创建的 velero 数据库依然存在,证明已经完全恢复了。

只要我们将每个 velero 实例指向相同的对象存储,velero 就能将资源从一个群集迁移到另一个群集。此外还支持定时备份,触发备份 Hooks 等操作,更多资料请查阅官方文档:https://velero.io/docs/

 

责任编辑:姜华 来源: k8s技术圈
相关推荐

2021-12-03 11:06:01

VeleroKubernetesLinux

2022-09-23 17:26:04

VeleroKubernetes

2023-03-30 09:17:42

KubesprayKubernetesLinux

2020-07-08 08:03:37

KubernetesLens集群

2019-11-28 10:15:35

TimeShiftUbuntuLinux

2022-08-05 08:48:33

KubernetesEtcd数据

2010-12-31 14:42:51

ExchangeSer

2010-07-06 09:08:07

SQL server差

2011-09-19 16:40:40

2015-08-21 10:40:10

SQL Server备份还原

2021-07-01 11:29:45

KubernetesGrafana监控

2017-07-10 16:00:47

Mysql数据备份数据还原

2011-09-15 09:49:57

HBase

2023-10-27 08:03:29

Kubernetes开源工具

2022-09-20 08:00:32

VMWARE云原生

2011-07-07 10:12:40

MySQL Clust

2010-01-22 11:21:37

2009-12-16 10:17:43

赛门铁克Linux

2011-12-15 09:31:02

Ubuntu 11.1备份还原

2012-05-09 10:48:24

Ubuntu终端备份
点赞
收藏

51CTO技术栈公众号