使用 Kubectl 部署 NebulaGraph 集群Graph
前提条件Graph
Graph
创建集群Graph
本文以创建名为nebula
的集群为例,说明如何部署 NebulaGraph 集群。
-
创建名为
apps_v1alpha1_nebulacluster.yaml
的文件。示例文件的内容如下:
apiVersion: apps.nebula-graph.io/v1alpha1 kind: NebulaCluster metadata: name: nebula spec: graphd: resources: requests: cpu: "500m" memory: "500Mi" limits: cpu: "1" memory: "1Gi" replicas: 1 image: vesoft/nebula-graphd version: v2.6.1 service: type: NodePort externalTrafficPolicy: Local logVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 metad: resources: requests: cpu: "500m" memory: "500Mi" limits: cpu: "1" memory: "1Gi" replicas: 1 image: vesoft/nebula-metad version: v2.6.1 dataVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 logVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 storaged: resources: requests: cpu: "500m" memory: "500Mi" limits: cpu: "1" memory: "1Gi" replicas: 3 image: vesoft/nebula-storaged version: v2.6.1 dataVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 logVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 reference: name: statefulsets.apps version: v1 schedulerName: default-scheduler imagePullPolicy: Always
参数描述如下:
参数 默认值 描述 metadata.name
- 创建的 NebulaGraph 集群名称。 spec.graphd.replicas
1
Graphd 服务的副本数。 spec.graphd.images
vesoft/nebula-graphd
Graphd 服务的容器镜像。 spec.graphd.version
v2.6.1
Graphd 服务的版本号。 spec.graphd.service
- Graphd 服务 Service 配置。 spec.graphd.logVolumeClaim.storageClassName
- Graphd 服务的日志盘存储配置。 spec.metad.replicas
1
Metad 服务的副本数。 spec.metad.images
vesoft/nebula-metad
Metad 服务的容器镜像。 spec.metad.version
v2.6.1
Metad 服务的版本号。 spec.metad.dataVolumeClaim.storageClassName
- Metad 服务的数据盘存储配置。 spec.metad.logVolumeClaim.storageClassName
- Metad 服务的日志盘存储配置。 spec.storaged.replicas
3
Storaged 服务的副本数。 spec.storaged.images
vesoft/nebula-storaged
Storaged 服务的容器镜像。 spec.storaged.version
v2.6.1
Storaged 服务的版本号。 spec.storaged.dataVolumeClaim.storageClassName
- Storaged 服务的数据盘存储配置。 spec.storaged.logVolumeClaim.storageClassName
- Storaged 服务的日志盘存储配置。 spec.reference.name
- 依赖的控制器名称。 spec.schedulerName
- 调度器名称。 spec.imagePullPolicy
NebulaGraph 镜像的拉取策略。关于拉取策略详情,请参考 Graph。 镜像拉取策略。 -
创建 NebulaGraph 集群。
kubectl create -f apps_v1alpha1_nebulacluster.yaml
返回:
nebulacluster.apps.nebula-graph.io/nebula created
-
查看 NebulaGraph 集群状态。
kubectl get nebulaclusters.apps.nebula-graph.io nebula
返回:
NAME GRAPHD-DESIRED GRAPHD-READY METAD-DESIRED METAD-READY STORAGED-DESIRED STORAGED-READY AGE nebula 1 1 1 1 3 3 86s
扩缩容集群Graph
用户可以通过编辑apps_v1alpha1_nebulacluster.yaml
文件中的replicas
的值进行 NebulaGraph 集群的扩缩容。
扩容集群Graph
本文举例扩容 NebulaGraph 集群中 Storage 服务至 5 个。步骤如下:
-
将
apps_v1alpha1_nebulacluster.yaml
文件中storaged.replicas
的参数值从3
改为5
。storaged: resources: requests: cpu: "500m" memory: "500Mi" limits: cpu: "1" memory: "1Gi" replicas: 5 image: vesoft/nebula-storaged version: v2.6.1 dataVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 logVolumeClaim: resources: requests: storage: 2Gi storageClassName: gp2 reference: name: statefulsets.apps version: v1 schedulerName: default-scheduler
-
执行以下命令使上述更新同步至 NebulaGraph 集群 CR 中。
kubectl apply -f apps_v1alpha1_nebulacluster.yaml
-
查看 Storage 服务的副本数。
返回:kubectl get pods -l app.kubernetes.io/cluster=nebula
由上可看出 Storage 服务的副本数被扩容至 5 个。NAME READY STATUS RESTARTS AGE nebula-graphd-0 1/1 Running 0 2m nebula-metad-0 1/1 Running 0 2m nebula-storaged-0 1/1 Running 0 2m nebula-storaged-1 1/1 Running 0 2m nebula-storaged-2 1/1 Running 0 2m nebula-storaged-3 1/1 Running 0 5m nebula-storaged-4 1/1 Running 0 5m
缩容集群Graph
缩容集群的原理和扩容一样,用户只需将apps_v1alpha1_nebulacluster.yaml
文件中的replicas
的值缩小。具体操作,请参考上文的扩容集群部分。
Caution
目前仅支持对 NebulaGraph 集群中的 Graph 服务和 Storage 服务进行扩缩容,不支持扩缩容 Meta 服务。
删除集群Graph
使用 Kubectl 删除 NebulaGraph 集群的命令如下:
kubectl delete -f apps_v1alpha1_nebulacluster.yaml
后续操作Graph
Graph
最后更新: November 24, 2021