diff --git a/content/ko/docs/concepts/cluster-administration/proxies.md b/content/ko/docs/concepts/cluster-administration/proxies.md new file mode 100644 index 0000000000000..fedef39322f74 --- /dev/null +++ b/content/ko/docs/concepts/cluster-administration/proxies.md @@ -0,0 +1,67 @@ +--- +title: 쿠버네티스에서 프락시(Proxy) +content_template: templates/concept +weight: 90 +--- + +{{% capture overview %}} +이 페이지는 쿠버네티스에서 함께 사용되는 프락시(Proxy)를 설명한다. +{{% /capture %}} + +{{% capture body %}} + +## 프락시 + +쿠버네티스를 이용할 때에 사용할 수 있는 여러 프락시가 있다. + +1. [kubectl proxy](/docs/tasks/access-application-cluster/access-cluster/#directly-accessing-the-rest-api): + + - 사용자의 데스크탑이나 파드 안에서 실행한다. + - 로컬 호스트 주소에서 쿠버네티스의 API 서버로 프락시한다. + - 클라이언트로 프락시는 HTTP를 사용한다. + - API 서버로 프락시는 HTTPS를 사용한다. + - API 서버를 찾는다. + - 인증 헤더를 추가한다. + +1. [apiserver proxy](/docs/tasks/access-application-cluster/access-cluster/#discovering-builtin-services): + + - API 서버에 내장된 요새(bastion)이다. + - 클러스터 외부의 사용자가 도달할 수 없는 클러스터 IP 주소로 연결한다. + - API 서버 프로세스에서 실행한다. + - 클라이언트로 프락시는 HTTPS(또는 API서버에서 HTTP로 구성된 경우는 HTTP)를 사용한다. + - 사용 가능한 정보를 이용하여 프락시에 의해 선택한 HTTP나 HTTPS를 사용할 수 있는 대상이다. + - 노드, 파드, 서비스에 도달하는데 사용할 수 있다. + - 서비스에 도달할 때에는 로드 밸런싱을 수행한다. + +1. [kube proxy](/docs/concepts/services-networking/service/#ips-and-vips): + + - 각 노드에서 실행한다. + - UDP, TCP, SCTP를 이용하여 프락시 한다. + - HTTP는 이해하지 못한다. + - 로드 밸런싱을 제공한다. + - 단지 서비스에 도달하는데 사용한다. + +1. API 서버 앞단의 프락시/로드밸런서 + + - 존재 및 구현은 클러스터 마다 다르다. (예: nginx) + - 모든 클라이언트와 하나 이상의 API 서버에 위치한다. + - 여러 API 서버가 있는 경우 로드 밸런서로서 작동한다. + +1. 외부 서비스의 클라우드 로드 밸런서 + + - 일부 클라우드 제공자는 제공한다. (예: AWS ELB, 구글 클라우드 로드 밸런서) + - 쿠버네티스 서비스로 `LoadBalancer` 유형이 있으면 자동으로 생성된다. + - 일반적으로 UDP/TCP만 지원한다. + - SCTP 지원은 클라우드 제공자의 구현에 달려 있다. + - 구현은 클라우드 제공자에 따라 다양하다. + +쿠버네티스 사용자는 보통 처음 두 가지 유형 외의 것은 걱정할 필요없다. +클러스터 관리자는 일반적으로 후자의 유형이 올바르게 구성되었는지 확인한다. + +## 요청을 리다이렉트하기 + +프락시는 리다이렉트 기능을 대체했다. 리다이렉트는 더 이상 사용하지 않는다. + +{{% /capture %}} + + diff --git a/content/ko/docs/concepts/scheduling/_index.md b/content/ko/docs/concepts/scheduling/_index.md new file mode 100644 index 0000000000000..0ffab2ef776c9 --- /dev/null +++ b/content/ko/docs/concepts/scheduling/_index.md @@ -0,0 +1,5 @@ +--- +title: "스케줄링" +weight: 90 +--- + diff --git a/content/ko/docs/concepts/workloads/controllers/deployment.md b/content/ko/docs/concepts/workloads/controllers/deployment.md new file mode 100644 index 0000000000000..c555276e1883d --- /dev/null +++ b/content/ko/docs/concepts/workloads/controllers/deployment.md @@ -0,0 +1,1144 @@ +--- +title: 디플로이먼트 +feature: + title: 자동화된 롤아웃과 롤백 + description: > + 쿠버네티스는 애플리케이션 또는 애플리케이션의 설정 변경시 점진적으로 롤아웃하는 동시에 애플리케이션을 모니터링해서 모든 인스턴스가 동시에 종료되지 않도록 보장한다. 만약 어떤 문제가 발생하면 쿠버네티스는 변경 사항을 롤백한다. 성장하는 디플로이먼트 솔루션 생태계를 이용한다. + +content_template: templates/concept +weight: 30 +--- + +{{% capture overview %}} + +_디플로이먼트_ 컨트롤러는 [파드](/ko/docs/concepts/workloads/pods/pod/)와 +[레플리카셋](/ko/docs/concepts/workloads/controllers/replicaset/)에 대한 선언적 업데이트를 제공한다. + +디플로이먼트에서 _의도하는 상태_ 를 설명하고, 디플로이먼트 컨트롤러는 현재 상태에서 의도하는 상태로 비율을 조정하며 변경한다. 새 레플리카셋을 생성하는 디플로이먼트를 정의하거나 기존 디플로이먼트를 제거하고, 모든 리소스를 새 디플로이먼트에 적용할 수 있다. + +{{< note >}} +디플로이먼트가 소유하는 레플리카셋은 관리하지 말아야 한다. 사용자의 유스케이스가 다음에 포함되지 않는 경우 쿠버네티스 리포지터리에 이슈를 올릴 수 있다. +{{< /note >}} + +{{% /capture %}} + + +{{% capture body %}} + +## 유스케이스 + +다음은 디플로이먼트의 일반적인 유스케이스이다. + +* [레플리카셋을 롤아웃 할 디플로이먼트 생성](#디플로이먼트-생성). 레플리카셋은 백그라운드에서 파드를 생성한다. 롤아웃 상태를 체크해서 성공 여부를 확인한다. +* 디플로이먼트의 PodTemplateSpec을 업데이트해서 [파드의 새로운 상태를 선언한다](#디플로이먼트-업데이트). 새 레플리카셋이 생성되면, 디플로이먼트는 파드를 기존 레플리카셋에서 새로운 레플리카셋으로 속도를 제어하며 이동하는 것을 관리한다. 각각의 새로운 레플리카셋은 디플로이먼트의 수정 버전에 따라 업데이트한다. +* 만약 디플로이먼트의 현재 상태가 안정적이지 않은 경우 [디플로이먼트의 이전 버전으로 롤백](#디플로이먼트-롤백)한다. 각 롤백은 디플로이먼트의 수정 버전에 따라 업데이트한다. +* [더 많은 로드를 위해 디플로이먼트의 스케일 업](#디플로이먼트-스케일링). +* [디플로이먼트 일시 중지](#디플로이먼트의-일시-중지와-재개)로 PodTemplateSpec에 여러 수정 사항을 적용하고, 새로운 롤아웃의 시작을 재개한다. +* 롤아웃이 막혀있는지를 나타내는 [디플로이먼트 상태를 이용](#디플로이먼트-상태). +* 더 이상 필요 없는 [이전 레플리카셋 정리](#정책-초기화). + +## 디플로이먼트 생성 + +다음은 디플로이먼트의 예시이다. 예시는 3개의 `nginx` 파드를 불러오기 위한 레플리카셋을 생성한다. + +{{< codenew file="controllers/nginx-deployment.yaml" >}} + +이 예시에 대한 설명은 다음과 같다. + +* `.metadata.name` 필드에 따라 `nginx-deployment` 이름으로 디플로이먼트가 생성된다. +* `replicas` 필드에 따라 디플로이먼트는 3개의 레플리카 파드를 생성한다. +* `selector` 필드는 디플로이먼트가 관리할 파드를 찾는 방법을 정의한다. + 이 사례에서는 간단하게 파드 템플릿에 정의된 레이블(`app: nginx`)을 선택한다. + 그러나 파드 템플릿 자체의 규칙이 만족되는 한, + 보다 정교한 선택 규칙의 적용이 가능하다. + {{< note >}} + `matchLabels` 필드는 {key,value}의 쌍으로 매핑되어있다. `matchLabels` 에 매핑된 + 단일 {key,value}은 `matchExpressions` 의 요소에 해당하며, 키 필드는 "key"에 그리고 연산자는 "In"에 대응되며 + 값 배열은 "value"만 포함한다. + 매칭을 위해서는 `matchLabels` 와 `matchExpressions` 의 모든 요건이 충족되어야 한다. + {{< /note >}} + +* `template` 필드에는 다음 하위 필드가 포함되어있다. + * 파드는 `labels` 필드를 사용해서 `app: nginx` 이라는 레이블을 붙인다. + * 파드 템플릿의 사양 또는 `.template.spec` 필드는 + 파드가 [도커 허브](https://hub.docker.com/)의 `nginx` 1.7.9 버전 이미지를 실행하는 + `nginx` 컨테이너 1개를 실행하는 것을 나타낸다. + * 컨테이너 1개를 생성하고, `name` 필드를 사용해서 `nginx` 이름을 붙인다. + + 위의 디플로이먼트를 생성하려면 다음 단계를 따른다. + + 시작하기 전에, 쿠버네티스 클러스터가 시작되고 실행 중인지 확인한다. + + 1. 다음 명령어를 실행해서 디플로이먼트를 생성한다. + + {{< note >}} + `--record` 플래그를 지정해서 실행된 명령을 `kubernetes.io/change-cause` 리소스 어노테이션에 작성할 수 있다. 이것은 향후 인트로스펙션(introspection)에 유용하다. + 예를 들면, 디플로이먼트의 각 수정 버전에서 실행된 명령을 볼 수 있다. + {{< /note >}} + + ```shell + kubectl apply -f https://k8s.io/examples/controllers/nginx-deployment.yaml + ``` + + 2. `kubectl get deployments` 을 실행해서 디플로이먼트가 생성되었는지 확인한다. 만약 디플로이먼트가 여전히 생성중이면 다음과 유사하게 출력된다. + ```shell + NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE + nginx-deployment 3 0 0 0 1s + ``` + 클러스터에서 디플로이먼트를 점검할 때 다음 필드가 표시된다. + + * `NAME` 은 클러스터에 있는 디플로이먼트 이름의 목록이다. + * `DESIRED` 는 디플로이먼트의 생성시 정의된 의도한 애플리케이션 _레플리카_ 의 수를 표시한다. 이것이 _의도한 상태_ 이다. + * `CURRENT` 는 현재 실행 중인 레플리카의 수를 표시한다. + * `UP-TO-DATE` 는 의도한 상태를 얻기위해 업데이트 된 레플리카의 수를 표시한다. + * `AVAILABLE` 은 사용자가 사용 가능한 애플리케이션 레플리카의 수를 표시한다. + * `AGE` 는 애플리케이션의 실행 된 시간을 표시한다. + + `.spec.replicas` 필드에 따라 의도한 레플리카의 수가 3개인지 알 수 있다. + + 3. 디플로이먼트의 롤아웃 상태를 보려면 `kubectl rollout status deployment.v1.apps/nginx-deployment` 를 실행한다. 다음과 유사하게 출력된다. + ```shell + Waiting for rollout to finish: 2 out of 3 new replicas have been updated... + deployment.apps/nginx-deployment successfully rolled out + ``` + + 4. 몇 초 후 `kubectl get deployments` 를 다시 실행한다. 다음과 유사하게 출력된다. + ```shell + NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE + nginx-deployment 3 3 3 3 18s + ``` + 디플로이먼트에서 3개의 레플리카가 생성되었고, 모든 레플리카는 최신 상태(최신 파드 템플릿을 포함)이며 사용 가능한 것을 알 수 있다. + + 5. 디플로이먼트로 생성된 레플리카셋(`rs`)을 보려면 `kubectl get rs` 를 실행한다. 다음과 유사하게 출력된다. + ```shell + NAME DESIRED CURRENT READY AGE + nginx-deployment-75675f5897 3 3 3 18s + ``` + 레플리카셋의 이름은 항상 `[DEPLOYMENT-NAME]-[RANDOM-STRING]` 형식으로 된 것을 알 수 있다. 무작위 문자열은 + 무작위로 생성되며, Pod-template-hash를 시드(seed)로 사용한다. + + 6. 각 파드에 자동으로 생성된 레이블을 보려면 `kubectl get pods --show-labels` 를 실행한다. 다음과 유사하게 출력된다. + ```shell + NAME READY STATUS RESTARTS AGE LABELS + nginx-deployment-75675f5897-7ci7o 1/1 Running 0 18s app=nginx,pod-template-hash=3123191453 + nginx-deployment-75675f5897-kzszj 1/1 Running 0 18s app=nginx,pod-template-hash=3123191453 + nginx-deployment-75675f5897-qqcnn 1/1 Running 0 18s app=nginx,pod-template-hash=3123191453 + ``` + 만들어진 레플리카셋은 3개의 `nginx` 파드가 있는 것을 보장한다. + + {{< note >}} + 디플로이먼트에는 파드 템플릿 레이블과 적절한 셀렉터를 반드시 명시해야 한다(이 예시에서는 `app: nginx`). + 레이블 또는 셀렉터는 다른 컨트롤러(다른 디플로이먼트와 스테이트풀 셋 포함)와 겹치지 않아야 한다. 쿠버네티스는 겹치는 것을 막지 않으며, 만약 다중 컨트롤러가 겹치는 셀렉터를 가지는 경우 해당 컨트롤러의 충돌 또는 예기치 않은 동작을 야기할 수 있다. + {{< /note >}} + +### Pod-template-hash 레이블 + +{{< note >}} +이 레이블은 변경하면 안 된다. +{{< /note >}} + +`pod-template-hash` 레이블은 디플로이먼트 컨트롤러에 의해서 디플로이먼트가 생성 또는 채택한 모든 레플리케셋에 추가된다. + +이 레이블은 디플로이먼트의 자식 레플리카셋이 겹치지 않도록 보장한다. 레플리카셋의 `PodTemplate` 을 해싱하고, 해시 결과를 레플리카셋 셀렉터, +파드 템플릿 레이블 및 레플리카셋 이 가질 수 있는 기존의 모든 파드에 레이블 값으로 추가해서 사용하도록 생성한다. + +## 디플로이먼트 업데이트 + +{{< note >}} +디플로이먼트의 파드 템플릿(즉, `.spec.template`)이 변경된 경우에만 디플로이먼트의 롤아웃이 트리거(trigger) 된다. +예를 들면 템플릿의 레이블이나 컨테이너 이미지가 업데이트된 경우이다. 디플로이먼트의 스케일링과 같은 다른 업데이트는 롤아웃을 트리거하지 말아야 한다. +{{< /note >}} + +다음 단계에 따라 디플로이먼트를 업데이트한다. + +1. nginx 파드를 이용 중인 `nginx:1.9.1` 이미지에서 `nginx:1.7.9` 로 업데이트 한다. + + ```shell + kubectl --record deployment.apps/nginx-deployment set image deployment.v1.apps/nginx-deployment nginx=nginx:1.9.1 + ``` + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment image updated + ``` + + 대안으로 디플로이먼트를 `edit` 해서 `.spec.template.spec.containers[0].image` 를 `nginx:1.7.9` 에서 `nginx:1.9.1` 로 변경한다. + + ```shell + kubectl edit deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment edited + ``` + +2. 롤아웃 상태를 보려면 다음을 실행한다. + + ```shell + kubectl rollout status deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + Waiting for rollout to finish: 2 out of 3 new replicas have been updated... + ``` + 또는 + ``` + deployment.apps/nginx-deployment successfully rolled out + ``` + +업데이트된 디플로이먼트에 대해 자세한 정보 보기 + +* 롤아웃이 성공하면 `kubectl get deployments` 를 실행해서 디플로이먼트를 볼 수 있다. + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE + nginx-deployment 3 3 3 3 36s + ``` + +* `kubectl get rs` 를 실행해서 디플로이먼트가 새 레플리카셋을 생성해서 파드를 업데이트 했는지 볼 수 있고, +새 레플리카셋을 최대 3개의 레플리카로 스케일 업, 이전 레플리카셋을 0개의 레플리카로 스케일 다운한다. + + ```shell + kubectl get rs + ``` + + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-deployment-1564180365 3 3 3 6s + nginx-deployment-2035384211 0 0 0 36s + ``` + +* `get pods` 를 실행하면 새 파드만 표시된다. + + ```shell + kubectl get pods + ``` + + 이와 유사하게 출력된다. + ``` + NAME READY STATUS RESTARTS AGE + nginx-deployment-1564180365-khku8 1/1 Running 0 14s + nginx-deployment-1564180365-nacti 1/1 Running 0 14s + nginx-deployment-1564180365-z9gth 1/1 Running 0 14s + ``` + + 다음에 이러한 파드를 업데이트 하려면 디플로이먼트의 파드 템플릿만 다시 업데이트 하면 된다. + + 디플로이먼트는 업데이트되는 동안 일정한 수의 파드만 중단되도록 보장한다. 기본적으로 + 적어도 의도한 파드 수의 25% 이상이 동작하도록 보장한다(최대 25% 이상 불가). + + 또한 디플로이먼트는 의도한 파드 수 보다 더 많이 생성되는 파드의 수를 제한한다. + 기본적으로, 의도한 파드의 수 기준 최대 25%까지만 추가 파드가 동작할 수 있도록 제한한다(최대 25% 까지). + + 예를 들어, 위 디플로이먼트를 자세히 살펴보면 먼저 새로운 파드를 생성한 다음 + 이전 파드를 삭제하고, 새로운 파드를 만든 것을 볼 수 있다. 충분한 수의 새로운 파드가 나올 때까지 이전 파드를 죽이지 않으며, + 충분한 수의 이전 파드들이 죽기 전까지 새로운 파드를 만들지 않는다. + 이것은 최소 2개의 파드를 사용할 수 있게 하고, 최대 4개의 파드를 사용할 수 있게 한다. + +* 디플로이먼트의 세부 정보 가져오기 + ```shell + kubectl describe deployments + ``` + 이와 유사하게 출력된다. + ``` + Name: nginx-deployment + Namespace: default + CreationTimestamp: Thu, 30 Nov 2017 10:56:25 +0000 + Labels: app=nginx + Annotations: deployment.kubernetes.io/revision=2 + Selector: app=nginx + Replicas: 3 desired | 3 updated | 3 total | 3 available | 0 unavailable + StrategyType: RollingUpdate + MinReadySeconds: 0 + RollingUpdateStrategy: 25% max unavailable, 25% max surge + Pod Template: + Labels: app=nginx + Containers: + nginx: + Image: nginx:1.9.1 + Port: 80/TCP + Environment: + Mounts: + Volumes: + Conditions: + Type Status Reason + ---- ------ ------ + Available True MinimumReplicasAvailable + Progressing True NewReplicaSetAvailable + OldReplicaSets: + NewReplicaSet: nginx-deployment-1564180365 (3/3 replicas created) + Events: + Type Reason Age From Message + ---- ------ ---- ---- ------- + Normal ScalingReplicaSet 2m deployment-controller Scaled up replica set nginx-deployment-2035384211 to 3 + Normal ScalingReplicaSet 24s deployment-controller Scaled up replica set nginx-deployment-1564180365 to 1 + Normal ScalingReplicaSet 22s deployment-controller Scaled down replica set nginx-deployment-2035384211 to 2 + Normal ScalingReplicaSet 22s deployment-controller Scaled up replica set nginx-deployment-1564180365 to 2 + Normal ScalingReplicaSet 19s deployment-controller Scaled down replica set nginx-deployment-2035384211 to 1 + Normal ScalingReplicaSet 19s deployment-controller Scaled up replica set nginx-deployment-1564180365 to 3 + Normal ScalingReplicaSet 14s deployment-controller Scaled down replica set nginx-deployment-2035384211 to 0 + ``` + 처음 디플로이먼트를 생성했을 때, 디플로이먼트가 레플리카셋(nginx-deployment-2035384211)을 생성해서 + 3개의 레플리카로 직접 스케일 업한 것을 볼 수 있다. + 디플로이먼트를 업데이트할 때 새 레플리카셋(nginx-deployment-1564180365)을 생성하고, 1개로 스케일 업한 다음 + 이전 레플리카셋을 2개로 스케일 다운해서, 최소 2개의 파드를 사용할 수 있고 최대 4개의 파드가 항상 생성되어 있도록 하였다. + 이후 지속해서 같은 롤링 업데이트 정책으로 새 레플리카셋은 스케일 업하고 이전 레플리카셋은 스케일 다운한다. + 마지막으로 새로운 레플리카셋에 3개의 사용 가능한 레플리카가 구성되며, 이전 레플리카셋은 0개로 스케일 다운된다. + +### 롤오버(일명 인-플라이트 다중 업데이트) + +디플로이먼트 컨트롤러는 각 시간마다 새로운 디플로이먼트에서 레플리카셋이 +의도한 파드를 생성하고 띄우는 것을 주시한다. 만약 디플로이먼트가 업데이트되면, 기존 레플리카셋에서 +`.spec.selector` 레이블과 일치하는 파드를 컨트롤 하지만, 템플릿과 `.spec.template` 이 불일치하면 스케일 다운이 된다. +결국 새로운 레플리카셋은 `.spec.replicas` 로 스케일되고, 모든 기존 레플리카 셋은 0개로 스케일된다. + +만약 기존 롤아웃이 진행되는 중에 디플로이먼트를 업데이트하는 경우 디플로이먼트가 업데이트에 따라 새 레플리카셋을 생성하고, +스케일 업하기 시작한다. 그리고 이전에 스케일 업 하던 레플리카셋에 롤오버 한다. + --이것은 기존 레플리카셋 목록에 추가하고 스케일 다운을 할 것이다. + +예를 들어 디플로이먼트로 `nginx:1.7.9` 레플리카를 5개 생성을 한다. +하지만 `nginx:1.7.9` 레플리카 3개가 생성되었을 때 디플로이먼트를 업데이트해서 `nginx:1.9.1` +레플리카 5개를 생성성하도록 업데이트를 한다고 가정한다. 이 경우 디플로이먼트는 즉시 생성된 3개의 +`nginx:1.7.9` 파드 3개를 죽이기 시작하고 `nginx:1.9.1` 파드를 생성하기 시작한다. +이것은 과정이 변경되기 전 `nginx:1.7.9` 레플리카 5개가 +생성되는 것을 기다리지 않는다. + +### 레이블 셀렉터 업데이트 + +일반적으로 레이블 셀렉터를 업데이트 하는 것을 권장하지 않으며 셀렉터를 미리 계획하는 것을 권장한다. +어떤 경우든 레이블 셀렉터의 업데이트를 해야하는 경우 매우 주의하고, +모든 영향을 파악했는지 확인해야 한다. + +{{< note >}} +API 버전 `apps/v1` 에서 디플로이먼트의 레이블 셀렉터는 생성 이후에는 변경할 수 없다. +{{< /note >}} + +* 셀렉터 추가 시 디플로이먼트의 사양에 있는 파드 템플릿 레이블도 새 레이블로 업데이트 해야한다. +그렇지 않으면 유효성 검사 오류가 반환된다. 이 변경은 겹치지 않는 변경으로 새 셀렉터가 +이전 셀렉터로 만든 레플리카셋과 파드를 선택하지 않게 되고, 그 결과로 모든 기존 레플리카셋은 고아가 되며, +새로운 레플리카셋을 생성하게 된다. +* 셀렉터 업데이트는 기존 셀렉터 키 값을 변경하며, 결과적으로 추가와 동일한 동작을 한다. +* 셀렉터 삭제는 디플로이먼트 셀렉터의 기존 키를 삭제하며 파드 템플릿 레이블의 변경을 필요로 하지 않는다. +기존 레플리카셋은 고아가 아니고, 새 레플리카셋은 생성되지 않는다. +그러나 제거된 레이블은 기존 파드와 레플리카셋에 여전히 존재한다는 점을 참고해야 한다. + +## 디플로이먼트 롤백 + +때때로 디플로이먼트의 롤백을 원할 수도 있다. 예를 들어 디플로이먼트가 지속적인 충돌로 안정적이지 않은 경우. +기본적으로 모든 디플로이먼트의 롤아웃 기록은 시스템에 남아있어 언제든지 원할 때 롤백이 가능하다 +(이 사항은 수정 기록에 대한 상한 수정을 통해서 변경할 수 있다). + +{{< note >}} +디플로이먼트의 수정 버전은 디플로이먼트 롤아웃시 생성된다. 이는 디플로이먼트 파드 템플릿 +(`.spec.template`)이 변경되는 경우에만 새로운 수정 버전이 생성된다는 것을 의미한다. +예를 들어 템플릿의 레이블 또는 컨테이너 이미지를 업데이트 하는 경우. +디플로이먼트의 스케일링과 같은 다른 업데이트시 디플로이먼트 수정 버전은 생성되지 않으며 수동-스케일링 또는 자동-스케일링을 동시에 수행할 수 있다. +이는 이전 수정 버전으로 롤백을 하는 경우에 디플로이먼트 파드 템플릿 부분만 +롤백된다는 것을 의미한다. +{{< /note >}} + +* 디플로이먼트를 업데이트하는 동안 이미지 이름을 `nginx:1.9.1` 이 아닌 `nginx:1.91` 로 입력해서 오타를 냈다고 가정한다. + + ```shell + kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:1.91 --record=true + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment image updated + ``` + +* 롤아웃이 고착 된다. 고착된 롤아웃 상태를 확인할 수 있다. + + + ```shell + kubectl rollout status deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + Waiting for rollout to finish: 1 out of 3 new replicas have been updated... + ``` + +* Ctrl-C 를 눌러 위의 롤아웃 상태 보기를 중지한다. 고착된 롤아웃 상태에 대한 자세한 정보는 [이 것을 더 읽어본다](#디플로이먼트-상태). + +* 이전 레플리카는 2개(`nginx-deployment-1564180365` 과 `nginx-deployment-2035384211`), 새 레플리카는 1개(nginx-deployment-3066724191)임을 알 수 있다. + + ```shell + kubectl get rs + ``` + + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-deployment-1564180365 3 3 3 25s + nginx-deployment-2035384211 0 0 0 36s + nginx-deployment-3066724191 1 1 0 6s + ``` + +* 생성된 파드를 보면, 새로운 레플리카셋에 생성된 1개의 파드가 이미지 풀 루프(pull loop)에서 고착된 것을 볼 수 있다. + + ```shell + kubectl get pods + ``` + + 이와 유사하게 출력된다. + ``` + NAME READY STATUS RESTARTS AGE + nginx-deployment-1564180365-70iae 1/1 Running 0 25s + nginx-deployment-1564180365-jbqqo 1/1 Running 0 25s + nginx-deployment-1564180365-hysrc 1/1 Running 0 25s + nginx-deployment-3066724191-08mng 0/1 ImagePullBackOff 0 6s + ``` + + {{< note >}} + 디플로이먼트 컨트롤러가 잘못된 롤아웃을 자동으로 중지하고, 새로운 레플리카셋의 스케일 업을 중지한다. + 이는 지정한 롤링 업데이트의 파라미터(구체적으로 `maxUnavailable`)에 따라 달라진다. + 쿠버네티스는 기본값으로 25%를 설정한다. + {{< /note >}} + +* 디플로이먼트에 대한 설명 보기 + ```shell + kubectl describe deployment + ``` + + 이와 유사하게 출력된다. + ``` + Name: nginx-deployment + Namespace: default + CreationTimestamp: Tue, 15 Mar 2016 14:48:04 -0700 + Labels: app=nginx + Selector: app=nginx + Replicas: 3 desired | 1 updated | 4 total | 3 available | 1 unavailable + StrategyType: RollingUpdate + MinReadySeconds: 0 + RollingUpdateStrategy: 25% max unavailable, 25% max surge + Pod Template: + Labels: app=nginx + Containers: + nginx: + Image: nginx:1.91 + Port: 80/TCP + Host Port: 0/TCP + Environment: + Mounts: + Volumes: + Conditions: + Type Status Reason + ---- ------ ------ + Available True MinimumReplicasAvailable + Progressing True ReplicaSetUpdated + OldReplicaSets: nginx-deployment-1564180365 (3/3 replicas created) + NewReplicaSet: nginx-deployment-3066724191 (1/1 replicas created) + Events: + FirstSeen LastSeen Count From SubobjectPath Type Reason Message + --------- -------- ----- ---- ------------- -------- ------ ------- + 1m 1m 1 {deployment-controller } Normal ScalingReplicaSet Scaled up replica set nginx-deployment-2035384211 to 3 + 22s 22s 1 {deployment-controller } Normal ScalingReplicaSet Scaled up replica set nginx-deployment-1564180365 to 1 + 22s 22s 1 {deployment-controller } Normal ScalingReplicaSet Scaled down replica set nginx-deployment-2035384211 to 2 + 22s 22s 1 {deployment-controller } Normal ScalingReplicaSet Scaled up replica set nginx-deployment-1564180365 to 2 + 21s 21s 1 {deployment-controller } Normal ScalingReplicaSet Scaled down replica set nginx-deployment-2035384211 to 1 + 21s 21s 1 {deployment-controller } Normal ScalingReplicaSet Scaled up replica set nginx-deployment-1564180365 to 3 + 13s 13s 1 {deployment-controller } Normal ScalingReplicaSet Scaled down replica set nginx-deployment-2035384211 to 0 + 13s 13s 1 {deployment-controller } Normal ScalingReplicaSet Scaled up replica set nginx-deployment-3066724191 to 1 + ``` + + 이 문제를 해결하려면 디플로이먼트를 안정적인 이전 수정 버전으로 롤백해야 한다. + +### 디플로이먼트의 롤아웃 기록 확인 + +다음 순서에 따라 롤아웃 기록을 확인한다. + +1. 먼저 이 디플로이먼트의 수정 사항을 확인한다. + ```shell + kubectl rollout history deployment.v1.apps/nginx-deployment + ``` + 이와 유사하게 출력된다. + ``` + deployments "nginx-deployment" + REVISION CHANGE-CAUSE + 1 kubectl apply --filename=https://k8s.io/examples/controllers/nginx-deployment.yaml --record=true + 2 kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:1.9.1 --record=true + 3 kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:1.91 --record=true + ``` + + `CHANGE-CAUSE` 는 수정 생성시 디플로이먼트 주석인 `kubernetes.io/change-cause` 에서 복사한다. 다음에 대해 `CHANGE-CAUSE` 메시지를 지정할 수 있다. + + * 디플로이먼트에 `kubectl annotate deployment.v1.apps/nginx-deployment kubernetes.io/change-cause="image updated to 1.9.1"` 로 주석을 단다. + * `kubectl` 명령어 이용시 `--record` 플래그를 추가해서 리소스 변경을 저장한다. + * 수동으로 리소스 매니페스트 편집. + +2. 각 수정 버전의 세부 정보를 보려면 다음을 실행한다. + ```shell + kubectl rollout history deployment.v1.apps/nginx-deployment --revision=2 + ``` + + 이와 유사하게 출력된다. + ``` + deployments "nginx-deployment" revision 2 + Labels: app=nginx + pod-template-hash=1159050644 + Annotations: kubernetes.io/change-cause=kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:1.9.1 --record=true + Containers: + nginx: + Image: nginx:1.9.1 + Port: 80/TCP + QoS Tier: + cpu: BestEffort + memory: BestEffort + Environment Variables: + No volumes. + ``` + +### 이전 수정 버전으로 롤백 +다음 단계에 따라 디플로이먼트를 현재 버전에서 이전 버전인 버전 2로 롤백한다. + +1. 이제 현재 롤아웃의 실행 취소 및 이전 수정 버전으로 롤백 하기로 결정했다. + ```shell + kubectl rollout undo deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment + ``` + Alternatively, you can rollback to a specific revision by specifying it with `--to-revision`: + + ```shell + kubectl rollout undo deployment.v1.apps/nginx-deployment --to-revision=2 + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment + ``` + + 롤아웃 관련 명령에 대한 자세한 내용은 [`kubectl rollout`](/docs/reference/generated/kubectl/kubectl-commands#rollout)을 참조한다. + + 이제 디플로이먼트가 이전 안정 수정 버전으로 롤백 된다. 버전 2로 롤백하기 위해 `DeploymentRollback` 이벤트가 + 디플로이먼트 컨트롤러에서 생성되는 것을 볼 수 있다. + +2. 만약 롤백에 성공하고, 디플로이먼트가 예상대로 실행되는지 확인하려면 다음을 실행한다. + ```shell + kubectl get deployment nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE + nginx-deployment 3 3 3 3 30m + ``` +3. 디플로이먼트의 설명 가져오기. + ```shell + kubectl describe deployment nginx-deployment + ``` + 이와 유사하게 출력된다. + ``` + Name: nginx-deployment + Namespace: default + CreationTimestamp: Sun, 02 Sep 2018 18:17:55 -0500 + Labels: app=nginx + Annotations: deployment.kubernetes.io/revision=4 + kubernetes.io/change-cause=kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:1.9.1 --record=true + Selector: app=nginx + Replicas: 3 desired | 3 updated | 3 total | 3 available | 0 unavailable + StrategyType: RollingUpdate + MinReadySeconds: 0 + RollingUpdateStrategy: 25% max unavailable, 25% max surge + Pod Template: + Labels: app=nginx + Containers: + nginx: + Image: nginx:1.9.1 + Port: 80/TCP + Host Port: 0/TCP + Environment: + Mounts: + Volumes: + Conditions: + Type Status Reason + ---- ------ ------ + Available True MinimumReplicasAvailable + Progressing True NewReplicaSetAvailable + OldReplicaSets: + NewReplicaSet: nginx-deployment-c4747d96c (3/3 replicas created) + Events: + Type Reason Age From Message + ---- ------ ---- ---- ------- + Normal ScalingReplicaSet 12m deployment-controller Scaled up replica set nginx-deployment-75675f5897 to 3 + Normal ScalingReplicaSet 11m deployment-controller Scaled up replica set nginx-deployment-c4747d96c to 1 + Normal ScalingReplicaSet 11m deployment-controller Scaled down replica set nginx-deployment-75675f5897 to 2 + Normal ScalingReplicaSet 11m deployment-controller Scaled up replica set nginx-deployment-c4747d96c to 2 + Normal ScalingReplicaSet 11m deployment-controller Scaled down replica set nginx-deployment-75675f5897 to 1 + Normal ScalingReplicaSet 11m deployment-controller Scaled up replica set nginx-deployment-c4747d96c to 3 + Normal ScalingReplicaSet 11m deployment-controller Scaled down replica set nginx-deployment-75675f5897 to 0 + Normal ScalingReplicaSet 11m deployment-controller Scaled up replica set nginx-deployment-595696685f to 1 + Normal DeploymentRollback 15s deployment-controller Rolled back deployment "nginx-deployment" to revision 2 + Normal ScalingReplicaSet 15s deployment-controller Scaled down replica set nginx-deployment-595696685f to 0 + ``` + +## 디플로이먼트 스케일링 + +다음 명령어를 사용해서 디플로이먼트의 스케일을 할 수 있다. + +```shell +kubectl scale deployment.v1.apps/nginx-deployment --replicas=10 +``` +이와 유사하게 출력된다. +``` +deployment.apps/nginx-deployment scaled +``` + +가령 클러스터에서 [horizontal Pod autoscaling](/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough/)를 설정 +한 경우 디플로이먼트에 대한 오토스케일러를 설정할 수 있다. 그리고 기존 파드의 CPU 사용률을 기준으로 +실행할 최소 파드 및 최대 파드의 수를 선택할 수 있다. + +```shell +kubectl autoscale deployment.v1.apps/nginx-deployment --min=10 --max=15 --cpu-percent=80 +``` +이와 유사하게 출력된다. +``` +deployment.apps/nginx-deployment scaled +``` + +### 비례적 스케일링(Proportional Scaling) + +디플로이먼트 롤링업데이트는 여러 버전의 애플리케이션을 동시에 실행할 수 있도록 지원한다. +사용자 또는 오토스케일러가 롤아웃 중에 있는 디플로이먼트 롤링 업데이트를 스케일링 하는 경우(진행중 또는 일시 중지 중), +디플로이먼트 컨트롤러는 위험을 줄이기 위해 기존 활성화된 레플리카셋(파드와 레플리카셋)의 추가 레플리카의 균형을 조절 한다. +이것을 *proportional scaling* 라 부른다. + +예를 들어, 10개의 레플리카를 디플로이먼트로 [maxSurge](#최대-서지-max-surge)=3, 그리고 [maxUnavailable](#최대-불가-max-unavailable)=2 로 실행 한다. + +* 디플로이먼트에 있는 10개의 레플리카가 실행되는지 확인한다. + ```shell + kubectl get deploy + ``` + 이와 유사하게 출력된다. + + ``` + NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE + nginx-deployment 10 10 10 10 50s + ``` + +* 클러스터 내부에서 확인할 수 없는 새 이미지로 업데이트 된다. + ```shell + kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:sometag + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment image updated + ``` + +* 이미지 업데이트는 레플리카셋 nginx-deployment-1989198191 으로 새로운 롤 아웃이 시작하지만, +위에서 언급한 `maxUnavailable` 의 요구 사항으로 인해 차단된다. 롤아웃 상태를 확인한다. + ```shell + kubectl get rs + ``` + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-deployment-1989198191 5 5 0 9s + nginx-deployment-618515232 8 8 8 1m + ``` + +* 그 다음 디플로이먼트에 대한 새로운 스케일링 요청이 함께 따라온다. 오토스케일러는 디플로이먼트 레플리카를 15로 증가시킨다. +디플로이먼트 컨트롤러는 새로운 5개의 레플리카의 추가를 위한 위치를 결정해야 한다. +만약 비례적 스케일링을 사용하지 않으면 5개 모두 새 레플리카셋에 추가된다. +비례적 스케일링으로 추가 레플리카를 모든 레플리카셋에 걸쳐 분산할 수 있다. +비율이 높을수록 가장 많은 레플리카가 있는 레플리카셋으로 이동하고, 비율이 낮을 수록 적은 레플리카가 있는 레플리카 셋으로 이동한다. +남은 것들은 대부분의 레플리카가 있는 레플리카셋에 추가된다. 0개의 레플리카가 있는 레플리카셋은 스케일 업 되지 않는다. + +위의 예시에서 기존 레플리카셋에 3개의 레플리카가 추가되고, 2개의 레플리카는 새 레플리카에 추가된다. +결국 롤아웃 프로세스는 새 레플리카가 정상이라고 가정하면 모든 레플리카를 새 레플리카셋으로 이동시킨다. +이를 확인하려면 다음을 실행한다. + +```shell +kubectl get deploy +``` + +이와 유사하게 출력된다. +``` +NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE +nginx-deployment 15 18 7 8 7m +``` +롤아웃 상태는 레플리카가 각 레플리카셋에 어떻게 추가되었는지 확인한다. +```shell +kubectl get rs +``` + +이와 유사하게 출력된다. +``` +NAME DESIRED CURRENT READY AGE +nginx-deployment-1989198191 7 7 0 7m +nginx-deployment-618515232 11 11 11 7m +``` + +## 디플로이먼트의 일시 중지와 재개 + +하나 이상의 업데이트를 트리거하기 전에 디플로이먼트를 일시 중지한 다음 다시 시작할 수 있다. +이렇게 하면 불필요한 롤아웃을 트리거하지 않고 일시 중지와 재개 사이에 여러 수정 사항을 적용할 수 있다. + +* 예를 들어, 방금 생성된 디플로이먼트의 경우 + 디플로이먼트 상세 정보를 가져온다. + ```shell + kubectl get deploy + ``` + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE + nginx 3 3 3 3 1m + ``` + 롤아웃 상태를 가져온다. + ```shell + kubectl get rs + ``` + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-2142116321 3 3 3 1m + ``` + +* 다음 명령을 사용해서 일시 중지한다. + ```shell + kubectl rollout pause deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment paused + ``` + +* 그런 다음 디플로이먼트의 이미지를 업데이트 한다. + ```shell + kubectl set image deployment.v1.apps/nginx-deployment nginx=nginx:1.9.1 + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment image updated + ``` + +* 새로운 롤아웃이 시작되지 않는다. + ```shell + kubectl rollout history deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + deployments "nginx" + REVISION CHANGE-CAUSE + 1 + ``` +* 롤아웃 상태를 가져와서 디플로이먼트 업데이트가 성공적인지 확인한다. + ```shell + kubectl get rs + ``` + + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-2142116321 3 3 3 2m + ``` + +* 예를 들어 사용할 리소스를 업데이트하는 것처럼 원하는 만큼 업데이트할 수 있다. + ```shell + kubectl set resources deployment.v1.apps/nginx-deployment -c=nginx --limits=cpu=200m,memory=512Mi + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment resource requirements updated + ``` + + 디플로이먼트를 일시 중지하기 전의 초기 상태는 해당 기능을 지속한다. + 그러나 디플로이먼트가 일시 중지한 상태에서는 디플로이먼트의 새 업데이트에 영향을 주지 않는다. + +* 결국, 디플로이먼트를 재개하고 새로운 레플리카셋이 새로운 업데이트를 제공하는 것을 관찰한다. + ```shell + kubectl rollout resume deployment.v1.apps/nginx-deployment + ``` + + 이와 유사하게 출력된다. + ``` + deployment.apps/nginx-deployment resumed + ``` +* 롤아웃이 완료될 때까지 상태를 관찰한다. + ```shell + kubectl get rs -w + ``` + + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-2142116321 2 2 2 2m + nginx-3926361531 2 2 0 6s + nginx-3926361531 2 2 1 18s + nginx-2142116321 1 2 2 2m + nginx-2142116321 1 2 2 2m + nginx-3926361531 3 2 1 18s + nginx-3926361531 3 2 1 18s + nginx-2142116321 1 1 1 2m + nginx-3926361531 3 3 1 18s + nginx-3926361531 3 3 2 19s + nginx-2142116321 0 1 1 2m + nginx-2142116321 0 1 1 2m + nginx-2142116321 0 0 0 2m + nginx-3926361531 3 3 3 20s + ``` +* 롤아웃 최신 상태를 가져온다. + ```shell + kubectl get rs + ``` + + 이와 유사하게 출력된다. + ``` + NAME DESIRED CURRENT READY AGE + nginx-2142116321 0 0 0 2m + nginx-3926361531 3 3 3 28s + ``` +{{< note >}} +일시 중지된 디플로이먼트를 재개할 때까지 롤백할 수 없다. +{{< /note >}} + +## 디플로이먼트 상태 + +디플로이먼트는 라이프사이클 동안 다양한 상태로 전환된다. +이는 새 레플리카셋을 롤아웃하는 동안 [진행 중](#디플로이먼트-진행-중)이 될 수 있고, [완료](#디플로이먼트-완료)이거나 [진행 실패](#디플로이먼트-실패)일 수 있다. + +### 디플로이먼트 진행 중 + +쿠버네티스는 다음 작업중 하나를 수행할 때 디플로이먼트를 _진행 중_ 으로 표시한다. + +* 디플로이먼트로 새 레플리카셋을 생성. +* 디플로이먼트로 새로운 레플리카셋을 스케일 업. +* 디플로이먼트로 기존 레플리카셋을 스케일 다운. +* 새 파드가 준비되거나 이용할 수 있음(최소 [준비 시간(초)](#최소-대기-시간-초) 동안 준비됨). + +`kubectl rollout status` 를 사용해서 디플로이먼트의 진행사황을 모니터할 수 있다. + +### 디플로이먼트 완료 + +쿠버네티스는 다음과 같은 특성을 가지게 되면 디플로이먼트를 _완료_ 로 표시한다. + +* 디플로이먼트과 관련된 모든 레플리카가 지정된 최신 버전으로 업데이트 되었을 때. +즉, 요청한 모든 업데이트가 완료되었을 때. +* 디플로이먼트와 관련한 모든 레플리카를 사용할 수 있을 때. +* 디플로이먼트에 대해 이전 복제본이 실행되고 있지 않을 때. + +`kubectl rollout status` 를 사용해서 디플로이먼트가 완료되었는지 확인할 수 있다. +만약 롤아웃이 성공적으로 완료되면 `kubectl rollout status` 는 종료 코드로 0이 반환된다. + +```shell +kubectl rollout status deployment.v1.apps/nginx-deployment +``` +이와 유사하게 출력된다. +``` +Waiting for rollout to finish: 2 of 3 updated replicas are available... +deployment.apps/nginx-deployment successfully rolled out +$ echo $? +0 +``` + +### 디플로이먼트 실패 + +디플로이먼트시 새 레플리카셋인 완료되지 않은 상태에서는 배포를 시도하면 고착될 수 있다. +이 문제는 다음 몇 가지 요인으로 인해 발생한다. + +* 할당량 부족 +* 준비성 프로브(readiness probe)의 실패 +* 이미지 풀 에러 +* 권한 부족 +* 범위 제한 +* 애플리케이션 런타임의 잘못된 구성 + +이 조건을 찾을 수 있는 한 가지 방법은 디플로이먼트 스펙에서 데드라인 파라미터를 지정하는 것이다 +([`.spec.progressDeadlineSeconds`](#진행-기한-시간-초)). `.spec.progressDeadlineSeconds` 는 +(디플로이먼트 상태에서) 디플로이먼트의 진행이 정지되었음을 나타내는 디플로이먼트 컨트롤러가 +대기하는 시간(초)를 나타낸다. + +다음 `kubectl` 명령어로 `progressDeadlineSeconds` 를 설정해서 컨트롤러가 +10분 후 디플로이먼트에 대한 진행 상태의 부족에 대한 리포트를 수행하게 한다. + +```shell +kubectl patch deployment.v1.apps/nginx-deployment -p '{"spec":{"progressDeadlineSeconds":600}}' +``` +이와 유사하게 출력된다. +``` +deployment.apps/nginx-deployment patched +``` +만약 데드라인을 넘어서면 디플로이먼트 컨트롤러는 디플로이먼트의 `.status.conditions` 속성에 다음의 +디플로이먼트 컨디션(DeploymentCondition)을 추가한다. + +* Type=Progressing +* Status=False +* Reason=ProgressDeadlineExceeded + +컨디션 상태에 대한 자세한 내용은 [쿠버네티스 API 규칙](https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#typical-status-properties)을 참고한다. + +{{< note >}} +쿠버네티스는 `Reason=ProgressDeadlineExceeded` 과 같은 상태 조건을 +보고하는 것 이외에 정지된 디플로이먼트에 대해 조치를 취하지 않는다. 더 높은 수준의 오케스트레이터는 이를 활용할 수 있으며, +예를 들어 디플로이먼트를 이전 버전으로 롤백할 수 있다. +{{< /note >}} + +{{< note >}} +만약 디플로이먼트를 일시 중지하면 쿠버네티스는 지정된 데드라인과 비교하여 진행 상황을 확인하지 않는다. +롤아웃 중에 디플로이먼트를 안전하게 일시 중지하고, 데드라인을 넘기도록 하는 조건을 트리거하지 않고 +재개할 수 있다. +{{< /note >}} + +설정한 타임아웃이 낮거나 일시적으로 처리될 수 있는 다른 종료의 에러로 인해 디플로이먼트에 일시적인 에러가 발생할 수 있다. +예를 들어, 할당량이 부족하다고 가정해보자. +만약 디플로이먼트를 설명하려면 다음 섹션을 확인한다. + +```shell +kubectl describe deployment nginx-deployment +``` +이와 유사하게 출력된다. +``` +<...> +Conditions: + Type Status Reason + ---- ------ ------ + Available True MinimumReplicasAvailable + Progressing True ReplicaSetUpdated + ReplicaFailure True FailedCreate +<...> +``` + +만약 `kubectl get deployment nginx-deployment -o yaml` 을 실행하면 디플로이먼트 상태는 다음과 유사하다. + +``` +status: + availableReplicas: 2 + conditions: + - lastTransitionTime: 2016-10-04T12:25:39Z + lastUpdateTime: 2016-10-04T12:25:39Z + message: Replica set "nginx-deployment-4262182780" is progressing. + reason: ReplicaSetUpdated + status: "True" + type: Progressing + - lastTransitionTime: 2016-10-04T12:25:42Z + lastUpdateTime: 2016-10-04T12:25:42Z + message: Deployment has minimum availability. + reason: MinimumReplicasAvailable + status: "True" + type: Available + - lastTransitionTime: 2016-10-04T12:25:39Z + lastUpdateTime: 2016-10-04T12:25:39Z + message: 'Error creating: pods "nginx-deployment-4262182780-" is forbidden: exceeded quota: + object-counts, requested: pods=1, used: pods=3, limited: pods=2' + reason: FailedCreate + status: "True" + type: ReplicaFailure + observedGeneration: 3 + replicas: 2 + unavailableReplicas: 2 +``` + +결국, 디플로이먼트 진행 데드라인을 넘어서면, 쿠버네티스는 진행 컨디션의 +상태와 이유를 업데이트한다. + +``` +Conditions: + Type Status Reason + ---- ------ ------ + Available True MinimumReplicasAvailable + Progressing False ProgressDeadlineExceeded + ReplicaFailure True FailedCreate +``` + +디플로이먼트를 스케일 다운하거나, 실행 중인 다른 컨트롤러를 스케일 다운하거나, +네임스페이스에서 할당량을 늘려서 할당량이 부족한 문제를 해결할 수 있다. +만약 할당량 컨디션과 디플로이먼트 롤아웃이 완료되어 디플로이먼트 컨트롤러를 만족한다면 +성공한 컨디션의 디플로이먼트 상태가 업데이트를 볼 수 있다(`Status=True` 와 `Reason=NewReplicaSetAvailable`). + +``` +Conditions: + Type Status Reason + ---- ------ ------ + Available True MinimumReplicasAvailable + Progressing True NewReplicaSetAvailable +``` + +`Type=Available` 과 `Status=True` 는 디플로이먼트가 최소한의 가용성을 가지고 있는 것을 의미한다. +최소한의 가용성은 디플로이먼트 계획에 명시된 파라미터에 의해 결정된다. `Type=Progressing` 과 `Status=True` 는 디플로이먼트가 +롤아웃 도중에 진행 중 이거나, 성공적으로 완료되었으며, 진행 중 최소한으로 필요한 새로운 레플리카를 이용 가능하다는 것이다. +(자세한 내용은 특정 조건의 이유를 참조한다. +이 경우 `Reason=NewReplicaSetAvailable` 는 배포가 완료되었음을 의미한다.) + +`kubectl rollout status` 를 사용해서 디플로이먼트의 진행이 실패되었는지 확인할 수 있다. +`kubectl rollout status` 는 디플로이먼트의 진행 데드라인을 초과하면 0이 아닌 종료 코드를 반환한다. + +```shell +kubectl rollout status deployment.v1.apps/nginx-deployment +``` +이와 유사하게 출력된다. +``` +Waiting for rollout to finish: 2 out of 3 new replicas have been updated... +error: deployment "nginx" exceeded its progress deadline +$ echo $? +1 +``` + +### 실패한 디플로이먼트에서의 운영 + +완료된 디플로이먼트에 적용되는 모든 행동은 실패한 디플로이먼트에도 적용된다. +디플로이먼트 파드 템플릿에서 여러개의 수정사항을 적용해야하는 경우 스케일 업/다운 하거나, 이전 수정 버전으로 롤백하거나, 일시 중지할 수 있다. + +## 정책 초기화 + +디플로이먼트의 `.spec.revisionHistoryLimit` 필드를 설정해서 +디플로이먼트에서 유지해야 하는 이전 레플리카셋의 수를 명시할 수 있다. 나머지는 백그라운드에서 가비지-수집이 진행된다. +기본적으로 10으로 되어있다. + +{{< note >}} +명시적으로 이 필드를 0으로 설정하면 그 결과로 디플로이먼트의 기록을 전부 초기화를 하고, +디플로이먼트는 롤백할 수 없게 된다. +{{< /note >}} + +## 카나리 디플로이먼트 + +만약 디플로이먼트를 이용해서 일부 사용자 또는 서버에 릴리즈를 롤아웃 하기 위해서는 +[리소스 관리](/docs/concepts/cluster-administration/manage-deployment/#canary-deployments)에 +설명된 카나리 패던에 따라 각 릴리스 마다 하나씩 여러 디플로이먼트를 생성할 수 있다. + +## 디플로이먼트 사양 작성 + +다른 모든 쿠버네티스 설정과 마찬가지로 디플로이먼트에는 `apiVersion`, `kind` 그리고 `metadata` 필드가 필요하다. +설정 파일 작업에 대한 일반적인 내용은 [애플리케이션 배포하기](/docs/tutorials/stateless-application/run-stateless-application-deployment/), +컨테이너 구성하기 그리고 [kubectl을 사용해서 리소스 관리하기](/ko/docs/concepts/overview/working-with-objects/object-management/) 문서를 참조한다. + +디플로이먼트에는 [`.spec` 섹션](https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#spec-and-status)도 필요하다. + +### 파드 템플릿 + +`.spec.template` 과 `.spec.selector` 은 `.spec` 에서 유일한 필수 필드이다. + +`.spec.template` 는 [파드 템플릿](/ko/docs/concepts/workloads/pods/pod-overview/#파드-템플릿)이다. +이것은 [파드](/ko/docs/concepts/workloads/pods/pod/)와 정확하게 동일한 스키마를 가지고 있고, 중첩된 것을 제외하면 `apiVersion` 과 `kind` 를 가지고 있지 않는다. + +파드에 필요한 필드 외에 디플로이먼트 파드 템플릿은 적절한 레이블과 적절한 재시작 정책을 명시해야 한다. +레이블의 경우 다른 컨트롤러와 겹치지 않도록 해야한다. 자세한 것은 [셀렉터](#셀렉터)를 참조한다. + +[`.spec.template.spec.restartPolicy`](/ko/docs/concepts/workloads/pods/pod-lifecycle/#재시작-정책) 에는 오직 `Always` 만 허용되고, +명시되지 않으면 기본값이 된다. + +### 레플리카 + +`.spec.replicas` 은 필요한 파드의 수를 지정하는 선택적 필드이다. 이것의 기본값은 1이다. + +### 셀렉터 + +`.spec.selector` 는 디플로이먼트의 대상이 되는 파드에 대해 [레이블 셀렉터](/ko/docs/concepts/overview/working-with-objects/labels/)를 +지정하는 필수 필드이다. + +`.spec.selector` 는 `.spec.template.metadata.labels` 과 일치해야 하며, 그렇지 않으면 API에 의해 거부된다. + +API 버전 `apps/v1` 에서는 `.spec.selector` 와 `.metadata.labels` 이 설정되지 않으면 `.spec.template.metadata.labels` 은 기본 설정되지 않는다. 그래서 이것들은 명시적으로 설정되어야 한다. 또한 `apps/v1` 에서는 디플로이먼트를 생성한 후에는 `.spec.selector` 이 변경되지 않는 점을 참고한다. + + +디플로이먼트는 템플릿의 `.spec.template` 와 다르거나 파드의 수가 `.spec.replicas` 를 초과할 경우 +셀렉터와 일치하는 레이블을 가진 파드를 종료할 수 있다. +파드의 수가 의도한 수량보다 적을 경우 `.spec.template` 에 맞는 새 파드를 띄운다. + +{{< note >}} +다른 디플로이먼트를 생성하거나, 레플리카셋 또는 레플리케이션컨트롤러와 같은 다른 컨트롤러를 사용해서 직접적으로 레이블과 셀렉터가 일치하는 다른 파드를 생성하지 말아야 한다. +만약 이렇게 하면 첫 번째 디플로이먼트는 다른 파드를 만들었다고 생각한다. +쿠버네티스는 이 일을 막지 않는다. +{{< /note >}} + +만약 셀렉터가 겹치는 컨트롤러가 어러 개 있는 경우, 컨트롤러는 서로 싸우고 +올바르게 작동하지 않는다. + +### 전략 + +`.spec.strategy` 는 이전 파드를 새로운 파드로 대체하는 전략을 명시한다. +`.spec.strategy.type` 은 "재생성" 또는 "롤링업데이트"가 될 수 있다. +"롤링업데이트"가 기본값이다. + +#### 디플로이먼트 재생성 + +기존의 모든 파드는 `.spec.strategy.type==Recreate` 일면 새 파드가 생성되기 전에 죽는다. + +#### 디플로이먼트 롤링 업데이트 + +디플로이먼트는 `.spec.strategy.type==RollingUpdate` 이면 파드를 [롤링 업데이트](/docs/tasks/run-application/rolling-update-replication-controller/) +방식으로 업데이트 한다. `maxUnavailable` 와 `maxSurge` 를 명시해서 +롤링 업데이트 프로세스를 제어할 수 있다. + +##### 최대 불가(Max Unavailable) + +`.spec.strategy.rollingUpdate.maxUnavailable` 은 업데이트 프로세스 중에 사용할 수 없는 최대 파드의 수를 지정하는 선택적 필드이다. +이 값은 절대 숫자(예: 5) 또는 의도한 파드 비율(예: 10%)이 될 수 있다. +절대 값은 반올림해서 백분율로 계산한다. +만약 `.spec.strategy.rollingUpdate.maxSurge` 가 0면 값이 0이 될 수 없다. 기본 값은 25% 이다. + +예를 들어 이 값을 30%로 설정하면 롤링업데이트 시작시 즉각 이전 레플리카셋의 크기를 +의도한 파드 중 70%를 스케일 다운할 수 있다. 새 파드가 준비되면 기존 레플리카셋을 스케일 다운할 수 있으며, +업데이트 중에 항상 사용가능한 전체 파드의 수는 의도한 파드의 수의 70%이상이 되도록 새 레플리카셋을 스케일을 업 할수 있다. + +##### 최대 서지(Max Surge) + +`.spec.strategy.rollingUpdate.maxSurge` 는 의도한 파드의 수에 대해 생성할 수 있는 최대 파드의 수를 지정하는 선택적 필드이다. +이 값은 절대 숫자(예: 5) 또는 의도한 파드 비율(예: 10%)이 될 수 있다. +`MaxUnavailable` 값이 0이면 이 값은 0이 될 수 없다. +절대 값은 반올림해서 백분율로 계산한다. 기본 값은 25% 이다. + +예를 들어 이 값을 30%로 설정하면 롤링업데이트 시작시 새 레플리카셋의 크기를 즉시 조정해서 +기존 및 새 파드의 전체 갯수를 의도한 파드의 130%를 넘지 않도록 한다. +기존 파드가 죽으면 새로운 래플리카셋은 스케일 업할 수 있으며, +업데이트하는 동안 항상 실행하는 총 파드의 수는 최대 의도한 파드의 수의 130%가 되도록 보장한다. + +### 진행 기한 시간(초) + +`.spec.progressDeadlineSeconds` 는 디플로어먼트가 표면적으로 `Type=Progressing`, `Status=False`의 +상태 그리고 리소스가 `Reason=ProgressDeadlineExceeded` 상태로 [진행 실패](#디플로이먼트-실패)를 보고하기 전에 +디플로이먼트가 진행되는 것을 대기시키는 시간(초)를 명시하는 선택적 필드이다. +디플로이먼트 컨트롤러는 디플로이먼트를 계속 재시도 한다. +미래에 자동화된 롤백이 구현된다면 디플로이먼트 컨트롤러는 상태를 관찰하고, +그 즉시 디플로이먼트를 롤백할 것이다. + +만약 명시된다면 이 필드는 `.spec.minReadySeconds` 보다 커야 한다. + +### 최소 대기 시간(초) + +`.spec.minReadySeconds` 는 새롭게 생성된 파드의 컨테이너가 어떤 것과도 충돌하지 않고 사 +용할 수 있도록 준비되어야 하는 최소 시간(초)을 지정하는 선택적 필드이다. +이 기본 값은 0이다(파드는 준비되는 즉시 사용할 수 있는 것으로 간주됨). +파드가 준비되었다고 간주되는 시기에 대한 자세한 내용은 [컨테이너 프로브](/ko/docs/concepts/workloads/pods/pod-lifecycle/#컨테이너-프로브-probe)를 참조한다. + +### 롤백 대상 + +`.spec.rollbackTo` 필드는 API 버전 `extensions/v1beta1` 과 `apps/v1beta1` 에서 사용되지 않는다. `apps/v1beta2` 로 시작하는 API 버전에서는 더 이상 지원되지 않는다. 대신, [이전 수정 버전으로 롤백](#이전-수정-버전으로-롤백)에서 소개한 `kubectl rollout undo` 를 사용해야 한다. + +### 수정 버전 기록 제한 + +디플로이먼트의 수정 버전 기록은 자신이 컨트롤하는 레플리카셋에 저장된다. + +`.spec.revisionHistoryLimit` 은 롤백을 허용하기 위해 보존할 이전 레플리카셋의 수를 지정하는 선택적 필드이다. +이 이전 레플리카셋은 `etcd` 의 리소스를 소비하고, `kubectl get rs` 의 결과를 가득차게 만든다. 각 디플로이먼트의 구성은 디플로이먼트의 레플리카셋에 저장된다. 이전 레플리카셋이 삭제되면 해당 디플로이먼트 수정 버전으로 롤백할 수 있는 기능이 사라진다. 기본적으로 10개의 기존 레플리카셋이 유지되지만 이상적인 값은 새로운 디플로이먼트의 빈도와 안정성에 따라 달라진다. + +더욱 구체적으로 이 필드를 0으로 설정하면 레플리카가 0이 되며 이전 레플리카셋이 정리된다. +이 경우, 새로운 디플로이먼트 롤아웃을 취소할 수 없다. 새로운 디플로이먼트 롤아웃은 수정 버전 이력이 정리되기 때문이다. + +### 일시 정지 + +`.spec.paused` 는 디플로이먼트를 일시 중지나 재개하기 위한 선택적 부울 필드이다. +일시 중지 된 디플로이먼트와 일시 중지 되지 않은 디플로이먼트 사이의 유일한 차이점은 +일시 중지된 디플로이먼트는 PodTemplateSpec에 대한 변경 사항이 일시중지 된 경우 새 롤아웃을 트리거 하지 않는다. +디플로이먼트는 생성시 기본적으로 일시 중지되지 않는다. + +## 디플로이먼트의 대안 + +### kubectl 롤링 업데이트 + +[`kubectl rolling update`](/docs/reference/generated/kubectl/kubectl-commands#rolling-update)도 +비슷한 방식으로 파드와 레플리케이션 컨트롤러를 업데이트한다. 그러나 디플로이먼트는 선언적이고, 서버 측면이며, +롤링 업데이트가 완료된 후에도 이전 수정 버전으로 롤백하는 것과 같은 추가 기능을 가지고 있으므로 권장한다. + +{{% /capture %}} diff --git a/content/ko/docs/concepts/workloads/controllers/replicaset.md b/content/ko/docs/concepts/workloads/controllers/replicaset.md new file mode 100644 index 0000000000000..545d4a2a11640 --- /dev/null +++ b/content/ko/docs/concepts/workloads/controllers/replicaset.md @@ -0,0 +1,351 @@ +--- +title: 레플리카셋 +content_template: templates/concept +weight: 10 +--- + +{{% capture overview %}} + +레플리카셋의 목적은 레플리카 파드 집합의 실행을 항상 안정적으로 유지하는 것이다. +이처럼 레플리카셋은 보통 명시된 동일 파드 개수에 대한 가용성을 보증하는데 사용한다. + + +{{% /capture %}} + +{{% capture body %}} + +## 레플리카셋의 작동 방식 + +레플리카셋을 정의하는 필드는 획득 가능한 파드를 식별하는 방법이 명시된 셀렉터, 유지해야 하는 파드 개수를 명시하는 레플리카의 개수, +그리고 레플리카 수 유지를 위해 생성하는 신규 파드에 대한 데이터를 명시하는 파드 템플릿을 포함한다. +그러면 레플리카셋은 필드에 지정된 설정을 충족하기 위해 필요한 만큼 파드를 만들고 삭제한다. +레플리카셋이 새로운 파드를 생성해야 할 경우, 명시된 파드 템플릿을 +사용한다. + +레플리카셋과 파드와의 링크는 파드의 [metadata.ownerReferences](/docs/concepts/workloads/controllers/garbage-collection/#owners-and-dependents) +필드를 통해서 제공되며, 이는 현재 오브젝트가 소유한 리소스를 명시한다. +레플리카셋이 가지고 있는 모든 파드의 ownerReferences 필드는 해당 파드를 소유한 레플리카셋을 식별하기 위한 소유자 정보를 가진다. +이 링크를 통해 레플리카셋은 자신이 유지하는 파드의 상태를 확인하고 이에 따라 관리 한다. + +레플리카셋은 셀렉터를 이용해서 필요한 새 파드를 식별한다. 만약 파드에 OwnerReference이 없거나 +OwnerReference가 컨트롤러가 아니고 레플리카셋의 셀렉터와 일치한다면 레플리카셋이 즉각 파드를 +가지게 될 것이다. + +## 레플리카셋을 사용하는 시기 + +레플리카셋은 지정된 수의 파드 레플리카가 항상 실행되도록 보장한다. +그러나 디플로이먼트는 레플리카셋을 관리하고 다른 유용한 기능과 함께 +파드에 대한 선언적 업데이트를 제공하는 상위 개념이다. +따라서 우리는 사용자 지정 오케스트레이션이 필요하거나 업데이트가 전혀 필요하지 않은 경우라면 +레플리카셋을 직접적으로 사용하기 보다는 디플로이먼트를 사용하는 것을 권장한다. + +이는 레플리카셋 오브젝트를 직접 조작할 필요가 없다는 것을 의미한다. +대신 디플로이먼트를 이용하고 사양 부분에서 애플리케이션을 정의하면 된다. + +## 예시 + +{{< codenew file="controllers/frontend.yaml" >}} + +이 매니페스트를 `frontend.yaml`에 저장하고 쿠버네티스 클러스터에 적용하면 정의되어있는 레플리카셋이 +생성되고 레플리카셋이 관리하는 파드가 생성된다. + +```shell +kubectl apply -f https://kubernetes.io/examples/controllers/frontend.yaml +``` + +현재 배포된 레플리카셋을 확인할 수 있다. +```shell +kubectl get rs +``` + +그리고 생성된 프런트엔드를 볼 수 있다. +```shell +NAME DESIRED CURRENT READY AGE +frontend 3 3 3 6s +``` + +또한 레플리카셋의 상태를 확인할 수 있다. +```shell +kubectl describe rs/frontend +``` + +출력은 다음과 유사할 것이다. +```shell +Name: frontend +Namespace: default +Selector: tier=frontend,tier in (frontend) +Labels: app=guestbook + tier=frontend +Annotations: +Replicas: 3 current / 3 desired +Pods Status: 3 Running / 0 Waiting / 0 Succeeded / 0 Failed +Pod Template: + Labels: app=guestbook + tier=frontend + Containers: + php-redis: + Image: gcr.io/google_samples/gb-frontend:v3 + Port: 80/TCP + Requests: + cpu: 100m + memory: 100Mi + Environment: + GET_HOSTS_FROM: dns + Mounts: + Volumes: +Events: + FirstSeen LastSeen Count From SubobjectPath Type Reason Message + --------- -------- ----- ---- ------------- -------- ------ ------- + 1m 1m 1 {replicaset-controller } Normal SuccessfulCreate Created pod: frontend-qhloh + 1m 1m 1 {replicaset-controller } Normal SuccessfulCreate Created pod: frontend-dnjpy + 1m 1m 1 {replicaset-controller } Normal SuccessfulCreate Created pod: frontend-9si5l +``` + +마지막으로 파드가 올라왔는지 확인할 수 있다. +```shell +kubectl get Pods +``` + +다음과 유사한 파드 정보를 볼 수 있다. +```shell +NAME READY STATUS RESTARTS AGE +frontend-9si5l 1/1 Running 0 1m +frontend-dnjpy 1/1 Running 0 1m +frontend-qhloh 1/1 Running 0 1m +``` + +또한 파드들의 소유자 참조 정보가 해당 프런트엔드 레플리카셋으로 설정되어 있는지 확인할 수 있다. +확인을 위해서는 실행 중인 파드 중 하나의 yaml을 확인한다. +```shell +kubectl get pods frontend-9si5l -o yaml +``` + +메타데이터의 ownerReferences 필드에 설정되어있는 프런트엔드 레플리카셋의 정보가 다음과 유사하게 나오는 것을 볼 수 있다. +```shell +apiVersion: v1 +kind: Pod +metadata: + creationTimestamp: 2019-01-31T17:20:41Z + generateName: frontend- + labels: + tier: frontend + name: frontend-9si5l + namespace: default + ownerReferences: + - apiVersion: extensions/v1beta1 + blockOwnerDeletion: true + controller: true + kind: ReplicaSet + name: frontend + uid: 892a2330-257c-11e9-aecd-025000000001 +... +``` + +## 템플릿을 사용하지 않는 파드의 획득 + +단독(bare) 파드를 생성하는 것에는 문제가 없지만, 단독 파드가 레플리카셋의 셀렉터와 일치하는 레이블을 가지지 +않도록 하는 것을 강력하게 권장한다. 그 이유는 레플리카셋이 소유하는 파드가 템플릿에 명시된 파드에만 국한되지 않고, +이전 섹션에서 명시된 방식에 의해서도 다른 파드의 획득이 가능하기 때문이다. + +이전 프런트엔드 레플리카셋 예제와 다음의 매니페스트에 명시된 파드를 가져와 참조한다. + +{{< codenew file="pods/pod-rs.yaml" >}} + +기본 파드는 소유자 관련 정보에 컨트롤러(또는 오브젝트)를 가지지 않기 때문에 프런트엔드 +레플리카셋의 셀렉터와 일치하면 즉시 레플리카셋에 소유된다. + +프런트엔드 레플리카셋이 배치되고 초기 파드 레플리카가 셋업된 이후에, 레플리카 수 요구 사항을 충족시키기 위해서 +신규 파드를 생성한다고 가정해보자. + +```shell +kubectl apply -f https://kubernetes.io/examples/pods/pod-rs.yaml +``` + +새로운 파드는 레플리카셋에 의해 인식되며 레플리카셋이 필요한 수량을 초과하면 +즉시 종료된다. + +파드를 가져온다. +```shell +kubectl get Pods +``` + +결과에는 새로운 파드가 이미 종료되었거나 종료가 진행 중인 것을 보여준다. +```shell +NAME READY STATUS RESTARTS AGE +frontend-9si5l 1/1 Running 0 1m +frontend-dnjpy 1/1 Running 0 1m +frontend-qhloh 1/1 Running 0 1m +pod2 0/1 Terminating 0 4s +``` + +파드를 먼저 생성한다. +```shell +kubectl apply -f https://kubernetes.io/examples/pods/pod-rs.yaml +``` + +그 다음 레플리카셋을 생성한다. +```shell +kubectl apply -f https://kubernetes.io/examples/controllers/frontend.yaml +``` + +레플리카셋이 해당 파드를 소유한 것을 볼 수 있으며 새 파드 및 기존 파드의 수가 +레플리카셋이 필요로 하는 수와 일치할 때까지 사양에 따라 신규 파드만 생성한다. 파드를 가져온다. +```shell +kubectl get Pods +``` + +다음 출력에서 볼 수 있다. +```shell +NAME READY STATUS RESTARTS AGE +frontend-pxj4r 1/1 Running 0 5s +pod1 1/1 Running 0 13s +pod2 1/1 Running 0 13s +``` + +이러한 방식으로 레플리카셋은 템플릿을 사용하지 않는 파드를 소유하게 된다. + +## 레플리카셋 매니페스트 작성하기 + +레플리카셋은 모든 쿠버네티스 API 오브젝트와 마찬가지로 `apiVersion`, `kind`, `metadata` 필드가 필요하다. +레플리카셋에 대한 kind 필드의 값은 항상 레플리카셋이다. +쿠버네티스 1.9에서의 레플리카셋의 kind에 있는 API 버전 `apps/v1`은 현재 버전이며, 기본으로 활성화 되어있다. API 버전 `apps/v1beta2`은 사용 중단(deprecated)되었다. +API 버전에 대해서는 `frontend.yaml` 예제의 첫 번째 줄을 참고한다. + +레플리카셋도 [`.spec` 섹션](https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#spec-and-status)이 필요하다. + +### 파드 템플릿 + +`.spec.template`은 레이블을 붙이도록 되어있는 [파드 템플릿](/ko/docs/concepts/workloads/pods/pod-overview/#파드-템플릿)이다. +우리는 `frontend.yaml` 예제에서 `tier: frontend`이라는 레이블을 하나 가지고 있다. +이 파드를 다른 컨트롤러가 취하지 않도록 다른 컨트롤러의 셀렉터와 겹치지 않도록 주의해야 한다. + +템플릿의 [재시작 정책](ko/docs/concepts/workloads/Pods/pod-lifecycle/#restart-policy) 필드인 +`.spec.template.spec.restartPolicy`는 기본값인 `Always`만 허용된다. + +### 파드 셀렉터 + +`.spec.selector` 필드는 [레이블 셀렉터](ko/docs/concepts/overview/working-with-objects/labels/)이다. +[앞서](#레플리카-셋의-작동-방식) 논의한 것처럼 이 레이블은 소유될 가능성이 있는 파드를 식별하는데 사용된다. +우리 `frontend.yaml` 예제에서의 셀렉터는 다음과 같다. +```shell +matchLabels: + tier: frontend +``` + +레플리카셋에서 `.spec.template.metadata.labels`는 `spec.selector`과 일치해야 하며 +그렇지 않으면 API에 의해 거부된다. + +{{< note >}} +2개의 레플리카셋이 동일한 `.spec.selector`필드를 지정한 반면, 다른 `.spec.template.metadata.labels`와 `.spec.template.spec` 필드를 명시한 경우, 각 레플리카 셋은 다른 레플리카 셋이 생성한 파드를 무시한다. +{{< /note >}} + +### 레플리카 + +`.spec.replicas`를 설정해서 동시에 동작하는 파드의 수를 지정할 수 있다. +레플리카셋은 파드의 수가 일치하도록 생성 및 삭제한다. + +만약 `.spec.replicas`를 지정하지 않으면 기본값은 1이다. + +## 레플리카셋 작업 + +### 레플리카셋과 해당 파드 삭제 + +레플리카셋 및 모든 파드를 삭제하려면 [`kubectl delete`](/docs/reference/generated/kubectl/kubectl-commands#delete)를 사용한다. [가비지 수집기](/docs/concepts/workloads/controllers/garbage-collection/)는 기본적으로 종속되어있는 모든 파드를 자동으로 삭제한다. + +REST API또는 `client-go` 라이브러리를 이용할 때는 -d 옵션으로 `propagationPolicy`를 `Background`또는 `Foreground`로 +설정해야 한다. +예시: +```shell +kubectl proxy --port=8080 +curl -X DELETE 'localhost:8080/apis/extensions/v1beta1/namespaces/default/replicasets/frontend' \ +> -d '{"kind":"DeleteOptions","apiVersion":"v1","propagationPolicy":"Foreground"}' \ +> -H "Content-Type: application/json" +``` + +### 레플리카셋만 삭제하기 + +레플리카셋을 `--cascade=false` 옵션과 함께 [`kubectl delete`](/docs/reference/generated/kubectl/kubectl-commands#delete)를 사용하면 연관 파드에 영향을 주지 않고 삭제할 수 있다. +REST API 또는 `client-go` 라이브러리를 이용할 때는 `propagationPolicy`에 `Orphan`을 설정해야 한다. +예시: +```shell +kubectl proxy --port=8080 +curl -X DELETE 'localhost:8080/apis/extensions/v1beta1/namespaces/default/replicasets/frontend' \ +> -d '{"kind":"DeleteOptions","apiVersion":"v1","propagationPolicy":"Orphan"}' \ +> -H "Content-Type: application/json" +``` + +원본이 삭제되면 새 레플리카셋을 생성해서 대체할 수 있다. +기존 `.spec.selector`와 신규 `.spec.selector`가 같으면 새 레플리카셋은 기존 파드를 선택한다. +하지만 신규 레플리카셋은 기존 파드를 신규 레플리카셋의 새롭고 다른 파드 템플릿에 일치시키는 작업을 수행하지는 않는다. +컨트롤 방식으로 파드를 새로운 사양으로 업데이트 하기 위해서는 [디플로이먼트](/docs/concepts/workloads/controllers/deployment/#creating-a-deployment)를 이용하면 된다. +이는 레플리카셋이 롤링 업데이트를 직접적으로 지원하지 않기 때문이다. + +### 레플리카셋에서 파드 격리 + +레이블을 변경하면 레플리카셋에서 파드를 제거할 수 있다. 이 방식은 디버깅과 데이터 복구 등을 +위해 서비스에서 파드를 제거하는 데 사용할 수 있다. 이 방식으로 제거된 파드는 자동으로 교체된다( +레플리카의 수가 변경되지 않는다고 가정한다). + +### 레플리카셋의 스케일링 + +레플리카셋을 손쉽게 스케일 업 또는 다운하는 방법은 단순히 `.spec.replicas` 필드를 업데이트 하면 된다. +레플리카셋 컨트롤러는 일치하는 레이블 셀렉터가 있는 파드가 의도한 수 만큼 가용하고 운영 가능하도록 보장한다. + +### 레플리카셋을 Horizontal Pod Autoscaler 대상으로 설정 + +레플리카 셋은 +[Horizontal Pod Autoscalers (HPA)](/ko/docs/tasks/run-application/horizontal-pod-autoscale/)의 대상이 될 수 있다. +즉, 레플리카셋은 HPA에 의해 오토스케일될 수 있다. +다음은 이전에 만든 예시에서 만든 레플리카셋을 대상으로 하는 HPA 예시이다. + +{{< codenew file="controllers/hpa-rs.yaml" >}} + +이 매니페스트를 `hpa-rs.yaml`로 저장한 다음 쿠버네티스 +클러스터에 적용하면 CPU 사용량에 따라 파드가 복제되는 +오토스케일 레플리카 셋 HPA가 생성된다. + +```shell +kubectl apply -f https://k8s.io/examples/controllers/hpa-rs.yaml +``` + +또는 `kubectl autoscale` 커맨드을 사용해서 동일한 작업을 할 수 있다. +(그리고 더 쉽다!) + +```shell +kubectl autoscale rs frontend --max=10 +``` + +## 레플리카셋의 대안 + +### 디플로이먼트(권장) + +[`디플로이먼트`](/docs/concepts/workloads/controllers/deployment/)는 레플리카셋을 소유하거나 업데이트를 하고, +파드의 선언적인 업데이트와 서버측 롤링 업데이트를 할 수 있는 오브젝트이다. +레플리카셋은 단독으로 사용할 수 있지만, 오늘날에는 주로 디플로이먼트로 파드의 생성과 삭제 그리고 업데이트를 오케스트레이션하는 메커니즘으로 사용한다. +디플로이먼트를 이용해서 배포할 때 생성되는 레플리카셋을 관리하는 것에 대해 걱정하지 않아도 된다. +디플로이먼트는 레플리카셋을 소유하거나 관리한다. +따라서 레플리카셋을 원한다면 디플로이먼트를 사용하는 것을 권장한다. + +### 기본 파드 + +사용자가 직접 파드를 생성하는 경우와는 다르게, 레플리카셋은 노드 장애 또는 노드의 커널 업그레이드와 같은 관리 목적의 중단 등 어떤 이유로든 종료되거나 삭제된 파드를 교체한다. 이런 이유로 애플리케이션이 단일 파드가 필요하더라도 레플리카셋을 이용하는 것을 권장한다. 레플리카셋을 프로세스 관리자와 비교해서 생각해본다면, 레플리카셋은 단일 노드에서의 개별 프로세스들이 아닌 다수의 노드에 걸쳐있는 다수의 파드를 관리하는 것이다. 레플리카셋은 로컬 컨테이너의 재시작을 노드에 있는 어떤 에이전트에게 위임한다(예를들어 Kubelet 또는 도커). + +### 잡 + +스스로 종료되는 것이 예상되는 파드의 경우에는 레플리카셋 대신 [`잡`](/docs/concepts/jobs/run-to-completion-finite-workloads/)을 이용한다 +(즉, 배치 잡). + +### 데몬셋 + +머신 모니터링 또는 머신 로깅과 같은 머신-레벨의 기능을 제공하는 파드를 위해서는 레플리카셋 대신 +[`데몬셋`](/docs/concepts/workloads/controllers/daemonset/)을 사용한다. +이러한 파드의 수명은 머신의 수명과 연관되어 있고, 머신에서 다른 파드가 시작하기 전에 실행되어야 하며, +머신의 재부팅/종료가 준비되었을 때, 해당 파드를 종료하는 것이 안전하다. + +### 레플리케이션 컨트롤러 +레플리카셋은 [_레플리케이션 컨트롤러_](/ko/docs/concepts/workloads/controllers/replicationcontroller/)를 계승하였다. +이 두 개의 용도는 동일하고, 유사하게 동작하며, 레플리케이션 컨트롤러가 [레이블 사용자 가이드](/docs/concepts/overview/working-with-objects/labels/#label-selectors)에 +설명된 설정-기반의 셀렉터의 요건을 지원하지 않는다는 점을 제외하면 유사하다. +따라서 레플리카셋이 레플리케이션 컨트롤러보다 선호된다. + +{{% /capture %}} diff --git a/content/ko/docs/concepts/workloads/pods/disruptions.md b/content/ko/docs/concepts/workloads/pods/disruptions.md index 19a9528ce9264..3f0947d5aec27 100644 --- a/content/ko/docs/concepts/workloads/pods/disruptions.md +++ b/content/ko/docs/concepts/workloads/pods/disruptions.md @@ -150,8 +150,8 @@ PDB는 [비자발적 중단](#자발적-중단과-비자발적-중단)이 발생 `node-1` 은 차단되어 있어 다른 노드에 위치한다. 무언가가 `pod-x` 의 대체 파드로 `pod-y` 도 생성했다. -(참고: 스테이트풀 셋은 `pod-1`처럼 불릴, `pod-a`를 -교체하기 전에 완전히 중지해야 하며, `pod-1` 로 불리지만, 다른 UID로 생성된다. +(참고: 스테이트풀 셋은 `pod-0`처럼 불릴, `pod-a`를 +교체하기 전에 완전히 중지해야 하며, `pod-0` 로 불리지만, 다른 UID로 생성된다. 그렇지 않으면 이 예시는 스테이트풀 셋에도 적용된다.) 이제 클러스터는 다음과 같은 상태이다. diff --git a/content/ko/docs/reference/glossary/mirror-pod.md b/content/ko/docs/reference/glossary/mirror-pod.md index d3b610db280fe..1819e74917b19 100755 --- a/content/ko/docs/reference/glossary/mirror-pod.md +++ b/content/ko/docs/reference/glossary/mirror-pod.md @@ -1,8 +1,7 @@ --- title: 미러 파드(Mirror Pod) id: mirror-pod -date: 2091-02-12 -full_link: +date: 2019-08-06 short_description: > Kubelet의 스태틱 파드(Static Pod)를 추적하는 API 서버 내부의 객체. diff --git a/content/ko/docs/reference/kubectl/cheatsheet.md b/content/ko/docs/reference/kubectl/cheatsheet.md index b6a3f854f8a62..a19454f9d6040 100644 --- a/content/ko/docs/reference/kubectl/cheatsheet.md +++ b/content/ko/docs/reference/kubectl/cheatsheet.md @@ -201,9 +201,12 @@ kubectl get events --sort-by=.metadata.creationTimestamp ```bash kubectl set image deployment/frontend www=image:v2 # "frontend" 디플로이먼트의 "www" 컨테이너 이미지를 업데이트하는 롤링 업데이트 +kubectl rollout history deployment/frontend # 현 리비전을 포함한 디플로이먼트의 이력을 체크 kubectl rollout undo deployment/frontend # 이전 디플로이먼트로 롤백 +kubectl rollout undo deployment/frontend --to-revision=2 # 특정 리비전으로 롤백 kubectl rollout status -w deployment/frontend # 완료될 때까지 "frontend" 디플로이먼트의 롤링 업데이트 상태를 감시 + # 버전 1.11 부터 사용 중단 kubectl rolling-update frontend-v1 -f frontend-v2.json # (사용중단) frontend-v1 파드의 롤링 업데이트 kubectl rolling-update frontend-v1 frontend-v2 --image=image:v2 # (사용중단) 리소스 이름 변경과 이미지 업데이트 diff --git a/content/ko/docs/reference/using-api/client-libraries.md b/content/ko/docs/reference/using-api/client-libraries.md new file mode 100644 index 0000000000000..ddd47ef1e812c --- /dev/null +++ b/content/ko/docs/reference/using-api/client-libraries.md @@ -0,0 +1,74 @@ +--- +title: 클라이언트 라이브러리 +content_template: templates/concept +weight: 30 +--- + +{{% capture overview %}} +이 페이지는 다양한 프로그래밍 언어에서 쿠버네티스 API를 사용하기 위한 +클라이언트 라이브러리에 대한 개요를 포함하고 있다. +{{% /capture %}} + +{{% capture body %}} +[쿠버네티스 REST API](/ko/docs/reference/using-api/api-overview/)를 사용해 애플리케이션을 작성하기 위해 +API 호출 또는 요청/응답 타입을 직접 구현할 필요는 없다. +사용하고 있는 프로그래밍 언어를 위한 클라이언트 라이브러리를 사용하면 된다. + +클라이언트 라이브러리는 대체로 인증과 같은 공통의 태스크를 처리한다. +대부분의 클라이언트 라이브러리들은 API 클라이언트가 쿠버네티스 클러스터 내부에서 동작하는 경우 인증 +또는 [kubeconfig 파일](/docs/tasks/access-application-cluster/authenticate-across-clusters-kubeconfig/) 포맷을 통해 +자격증명과 API 서버 주소를 읽을 수 있게 +쿠버네티스 서비스 어카운트를 발견하고 사용할 수 있다. + +## 공식적으로 지원되는 쿠버네티스 클라이언트 라이브러리 + +다음의 클라이언트 라이브러리들은 [쿠버네티스 SIG API +Machinery](https://github.com/kubernetes/community/tree/master/sig-api-machinery)에서 공식적으로 관리된다. + + +| 언어 | 클라이언트 라이브러리 | 예제 프로그램 | +|----------|----------------|-----------------| +| Go | [github.com/kubernetes/client-go/](https://github.com/kubernetes/client-go/) | [둘러보기](https://github.com/kubernetes/client-go/tree/master/examples) +| Python | [github.com/kubernetes-client/python/](https://github.com/kubernetes-client/python/) | [둘러보기](https://github.com/kubernetes-client/python/tree/master/examples) +| Java | [github.com/kubernetes-client/java](https://github.com/kubernetes-client/java/) | [둘러보기](https://github.com/kubernetes-client/java#installation) +| dotnet | [github.com/kubernetes-client/csharp](https://github.com/kubernetes-client/csharp) | [둘러보기](https://github.com/kubernetes-client/csharp/tree/master/examples/simple) +| JavaScript | [github.com/kubernetes-client/javascript](https://github.com/kubernetes-client/javascript) | [둘러보기](https://github.com/kubernetes-client/javascript/tree/master/examples) +| Haskell | [github.com/kubernetes-client/haskell](https://github.com/kubernetes-client/haskell) | [둘러보기](https://github.com/kubernetes-client/haskell/tree/master/kubernetes-client/example) + + +## 커뮤니티에 의해 관리되는 클라이언트 라이브러리 + +다음의 쿠버네티스 API 클라이언트 라이브러리들은 쿠버네티스 팀이 아닌 +각각의 저자들이 제공하고 관리한다. + +| 언어 | 클라이언트 라이브러리 | +| -------------------- | ---------------------------------------- | +| Clojure | [github.com/yanatan16/clj-kubernetes-api](https://github.com/yanatan16/clj-kubernetes-api) | +| Go | [github.com/ericchiang/k8s](https://github.com/ericchiang/k8s) | +| Java (OSGi) | [bitbucket.org/amdatulabs/amdatu-kubernetes](https://bitbucket.org/amdatulabs/amdatu-kubernetes) | +| Java (Fabric8, OSGi) | [github.com/fabric8io/kubernetes-client](https://github.com/fabric8io/kubernetes-client) | +| Lisp | [github.com/brendandburns/cl-k8s](https://github.com/brendandburns/cl-k8s) | +| Lisp | [github.com/xh4/cube](https://github.com/xh4/cube) | +| Node.js (TypeScript) | [github.com/Goyoo/node-k8s-client](https://github.com/Goyoo/node-k8s-client) | +| Node.js | [github.com/tenxcloud/node-kubernetes-client](https://github.com/tenxcloud/node-kubernetes-client) | +| Node.js | [github.com/godaddy/kubernetes-client](https://github.com/godaddy/kubernetes-client) | +| Node.js | [github.com/ajpauwels/easy-k8s](https://github.com/ajpauwels/easy-k8s) +| Perl | [metacpan.org/pod/Net::Kubernetes](https://metacpan.org/pod/Net::Kubernetes) | +| PHP | [github.com/maclof/kubernetes-client](https://github.com/maclof/kubernetes-client) | +| PHP | [github.com/allansun/kubernetes-php-client](https://github.com/allansun/kubernetes-php-client) | +| PHP | [github.com/travisghansen/kubernetes-client-php](https://github.com/travisghansen/kubernetes-client-php) | +| Python | [github.com/eldarion-gondor/pykube](https://github.com/eldarion-gondor/pykube) | +| Python | [github.com/mnubo/kubernetes-py](https://github.com/mnubo/kubernetes-py) | +| Ruby | [github.com/Ch00k/kuber](https://github.com/Ch00k/kuber) | +| Ruby | [github.com/abonas/kubeclient](https://github.com/abonas/kubeclient) | +| Ruby | [github.com/kontena/k8s-client](https://github.com/kontena/k8s-client) | +| Rust | [github.com/clux/kube-rs](https://github.com/clux/kube-rs) | +| Rust | [github.com/ynqa/kubernetes-rust](https://github.com/ynqa/kubernetes-rust) | +| Scala | [github.com/doriordan/skuber](https://github.com/doriordan/skuber) | +| dotNet | [github.com/tonnyeremin/kubernetes_gen](https://github.com/tonnyeremin/kubernetes_gen) | +| DotNet (RestSharp) | [github.com/masroorhasan/Kubernetes.DotNet](https://github.com/masroorhasan/Kubernetes.DotNet) | +| Elixir | [github.com/obmarg/kazan](https://github.com/obmarg/kazan/) | +| Haskell | [github.com/soundcloud/haskell-kubernetes](https://github.com/soundcloud/haskell-kubernetes) | +{{% /capture %}} + + diff --git a/content/ko/docs/setup/learning-environment/minikube.md b/content/ko/docs/setup/learning-environment/minikube.md index c5c02891ee125..449589fdf7263 100644 --- a/content/ko/docs/setup/learning-environment/minikube.md +++ b/content/ko/docs/setup/learning-environment/minikube.md @@ -19,7 +19,7 @@ Minikube는 다음과 같은 쿠버네티스의 기능을 제공한다. * 노드 포트 * 컨피그 맵과 시크릿 * 대시보드 -* 컨테이너 런타임: Docker, [rkt](https://github.com/rkt/rkt), [CRI-O](https://github.com/kubernetes-incubator/cri-o) 와 [containerd](https://github.com/containerd/containerd) +* 컨테이너 런타임: Docker, [CRI-O](https://github.com/kubernetes-incubator/cri-o) 와 [containerd](https://github.com/containerd/containerd) * CNI(Container Network Interface) 사용 * 인그레스 @@ -228,7 +228,6 @@ minikube start \ {{% /tab %}} {{% tab name="CRI-O" %}} [CRI-O](https://github.com/kubernetes-incubator/cri-o)를 컨테이너 런타임으로 사용하려면, 다음을 실행한다. - ```bash minikube start \ --network-plugin=cni \ @@ -248,17 +247,6 @@ minikube start \ --bootstrapper=kubeadm ``` {{% /tab %}} -{{% tab name="rkt container engine" %}} -[rkt](https://github.com/rkt/rkt)를 컨테이너 런타임으로 사용하려면, 다음을 실행한다. - -```shell -minikube start \ - --network-plugin=cni \ - --enable-default-cni \ - --container-runtime=rkt -``` -이것은 rkt와 Docker와 CNI 네트워킹을 포함하는 대안적인 Minikube ISO 이미지를 이용한다. -{{% /tab %}} {{< /tabs >}} #### Docker 데몬 재사용을 통한 로컬 이미지 사용하기 diff --git a/content/ko/docs/setup/production-environment/container-runtimes.md b/content/ko/docs/setup/production-environment/container-runtimes.md index e4b3b2fdcdc46..6f17b470b65b2 100644 --- a/content/ko/docs/setup/production-environment/container-runtimes.md +++ b/content/ko/docs/setup/production-environment/container-runtimes.md @@ -213,6 +213,11 @@ Containerd를 시스템에 설치하기 위해서 다음의 커맨드들을 사 ### 선행 조건 ```shell +cat > /etc/modules-load.d/containerd.conf <}} 윈도우 단원에서 모든 코드 부분은 높은 권한(Admin)으로 파워쉘(PowerShell) 환경에서 구동한다. {{< /note >}} @@ -180,7 +197,26 @@ v1.14 이후의 최신 바이너리를 [https://github.com/kubernetes/kubernetes 리부팅 후에 다음 오류를 보게되면, 도커 서비스를 수동으로 재시작해야 한다. - ![alt_text](../windows-docker-error.png "윈도우 도커 에러 스크린 캡춰") + ```PowerShell + docker version + ``` + + 만약 다음과 같은 에러 메시지를 보게되면, 도커 서비스를 수동으로 시작해야 한다. + + ``` + Client: + Version: 17.06.2-ee-11 + API version: 1.30 + Go version: go1.8.7 + Git commit: 06fc007 + Built: Thu May 17 06:14:39 2018 + OS/Arch: windows / amd64 + error during connect: Get http://%2F%2F.%2Fpipe%2Fdocker_engine/v1.30/version: open //./pipe/docker_engine: The system c + annot find the file specified. In the default daemon configuration on Windows, the docker client must be run elevated to + connect. This error may also indicate that the docker daemon is not running. + ``` + + 다음과 같이 도커 서비스를 수동으로 시작할 수 있다. ```PowerShell Start-Service docker @@ -227,7 +263,13 @@ wget https://raw.githubusercontent.com/Microsoft/SDN/master/Kubernetes/flannel/s {{< /note >}} ```PowerShell -.\start.ps1 -ManagementIP -NetworkMode overlay -ClusterCIDR -ServiceCIDR -KubeDnsServiceIP -LogDir +cd c:\k +.\start.ps1 -ManagementIP ` + -NetworkMode overlay ` + -ClusterCIDR ` + -ServiceCIDR ` + -KubeDnsServiceIP ` + -LogDir ``` | 파라미터 | 기본값 | 비고 | diff --git a/content/ko/docs/setup/production-environment/windows/windows-docker-error.png b/content/ko/docs/setup/production-environment/windows/windows-docker-error.png deleted file mode 100644 index d00528c0d4cc4..0000000000000 Binary files a/content/ko/docs/setup/production-environment/windows/windows-docker-error.png and /dev/null differ diff --git a/content/ko/docs/tasks/debug-application-cluster/resource-usage-monitoring.md b/content/ko/docs/tasks/debug-application-cluster/resource-usage-monitoring.md index 41e33f80d26bf..b0a175ee11556 100644 --- a/content/ko/docs/tasks/debug-application-cluster/resource-usage-monitoring.md +++ b/content/ko/docs/tasks/debug-application-cluster/resource-usage-monitoring.md @@ -19,98 +19,40 @@ title: 리소스 모니터링 도구 {{% capture body %}} 쿠버네티스에서 애플리케이션 모니터링은 단일 모니터링 솔루션에 의존하지 않는다. -신규 클러스터에서는 기본적으로 두 개의 개별 파이프라인을 사용하여 모니터링 통계를 +신규 클러스터에서는, [리소스 메트릭](#리소스-메트릭-파이프라인) 또는 [완전한 +메트릭 파이프라인](#완전한-메트릭-파이프라인) 파이프라인으로 모니터링 통계를 수집할 수 있다. -- [**리소스 메트릭 파이프라인**](#리소스-메트릭-파이프라인)은 HorizontalPodAutoscaler - 컨트롤러와 같은 클러스터 구성요소나 `kubectl top` 유틸리티에 관련되어 있는 메트릭들로 - 제한된 집합을 제공한다. 이 메트릭은 - [metrics-server](https://github.com/kubernetes-incubator/metrics-server) - 에 의해서 수집되며 `metrics.k8s.io` API를 통해 노출된다. `metrics-server`는 클러스터 - 상의 모든 노드를 발견하고 각 노드의 - [Kubelet](/docs/reference/command-line-tools-reference/kubelet)에 CPU와 메모리 - 사용량을 질의한다. Kubelet은 [cAdvisor](https://github.com/google/cadvisor)에서 - 데이터를 가져온다. `metrics-server`는 경량의 단기 인메모리 저장소이다. - -- 프로메테우스 같이 [**완전한 메트릭 파이프라인**](#완전한-메트릭-파이프라인)은 보다 풍부한 - 메트릭에 액세스할 수 있게 해준다. 추가적으로 쿠버네티스는 Horizontal Pod Autoscaler와 - 같은 메커니즘을 사용하여 현재 상태를 기반으로 클러스터를 자동으로 확장 또는 - 조정함으로써 이런 메트릭에 응답할 수 있다. 모니터링 파이프라인은 Kubelet에서 - 메트릭을 가져온 다음 `custom.metrics.k8s.io` 이나 - `external.metrics.k8s.io` API로 구현된 어댑터를 통해 - 이들을 쿠버네티스에 노출한다. - ## 리소스 메트릭 파이프라인 -### Kubelet - -Kubelet은 쿠버네티스 마스터와 노드들 사이의 다리 역할을 한다. 이는 머신 상에서 실행되는 파드들과 컨테이너들을 관리한다. Kubelet은 각 파드를 이를 구성하는 컨테이너들로 변환하며 컨테이너 런타임 인터페이스를 통해 컨테이너 런타임에서 개별 컨테이너의 사용량 통계를 가져온다. 레거시 도커 통합에서는 cAdvisor에서 이 정보를 가져온다. 그런 다음 Kubelet 리소스 메트릭 API를 통해 집계된 파드 리소스 사용량 통계를 노출한다. 이 API는 Kubelet의 인증되고 읽기 전용의 포트들 상에서 `/metrics/resource/v1alpha1`으로 제공된다. - -### cAdvisor - -cAdvisor는 오픈 소스 컨테이너 자원 사용률/성능 분석 에이전트이다. 이는 컨테이너 전용으로 설계되었으며 도커 컨테이너를 기본적으로 지원한다. 쿠버네티스에서 cAdvisor는 Kubelet 바이너리와 통합된다. cAdvisor는 머신 내 모든 컨테이너를 자동으로 발견하며 CPU, 메모리, 파일시스템, 네트워크 사용량 통계를 수집한다. cAdvisor는 또한 machine 상의 'root' 컨테이너 분석에 의한 전체 머신 사용량도 제공한다. - -Kubelet은 기본 포트 4194를 통해 머신의 컨테이너에 대한 단순한 cAdvisor UI를 노출한다. -아래 그림은 전체 머신의 사용량을 예제로 보여준다. 하지만, 이 기능은 v1.10에서는 사용 중단(deprecated)으로 -표시되었으며, v1.12에서는 완전히 제거되었다. - -![cAdvisor](/images/docs/cadvisor.png) - -v1.13부터, [cAdvisor를 데몬셋으로 배포](https://github.com/google/cadvisor/tree/master/deploy/kubernetes)하여 cAdvisor UI에 액세스할 수 있다. +리소스 메트릭 파이프라인은 +[Horizontal Pod Autoscaler](/docs/tasks/run-application/horizontal-pod-autoscale) +컨트롤러와 같은 클러스터 구성요소나 `kubectl top` 유틸리티에 관련되어 있는 +메트릭들로 제한된 집합을 제공한다. 이 메트릭은 경량의 단기 인메모리 저장소인 +[metrics-server](https://github.com/kubernetes-incubator/metrics-server)에 +의해서 수집되며 `metrics.k8s.io` API를 통해 노출된다. + +metrics-server는 클러스터 상의 모든 노드를 발견하고 각 노드의 +[Kubelet](/docs/reference/command-line-tools-reference/kubelet)에 CPU와 메모리 +사용량을 질의한다. Kubelet은 쿠버네티스 마스터와 노드 간의 다리 역할을 해서 +머신에서 구동되는 파드와 컨테이너를 관리한다. Kubelet은 각각의 파드를 해당하는 +컨테이너로 변환하고 컨테이너 런타임 인터페이스를 통해서 컨테이너 런타임에서 +개별 컨테이너의 사용량 통계를 가져온다. Kubelet은 이 정보를 레거시 도커와의 +통합을 위해 kubelet에 통합된 cAdvisor를 통해 가져온다. 그 다음으로 취합된 파드 +리소스 사용량 통계를 metric-server 리소스 메트릭 API를 통해 노출한다. 이 API는 +kubelet의 인증이 필요한 읽기 전용 포트 상의 `/metrics/resource/v1beta1`에서 +제공된다. ## 완전한 메트릭 파이프라인 -쿠버네티스를 위한 많은 완전한 메트릭 솔루션들이 존재한다. - -### 프로메테우스 - -[프로메테우스](https://prometheus.io)는 기본적으로 쿠버네티스, 노드, 프로메테우스 자체를 모니터링할 수 있다. -[Prometheus Operator](https://coreos.com/operators/prometheus/docs/latest/)는 -쿠버네티스에서 프로메테우스 설정을 단순화하고, -[Prometheus adapter](https://github.com/directxman12/k8s-prometheus-adapter)를 -사용하여 커스텀 메트릭 API를 제공할 수 있게 해준다. -프로메테우스는 강력한 쿼리 언어와 데이터 쿼리와 시각화를 위한 내장 대시보드를 제공한다. -또한 [Grafana](https://prometheus.io/docs/visualization/grafana/)에서는 -데이터 소스로 프로메테우스가 지원된다. - -### Sysdig -[Sysdig](http://sysdig.com)는 완전한 스펙트럼 컨테이너와 플랫폼 인텔리전스를 제공하며, -진정한 컨테이너 네이티브 솔루션이다. Sysdig는 시스템 호출, 쿠버네티스 이벤트, 프로메테우스 메트릭, -statsD, JMX 등의 데이터를 하나의 창으로 통합하여 환경에 대한 포괄적인 그림을 제공한다. -또한 Sysdig는 강력하고 사용자 정의가 가능한 솔루션을 제공하기 위해 쿼리를 실행할 수 있는 API를 제공한다. -Sysdig는 오픈 소스로 만들어졌다. [Sysdig와 Sysdig Inspect](https://sysdig.com/opensource/inspect/)는 -자유롭게 트러블슈팅, 분석, 포렌식을 수행할 수 있는 기능을 제공한다. - -### 구글 클라우드 모니터링 - -구글 클라우드 모니터링은 호스팅 모니터링 서비스로 애플리케이션의 -중요한 메트릭을 시각화하고 경고하는데 사용할 수 있으며, -쿠버네티스에서 메트릭을 수집하고 -[Cloud Monitoring Console](https://app.google.stackdriver.com/)을 -통해 이 메트릭들에 접근할 수 있다. 대시보드를 만들고 사용자 정의하여 쿠버네티스 클러스터에서 -수집한 데이터를 시각화할 수 있다. - -이 동영상은 힙스터(Heapster)를 기반으로 구글 클라우드 모니터링을 구성하고 실행하는 방법을 보여준다. - -[![힙스터를 기반으로 구글 클라우드 모니터링을 구성하고 실행하는 방법](https://img.youtube.com/vi/xSMNR2fcoLs/0.jpg)](https://www.youtube.com/watch?v=xSMNR2fcoLs) - - -{{< figure src="/images/docs/gcm.png" alt="구글 클라우드 모니터링 대시보드 예제" title="구글 클라우드 모니터링 대시보드 예제" caption="대시보드는 클러스터 전역의 리소스 사용량을 보여준다." >}} - -## 크론잡 모니터링 - -### Kubernetes Job Monitor - -[Kubernetes Job Monitor](https://github.com/pietervogelaar/kubernetes-job-monitor) 대시보드를 사용하여 클러스터 관리자는 실행되고 있는 잡들과 완료된 잡의 상태를 볼 수 있다. - -### New Relic 쿠버네티스 모니터링 통합 - -[New Relic 쿠버네티스](https://docs.newrelic.com/docs/integrations/host-integrations/host-integrations-list/kubernetes-monitoring-integration) 통합은 쿠버네티스 환경의 성능에 대한 가시성을 향상시킨다. New Relic의 쿠버네티스 통합은 쿠버네티스 오브젝트의 메트릭을 리포팅하는 것으로 컨테이너 오케스트레이션 계층을 측정한다. 통합을 통해 쿠버네티스 노드, 네임스페이스, 디플로이먼트, 레플리카 셋, 파드, 컨테이너에 대한 인사이트를 얻을 수 있다. +완전한 메트릭 파이프라인은 보다 풍부한 메트릭에 접근할 수 있도록 해준다. +쿠버네티스는 Horizontal Pod Autoscaler와 같은 메커니즘을 활용해서 이런 메트릭에 +대한 반응으로 클러스터의 현재 상태를 기반으로 자동으로 스케일링하거나 클러스터를 +조정할 수 있다. 모니터링 파이프라인은 kubelet에서 메트릭을 가져와서 쿠버네티스에 +`custom.metrics.k8s.io`와 `external.metrics.k8s.io` API를 구현한 어댑터를 통해 +노출한다. -중요 기능: -사전 구축된 대시보드에서 데이터를 확인하여 쿠버네티스 환경에 대한 즉각적인 인사이트를 확인한다. -자동으로 보고되는 데이터의 인사이트로 커스텀 쿼리와 차트를 생성한다. -쿠버네티스 데이터에 대해 경고 조건을 생성한다. -이 [페이지](https://docs.newrelic.com/docs/integrations/host-integrations/host-integrations-list/kubernetes-monitoring-integration)에서 더 알아볼 수 있다. +CNCF 프로젝트인, [프로메테우스](https://prometheus.io)는 기본적으로 쿠버네티스, 노드, 프로메테우스 자체를 모니터링할 수 있다. +CNCF 프로젝트가 아닌 완전한 메트릭 파이프라인 프로젝트는 쿠버네티스 문서의 범위가 아니다. {{% /capture %}} diff --git a/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md b/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md index f9520b6f6a1de..4b63acd8071dc 100644 --- a/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md +++ b/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md @@ -285,7 +285,7 @@ HorizontalPodAutoscaler는 각 메트릭에 대해 제안된 레플리카 개수 `kubectl edit` 명령어를 이용하여 다음과 같이 정의를 업데이트 할 수 있다. ```yaml -apiVersion: autoscaling/v2beta1 +apiVersion: autoscaling/v2beta2 kind: HorizontalPodAutoscaler metadata: name: php-apache diff --git a/content/ko/docs/tutorials/kubernetes-basics/deploy-app/deploy-intro.html b/content/ko/docs/tutorials/kubernetes-basics/deploy-app/deploy-intro.html index c2e4d9f4a3343..f9d24d711def3 100644 --- a/content/ko/docs/tutorials/kubernetes-basics/deploy-app/deploy-intro.html +++ b/content/ko/docs/tutorials/kubernetes-basics/deploy-app/deploy-intro.html @@ -104,7 +104,7 @@

쿠버네티스에 첫 번째 애플리케이션 배

첫 번째 디플로이먼트로, 도커 컨테이너로 패키지된 Node.js 애플리케이션을 사용해보자. - (Node.js 애플리케이션을 작성하고 Node.js 애플리케이션을 배포하고, 컨테이너를 활용해서 배포해보지 않았다면, + (Node.js 애플리케이션을 작성하고 컨테이너를 활용해서 배포해보지 않았다면, Hello Minikube 튜토리얼의 지시를 따른다.)

diff --git a/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md b/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md index 23aeaa2165bd4..8c921c9f77735 100644 --- a/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md +++ b/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md @@ -146,12 +146,12 @@ kubectl apply -f https://k8s.io/examples/service/load-balancer-example.yaml 서비스를 삭제하려면, 아래의 명령어를 입력한다. - kubectl delete services my-service + kubectl delete services my-service Hello World 애플리케이션을 실행 중인 디플로이먼트, 레플리카 셋, 파드를 삭제하려면, 아래의 명령어를 입력한다. - kubectl delete deployment hello-world + kubectl delete deployment hello-world {{% /capture %}} diff --git a/content/ko/examples/application/mysql/mysql-pv.yaml b/content/ko/examples/application/mysql/mysql-pv.yaml index 6f4e692f3b155..c89779a83fd23 100644 --- a/content/ko/examples/application/mysql/mysql-pv.yaml +++ b/content/ko/examples/application/mysql/mysql-pv.yaml @@ -1,5 +1,5 @@ -kind: PersistentVolume apiVersion: v1 +kind: PersistentVolume metadata: name: mysql-pv-volume labels: diff --git a/content/ko/examples/controllers/frontend.yaml b/content/ko/examples/controllers/frontend.yaml new file mode 100644 index 0000000000000..7253918543ca5 --- /dev/null +++ b/content/ko/examples/controllers/frontend.yaml @@ -0,0 +1,21 @@ +apiVersion: apps/v1 +kind: ReplicaSet +metadata: + name: frontend + labels: + app: guestbook + tier: frontend +spec: + # 케이스에 따라 레플리카를 수정한다. + replicas: 3 + selector: + matchLabels: + tier: frontend + template: + metadata: + labels: + tier: frontend + spec: + containers: + - name: php-redis + image: gcr.io/google_samples/gb-frontend:v3 diff --git a/content/ko/examples/controllers/hpa-rs.yaml b/content/ko/examples/controllers/hpa-rs.yaml new file mode 100644 index 0000000000000..a8388530dcba1 --- /dev/null +++ b/content/ko/examples/controllers/hpa-rs.yaml @@ -0,0 +1,11 @@ +apiVersion: autoscaling/v1 +kind: HorizontalPodAutoscaler +metadata: + name: frontend-scaler +spec: + scaleTargetRef: + kind: ReplicaSet + name: frontend + minReplicas: 3 + maxReplicas: 10 + targetCPUUtilizationPercentage: 50 diff --git a/content/ko/examples/controllers/nginx-deployment.yaml b/content/ko/examples/controllers/nginx-deployment.yaml new file mode 100644 index 0000000000000..f7f95deebbb23 --- /dev/null +++ b/content/ko/examples/controllers/nginx-deployment.yaml @@ -0,0 +1,21 @@ +apiVersion: apps/v1 +kind: Deployment +metadata: + name: nginx-deployment + labels: + app: nginx +spec: + replicas: 3 + selector: + matchLabels: + app: nginx + template: + metadata: + labels: + app: nginx + spec: + containers: + - name: nginx + image: nginx:1.7.9 + ports: + - containerPort: 80 diff --git a/content/ko/examples/pods/pod-rs.yaml b/content/ko/examples/pods/pod-rs.yaml new file mode 100644 index 0000000000000..df7b390597c49 --- /dev/null +++ b/content/ko/examples/pods/pod-rs.yaml @@ -0,0 +1,23 @@ +apiVersion: v1 +kind: Pod +metadata: + name: pod1 + labels: + tier: frontend +spec: + containers: + - name: hello1 + image: gcr.io/google-samples/hello-app:2.0 + +--- + +apiVersion: v1 +kind: Pod +metadata: + name: pod2 + labels: + tier: frontend +spec: + containers: + - name: hello2 + image: gcr.io/google-samples/hello-app:1.0