Commit 63e1074c authored by JooHan Hong's avatar JooHan Hong

auto scaling update

parent 701b8016
Pipeline #5228 passed with stages
in 45 seconds
......@@ -21,7 +21,7 @@
# Conclusion k8s
> Swarm -> K8s로의 Migration은 검토결과 문제가 없다.
> Swarm -> `K8s`로의 Migration은 검토결과 문제가 없다.
# Docker Swarm
......@@ -50,19 +50,22 @@
- **외부 LB와의 통신을 원활히 하도록 구성해야 한다.**
> N/A, 기본 **Overlay** 네트워크로 사용되어도 서비스운영에 문제가 없다.
> N/A, 기본 **Overlay** 네트워크로 사용되어도 Front-end의 LB(HA-Proxy) 서비스운영에 문제가 없다.
# K8s
- ReplicaSet을 통한 Pod의 `확장`/`축소`를 수행한다.
> k8s의 경우는 DaemonSet Object를 Define해서 사용해야 한다.
> Deployment Object의 **replicas**를 사용한다.
```python
apiVersion: apps/v1
kind: DaemonSet
metadata:
kind: Deployment
...
spec:
replicas: 5
...중략
```
......@@ -98,22 +101,28 @@ spec:
- Front-end LB(HA-PROXY)와의 통신을 원활히 하도록 `NodePort` Service 외부노출방식을 사용한다.
> Front-end LB(HA-PROXY)와의 구성(`NodePort`)으로 구성하면 문제 없다.
다음과 같이 검증을 해보았으나, Front-end LB(HA-PROXY)와의 구성(`NodePort`) 상 timeout이 발생되는 부분이 발생되었다. 따라서 일반적인 구성은 아니지만, `hostNetwork` 설정을 통해 이를 충족한다.
```python
apiVersion: apps/v1
kind: DaemonSet
apiVersion: v1
kind: Service
metadata:
...
name: hongsnet-web
spec:
...
template:
...
spec:
hostNetwork: true
type: NodePort
selector:
app: hongsnet
ports:
- port: 80
targetPort: 80
nodePort: 30000
```
- CPU/Memory Resource 사용상태에 따라 Pod의 `Scale-Out`을 수행하며, 정상이면, `Scale-Down`을 수행(Auto Scaling)한다.
> Auto Scaling을 적용하여, Pod의 가용성을 높인다. 자세한 내역은 아래의 Link를 참조한다.
[AutoScaling 구성내역](https://gitlab.hongsnet.net/joohan.hong/joohanhong/tree/master/DOCKER/K8S/MIGRATION/SERVICE/SCALE)
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment