Skip to content

Commit

Permalink
initial commit for english translation (#117)
Browse files Browse the repository at this point in the history
* add translation script with openai

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

* translated api-deploment

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

* translated introduction

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

* translated kubeflow

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

* translated kubelfow dashboard guide

* translated setup components

* translated setup kubernets

* translated appendix

* translated prerequisites

* translated further readings

* copy to current version

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

* fix for build

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

* remove pre commit

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>

---------

Signed-off-by: Aiden-Jeon <aiden.jongseob@gmail.com>
  • Loading branch information
Aiden-Jeon authored Jul 10, 2023
1 parent e444c37 commit 9e8366f
Show file tree
Hide file tree
Showing 375 changed files with 8,779 additions and 14,936 deletions.
6 changes: 0 additions & 6 deletions .github/workflows/pull-request.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,9 +8,3 @@ jobs:
runs-on: ubuntu-latest
steps:
- uses: anencore94/labeler@v1.1.0

pre-commit:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v2
- uses: pre-commit/action@v2.0.0
2 changes: 2 additions & 0 deletions .gitignore
Original file line number Diff line number Diff line change
Expand Up @@ -21,3 +21,5 @@ yarn-error.log*

v1/
.vscode

openai.env
12 changes: 6 additions & 6 deletions community/how-to-contribute.md
Original file line number Diff line number Diff line change
Expand Up @@ -20,38 +20,38 @@ sidebar_position: 2

- node & npm

```text
```bash
npm --version
```

- hugo

```text
```bash
hugo version
```

1. 필요한 node module을 설치합니다.

```text
```bash
npm install
```

2. 프로젝트에서는 각 글의 일관성을 위해서 여러 markdown lint를 적용하고 있습니다.
다음 명령어를 실행해 test를 진행한 후 커밋합니다.내용 수정 및 추가 후 lint가 맞는지 확인합니다.

```text
```bash
npm test
```

4. lint 확인 완료 후 ci 를 실행합니다.

```text
```bash
npm ci
```

4. 로컬에서 실행 후 수정한 글이 정상적으로 나오는지 확인합니다.

```text
```bash
npm run start
```

Expand Down
14 changes: 7 additions & 7 deletions docs/api-deployment/seldon-children.md
Original file line number Diff line number Diff line change
Expand Up @@ -222,7 +222,7 @@ MLflow 대시보드를 확인하면 다음과 같이 두 개의 모델이 생성

각각의 run_id를 확인 후 다음과 같이 SeldonDeployment 스펙을 정의합니다.

```text
```bash
apiVersion: machinelearning.seldon.io/v1
kind: SeldonDeployment
metadata:
Expand Down Expand Up @@ -309,7 +309,7 @@ spec:

모델이 실행하는 순서는 graph에서 정의됩니다.

```text
```bash
graph:
name: scaler
type: MODEL
Expand All @@ -334,7 +334,7 @@ graph의 동작 방식은 처음 받은 값을 정해진 predict_method로 변

이제 위의 스펙을 yaml파일로 생성해 보겠습니다.

```text
```bash
cat <<EOF > multi-model.yaml
apiVersion: machinelearning.seldon.io/v1
kind: SeldonDeployment
Expand Down Expand Up @@ -420,24 +420,24 @@ EOF

다음 명령어를 통해 API를 생성합니다.

```text
```bash
kubectl apply -f multi-model.yaml
```

정상적으로 수행되면 다음과 같이 출력됩니다.

```text
```bash
seldondeployment.machinelearning.seldon.io/multi-model-example created
```

정상적으로 생성됐는지 확인합니다.

```text
```bash
kubectl get po -n kubeflow-user-example-com | grep multi-model-example
```

정상적으로 생성되면 다음과 비슷한 pod이 생성됩니다.

```text
```bash
multi-model-example-model-0-scaler-svc-9955fb795-n9ffw 4/4 Running 0 2m30s
```
22 changes: 11 additions & 11 deletions docs/api-deployment/seldon-fields.md
Original file line number Diff line number Diff line change
Expand Up @@ -20,7 +20,7 @@ Seldon Core가 API 서버를 생성하는 과정을 요약하면 다음과 같

Seldon Core를 사용할 때, 주로 사용하게 되는 커스텀 리소스인 SeldonDeployment를 정의하는 yaml 파일은 다음과 같습니다.

```text
```bash
apiVersion: machinelearning.seldon.io/v1
kind: SeldonDeployment
metadata:
Expand Down Expand Up @@ -84,7 +84,7 @@ SeldonDeployment spe 중 `name` 과 `predictors` 필드는 required 필드입니

### volumes

```text
```bash
volumes:
- name: model-provision-location
emptyDir: {}
Expand All @@ -96,7 +96,7 @@ array로 입력을 받으며 array의 구성 요소는 `name`과 `emptyDir` 입

### initContainer

```text
```bash
- name: model-initializer
image: gcr.io/kfserving/storage-initializer:v0.4.0
args:
Expand Down Expand Up @@ -128,13 +128,13 @@ seldon core에서 권장하는 이미지는 크게 두 가지입니다.
각각의 자세한 내용은 다음을 참고 바랍니다.

- [kfserving](https://docs.seldon.io/projects/seldon-core/en/latest/servers/kfserving-storage-initializer.html)
- [rlone](https://github.com/SeldonIO/seldon-core/tree/master/components/rclone-storage-initializer)
- [rclone](https://github.com/SeldonIO/seldon-core/tree/master/components/rclone-storage-initializer)

*모두의 MLOps* 에서는 kfserving을 사용합니다.

#### args

```text
```bash
args:
- "gs://seldon-models/v1.12.0-dev/sklearn/iris"
- "/mnt/models"
Expand All @@ -146,7 +146,7 @@ array로 구성되며 첫 번째 array의 값은 다운로드받을 모델의

### volumeMounts

```text
```bash
volumeMounts:
- mountPath: /mnt/models
name: model-provision-location
Expand All @@ -157,7 +157,7 @@ volumeMounts:

### container

```text
```bash
containers:
- name: model
image: seldonio/sklearnserver:1.8.0-dev
Expand Down Expand Up @@ -191,7 +191,7 @@ Seldon Core에서 지원하는 공식 이미지는 다음과 같습니다.

#### volumeMounts

```text
```bash
volumeMounts:
- mountPath: /mnt/models
name: model-provision-location
Expand All @@ -203,7 +203,7 @@ initContainer에서 다운로드받은 데이터가 있는 경로를 알려주

#### securityContext

```text
```bash
securityContext:
privileged: true
runAsUser: 0
Expand All @@ -215,7 +215,7 @@ securityContext:

## graph

```text
```bash
graph:
name: model
type: MODEL
Expand All @@ -236,7 +236,7 @@ graph:

type은 크게 4가지가 있습니다.

1. TRANSFROMER
1. TRANSFORMER
2. MODEL
3. OUTPUT_TRANSFORMER
4. ROUTER
Expand Down
28 changes: 14 additions & 14 deletions docs/api-deployment/seldon-iris.md
Original file line number Diff line number Diff line change
Expand Up @@ -17,7 +17,7 @@ SeldonDeployment는 쿠버네티스(Kubernetes)에 모델을 REST/gRPC 서버의
SeldonDeployment 관련된 실습은 seldon-deploy라는 새로운 네임스페이스(namespace)에서 진행하도록 하겠습니다.
네임스페이스를 생성한 뒤, seldon-deploy를 현재 네임스페이스로 설정합니다.

```text
```bash
kubectl create namespace seldon-deploy
kubectl config set-context --current --namespace=seldon-deploy
```
Expand All @@ -28,7 +28,7 @@ SeldonDeployment를 배포하기 위한 yaml 파일을 생성합니다.
이번 페이지에서는 공개된 iris model을 사용하도록 하겠습니다.
이 iris model은 sklearn 프레임워크를 통해 학습되었기 때문에 SKLEARN_SERVER를 사용합니다.

```text
```bash
cat <<EOF > iris-sdep.yaml
apiVersion: machinelearning.seldon.io/v1alpha2
kind: SeldonDeployment
Expand All @@ -50,19 +50,19 @@ EOF

yaml 파일을 배포합니다.

```text
```bash
kubectl apply -f iris-sdep.yaml
```

다음 명령어를 통해 정상적으로 배포가 되었는지 확인합니다.

```text
```bash
kubectl get pods --selector seldon-app=sklearn-default -n seldon-deploy
```

모두 Running 이 되면 다음과 비슷한 결과가 출력됩니다.

```text
```bash
NAME READY STATUS RESTARTS AGE
sklearn-default-0-classifier-5fdfd7bb77-ls9tr 2/2 Running 0 5m
```
Expand All @@ -79,21 +79,21 @@ sklearn-default-0-classifier-5fdfd7bb77-ls9tr 2/2 Running 0 5m

따라서 우선 Ambassador Ingress Gateway의 url을 환경 변수로 설정합니다.

```text
```bash
export NODE_IP=$(kubectl get nodes -o jsonpath='{ $.items[*].status.addresses[?(@.type=="InternalIP")].address }')
export NODE_PORT=$(kubectl get service ambassador -n seldon-system -o jsonpath="{.spec.ports[0].nodePort}")
```

설정된 url을 확인합니다.

```text
```bash
echo "NODE_IP"=$NODE_IP
echo "NODE_PORT"=$NODE_PORT
```

다음과 비슷하게 출력되어야 하며, 클라우드 등을 통해 설정할 경우, internal ip 주소가 설정되는 것을 확인할 수 있습니다.

```text
```bash
NODE_IP=192.168.0.19
NODE_PORT=30486
```
Expand All @@ -103,7 +103,7 @@ NODE_PORT=30486
SeldonDeployment가 배포된 `namespace``seldon-deployment-name`를 의미합니다.
이는 스펙을 정의할 때 metadata에 정의된 값을 사용합니다.

```text
```bash
metadata:
name: sklearn
namespace: seldon-deploy
Expand All @@ -120,7 +120,7 @@ SeldonDeployment에서 주로 사용하는 `method-name`은 두 가지가 있습

각각의 method의 자세한 사용 방법은 아래에서 설명합니다.

## Use Swagger
## Using Swagger

우선 doc method를 사용하는 방법입니다. doc method를 이용하면 seldon에서 생성한 swagger에 접속할 수 있습니다.

Expand All @@ -147,7 +147,7 @@ UI에서 `/seldon/seldon-deploy/sklearn/api/v1.0/predictions` 메뉴를 선택

다음 데이터를 입력합니다.

```text
```bash
{
"data": {
"ndarray":[[1.0, 2.0, 5.0, 6.0]]
Expand All @@ -163,7 +163,7 @@ UI에서 `/seldon/seldon-deploy/sklearn/api/v1.0/predictions` 메뉴를 선택

정상적으로 수행되면 다음과 같은 추론 결과를 얻습니다.

```text
```bash
{
"data": {
"names": [
Expand Down Expand Up @@ -193,14 +193,14 @@ UI에서 `/seldon/seldon-deploy/sklearn/api/v1.0/predictions` 메뉴를 선택

예를 들어, 다음과 같이 `/predictions`를 요청하면

```text
```bash
curl -X POST http://$NODE_IP:$NODE_PORT/seldon/seldon-deploy/sklearn/api/v1.0/predictions \
-H 'Content-Type: application/json' \
-d '{ "data": { "ndarray": [[1,2,3,4]] } }'
```

아래와 같은 응답이 정상적으로 출력되는 것을 확인할 수 있습니다.

```text
```bash
{"data":{"names":["t:0","t:1","t:2"],"ndarray":[[0.0006985194531162835,0.00366803903943666,0.995633441507447]]},"meta":{"requestPath":{"classifier":"seldonio/sklearnserver:1.11.2"}}}
```
Loading

0 comments on commit 9e8366f

Please sign in to comment.