기본 콘텐츠로 건너뛰기

[GCP] Flask로 TF 2.0 MNIST 모델 서빙하기

[GCP] Flask로 TF 2.0 MNIST 모델 서빙하기

우선 TensorFlow 2.0을 설치하자. 머신에 직접 설치하거나 도커를 다운받아 사용, 혹은 구글 colab을 활용( https://www.tensorflow.org/install)하면 되는데, TensorFlow에서 권장하는대로 머신에 VirtualEnv를 활용해서 설치하자

( https://www.tensorflow.org/install/pip). 설치하는 김에 Flask도 같이 설치해보자. Compute Machine 하나를 생성(크게 부담 없는 예제라 g1 instance)하고, SSH를 연결하여 실행하면 된다.

$ sudo apt update $ sudo apt install python3-dev python3-pip $ sudo pip3 install -U virtualenv # 굳이 system-wide로 flask를 설치할 필요는 없지만 그렇게 했다. $ sudo pip3 install flask $ sudo pip3 install flask-restful # virtualenv 환경에서 tensorflow 2.0 설치 $ virtualenv --system-site-packages -p python3 ./venv $ source ./venv/bin/activate # sh, bash, ksh, or zsh (venv) $ pip install --upgrade pip (venv) $ pip install --upgrade tensorflow

모든 환경이 마련되었으니, 우선 MNIST 모델을 TF 2.0으로 Training하여 모델을 Save 해 두자(tf_mnist_train.py). 대략 99% 이상 정확도가 나온다!

import tensorflow as tf import numpy as np # 학습 데이터 load ((train_data, train_label), (eval_data, eval_label)) = tf.keras.datasets.mnist.load_data() # data를 정규화하여 28x28로 reshape train_data=train_data/np.float32(255) train_data=train_data.reshape(60000, 28, 28, 1) train_data.shape eval_data = eval_data/np.float32(255) eval_data = eval_data.reshape(10000, 28, 28, 1) eval_data.shape from tensorflow.keras import models # CNN으로 모델 생성 model =models.Sequential() model.add(tf.keras.layers.Conv2D(32, (5,5), padding='same', activation='relu', input_shape=(28,28,1))) model.add(tf.keras.layers.MaxPooling2D((2,2))) model.add(tf.keras.layers.Conv2D(64, (5,5), activation='relu')) model.add(tf.keras.layers.MaxPooling2D((2,2))) model.add(tf.keras.layers.Conv2D(64, (5,5), activation='relu')) model.add(tf.keras.layers.Flatten()) model.add(tf.keras.layers.Dense(64, activation='relu')) model.add(tf.keras.layers.Dense(10, activation='softmax')) model.summary() # graph를 생성하고 training model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) model.fit(train_data, train_label, epochs=5) test_loss, test_acc = model.evaluate(eval_data, eval_label, verbose=2) test_acc # save the model. TF 2.0에서는 experimental 대신 save_model만 하면됨 model_dir = "/tmp/tfkeras_mnist" tf.keras.experimental.export_saved_model(model, model_dir)

python으로 위 파일을 실행하면 모델이 지정된 곳에 저장된다. 우선 해당 모델을 불러서 제대로 예측하는지 확인해 보면, 99% 정확도니 예측은 비교적 정확해야 한다.

import tensorflow as tf import numpy as np # eval data 불러오고 ((train_data, train_label), (eval_data, eval_label)) = tf.keras.datasets.mnist.load_data() eval_data = eval_data/np.float32(255) eval_data = eval_data.reshape(10000, 28, 28, 1) # 저장한 모델 불러 온뒤 model_dir = "/tmp/tfkeras_mnist" new_model = tf.keras.experimental.load_from_saved_model(model_dir) new_model.summary() # 그래프를 형성하고, new_model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # 임의의 위치에 있는 MNIST 숫자를 하나 읽어서 예측 random_idx = np.random.choice(eval_data.shape[0]) test_data = eval_data[random_idx].reshape(1, 28, 28, 1) res = new_model.predict(test_data) # 제대로 학습되었는지 확인 print ("predict: {}, original: {}".format(np.argmax(res), eval_label[random_idx]))

대체로 결과는 아래와 같다.

(venv) $ python tf_test_mnist.py predict: 6, original: 6

모델은 제대로 만들어졌으니, 이제 Flask를 이용해 웹으로 서빙해 보자. virtualenv를 user 계정으로 수행하고 있으므로 5000번 이상의 포트를 사용해야 한다. 이를 위해 GCP에서 방화벽 규칙을 하나 만들어 주자.

(네트워킹 → VPC 네트워크 → 방화벽 규칙)

Flask 실행은 python 명령으로 직접 py파일을 실행하거나, FLASK_APP으로 지정된 파일을 flask run으로 수행할 수 있다. flask에서 어떻게 tensorflow를 불러오는 지 몰라, 일단 python 명령으로 수행할 것이다. 이전에 test한 모듈을 http get으로 읽어오는 부분에 넣어주기만 하면 된다.

from flask import Flask, render_template import flask_restful import tensorflow as tf import numpy as np # 데이터를 읽어들이고 ((train_data, train_label), (eval_data, eval_label)) = tf.keras.datasets.mnist.load_data() eval_data = eval_data/np.float32(255) eval_data = eval_data.reshape(10000, 28, 28, 1) # 저장해 두었던 모델을 읽어들인 후 model_dir = "/tmp/tfkeras_mnist" new_model = tf.keras.experimental.load_from_saved_model(model_dir) new_model.summary() #그래프를 생성하고 new_model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # Flask Restful API로 읽어들일 APP을 지정. app = Flask(__name__) api = flask_restful.Api(app) # Flask가 사용할 리소스는 Test 클래스. # get 함수가 HTTP Get으로 결과를 읽어들임 class Test(flask_restful.Resource): def get(self): random_idx = np.random.choice(eval_data.shape[0]) random_idx test_data = eval_data[random_idx].reshape(1, 28, 28, 1) res = new_model.predict(test_data) return { 'predict': np.argmax(res).tolist(), 'answer': eval_label[random_idx].tolist() } # Test 클래스를 리소스로 추가. 두번째 인자는 파일의 위치. # 우리는 ~/venv/tf_mnist 현재 디렉토리에서 읽을 것이므로 '/' api.add_resource(Test, '/') # 사용하는 포트는 5000번 if __name__ == "__main__": app.run(host="0.0.0.0", port=5000)

모든 작업이 끝났으니 서빙을 시작해 보자.

(venv) ryu_gcloud2@flask-test:~/venv/tf_mnist$ python3 app.py * Serving Flask app "app" (lazy loading) * Environment: production WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead. * Debug mode: off * Running on http://0.0.0.0:5000/ (Press CTRL+C to quit)

서버가 잘 수행되었으니 브라우저로 테스트 해 보면 된다. 외부에서 접근되는 것이니, GCP Compute Instance의 외부 IP 주소를 하나 할당(이번 예제의 경우엔 아래 35.223.49.131)받고 그 주소로 접근(포트는 5000번)하면 된다.

Flask로 학습 모델 결과를 제대로 서빙하고 있다.

from http://magoker.tistory.com/21 by ccl(A) rewrite - 2020-03-11 01:20:16

댓글

이 블로그의 인기 게시물

Coupang CS Systems 채용 정보: 쿠팡 운용 관리 시스템을 구축 하고...

Coupang CS Systems 채용 정보: 쿠팡 운용 관리 시스템을 구축 하고... Global Operation Technology는 상품을 고객에게 지연 없이 전달 될 수 있도록 하는 조직입니다. 1997년, 초창기 아마존에 입사한다고 상상해보세요. 그 당시 누구도 e-commerce 산업이, 아마존이라는 회사가 지금처럼 성장하리라고는 생각하지 못했을 것입니다. 하지만, 그 당시 아마존을 선택한 사람들은 e-commerce 산업을 개척했고, 아마존을 세계적인 회사로 성장시켰습니다. 2016년 '아시아의 아마존'으로 성장하고 있는 쿠팡, 당신에게 매력적인 선택이 아닐까요? Global Operation Technology: eCommerce에서 주문을 한 뒤 벌어지는 상황에 대해서 호기심을 가져보신 적이 있나요? Global Operation Technology는 상품을 고객에게 지연 없이 전달 될 수 있도록 하는 조직입니다. 매일 최첨단 소프트웨어 기술을 이용해 고객의 주문을 받고 상품을 어느 창고에서 출고 시킬지, 포장을 하나의 박스 또는 여러 개로 나눌 것인지, 어떤 배송 루트를 선택하고 어떻게 고객에게 배송 상태를 보여줄지 결정하는 시스템과 서비스를 개발 합니다. What Global Operations Technology does: CS and C-Returns System 적극적 고객서비스를 바탕으로 고객의 목소리를 통해 끊임없이 고객 에게 서비스를 제공하고 Andon 메커니즘을 통해 고객의 목소리를 회사 전체와 공유합니다. 그리고 고객 문제 해결과 구매 이후 벌어질 수 있는 고객 문제를 사전에 예방하기 위한 시스템 개발을 통해 미래의 상황을 예측 합니다. Tranportation System TSP (Traveling Salesman Problem) 와 같은 CS 최적화 관리 문제를 다룹니다.배송 물품의 실시간 추적, 3P 하드웨어와 소프트웨어를 통합, 각 배송 루트에 할당되는 물량 예측하고 T...

[ubuntu] FLASK_APP

[ubuntu] FLASK_APP Development/Debugging 🐞 FLASK_ENV=development FLASK_APP = app.py flask run zsh: command not found: FLASK_APP ✔️ FLASK_ENV=development FLASK_APP=app.py flask run 띄어쓰기를 해서 저런 오류를 출력할수도 있구나 😲 참고 : 108p에서 FLASK가 FKAS로 오타나있다. from http://hee-stories.tistory.com/18 by ccl(A) rewrite - 2020-03-24 17:20:11

[GCP] Argo로 Workflow 만들기

[GCP] Argo로 Workflow 만들기 사실 Production 레벨로 가지 않으면, ML개발에 Workflow를 사용할 일은 많지 않다. 대부분 샘플데이터로 전처리 한후 그 데이터를 공유해서 각자 모델을 개발하게 되는데, Production Level에서는 계속 새로운 데이터가 발생하기 때문에 데이터 수집부터 배포까지 하나의 파이프라인으로 관리해야할 필요성이 생긴다. Argo는 컨테이너 기반으르 파이프라인을 구성해주는 도구로 Kubeflow에서도 Workflow Orchestration은 Argo를 사용한다. Kubeflow Pipeline Overview Argo 설치 curl -sSL -o /usr/local/bin/argo https://github.com/argoproj/argo/releases/download/v2.2.1/argo-linux-amd64 chmod +x /usr/local/bin/argo Argo를 위와 같이 다운로드 받고, Controller와 UI를 kubectl을 통해 설치한다. GCP에서 kubectl의 설치는 아래를 따르면 된다. 터미널에서 Kubectl 사용하기 kubectl create ns argo kubectl apply -n argo -f https://raw.githubusercontent.com/argoproj/argo/v2.2.1/manifests/install.yaml Argo를 통해 간단한 'Hello World'예제를 실행해보자. 사용법은 아래와 같이 간단하다. submit은 지정된 yaml 파일을 workflow 만드는데 사용한다는 것이고 watch 파라미터는 외부의 yaml을 가져올 때 사용한다. argo submit --watch https://raw.githubusercontent.com/argoproj/argo/master/examples/hello-world.yaml 'argo list' 명령으로 실행되고 있는 argo wor...