기본 콘텐츠로 건너뛰기

pytorch와 flask를 활용한 딥러닝 모델 서빙하기

pytorch와 flask를 활용한 딥러닝 모델 서빙하기

tensorflow 2.0을 활용해서 어떻게 서빙하는지 다뤄봤었는데, 요즘엔 pytorch를 사용하시는 분들도 많으니까 이번엔 pytorch를 서빙하는 방법에 대해서 설명드리려고 합니다!

이전 글들과 똑같이 mnist를 준비했고, 학습은 pytorch 공식 예제 참조하여 학습을 수행하였습니다.

아래 링크 참조하셔서 학습 진행해보시길 추천드려요!

https://github.com/pytorch/examples/tree/master/mnist

이전 포스팅에서 tensorflow 예제를 다룰 때는 pixel을 255로 나누어줬었는데, pytorch 예제를 보시면 0.1307과 0.3081이란 숫자를 활용해서 정규화를 해주는 것을 보실 수 있습니다.

이 부분은 mnist 데이터에서 전체 평균과 표준편차를 구하여 그 값을 활용하여 정규화를 수행하도록 한 것입니다.

pixel을 단순히 255로 나누는 것보다 평균과 표준편차를 활용하여 -1 ~ 1 사이의 값으로 정규화 해주는 것이 더 좋다고 하네요.

서빙이랑은 상관이 없으니 이쯤에서 넘어가도록 하겠습니다.

이제 pytorch 모델을 서빙하는 소스코드를 보도록 하겠습니다.

# flask_server.py import torch import numpy as np from torchvision import transforms from flask import Flask, jsonify, request from model import CNN model = CNN() model.load_state_dict(torch.load('mnist_model.pt'), strict=False) model.eval() normalize = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]) app = Flask(__name__) @app.route('/inference', methods=['POST']) def inference(): data = request.json _, result = model.forward(normalize(np.array(data['images'], dtype=np.uint8)).unsqueeze(0)).max(1) return str(result.item()) if __name__ == '__main__': app.run(host='0.0.0.0', port=2431, threaded=False)

매우 간단하죠?

모델을 불러오고 정규화를 미리 정의해두고 그 후에는 요청이 들어올 때 마다 결과를 출력해서 반환하도록 구현하였습니다.

서버에 요청하는 소스코드는 아래와 같습니다.

# flask_test.py import json import requests import numpy as np from PIL import Image image = Image.open('test_image.jpg') pixels = np.array(image) headers = {'Content-Type':'application/json'} address = "http://127.0.0.1:2431/inference" data = {'images':pixels.tolist()} result = requests.post(address, data=json.dumps(data), headers=headers) print(str(result.content, encoding='utf-8'))

이미지를 불러와서 픽셀을 담아서 보내주면 끝!

이렇게 pytorch 모델까지 어떻게 서빙을 할 수 있는지 간단하게 살펴보았습니다.

하지만, 이렇게만 서빙한다고 서비스를 할 수 있는 건 절대 아니겠죠?

제일 먼저 병렬처리에 대해서 궁금해 하실 것 같네요.

flask_server.py에서 맨 밑에 줄에 threaded=True 옵션을 주면, 각 요청들이 각각의 쓰레드로 동작하면서 병렬처리가 가능하도록 flask에서 제공은 하고 있지만 pytorch에서는 그 기능을 사용할 경우에는 내부에서 데이터가 꼬이는 현상이 발생하게 됩니다. (Tensorflow에서는 문제가 없어서 threaded=True 옵션으로도 병렬처리가 가능은 합니다.)

그래서 쓰레드 방식보다는 프로세스를 여러개 띄우는 방식을 사용해야만 해요!

그런 부분에 대해서는 다음 포스팅에서 쓰레드와 프로세스의 차이, 그리고 파이썬에서의 병렬처리에 대해서도 간단하게 정리하고 어떤 방법을 활용해서 병렬처리를 해주면 좋을지 다음 포스팅에서 정리해보도록 하겠습니다.

이번 포스팅에서 활용된 전체 소스코드는 아래의 깃헙 주소로 가시면 모두 보실 수 있습니다!

오늘도 즐거운 딥러닝하세요!

https://github.com/hsh2438/mnist_serving_pytorch_flask.git

from http://seokhyun2.tistory.com/43 by ccl(A) rewrite - 2020-03-06 03:20:18

댓글

이 블로그의 인기 게시물

스프링 프레임워크(Spring Framework)란?

스프링 프레임워크(Spring Framework)란? "코드로 배우느 스프링 웹 프로젝트"책을 개인 공부 후 자료를 남기기 위한 목적이기에 내용 상에 오류가 있을 수 있습니다. '스프링 프레임워크'가 무엇인지 말 할 수 있고, 해당 프레임워크의 특징 및 장단점을 설명할 수 잇는 것을 목표로합니다. 1. 프레임워크란? 2. 스프링 프레임워크 "뼈대나 근간을 이루는 코드들의 묶음" Spring(Java의 웹 프레임워크), Django(Python의 웹 프레임워크), Flask(Python의 마이크로 웹 프레임워크), Ruby on rails(Ruby의 웹 프레임워크), .NET Framework, Node.js(Express.js 프레임워크) 등등. 프레임워 워크 종류 : 3. 개발 시간을 단축할 수 있다. 2. 일정한 품질이 보장된 결과물을 얻을 수 있다. 1. 실력이 부족한 개발자라 허다러도 반쯤 완성한 상태에서 필요한 부분을 조립하는 형태의 개발이 가능하다. 프레임워크를 사용하면 크게 다음 3가지의 장점 이 있습니다. 프레임워크 이용 한다는 의미 : 프로그램의 기본 흐름이나 구조를 정하고, 모든 팀원이 이 구조에 자신의 코드를 추가하는 방식으로 개발 한다. => 이러한 상황을 극복하기 위한 코드의 결과물이 '프레임워크' 입니다. 개발자는 각 개개인의 능력차이가 크고, 따라서 개발자 구성에 따라서 프로젝트의 결과 차이가 큽니다. 2. 스프링 프레임워크(Spring Framework) 자바 플랫폼을 위한 오픈 소스 애플리케이션 스프링의 다른 프레임워크와 가장 큰 차이점은 다른 프레임워크들의 포용 입니다. 이는 다시말해 기본 뼈대를 흔들지 않고, 여러 종류의 프레임워크를 혼용해서 사용할 수 있다는 점입니다. 대한민국 공공기관의 웹 서비스 개발 시 사용을 권장하고 있는 전자정부 표준프레임워크 이다. 여러 프레임워크들 중 자바(JAV...

[GCP] Flask로 TF 2.0 MNIST 모델 서빙하기

[GCP] Flask로 TF 2.0 MNIST 모델 서빙하기 Google Cloud Platform 우선 TensorFlow 2.0을 설치하자. 머신에 직접 설치하거나 도커를 다운받아 사용, 혹은 구글 colab을 활용( https://www.tensorflow.org/install)하면 되는데, TensorFlow에서 권장하는대로 머신에 VirtualEnv를 활용해서 설치하자 ( https://www.tensorflow.org/install/pip). 설치하는 김에 Flask도 같이 설치해보자. Compute Machine 하나를 생성(크게 부담 없는 예제라 g1 instance)하고, SSH를 연결하여 실행하면 된다. $ sudo apt update $ sudo apt install python3-dev python3-pip $ sudo pip3 install -U virtualenv # 굳이 system-wide로 flask를 설치할 필요는 없지만 그렇게 했다. $ sudo pip3 install flask $ sudo pip3 install flask-restful # virtualenv 환경에서 tensorflow 2.0 설치 $ virtualenv --system-site-packages -p python3 ./venv $ source ./venv/bin/activate # sh, bash, ksh, or zsh (venv) $ pip install --upgrade pip (venv) $ pip install --upgrade tensorflow 모든 환경이 마련되었으니, 우선 MNIST 모델을 TF 2.0으로 Training하여 모델을 Save 해 두자(tf_mnist_train.py). 대략 99% 이상 정확도가 나온다! import tensorflow as tf import numpy as np # 학습 데이터 load ((train_data, train_label), (eval_data, eval_label)) = tf....

Coupang CS Systems 채용 정보: 쿠팡 운용 관리 시스템을 구축 하고...

Coupang CS Systems 채용 정보: 쿠팡 운용 관리 시스템을 구축 하고... Global Operation Technology는 상품을 고객에게 지연 없이 전달 될 수 있도록 하는 조직입니다. 1997년, 초창기 아마존에 입사한다고 상상해보세요. 그 당시 누구도 e-commerce 산업이, 아마존이라는 회사가 지금처럼 성장하리라고는 생각하지 못했을 것입니다. 하지만, 그 당시 아마존을 선택한 사람들은 e-commerce 산업을 개척했고, 아마존을 세계적인 회사로 성장시켰습니다. 2016년 '아시아의 아마존'으로 성장하고 있는 쿠팡, 당신에게 매력적인 선택이 아닐까요? Global Operation Technology: eCommerce에서 주문을 한 뒤 벌어지는 상황에 대해서 호기심을 가져보신 적이 있나요? Global Operation Technology는 상품을 고객에게 지연 없이 전달 될 수 있도록 하는 조직입니다. 매일 최첨단 소프트웨어 기술을 이용해 고객의 주문을 받고 상품을 어느 창고에서 출고 시킬지, 포장을 하나의 박스 또는 여러 개로 나눌 것인지, 어떤 배송 루트를 선택하고 어떻게 고객에게 배송 상태를 보여줄지 결정하는 시스템과 서비스를 개발 합니다. What Global Operations Technology does: CS and C-Returns System 적극적 고객서비스를 바탕으로 고객의 목소리를 통해 끊임없이 고객 에게 서비스를 제공하고 Andon 메커니즘을 통해 고객의 목소리를 회사 전체와 공유합니다. 그리고 고객 문제 해결과 구매 이후 벌어질 수 있는 고객 문제를 사전에 예방하기 위한 시스템 개발을 통해 미래의 상황을 예측 합니다. Tranportation System TSP (Traveling Salesman Problem) 와 같은 CS 최적화 관리 문제를 다룹니다.배송 물품의 실시간 추적, 3P 하드웨어와 소프트웨어를 통합, 각 배송 루트에 할당되는 물량 예측하고 T...