기본 콘텐츠로 건너뛰기

[python3] Flask-SQLAlchemy 사용 시 json 으로 데이터 가공하기

[python3] Flask-SQLAlchemy 사용 시 json 으로 데이터 가공하기

웹크롤링 할게 많을거 같아 항상 쓰던 자바대신 python을 이용했다.

이전에는 django를 이용했는데 사용하면서 느낀점은 잘되어있지만 커스텀하게 쓰기엔 조금 무거운 감이 있었다.

알아야할 것도 많기도 하고.

그래서 이번에는 보다 가벼운 flask를 적용하기로 하고, 거기에 ORM 방식으로 데이터접근하면 좋을거 같아 찾다가 발견한 것이 SQLAlchemy 이다.

SQLAlchemy를 사용하는 방법은 인터넷에 이미 충분히 있으니 여기서는 json으로 변환하여 리턴하는 것에만 집중했다.

json으로 변환하려는 이유는 데이터를 주고받는데 json형태가 가장 편하고, 자바스크립트에서도 데이터를 접근하거나 조작하는데 유용하기 때문이다. 그리고 ajax를 이용해 json 형태로 데이터를 주고받을수도 있기 때문에 여러모로 장점이 있다.

SQLAlchemy 를 이용하면 데이터형식이 list로 반환된다.

# 아래 문법은 like절로 검색하는 것 result = stock.query.filter(stock.name.like('%'+search_text+'%')).all() print(result) print(type(result))

결과

검색어: 삼성 [, , , , , , , , , , , , , , , , ]

결과에 대한 type을 보면 list형태로 되어있음을 확인할 수 있다. 처음 말한바와 같이 json형태로 변환을 시켜주기 위해선 다양한 방법이 있는데, 구글검색에서 sqlalchemy result json 으로 검색했을때 아래 사이트가 맨 상단에 차지했다. 그외에도 여러개를 찾아본 결과 비슷한 패턴을 발견할 수 있었는데 다음과 같이 encoder 클래스나 def를 두는 것이었다.

import decimal, datetime

def alchemyencoder(obj): """JSON encoder function for SQLAlchemy special classes.""" if isinstance(obj, datetime.date): return obj.isoformat() elif isinstance(obj, decimal.Decimal): return float(obj)

def example(): res = conn.execute(select([accounts]))

# use special handler for dates and decimals return json.dumps([dict(r) for r in res], default=alchemyencoder)

일단 똑같이 따라해봤는데 잘 안되었다. 그리고 encoder라는 것을 이용한다는것이 썩 맘에들진 않았다.

그래서 좀더 찾아보니 pandas를 이용해 변환한 다음, json으로 변환하는 것이 있었다.

방법은 다음과 같다.

import pandas as df

queryset = stock.query.filter(stock.name.like('%'+search_text+'%')) # 위와 달라진게 있다면 끝에 .all() 이 없다

df = pd.read_sql(queryset.statement, queryset.session.bind) print(json.loads(df.to_json()))

json으로는 잘 변환되었는데 문제는 또 있었다.

DBMS를 자주 다뤄본 사람들은 List 형태 안에 오브잭트 단위로 들어있는것에 익숙할 것이다.

그런데 위의 결과는 컬럼별로 List를 만들어서 담는 형태였다.

{ 'code':{ '0':'000810', '1':'001360', '2':'005930', ... }, 'name':{ '0':'삼성화재해상보험', '1':'삼성제약', '2':'삼성전자', ... } }

그러나 내가 원하는 바는 다음형태다

[ {'code':'000810', 'name': '삼성화재해상보험'}, {'code':'001360', 'name': '삼성제약'}, ... ]

그래서 좀더 살펴보니 옵션으로 orient='records' 를 넣으면 원하는 형태로 json이 구성된다.

import pandas as df

queryset = stock.query.filter(stock.name.like('%'+search_text+'%')) # 위와 달라진게 있다면 끝에 .all() 이 없다

df = pd.read_sql(queryset.statement, queryset.session.bind)

# 옵션으로 orient 를 준다 print(json.loads(df.to_json(orient='records')))

[ { 'code':'000810', 'name':'삼성화재해상보험' }, { 'code':'001360', 'name':'삼성제약' }, ... ] ~~~

참조:

https://beomi.github.io/2017/10/21/SQLAlchemy-Query-to-Pandas-DataFrame/

https://stackoverflow.com/questions/5022066/how-to-serialize-sqlalchemy-result-to-json

http://codeandlife.com/2014/12/07/sqlalchemy-results-to-json-the-easy-way/

from http://lemontia.tistory.com/844 by ccl(A) rewrite - 2020-03-06 23:54:29

댓글

이 블로그의 인기 게시물

Coupang CS Systems 채용 정보: 쿠팡 운용 관리 시스템을 구축 하고...

Coupang CS Systems 채용 정보: 쿠팡 운용 관리 시스템을 구축 하고... Global Operation Technology는 상품을 고객에게 지연 없이 전달 될 수 있도록 하는 조직입니다. 1997년, 초창기 아마존에 입사한다고 상상해보세요. 그 당시 누구도 e-commerce 산업이, 아마존이라는 회사가 지금처럼 성장하리라고는 생각하지 못했을 것입니다. 하지만, 그 당시 아마존을 선택한 사람들은 e-commerce 산업을 개척했고, 아마존을 세계적인 회사로 성장시켰습니다. 2016년 '아시아의 아마존'으로 성장하고 있는 쿠팡, 당신에게 매력적인 선택이 아닐까요? Global Operation Technology: eCommerce에서 주문을 한 뒤 벌어지는 상황에 대해서 호기심을 가져보신 적이 있나요? Global Operation Technology는 상품을 고객에게 지연 없이 전달 될 수 있도록 하는 조직입니다. 매일 최첨단 소프트웨어 기술을 이용해 고객의 주문을 받고 상품을 어느 창고에서 출고 시킬지, 포장을 하나의 박스 또는 여러 개로 나눌 것인지, 어떤 배송 루트를 선택하고 어떻게 고객에게 배송 상태를 보여줄지 결정하는 시스템과 서비스를 개발 합니다. What Global Operations Technology does: CS and C-Returns System 적극적 고객서비스를 바탕으로 고객의 목소리를 통해 끊임없이 고객 에게 서비스를 제공하고 Andon 메커니즘을 통해 고객의 목소리를 회사 전체와 공유합니다. 그리고 고객 문제 해결과 구매 이후 벌어질 수 있는 고객 문제를 사전에 예방하기 위한 시스템 개발을 통해 미래의 상황을 예측 합니다. Tranportation System TSP (Traveling Salesman Problem) 와 같은 CS 최적화 관리 문제를 다룹니다.배송 물품의 실시간 추적, 3P 하드웨어와 소프트웨어를 통합, 각 배송 루트에 할당되는 물량 예측하고 T...

[ubuntu] FLASK_APP

[ubuntu] FLASK_APP Development/Debugging 🐞 FLASK_ENV=development FLASK_APP = app.py flask run zsh: command not found: FLASK_APP ✔️ FLASK_ENV=development FLASK_APP=app.py flask run 띄어쓰기를 해서 저런 오류를 출력할수도 있구나 😲 참고 : 108p에서 FLASK가 FKAS로 오타나있다. from http://hee-stories.tistory.com/18 by ccl(A) rewrite - 2020-03-24 17:20:11

[GCP] Argo로 Workflow 만들기

[GCP] Argo로 Workflow 만들기 사실 Production 레벨로 가지 않으면, ML개발에 Workflow를 사용할 일은 많지 않다. 대부분 샘플데이터로 전처리 한후 그 데이터를 공유해서 각자 모델을 개발하게 되는데, Production Level에서는 계속 새로운 데이터가 발생하기 때문에 데이터 수집부터 배포까지 하나의 파이프라인으로 관리해야할 필요성이 생긴다. Argo는 컨테이너 기반으르 파이프라인을 구성해주는 도구로 Kubeflow에서도 Workflow Orchestration은 Argo를 사용한다. Kubeflow Pipeline Overview Argo 설치 curl -sSL -o /usr/local/bin/argo https://github.com/argoproj/argo/releases/download/v2.2.1/argo-linux-amd64 chmod +x /usr/local/bin/argo Argo를 위와 같이 다운로드 받고, Controller와 UI를 kubectl을 통해 설치한다. GCP에서 kubectl의 설치는 아래를 따르면 된다. 터미널에서 Kubectl 사용하기 kubectl create ns argo kubectl apply -n argo -f https://raw.githubusercontent.com/argoproj/argo/v2.2.1/manifests/install.yaml Argo를 통해 간단한 'Hello World'예제를 실행해보자. 사용법은 아래와 같이 간단하다. submit은 지정된 yaml 파일을 workflow 만드는데 사용한다는 것이고 watch 파라미터는 외부의 yaml을 가져올 때 사용한다. argo submit --watch https://raw.githubusercontent.com/argoproj/argo/master/examples/hello-world.yaml 'argo list' 명령으로 실행되고 있는 argo wor...