반응형

회사에서 데이터 추출에 쿼리를 짜야하는 일이 있었는데..

제가 짠 쿼리와 상사분께서 짠 쿼리의 성능차이가 엄청 난 것을 확인할 수 있었습니다. 

(추출되는 데이터도 100G 정도 차이나고, 속도 또한 훨씬 향상된 쿼리였습니다. ㅜ.ㅜ) 

 

제가 생각했을 때 근본적인 원인은

아직도 저는 빅쿼리를 사용할 때 RDB에서의 쿼리처럼 짜고 있는 것이라고 생각했습니다.  

 

RDB에서는 OLTP, OLAP 페이지에서 확인할 수 있듯이,

하나의 레코드 안에 파일로서 저장하기 때문에 검색 시에 모든 데이터를 풀 스캔 하여야 합니다. 

 

그러나, 빅쿼리는 컬럼 기반 저장소이기 떄문에, 각 칼럼 별로 다른 파일에 나누어 저장합니다. 

즉, 제가  추출하고 싶은 각 컬럼을 행으로 집합 처리 한 후  join 조건의 쿼리를 날렸어야 하는 것인거죠.. 

 

빅쿼리의 집합처리 방법에 대해 알아보는 페이지가 될 것 같습니다.

 

참고로, 빅쿼리는 비정규화 되었을 때 성능이 가장 뛰어납니다.

- 비정규화를 위해 중첩 및 반복 열을 사용하며

- 중첩된 레코드를 사용할 때 장점은 아래와 같습니다. 

  • 빅쿼리 퍼포먼스 개선
  • 데이터 저장 용량 효율
  • 스키마가 바뀌어도 유연하게 대응 가능 

 

참고 :  https://zzsza.github.io/gcp/2020/04/12/bigquery-unnest-array-struct/

BigQuery ARRAY

  1.  문서 : cloud.google.com/bigquery/docs/reference/standard-sql/array_functions?hl=ko#generate_date_array

  2. 빅쿼리는 데이터 유형이 동일한 값으로 구성된 목록을 ARRAY(배열) 라 부릅니다.
    1. 파이선 LIST와 유사합니다.
    2. 하나의 행에 데이터 타입이 동일한 여러 값을 저장합니다.
    3. 빅쿼리 UI에서 배열로 보여줄 때 세로로 나열됩니다. 

  3. 예시

    SELECT

          [1,2,3] AS array_sample, 1 AS int_value

      UNION ALL

      SELECT

          [3,5,7] AS array_sample, 2 AS int_value



    결과 : 행 1 안에 (1,2,3) 이 배열로서 출력되는  반면, 숫자값만 나열한 int_value는 1개만 볼 수 있습니다. 




  4. ARRAY 생성 방법
    1. 대괄호 사용

      SELECT [1, 2, 3] AS array_sample

    2. ARRAY<타입> 사용

      SELECT ARRAY<INT64>[1,2,3] AS int_array

    3. GENERATE 함수 사용 

      -- GENERATE_ARRAY(시작, 종료, 간격) : python에서 range(start, end, step)과 동일하게 생성할 수 있습니다.

      SELECT GENERATE_ARRAY(1, 10, 2) AS generate_array_data

    4. ARRAY_AGG 사용 
      • 테이블에 저장된 데이터를 SELECT 하고 ARRAY 로 묶고 싶은 경우 사용합니다. 

      • 옵션
        1. DISTINCT : 각각의 고유한 expression  값이 한 번만 결과에 집계됩니다. 
        2. IGNORE NULLS : NULL 값이 결과에서 제외 / RESPECT NULLS : 지정되거나, 아무것도 지정되지 않으면 결과에 NULL 포함
        3. ORDER BY : 값의 순서 지정 (기본 정렬 방향은 ASC 입니다) 
        4. LIMIT : 결과에서 expression 입력의 최대 개수를 지정합니다. 한도 n은 상수 INT64입니다. 
      • 예시

        WITH programming_languages AS

              (SELECT "python" AS programming_language

               UNION ALL SELECT "go" AS programming_language

               UNION ALL SELECT "scala" AS programming_language)

                      

          SELECT ARRAY_AGG(programming_language) AS programming_languages_array

          FROM programming_languages






  5. ARRAY 내 접근
    1. 배열 N 번째 값을 가져오려면, OFFSET, ORDINARY  을 사용할 수 있습니다. 
      1. OFFSET : 0 부터 시작
      2. ORDINARY : 1부터 시작

    2. 존재하지 않은 N을 지정하면 에러가 발생하는데, SAFE_를 앞에 붙여주면 NULL이 return 됩니다. 

      WITH programming_languages AS

          (SELECT "python" AS programming_language

           UNION ALL SELECT "go" AS programming_language

           UNION ALL SELECT "scala" AS programming_language)

              

      SELECT

        ARRAY_AGG(programming_language)[OFFSET(0)] AS programming_languages_array,

        ARRAY_AGG(programming_language)[ORDINAL(1)] AS programming_languages_array2

      FROM programming_languages







BigQuery STRUCT

  1. 문서 : https://cloud.google.com/bigquery/docs/reference/standard-sql/data-types?hl=ko#struct-type


  2. 구조체, BigQuery UI에서 RECORD로 표현됩니다. 
    1. 각각의 유형(필수) , 필드 이름(선택사항) 이 있는 정렬된 필드의 컨테이너로 
    2. Python 의 Dict 와 유사한 느낌입니다. 
    3. Firebase에서 저장된 데이터를 볼 때 많이 사용합니다. 

  3. STRUCT 생성 방법
    1. 소괄호 사용 

      SELECT (1, 2, 3) AS struct_test

    2. STURCT<타입> 사용 

      SELECT STRUCT<INT64, INT64, STRING>(1, 2, 'HI') AS struct_test



    3. ARRAY 안에 여러 STRUCT 사용하고 싶은 경우 

      SELECT

        ARRAY(

          SELECT AS STRUCT 1 as hi, 2, 3

          UNION ALL

          SELECT AS STRUCT 4 as hi, 5, 6

        ) AS new_array


 

 

BigQuery UNNSET

  1. 문서 : https://cloud.google.com/bigquery/docs/reference/standard-sql/query-syntax?hl=ko#unnest

  2. 배열을 평면화해서 배열에 있는 값을 펴줄 때 사용합니다. 
    1. NEST한 데이터를 UNNSET 하게 만드는 것과 같습니다. 
    2. UNNSET 연산자는 ARRAY 를 입력으로 받고 ARRAY 의 각 요소에 대한 행이 한 개씩 포함된 테이블을 return 합니다. 

  3. 각 행에 배열의 값을 뿌려주는 직관적인 예시가 있어 첨부하겠습니다 : https://medium.com/firebase-developers/using-the-unnest-function-in-bigquery-to-analyze-event-parameters-in-analytics-fb828f890b42
    1. 해당 데이터가 있습니다. 



    2. crew = 'Zoe'를 추출하고 싶어 UNNSET을 사용해 데이터를 펴주는 과정을 시각화 하면 아래와 같습니다. 



    3. WHERE 절로 Zoe 를 찾습니다. 

 

 

반응형

'Database Study > BigQuery' 카테고리의 다른 글

[BigQuery]bq - 데이터 로드  (0) 2020.09.04
OLTP, OLAP  (0) 2020.08.31
[BigQuery]표준 SQL 쿼리 구문  (0) 2020.06.14
[BigQuery] Datetime UTC 를 KST로  (0) 2020.05.26
[BigQuery]BigQuery Dremel  (0) 2020.05.26
반응형

 

개요

빅쿼리는 파이썬 기반의 CLI(Command Line Interface)도구인 bq 를 이용해서 명령을 실행할 수 있습니다. 

해당 페이지에는 기본적인 명령어와 사용법을 정리해보았습니다. 

참고 사이트 : https://cloud.google.com/bigquery/docs/reference/bq-cli-reference?hl=ko

 

설치

  • gcloud CLI 는 구글 클라우드 SDK의 일부입니다. 
  • 시스템에서 SDK를 다운받아 설치하고 초기화 한 후 gcloud 명령줄 도구를 사용할 수 있습니다. 
  •  PowerShell 명령어를 통해 SDK를 설치할 수 있습니다.  powershell 로 진행해보겠습니다. 

 

 

  1. Prerequire
    Google Cloud SDK 는 Python 으로 프로그래밍 되어있기 때문에, python 3.5 ~ 3.7 버전까지 지원합니다. 저는 3.8 이였기 때문에 다운그레이드 하여 설치하였습니다. 
  2. Installation
    Powershell 에서 해당 명령어를 실행합니다. 

  3. 설치 완료 후 다음 옵션을 허용 후 기본값으로 설정해주면 Cloud SDK Shell 설치 완료됩니다. 
    1. Cloud SDK 쉘 시작
    2. gcloud init 실행 

명령어

(New-Object Net.WebClient).DownloadFile("https://dl.google.com/dl/cloudsdk/channels/rapid/GoogleCloudSDKInstaller.exe", "$env:Temp\GoogleCloudSDKInstaller.exe")
& $env:Temp\GoogleCloudSDKInstaller.exe

 

bq 명령어 

명령설명사용법

명령 설명 사용법
cancel 작업 취소를 요청  bq cancel job_id
cp 테이블을 다른 테이블로 복사 bq cp dataset.old_table dataset2.new_table
extract destination_uris로 데이터를 추출. -m 옵션으로 모델만 추출 가능 bq extract ds.table gs://mybucket/table.csv
get-iam-policy 리소스에 대한 IAM 정책을 반환 bq get-iam-policy proj:ds
head       테이블에 행을 표시 bq head dataset.table
help 전체 또는 선택된 명령에 대한 도움말 출력 bq ls help
init .bigqueryrc 설정 파일 작성 bq init
insert 테이블에 행을 삽입 bq insert dataset.table /tmp/mydata.json
load destination_table에 데이터를 입력 bq load ds.new_tbl gs://mybucket/info.csv ./info_schema.json
ls 명명 된 컬렉션에 포함 된 개체를 나열 bq ls mydataset
mk 데이터 세트, 테이블, 뷰 또는 전송 구성(transfer configuration)을 작성 bq mk new_dataset
mkdef GCS와 같은 외부 테이블에 대한 정의를 JSON으로 생성 bq mkdef 'gs://bucket/file.csv' field1:integer,field2:string
partition 소스 테이블을 파티션 된 테이블로 복사 bq partition source_table_prefix destination_partitioned_table
query 쿼리를 실행 bq query 'select count(*) from publicdata:samples.shakespeare'
rm 데이터 세트, 테이블, 전송 구성 또는 예약을 삭제 bq rm ds.table
set-iam-policy 리소스에 대한 IAM 정책 설정 bq set-iam-policy ds /tmp/policy.json
shell 대화식 bq 세션을 실행 bq shell
show 객체에 대한 모든 정보를 표시 bq show dataset
update 데이터 세트, 테이블, 뷰 또는 전송 구성을 업데이트 bq update --description "Dataset description" existing_dataset
version bq 버전을 반환 bq version
wait 작업이 완료 될 때까지 대기 bq wait job_id

 

로컬 데이터 소스에서 데이터 로드

아래의 방법 중 하나를 사용하여 읽을 수 있는 데이터 소스를 로드할 수 있습니다.  

  • Cloud Console 또는 기본 BigQuery 웹 UI
  • bq 명령줄 도구의 bq load 명령어
  • API
  • 클라이언트 라이브러리

 

이 중, bq 명령줄 도구의 bq load 명령어를 사용하면 아래와 같이 진행됩니다. 

조건은

  • 구글 쉘 SDK를 실행되는 리눅스에 데이터소스에 대한 파일이 있어야 하며, 윈도우 PATH나 파일은 인식하지 않습니다. 
  1. 해당 데이터를 로드할 테이블을 생성 합니다.  (참고 : https://cloud.google.com/bigquery/docs/tables?hl=ko

  2. bq 명령어를 사용해 테이블에 데이터를 로드합니다. 

bq load \
프로젝트명:데이터셋명.테이블명\
데이터 path (절대 주소) / 데이터.csv

Cloud Storage 에서 데이터 로드 

리눅스에 파일 업로드나 , 용량이 커서 Cloud Console을 통해 테이블에 업로드하지 못했다면 Cloud Storage를 통해 로드할 수 있습니다. 

조건은

  • 테이블을 포함한 데이터세트는 스토리지 버킷과 같은 리전이나 멀티 리전에 위치에 있어야합니다. 
  • 빅쿼리 로드에 대한 모든 권한이 있어야 합니다. 

  1.  스토리지 버킷 생성 → 데이터 업로드 가 선행되어야 합니다. (참고 : https://cloud.google.com/storage/docs/creating-buckets?hl=ko ) 

  2. 해당 데이터를 로드할 테이블을 생성합니다. (참고 : https://cloud.google.com/bigquery/docs/tables?hl=ko
  3. bq 명령어를 사용해 테이블에 데이터를 로드합니다. 

bq load \
프로젝트명:데이터셋명.테이블명\
gs://버킷명/데이터.csv

 

위의 두 가지 방법을 사용하면 아래와 같이 데이터가 해당 테이블에 로드된 것을 확인할 수 있습니다. 

추가적인 옵션(--autodetct) 등등은 구글 문서에서 확인하실 수 있습니다. 

반응형

'Database Study > BigQuery' 카테고리의 다른 글

[BigQuery]빅쿼리 쿼리 성능 향상 - 집합 처리  (2) 2020.09.05
OLTP, OLAP  (0) 2020.08.31
[BigQuery]표준 SQL 쿼리 구문  (0) 2020.06.14
[BigQuery] Datetime UTC 를 KST로  (0) 2020.05.26
[BigQuery]BigQuery Dremel  (0) 2020.05.26
반응형

 

OLTP (On-Line Transaction Processing)

실시간으로 서버가 자료를 처리하는 과정을 의미하며, 여러 과정의 연산이 하나의 단위 프로세스(= 트랜잭션) 으로 실행하는 프로세스입니다.

 

예를 들면

A가 B에게 10,000원을 이체한다면 아래의 단계들이 하나의 프로세스로 이루어져야 하며, 중간에 오류가 발생하는 경우 모든 단계를 되돌려야합니다.

  1. A 의 계좌에서 10,000원이 인출되어
  2. B 의 계좌에 10,000원이 입급됩니다. 

 

ROW단으로 저장하는 MySQL, MSSQL 등 RDBMS에서 사용하는 프로세스입니다.

해당 DB들은 물리적으로 데이터 저장 시 아래와 같이 하나의 레코드안에 파일로서 저장을 하기 때문에 검색시 모든 데이터를 풀스캔 하여야 합니다. 

FILE 1 : “001;Cho;Terry;Seoul;30,002;Lee;Simon;Suwon;40,003;Kim;Carl;Busan;22”

 

이러한 I/O 효율성을 높이기 위해  Index를 사용하는 것이 해당 프로세스의 특징입니다. 



 

Table 구조 

DB 설계 시 OLTP 처리 프로세스의 영향이 있습니다.

 

모든 웹 사이트 서비스를 이용 시 회원가입을 진행합니다. 가입자 수가 많아지면 가입된 회원 ID를 가져오는 것이 느려지는데, 

이 문제를 해결하는 방법은 Index(=Primary Key)를 생성해 해결할 수 있습니다. 

 

Index 는 보통 테이블의 자료를 빠르게 검색하기 위해 생성되며, 1개의 테이블에 N개의 Index를 생성할 수 있습니다.

Index 생성 시 속성(UNIQUE / NON UNIQUE)를 설정해 중복 허용 여부를 지정할 수 있습니다. 

 

가장 많이 쓰이는  BTree Index 는 이진검색에 기반을 둔 것으로

자료가 정렬되어있는 상태에서 절반 위치를 찾아가는 구조로 전체를 읽을 때보다 빠르게 원하는 값을 찾을 수 있고 이 값이 위치한 테이블의 레코드를 바로 접근하여 원하는 값을 가져올 수 있습니다. 

 

인덱스와 테이블 관계를 표시한 예시는 다음과 같습니다. 

회원_ID_IndexID(KEY)Table 위치 값

강감찬 XXX
김좌진 XXX
이순신 XXX
홍길동 XXX

→ 

회원입력순서ID암호

1 홍길동 1234
2 강감찬 5678
3 이순신 abcd
4 김좌진 efgh

 



클러스터 

디스크로부터 데이터를 읽어오는 시간을 줄이기 위해서 조인이나 자주 사용되는 테이블의 데이터를 디스크의 같은 위치에 저장하는 것으로

OLTP 특성을 가진 DB의 테이블에 인덱스로 많이 사용되는 형식입니다. 

 

클러스터 하기 좋은 테이블은 

  • 주로 조회가 발생하고 수정이 거의 발생하지 않는 테이블
  • 컬럼안의 많은 중복 데이터 가지고 있는 테이블
  • 자주 JOIN 되는 테이블 

이고 ,  클러스터 KEY로는 

  • 데이터 값의 범위가 큰 컬럼
  • 테이블 간의 조인에 사용되는 칼럼

을 많이 사용하고 있습니다. 

 

 

클러스터형 인덱스는 두 가지 종류로 나눠질 수 있는데 특징은 다음과 같습니다. 

  • 클러스터 인덱스 

    - 인덱스를 생성할 때는 데이터 페이지 전체를 다시 정렬한다.
    - 대용량의 데이터를 강제로 다시 클러스터 인덱스를 생성하는 건 조심
    - 인덱스 자체가 데이터 페이지이다. 인덱스 자체에 데이터가 포함
    - 비클러스형 인덱스 보다 검색 속도는 더 빠르다. 하지만 데이터의 입력/수정/삭제는 느리다.
    - 테이블에 한 개만 생성할 수 있다.




  • 넌클러스터 인덱스

    - 별도의 페이지에 인덱스를 구성한다.
    - 검색 속도는 느리지만, 데이터의 입력,수정,삭제가 더 빠르다.
    - 남용할 경우에는 시스템 성능을 떨어뜨리는 결과를 가져온다.

 

OLAP ( On-Line Analytical Processing )

대용량 데이터를 고속으로 처리하며 다양한 관점에서 추출, 분석할 수 있도록 지원하는 데이터 분석 기술입니다. 

최종 사용자가 대규모 데이터(DW) 에 직접 접근하여 대화식으로 정보를 분석하고 의사결정에 활용하는 과정을 의미하며 DW에 저장된 데이터를 쉽게 보고서로 출력할 수있도록 도와줍니다. 

 

데이터베이스 내용을 다차원적으로 분석하고자 스냅샷형식으로 데이터를 가지고와서 정제와 가공 과정을 거쳐 Data Mart에 담아놓고 분석 View를 제공하는 프로세스라고 할 수 있습니다. 

 

 

BigQuery 

빅쿼리는 OLAP 기반으로 컬럼 단위로 저장하는 데이터베이스입니다. 

컬럼 기반 저장소의 경우 각 컬럼을 아래와 같이 다른 파일에 나눠서 저장합니다. 

FILE 1: 001:Cho,002:Lee,003:Kim

FILE 2: 001:Terry,002:Simon,003:Carl

FILE 3: 001:Seoul;002:Suwon:003:Busan

 

컬럼 단위로 저장 시 해당 컬럼 기준으로 검색하면 다른 컬럼 데이터를 스캔하지 않아도 되기 때문에 데이타 효율성이 높습니다. 

 

SQL 연산 수행 순서를 보면 해당 프로세스를 이해하기 쉽습니다. 

 

natality 테이블에서 1980 ~ 1990 년 대 태어난 아이들의 수를 state 별로 그룹핑하여 내림차순 정렬 후 상위 10개 데이터만 출력하는 쿼리 예시입니다. 

SELECT state, COUNT(*) count_babies
FROM [publicdata:samples.natality]
WHERE year >= 1980 AND year < 1990
GROUP BY state
ORDER BY count_babies DESC
LIMIT 10



 

디스크에서 state, year 컬럼 읽어와서 → 1980 ~ 1990 년 데이터를 주 단위로 태어난 아이들 수 카운트

 → mixer 에서 state 별 아이들 수 합치고 → mixer0 에서 mixer1의 모든 값을 합쳐 sorting → sorting 끝나고 맨 위 10개만 리턴 

 

RDBMS와 다르게 BigQuery 가 가지고 있는 특성은 다음과 같습니다.

  • 키나 인덱스의 개념이 없어서 무조건 풀 스캔한다. 
  • 성능 위해서 update 대신 append만 지원한다. 한번 입력되면 수정되기 어렵기 때문에 테이블을 지우고 다시 생성해야한다 
  • 3개의 데이터센터에 걸쳐 복제하기 때문에 데이터 입력 후 데이터가 바로 조회되지 않을 수 있다. 

 

이러한 특성을 잘 알고 있어야 빅쿼리 조회 시 비용이 어마어마하게 청구되는 일을 막을 수 있을 것 같습니다 ㅎㅎ 

  1. 파티션 기준으로 조회 
  2. ( * ) 는 절대 금지 

 

 

기능적 비교 

구분 OLTP OLAP
개념


- Transaction 중심으로 거래 데이터의 정확한
  처리 기능 제공이 중요


- 요청된 조건에 맞는 대용량 데이터를
  검색하여 다양한 View 제공이 중요

기능원리 - 트랜재션 ACID 준수
(Atomic, Consistency, Isolation, Durability)
- 중복과 집계, 소트, 차원별 그룹
사용목적 - 단일 Transaction 데이터 저장
- 데이터의 무결성 유지
- 대용량 데이터 조회
- 각 차원별 다양한 View 제공
- 시계열 분석
주요기능 - Insert, Upate, Commit, Rollback - Drill Down/Up, Pivot, Slice, Dice
구현기술 -TP-Monitor , CS , EJB, ODBC - MOLAP, ROLAP, DOLAP

 

데이터 측면 비교 

구분 OLTP OLAP
데이터 구조 - 정규화를 통한 데이터 중복성을 최소화 중복 및 집계성 컬럼을 생성
데이터 마트
데이터 모델 ER모델 스타스키마, 스노우 플랙, ER모델
데이터 목적 데이터의 무결성 유지 시계열분석, 그룹분석, 실적집계, 의사결정
데이터 보호 Repeatable Read 레벨
Locking, 병행처리
Read Only
데이터 접근

응용프로그램을 통한 접근

사용자가 직접 접근

참고 : https://bcho.tistory.com/1117

 

 

반응형
반응형

 

 

 

쿼리문 : 테이블 / 표현식을 한 개 이상 검색하고 계산된 결과를 행으로 반환

 

BigQuery SQL 구문

query_statement:
    query_expr
    
    
query_expr:
    [ WITH with_query_name AS ( query_expr ) [, ...] ]
    { select | ( query_expr ) | query_expr set_op query_expr }
    [ ORDER BY expression [{ ASC | DESC }] [, ...] ]
    [ LIMIT count [ OFFSET skip_rows ] ]

select:
    SELECT [ AS { STRUCT | VALUE } ] [{ ALL | DISTINCT }]
        { [ expression. ]* [ EXCEPT ( column_name [, ...] ) ]
            [ REPLACE ( expression [ AS ] column_name [, ...] ) ]
        | expression [ [ AS ] alias ] } [, ...]
    [ FROM from_item  [, ...] ]
    [ WHERE bool_expression ]
    [ GROUP BY { expression [, ...] | ROLLUP ( expression [, ...] ) } ]
    [ HAVING bool_expression ]
    [ WINDOW window_name AS ( window_definition ) [, ...] ]

set_op:
    UNION { ALL | DISTINCT } | INTERSECT DISTINCT | EXCEPT DISTINCT

from_item: {
    table_name [ [ AS ] alias ] [ FOR SYSTEM_TIME AS OF timestamp_expression ]  |
    join |
    ( query_expr ) [ [ AS ] alias ] |
    field_path |
    { UNNEST( array_expression ) | UNNEST( array_path ) | array_path }
        [ [ AS ] alias ] [ WITH OFFSET [ [ AS ] alias ] ] |
    with_query_name [ [ AS ] alias ]
}

join:
    from_item [ join_type ] JOIN from_item
    [ { ON bool_expression | USING ( join_column [, ...] ) } ]

join_type:
    { INNER | CROSS | FULL [OUTER] | LEFT [OUTER] | RIGHT [OUTER] }

 

 

 

표기법:

  • 대괄호 '[ ]'는 절(선택사항)
  • 괄호 '( )'는 리터럴 괄호
  • 세로 막대 '|'는 논리 OR
  • 중괄호 '{ }'는 옵션 조합을 묶는 데 사용
  • 꺾쇠 괄호 '[, ...]' 안에 있는 쉼표 다음에 오는 줄임표는 앞의 항목이 쉼표로 구분된 목록으로 반복될 수 있음

 

SELECT

SELECT expression

- SELECT expression.* : 열마다 출력 열을 한 개씩 생성

WITH groceries AS
  (SELECT "milk" AS dairy,
   "eggs" AS protein,
   "bread" AS grain)
SELECT g.*
FROM groceries AS g;

+-------+---------+-------+
| dairy | protein | grain |
+-------+---------+-------+
| milk  | eggs    | bread |
+-------+---------+-------+

- SELECT DISTINCT : 중복 행 삭제 / 나머지 행만 반환 / STRUCT , ARRAY 유형의 열은 반환할 수 없음

- SELECT * EXCEPT : 결과에서 제외할 열의 이름을 한 개 이상 지정 / 일치하는 모든 열 이름은 출력에서 생략

WITH orders AS
  (SELECT 5 as order_id,
  "sprocket" as item_name,
  200 as quantity)
SELECT * EXCEPT (order_id)
FROM orders;

+-----------+----------+
| item_name | quantity |
+-----------+----------+
| sprocket  | 200      |
+-----------+----------+

- SELECT * REPLACE : expression AS identifier 절 한 개 이상 지정 / 각 식별자는 SELECT * 문의 열 이름 한개와 일치 
                             출력 열 목록에서 REPLACE 절의 식별자와 일치하면, 표현식으로 바뀜

WITH orders AS
  (SELECT 5 as order_id,
  "sprocket" as item_name,
  200 as quantity)
SELECT * REPLACE ("widget" AS item_name)
FROM orders;

+----------+-----------+----------+
| order_id | item_name | quantity |
+----------+-----------+----------+
| 5        | widget    | 200      |
+----------+-----------+----------+

WITH orders AS
  (SELECT 5 as order_id,
  "sprocket" as item_name,
  200 as quantity)
SELECT * REPLACE (quantity/2 AS quantity)
FROM orders;

+----------+-----------+----------+
| order_id | item_name | quantity |
+----------+-----------+----------+
| 5        | sprocket  | 100      |
+----------+-----------+----------+
반응형

'Database Study > BigQuery' 카테고리의 다른 글

[BigQuery]bq - 데이터 로드  (0) 2020.09.04
OLTP, OLAP  (0) 2020.08.31
[BigQuery] Datetime UTC 를 KST로  (0) 2020.05.26
[BigQuery]BigQuery Dremel  (0) 2020.05.26
[BigQuery]BigQuery란?  (0) 2020.05.25
반응형

 

 

SELECT  *,  DATETIME(datetime, "Asia/Seoul") as KST FROM `bigquery-ex-278307.dummy_test.dummy_ex3` ORDER BY id ASC

 

 

반응형

'Database Study > BigQuery' 카테고리의 다른 글

[BigQuery]bq - 데이터 로드  (0) 2020.09.04
OLTP, OLAP  (0) 2020.08.31
[BigQuery]표준 SQL 쿼리 구문  (0) 2020.06.14
[BigQuery]BigQuery Dremel  (0) 2020.05.26
[BigQuery]BigQuery란?  (0) 2020.05.25
반응형

BigQuery는 구글 내부에서 방대한 양의 데이터를 SQL문을 통해서 분석하기 위해 개발한

Dremel이라는 프로젝트의 public implementation입니다.

 

Dremel 이전에는 하둡 기반의 클러스트를 구축하고, Map Reduce 방식을 통해 데이터 웨어하우스를 구축했다고 합니다

 

Dremel은 structured 데이터를 분산 저장하고 SQL문을 통해 빠르게 데이터를 분석하는데 특화되어 있습니다.

이를 통해, 데이터 분석가들이 다양한 쿼리문을 통해서 데이터에서 인사이트를 뽑아낼 수 있도록 도와줍니다.

 

한마디로 말하자면 빅쿼리란, 

Dremel 프로젝트를 기반으로 구글 외부의 사용자들도 쓸 수 있도록 서버리스 클라우드 서비스로 만들어 공개한 것

입니다.

 

빅쿼리가 빠른 성능을 보여주는 것은 2가지의 특징 때문입니다. 

 

 

1. Columnar Storage

 

RDBMS는 레코드 단위로 데이터를 저장.

빅쿼리는 컬럼 단위로 데이터를 저장

 

즉, 같은 데이터 타입의 데이터들이 몰려서 저장되는 것 의미합니니다.

 

컬럼 단위로 데이터를 저장하는 장점은

  • 트래픽 최소화 : 쿼리 사용 시 해당하는 컬럼만 조회하면 되기 때문에, 데이터 양이 방대해질 수록 트래픽을 최소화 할 수 있다.
  • Higher Compression Ratio :  같은 데이터가 몰려 저장되어있기 때문에, 그 결과 압축하기에 더 용이.

 

2.Tree Architecture Distribution

루트 서버 : 클라이언트 SQL 쿼리문 분석 -> 분산 머신에서 동작하는 수많은 작은 단위의 쿼리문 생성 -> Intermediate servers 전송

Intermediate server :  전달받은 쿼리를 더 작게 쪼개 -> leaf server로 전송

leaf servers 실제 파일 시스템(빅 쿼리의 경우 Colossus)에 저장된 데이터를 읽어와서 쿼리 연산을 수행하고 결과를 부모 노드에게 전송

 

반응형

'Database Study > BigQuery' 카테고리의 다른 글

[BigQuery]bq - 데이터 로드  (0) 2020.09.04
OLTP, OLAP  (0) 2020.08.31
[BigQuery]표준 SQL 쿼리 구문  (0) 2020.06.14
[BigQuery] Datetime UTC 를 KST로  (0) 2020.05.26
[BigQuery]BigQuery란?  (0) 2020.05.25
반응형

회사에서 데이터 파이프라인 고도화 작업에 사용한다고 하여 공부하면서 정리해 볼 예정입니다..

 

빅쿼리란?(BigQuery)

  • 대용량 Dataset(최대 몇 십억 개의 행)를 대화식으로 분석할 수 있는 웹 서비스
  • 대규모 데이터 저장 및 분석 플랫폼으로, 일종의 데이터 웨어하우스
    • 데이터 웨어하우스 : 축적된 데이터를 모아 관리하는 곳
  • 확장 가능하고 사용이 간편한 BigQuery를 통해 개발자와 기업은 필요할 때 강력한 데이터 분석을 수행 할 수 있음

 

특징

  1. 클라우드 서비스로 설치/운영이 필요 없다.(NoOps)
    간단하게 클릭 몇 번으로 서비스 사용이 가능하고, 별도의 설정이나 운영이 필요 없다(PaaS 겸 IaaS)
  2. SQL 언어 사용
    기존 RDBMS에서 사용되는 SQL언어를 그대로 사용한다. 로그인 후 SQL만 수행하면 되므로 상대적으로 쉬움
  3. 클라우드 스케일의 인프라를 활용한 대용량 지원과 빠른 성능
  4. 데이터 복제를 통한 안정성
    3개의 복제본이 서로 다른 데이터 센터에 분산되어 저장되기 때문에 데이터에 대한 유실 위험이 적다.
  5. 배치와 스트리밍 모두 지원
    한꺼번에 데이터를 로딩하는 배치 외에, 실시간으로 데이터를 입력할 수 있는 스트리밍 기능을 제공
  6. 비용이 저렴하다.

 

구성

 

  • Project : 데이터를 담는 최상위 개념, 하나의 프로젝트에 여러개의 데이터셋이 들어갈 수 있음
    • 사용자와 데이터셋에 대한 권한 제어를 포함한 전반적인 리소스 관리 
  • Dataset : RDB에서 Database의 개념이며, 하나의 Dataset에 여러개의 테이블이 들어갈 수 있음
    • 빅쿼리에서 권한 제어를 할 수 있는 최소 단위
    • 데이터셋에 대한 권한부여를 통해 다른 사용자와 데이터 공유 가능 
  • Table : RDB에서 테이블과 동일한 개념
    • 스키마를 가지고 있음
    • 행(row) 단위 업데이트는 지원하지 않음
    • 테이블에 대한 권한제어는 따로 적용되지 않으며, 해당 테이블을 가지고 있는 부모 데이터셋으로부터 상속받음
  • Job : BigQuery에서 내리는 모든 명령
    • 쿼리 / 데이터 로딩 / 삭제 / 복사 / 내보내기 등의 명령을 수행하는 비동기식 연산 
    • Job(잡)의 구성요소
      • Reference - job ID : 유니크한 이름
      • Configuration - job Task : 수행하는 작업 종류
      • Status - job state : 오류와 경고를 포함한 상태
      • Statistics - job statistics : 수행 내역을 제공하는 통계
    • 잡의 구성요소는 향후 감사(audit)등의 목적을 위해서 로그를 남김
    • 실행 도중 취소 가능 , 하지만 취소해도 해당 명령에 대한 프로세싱은 이루어지기 때문에 비용 발생

 

데이터 타입

  • STRING : UTF-8인코딩. 최대 2MB
  • BYTES : base64로 인코딩 된 이진 데이터
  • INTEGER : 64 bit signed integer
  • FLOAT : Double precision, floating-point format
  • BOOLEAN : CSV format: true or false (case insensitive), or 1 or 0

                                 JSON format: true or false (case insensitive)

  • RECORD : A Collection of one or more field
    • 중첩 및 반복을 허용하고  JSON 과 같이 여러 개의 데이터 값을 가질 수 있다.
    • 불필요한 반복 및 중첩이 많아지면 쿼리를 포함한 여러 가지 작업들이 어려워지니 가급적 피하기 
  • TIMESTAMP

 

데이터 필드의 모드 

  • REQUIRED : NULL값을 허용하지 않음
  • NULLABLE : NULL값을 허용(기본값)
  • REPEATED : NULL값을 허용하고 1개 또는 배열 형태로 여러 개의 값을 가질 수 있으며 JSON, Avro포맷에서만 사용 가능

 

데이터 로딩 포맷

  • CSV
  • JSON(newline-delimited)
  • Avro
  • Cloud Datastore backups
  • Google sheets

## 스키마에 따라서 CSV, JSON , AVRO 모든  flat data 를 지원하지만,

      스키마에 중첩되거나 반복되는 필드를 가진 경우  JSON , Avro 만 지원

 

## 기본적으로 데이터에 줄바꿈(개행문자) 가 포함되어 있는 경우  JSON, Avro 가 빠름

 

 

데이터 로딩 지원도구(Tools)

  • Web UI : 웹 브라우저 기반으로 제공하는 빅쿼리 전용 웹 콘솔로 비전문가도 사용하기 쉽다.
  • Command-line interface (CLI) : 파이썬 기반의 명령어 도구가 제공된다.
  • REST API (POST) : POST요청으로 데이터 로딩을 할 수 있는 REST형태의 API를 제공하며, 재개 가능(Resumable)업로드, 다중 부분(Multipart) 업로드의 두가지 옵션을 제공한다.
  • Streaming API : 잡을 사용해서 대규모의 데이터를 로드하는 대신 한번에 하나의 레코드를 삽입할 수 있는 API를 제공한다.
  • Third-party ETL tools and connectors : 각종 3party의 ETL(Extract, Transform, Load) 툴 및 시각화, 개발환경 등과의 연동할 수 있도록 커넥터를 제공한다.

 



SQL의 사용 

  • BigQuery는 Standard SQL과 legacy SQL을 모두 제공
    • Legacy SQL은 초기부터 사용 된 문법이나, 2.0이후에는 Standard SQL이 지원
  • Standard SQL을 사용하는것이 필수는 아니지만 추천 됨
반응형

'Database Study > BigQuery' 카테고리의 다른 글

[BigQuery]bq - 데이터 로드  (0) 2020.09.04
OLTP, OLAP  (0) 2020.08.31
[BigQuery]표준 SQL 쿼리 구문  (0) 2020.06.14
[BigQuery] Datetime UTC 를 KST로  (0) 2020.05.26
[BigQuery]BigQuery Dremel  (0) 2020.05.26

+ Recent posts