본문 바로가기

나는개발자다!!/데이터분석과마케팅

docker를 활용한 elk 구축썰

데이터 분석을 위한 환경 구성으로 ELK 스택을 구성해보려고 한다.

(각각의 설명은 개별 썰에서 풀어보자)




E: Elasticsearch

L: Logstash

K: Kibana


각종 log 데이터를 logstash에서 수집하여 Elasticsearch로 모아주고 Kibana를 통해서 시각화 한 데이터를 보여줄 수 있는 기반이다.

 출처: Elastic main home




구축방법

(docker 환경은 이미 구성된 상태이고, 윈도우에서 진행하였습니다.)


OS: Window10

git: docker-elk


# docker down

작업 할 공간에 docker-elk git을 clone 한다.

git clone https://github.com/deviantony/docker-elk


# 리눅스라면 권한 설정을 위한 셋팅이 추가로 진행되야합니다.

# chcon -R system_u:object_r:admin_home_t:s0 docker-elk/

# 윈도우라면 cmd창을 관리자권한으로 열어야 합니다.



# docker-compose를 이용한 build (docker image가 생성된다.)

docker-compose build


# container 생성

docker-compose up

# docker-compose up -d 명령어를 이용하면 백그라운드 실행





docker에 대한 설명은 다른 썰에서 풀겠지만 docker-compose를 이용하면 미리 설정되어있는 docker 이미지들을 쉽게 container화 해서 서비스를 올릴 수 있다.

이렇게 하면 ELK스택의 구성이 끝마쳐진다. docker를 활용하면 기반 기술을 설정하는게 확실히 편하다.



Logstash로 모이는 데이터를 Elasticsearch를 통하여 kibana로 보내서 데이터를 시각화해서 보여줄 수 있는 기반이 완성되었다고 보면 된다.


# 컨테이너 목록 확인

docker-compose ps  


#컨테이너 로그 확인

docker-compose logs -f


#서비스 정지

docker-compose stop


#컨테이너 삭제

docker-compose rm


'나는개발자다!! > 데이터분석과마케팅' 카테고리의 다른 글

연봉탐색기 썰  (2) 2019.01.11
마케팅과 관한 썰  (0) 2019.01.11
R 개발환경 셋팅하기  (0) 2019.01.11
R에서 조심해야 썰!!  (2) 2019.01.10