이 부분에서 filebeat는 로컬에 띄울 것이고 (아래 docker-compose 활용해서 같이 띄워도되는데 !!! 자꾸 실패해서 일단 분리)
나머지 elk는 docker-compose 활용해서 띄울 것
해당 레포 클론 받기
.env 파일 열어서
elasticsearch/config/elasticsearch.yml
수정
cluster.name: docker-cluster
network.host: 0.0.0.0
xpack.security.enabled: false
kibana/config/kibana.yml
수정
33번째줄부터 xpack 관련된 부분 싹 다 주석 처리 !
logstash/pipeline/logstash.conf
수정
input {
beats {
port => 5044
}
}
output {
elasticsearch {
hosts => "http://elasticsearch:9200"
user => "elastic"
password => "${LOGSTASH_INTERNAL_PASSWORD}"
index => "logstash-%{+YYYY.MM.dd}"
}
}
docker-compose build && docker-compose up -d
localhost:5601
접속해서
해당 링크에서 파일비트 다운받기
filebeat.yml
수정하기
filebeat.inputs:
- type: log
paths:
- {각자 환경에 맞는 로그 경로}/*.log
output.logstash:
hosts: ["localhost:5044"]
sudo ./filebeat -e -c filebeat.yml -d "publish"
localhost:5601 접속
위에서 설정한 형식대로 logstash-날짜형식 으로 data가 잡히고 있음!
그래서 패턴을 'logstash-*'으로 설정해줌
날짜 등 필터링 걸어서 로그 확인할 수 있음 !!