# ES ํจํค์ง import
from elasticsearch import Elasticsearch
# es ์ฐ๊ฒฐ
# localhost์๋ฆฌ์ ip์ฃผ์ ๊ฐ๋ฅ
es = Elasticsearch('http://localhost:9200/'])
#์ฐ๊ฒฐ ์ฌ๋ถ ํ์ธ
print('elasticsearch connected info \n',es.info())
# ์ ์ฒด ์ธ๋ฑ์ค ํ์ธ(์ถ๋ ฅ)
def allIndex():
print(es.cat.indices())
# ์์) ์ ์ฒด ์ธ๋ฑ์ค ํ์ธ
allIndex()
# ์ธ๋ฑ์ค ์์ฑ ํจ์
def make_index(es,index_name):
es.indices.create(index=index_name)
# ์์) crawling์ด๋ผ๋ ์ธ๋ฑ์ค ์์ฑ
make_index(es, 'crawling')
# ์ธ๋ฑ์ค ์ญ์ ํจ์
def del_index(es, index_name):
es.indices.delete(index=index_name)
# ์์) crawling์ด๋ผ๋ ์ธ๋ฑ์ค ์ญ์
del_index(es, 'crawling')
๐จ data return์ด ์๋ ์ฝ์์ฐฝ ์ถ๋ ฅ ํ์ธ์ฉ ๋ฐ์ดํฐ๋ฅผ ์ฃผ๊ณ ๋ฐ์ผ๋ ค๊ณ ํ ๊ฒฝ์ฐ ํจ์ ์์ ํ์
# data ์ ์ฅ ํจ์
# doc์ jsonํํ
def save_data(es,index_name, doc):
es.index(index=index_name, body=doc)
print('save_data success')
# ์ธ๋ฑ์ค์ ๋ฐ์ดํฐ ๊ฐฏ์
def count_data(es, index_name):
num=es.count(index=index_name)
print(num['count'])
# ์์) crawling์ธ๋ฑ์ค์ ๋ฐ์ดํฐ ๊ฐฏ์ ์ถ๋ ฅ
count_data(es, "crawling")
# ์ธ๋ฑ์ค์ data ์กฐํ
from pprint import pprint
def get_data(es,index_name):
data=es.search(index=index_name)
pprint(data, indent=4)
# ์์) crawling์ธ๋ฑ์ค์ data์กฐํ
get_data(es,"crawling")