웹개발 3주차

Jeong Yeongmin·2022년 9월 10일
0

web

목록 보기
3/5

1. 'Requests' library

//requests 라이브러리 설치 필요
import requests

// 서울 미세먼지 API 받아오기
r = requests.get('http://spartacodingclub.shop/sparta_api/seoulair')
rjson = r.json()

gus = rjson['RealtimeCityAir']['row']

for gu in gus:
	if gu['IDEX_MVL'] < 60:
		print (gu['MSRSTE_NM'], gu['IDEX_MVL'])
       

2. crawling

-> 웹페이지에서 필요한 정보를 추출
-> bs4: 웹페이지에서 crawling 용이하게 해주는 패키지(beautifulsoup4)

i) 크롤링하고 싶은 부분에서 마우스 우클릭 -> 검사
ii) copy -> copy selector

import requests
from bs4 import BeautifulSoup

# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 이제 코딩을 통해 필요한 부분을 추출하면 된다.
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
    # movie 안에 a 가 있으면,
    a_tag = movie.select_one('td.title > div > a')
    if a_tag is not None:
        # a의 text를 찍어본다.
        print (a_tag.text)

3. DB(Database)

i) SQL -> 행/열의 생김새가 정해진 엑셀에 데이터를 저장하는 것과 유사하나 정형화되어 있는 만큼, 데이터의 일관성이나/분석에 용이할 수 있음(ex: MS-SQL, My-SQL)
ii) No-SQL(Not only SQL) -> 딕셔너리 형태로 데이터를 저장해두는 DB이며 데이터 하나 하나 마다 같은 값들을 가질 필요가 없음. 다만, 자유로운 형태의 데이터 적재에 유리한 대신, 일관성이 부족할 수 있음(ex: MongoDB)

  • 시작하기 전: pymongo, dnspython package installation
//pymongo로 code import
from pymongo import MongoClient
client = MongoClient('여기에 URL 입력')
db = client.dbsparta

//pymongo로 DB조작
// 1. pymongo(find): 모든 데이터 뽑아보기
all_users = list(db.users.find({},{'_id':False}))

// 2. pymongo(find_one): 특정 결과값 뽑아보기
user = db.users.find_one({'name':'bobby'})

//3. pymongo(update_one): 수정하기
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

//4. pymongo(delete_one): 삭제하기
db.users.delete_one({'name':'bobby'})

//5. 저장
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

4. pymongo 기본 세팅(정리)

import requests
from bs4 import BeautifulSoup

from pymongo import MongoClient
// 맥 보안환경 상 추가로 설치해야 하는 library: certifi, 상황에 따라 필요하지 않을수도
import certifi
ca = certifi.where()

// 맥 보안환경 상 tlsCAFile=ca 추가로 필요, 상황에 따라 필요하지 않을수도
client = MongoClient('mongodb+srv://test:sparta@cluster0.55vah.mongodb.net/Cluster0?retryWrites=true&w=majority', tlsCAFile=ca)
db = client.dbsparta

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.naver?sel=pnt&date=20210829',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')

//...

0개의 댓글