웹 3주차

미역국·2021년 7월 19일

스파르타_웹

목록 보기
3/4
  1. request 라이브러리 사용하기
    /request를 통해 데이터를 받아오기
import requests # requests 라이브러리 설치 필요

r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99')
rjson = r.json()

gus = rjson['RealtimeCityAir']['row']

for gu in gus:
	print(gu['MSRSTE_NM'], gu['IDEX_MVL'])
  1. 웹스크래핑(크롤링): 웹에서 원하는 정보 자동으로 추출하여 받아 오기
  • genie 순위 받아오기:
    타겟 URL을 읽어서 HTML를 받아오고,
    HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://www.genie.co.kr/chart/top200?ditc=D&rtm=N&ymd=20210715',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')

rows = soup.select('#body-content > div.newest-list > div > table > tbody > tr')
for row in rows:
    rank = row.select_one('td.number').text[0:2].strip()
    music = row.select_one('td.info > a.title.ellipsis').text.strip()
    artist = row.select_one('td.info > a.artist.ellipsis').text
    print(rank,music,artist)
  1. DB의 종류: SQL,NoSQL
from pymongo import MongoClient
client = MongoClient('localhost', 27017) #mongodb는 27017포트로 돌아갑니다.
db = client.dbsparta

#insert / find / update / delete

# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})

# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
same_ages = list(db.users.find({'age':21},{'_id':False}))

# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

# 지우기 - 예시
db.users.delete_one({'name':'bobby'})
  • 연습하기
from pymongo import MongoClient
client = MongoClient('localhost', 27017) #mongodb는 27017포트로 돌아갑니다.
db = client.dbsparta

movie = db.movies.find_one({'title':'매트릭스'})
target_movie = movie['stars']
print(target_movie)

target_movies = list(db.movies.find({'stars':'9.39'},{'_id':False}))
for each in target_movies:
    print(each['title'])

update = db.movies.update_one({'title':'매트릭스'},{'$set':{'stars':'0'}})
  1. 웹스크래핑 결과 저장하기
import requests
from bs4 import BeautifulSoup

from pymongo import MongoClient
client = MongoClient('localhost', 27017) #mongodb는 27017포트로 돌아갑니다.
db = client.dbsparta

# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')

trs = soup.select('#old_content > table > tbody > tr')

for tr in trs:
    a_tag = tr.select_one('td.title > div > a')
    if a_tag is not None:
        ranking = tr.select_one('td:nth-child(1) > img')['alt']
        title = a_tag.text
        stars = tr.select_one('td.point').text
        doc ={
            'ranks':ranking,
            'title':title,
            'stars':stars
        }
        db.movies.insert_one(doc)
        
profile
웅냥웅냥

0개의 댓글