[항해99] 사전준비 - 웹개발 종합반 3주차

박하린·2021년 9월 12일
0

항해99

목록 보기
2/27
  • hombrew 설치 - mongoDB 설치
  • robo3T 설치

javascript 로딩 후 실행

$(document).ready(function(){
  listing();
});

python 시작하기

1. python을 설치한다는 것의 의미

  • 일종의 번역팩을 설치한다고 생각
  • 컴퓨터는 1과 0으로 된 언어만 알아듣는다
    -> 파이썬 문법으로 된 것을 1과 0으로 된 언어로 변환해줄 수 있도록, 번역 패키지를 설치하는 것

2. python 패키지 설치하기

  • python에서 패키지는 모듈(일종의 기능들 묶음)을 모아 놓은 단위이다. 이런 패키지의 묶음을 라이브러리라고 볼 수 있다
  • 기능들(.py)의 묶음 = 모듈 > 모듈의 묶음 = 패키지 > 패키지의 묶음 = 라이브러리
  • 가상 환경(virtual enviroment)이란?
    • 프로젝트 별로 패키지들을 담을 공구함

      정리하자면,

      • 같은 시스템에서 실행되는 다른 파이썬 응용 프로그램들의 동작에 영향을 주지 않기 위해, 파이썬 배포 패키지들을 설치하거나 업그레이드하는 것을 가능하게 하는 격리된 실행 환경
  • python 웹 크롤링
    • 웹 서버에 저장된 데이터를 가져오는 행위를 웹 크롤링 또는 웹 스크래핑이라고 부른다.
      • 웹 스크래핑 : 일반적으로 특정한 데이터만을 웹사이트로부터 가져오는 행위를 스크래핑이라고 부른다.
      • 웹 크롤링 : 구글, 네이버, 다음과 같은 포털 사이트들이 인터넷에 있는 다수의 정보를 가져가는 행위
        우리가 새롭게 만든 홈페이지가 구글에서 검색될 수 있는 것은 구글이 색을 위해서 인터넷에 연결된 모든 웹 페이지를 돌아다니면서 페이지의 정보를 저장해두기 때문
        -> 이처럼 포털 사이트에서 대규모의 웹 데이터를 가져가는 것이 웹 크롤링
    • 웹페이지의 데이터 중 원하는 값만 가져오는 스크래핑은
      1. 웹에서 HTML 파일을 다운로드 하는 과정 - requests모듈
      2. 다운로드한 HTML 에서 원하는 데이터를 파싱하는 과정 - bs4모듈
        의 두단계로 진행된다.

3. requests 라이브러리

ex) 서울시 대기 OpenAPI에서, 중구의 NO2 값을 가져오기

import requests # requests 라이브러리 설치 

# 서울시 미세먼지 OpenAPI
r = requests.get('http://openapi.seoul.go.kr:8088/6d4d776b466c656533356a4b4b5872/json/RealtimeCityAir/1/99') 
rjson = r.json()

print(rjson['RealtimeCityAir']['row'][0]['NO2'])
> 중구의 NO2값 ex) 0.016

4. bs4 라이브러리

  • 크롤링 기본 세팅
import requests
from bs4 import BeautifulSoup

# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 이제 코딩을 통해 필요한 부분을 추출하면 된다.
soup = BeautifulSoup(data.text, 'html.parser')

#############################
# (입맛에 맞게 코딩)
#############################
  • select, select_one 사용해보기
    ex) 영화제목 가져와보기
# select를 이용해서, tr 태그 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
    # movie 안에 a가 있으면
    a_tag = movie.select_one('td.title > div > a')
    if a_tag is not None: # 공백 줄 제거
    	title = a_tag.text
  • beautifulsoup 내에 정의된 다른 select 사용법
# 선택자를 사용하는 방법 (copy selector)
soup.select('태그명')
soup.select('.클래스명')
soup.select('#아이디명')

soup.select('상위태그명 > 하위태그명 > 하위태그명')
soup.select('상위태그명.클래스명 > 하위태그명.클래스명')

# 태그와 속성값으로 찾는 방법
soup.select('태그명[속성="값"]')

# 한 개만 가져오고 싶은 경우
soup.select_one('위와 동일')
  • 크롬 개발자 도구에서 원하는 선택자 가져오기
    1. 원하는 부분에서 마우스 오른쪽 -> 검사
    2. 검사에서 원하는 태그에서 마우스 오른쪽
    3. Copy -> Copy selector로 선택자 복사

robo3T

mongoDB를 그래픽인터페이스를 제공하지 않으므로 저장을 해도 눈으로 확인할 수 없다. 그래서 DB내부를 살펴보기 위해 필요한 것이 robo3T

DB

DataBase에는 두 종류가 있다

  • RDBMS(SQL)

    행/열의 생김새가 정해진 엑셀에 데이터를 저장하는 것과 유사하다. 데이터 50만 개가 적재된 상태에서, 갑자기 중간에 열을 하나 더하기는 어려울것이지만, 정형화되어 있는 만큼, 데이터의 일관성이나 / 분석에 용이하다.

    ex) MS-SQL, My-SQL 등

  • No-SQL

    딕셔너리 형태로 데이터를 저장해두는 DB. 고로 데이터 하나 하나 마다 같은 값들을 가질 필요가 없어 자유로운 형태의 데이터 적재에 유리한 대신, 일관성이 부족할 수 있다.

    ex) MongoDB

pymongo

  • mongoDB 설치 후에 크롬창에 localhost:27017 입력 후 아래처럼 나오면 정상설치!

  • mongoDB를 다루기 위한 파이썬 라이브러리

  • DB 연결하기

from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 설치 후에)
client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아간다.
db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만든다.

pymongo 데이터 조작 코드 요약

# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기
user = db.users.find_one({'name':'bobby'}) 

# 여러 개 찾기
same_ages = list(db.users.find({'age':21},{_id:False}))

# 변경
db.users.update_one({'name':'bobby',{'$set':{'age':19}}})

# 삭제
db.users.delete_one({'name':'bobby'})

pymongo 기본 세팅

import requests
from bs4 import BeautifulSoup

from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

3주차 숙제 - 지니 뮤직의 1~50위 곡 스크래핑

import requests
from bs4 import BeautifulSoup

from pymongo import MongoClient
client = MongoClient('localhost', 27017)
db = client.dbsparta

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://www.genie.co.kr/chart/top200?ditc=D&ymd=20200403&hh=23&rtm=N&pg=1',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

trs = soup.select('#body-content > div.newest-list > div > table > tbody > tr')
:nth-child(1) > 

for tr in trs:
	artist = tr.select_one('td.info > a.artist.ellipsis')
	
for tr in trs:
    rank = tr.select_one('td.number').text[0:2].strip()
    title = tr.select_one('td.info > a.title.ellipsis').text.strip()
    artist = tr.select_one('td.info > a.artist.ellipsis').text
    print(rank, title, artist)

실행 화면

profile
깃허브: https://github.com/khakaa

0개의 댓글