스파르타코딩 클럽 내일배움단 4주차

한선희·2022년 1월 17일
0

재밌지만, 확실히 쉽지 않다.
멀고 어렵게만 느껴졌던 서버와 데이터 베이스가 훨씬 친숙해졌다.
여전히 디테일이 떨어지고 post, get을 하는 원리를 많이 헷갈리지만, 뭔가 자신감이 조금 생긴 기분이다.

서버 만들기
서버 : 컴퓨터에서 돌아가고있는 하나의 프로그램 엑셀, 포토샵과 같은
로컬 개발환경 : 서버를 만들고 동일한 컴퓨터에 크롬 브라우저를 켜서 접속을 해보는 것
컴퓨터에 서버를 만들고 24시간 작동시킴

서버를 돌아가게 만드는 파일은 보통 app.py라고 이름짓는다

flask frame워크 : 서버를 구동시켜주는 편한 코드 모음(패키지)
남이 짜놓은 규칙안에서 코딩하는 것, 보통 1개 안에서 코딩
라이브러리는 여러가지를 가져다 조합하는 것으로 여러가지를 사용

flask 시작 코드 run -> 크롬에서 localhost:5000(내가 만든 서버에 만든 5000이라고 뚫어놓은 문입니다(번호는 안만지는 것이 좋음) -> 크롬에 서버가 보여짐 'This is Home!'

html을 직접 작성해서 적용할 수 도 있으나, 너무 번거로운일
@app.route('/')
def home():
return '나는 버튼이다'

static : css, 이미지파일 담아둘 폴더
templates : html을 담는 폴더

  • render_template()을 통해 서버로 불러올 수 있다.
    예) from flask import Flask, render_template
    app = Flask(name)
    @app.route('/')
    def home():
    return render_template('index.html')

API : 은행이 고객을 받기위해 만들어놓은 창구같은 것, 서버가 클라이언트의 요청을 받기위한 것, 주소와 규칙이 있음.
get(데이터 조회), post(데이터 변경)를 주로 사용

웹사이트 제작 전 api, html을 기획하고 설계를 먼저해야함

meta tag를 이용한 크롤링

: 안에 있음 og:image / og:title / og:description 등 공유할 때 이미지나 간단한 설명으로 미리보기로 보여줄 수 있는 태그 ex) meta tag og:title이용한 크롤링 import requests from bs4 import BeautifulSoup url = 'https://movie.naver.com/movie/bi/mi/basic.nhn?code=171539' headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get(url,headers=headers) soup = BeautifulSoup(data.text, 'html.parser') title = soup.select_one('meta[property="og:title"]')['content'] print(title) meta태그에서 og:title의 성격을 가진것만 가져와라 그중 content만 가져와서 print 자동으로 새로고침 window.location.reload()
profile
코딩 비기너

0개의 댓글

관련 채용 정보