<구글 Colab 이란?>
: 온라인에서 파이썬 데이터분석을 학습할 수 있는 환경!
(실행: ctrl Enter)
(1) 내 컴퓨터에 파이썬을 설치 할 필요 없고,
(2) 인터넷만 되면 어디서든 접근 가능하고,
(3)내 컴퓨터보다 빠르답니다!
<파이썬>
: 가장 직관적인 문법을 가진 언어!
⇒ 변수(숫자,문자): 값을 담아두는 박스
a = 3 # 3을 a에 넣는다
b = a # a를 b에 넣는다
a = a + 1 # a+1을 다시 a에 넣는다
num1 = a*b # a*b의 값을 num1이라는 변수에 넣는다
num2 = 99 # 99의 값을 num2이라는 변수에 넣는다
[자료형] 숫자, 문자 말고도..
여러가지 문자열들이 순서에 의해 묶여있는 list!
⇒ 리스트 형 : 순서가 중요!
a_list = ['사과','배','감','수박']
⇒ Dictionary 형 : { key : value } 형태가 중요!
a_dict = {'name':'bob','age':21} 요소 추가 a_dict['height'] = 178
⇒ Dictionary 형과 List 형의 조합
people = [{'name':'bob','age':20},{'name':'carry','age':38}]
person = {'name':'john','age':7}
people.append(person)
⇒ 수학에서의 함수와 살짝 다르답니다!
⇒ 프로그래밍에선 정해진 일을 하게끔!
파이썬에서 def 콜론 엔터친다음에 들여쓰기가 중요!
def f(x):
return 2*x+3
result = f(2)
result? 7
if:/else:
⇒ 무엇을 하라라는 꾸러미가 있다면 들여쓰기를 해라!(함수처럼)
def is_adult(age):
if age > 20:
print('성인')
else:
print('청소년')
is_adult(30)
⇒ ★반복문은 항상 list 꺼내서 함께쓴다
a_list = ['사과','배','감','귤']
for a in a_list:
print(a)
⇒ 조건문 + 함수 + 반복문을 한번에 사용해보기
(4번 조건문 함수와 함께 적용한다면,)
ages = [20,30,15,5,10]
for age in ages:
is_adult(age)
- 웹페이지의 동작 방식
:URL을 넣고 엔터를 치면 → 정보를 가져와서 → 보여주는 게 브라우저의 역할!
:HTML 이라고 하는 “뼈대”로 구성
⇒ requests 로 정보를 가져와서 (enter 치는 라이브러리)
→ BeautifulSoup으로 분석하기 좋게! 만드는 것이랍니다.(잘 솎아내는 라이브러리)
import requests
from bs4 import BeautifulSoup
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://search.naver.com/search.naver?where=news&ie=utf8&sm=nws_hty&query=삼성전자',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')
⇒ select_one 과, select 만 기억하면 됩니다!
→ html태그 안에 있는 요소들 불러오는 것!
a = soup.select_one('#sp_nws1 > div.news_wrap.api_ani_send > div > a')
a['href']
a.text
(colab 칸 지우기: ctrl m+d)
⇒ requests.get(f. 하고 {중괄호부분에 keyword},)
→ get_news(keyword) 하면 스크래핑 됨!
def get_news(keyword):
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get(f'https://search.naver.com/search.naver?where=news&ie=utf8&sm=nws_hty&query={keyword}',headers=headers)
soup = BeautifulSoup(data.text, 'html.parser')
lis = soup.select('#main_pack > section > div > div.group_news > ul > li')
for li in lis:
a = li.select_one('a.news_tit')
print(a.text, a['href'])
openpyxl
⇒ 엑셀 다루는 라이브러리
<openpyxl 기본 코드>
from openpyxl import Workbook
wb= Workbook()
sheet = wb.active
sheet['A1'] = '안녕하세요!'
wb.save("샘플파일.xlsx")
wb.close()
<openpyxl 엑셀 읽기>
import openpyxl
wb = openpyxl.load_workbook('샘플파일.xlsx')
sheet = wb['Sheet']
#두번째행부터 불러오기(list로 만들어서!)
rows = list(sheet.rows)[1:]
for row in rows:
if row[2].value < 300:
print(row[0].value,row[1].value,row[2].value)
#tip> 런타임-초기화 하면 날아감!
Colab 환경은, “저장소”가 아닙니다. 즉, 다시 들어오면 파일은 사라지고 없으니, 작업 용도로만 사용하셔야 한다는 점을 기억해주세요!
<스크래핑 결과를 엑셀에 넣기>: sheet.append(row)
<파이썬 날짜 가져오기>
from datetime import datetime
datetime.today().strftime("%Y-%m-%d")
wb.save(폴더명/~)
폴더명이라는 폴더에 쌓여라!
#tip> Colab에선 파일을 올리는 것은 쉬운데, 내려 받는 것이 살-짝 까다로워요! 기본적으로 Colab은 “파일을 모아두는 용도”가 아니기 때문에,
파일을 “묶어주고” → “다운로드” 받는 것이 보통이랍니다.
파일 묶어주기:
!zip -r /content/files.zip /content/news
name = '2022-05-15_NAVER.xlsx'
new_name = name.split('.')[0]+'(뉴스).xlsx'
이렇게 바꾸는 게 기초! os.rename사용하기
import os
path = '/content/news'
names = os.listdir(path)
for name in names:
new_file = name.split('.')[0] + '(뉴스).xlsx'
os.rename(path+'/'+name,path+'/'+new_file)
import urllib.request
url = '여기에 URL을 입력하기'
urllib.request.urlretrieve(url, "test.jpg")
#관리종목 엑셀파일 이미지 다운로드
import urllib.request
import openpyxl
wb = openpyxl.load_workbook('관리종목.xlsx')
sheet = wb['종목']
new_rows = list(sheet.rows)[1:]
for row in new_rows:
url = f'https://ssl.pstatic.net/imgfinance/chart/item/area/year3/{row[1].value}.png'
urllib.request.urlretrieve(url, f"imgs/{row[0].value}.png")
#이미지 압축 후 한번에 다운로드 받기
!zip -r /content/imgs.zip /content/imgs