python1

o__o·2022년 5월 15일
0

python

목록 보기
1/5

<구글 Colab 이란?>
: 온라인에서 파이썬 데이터분석을 학습할 수 있는 환경!

(실행: ctrl Enter)
(1) 내 컴퓨터에 파이썬을 설치 할 필요 없고,
(2) 인터넷만 되면 어디서든 접근 가능하고,
(3)내 컴퓨터보다 빠르답니다!

<파이썬>
: 가장 직관적인 문법을 가진 언어!

1) 변수 & 기본연산

⇒ 변수(숫자,문자): 값을 담아두는 박스

a = 3      # 3을 a에 넣는다
b = a      # a를 b에 넣는다
a = a + 1  # a+1을 다시 a에 넣는다
num1 = a*b # a*b의 값을 num1이라는 변수에 넣는다
num2 = 99 # 99의 값을 num2이라는 변수에 넣는다

[자료형] 숫자, 문자 말고도..
여러가지 문자열들이 순서에 의해 묶여있는 list!

2) 리스트, 딕셔너리 형

⇒ 리스트 형 : 순서가 중요!

a_list = ['사과','배','감','수박']

⇒ Dictionary 형 : { key : value } 형태가 중요!

a_dict = {'name':'bob','age':21}
요소 추가 a_dict['height'] = 178 

⇒ Dictionary 형과 List 형의 조합

people = [{'name':'bob','age':20},{'name':'carry','age':38}]
  • people[0]['name']의 값은? 'bob'
  • people[1]['name']의 값은? 'carry'
person = {'name':'john','age':7}
people.append(person)
  • people의 값은? [{'name':'bob','age':20},{'name':'carry','age':38},{'name':'john','age':7}]
  • people[2]['name']의 값은? 'john'

3) 함수

⇒ 수학에서의 함수와 살짝 다르답니다!
⇒ 프로그래밍에선 정해진 일을 하게끔!

파이썬에서 def 콜론 엔터친다음에 들여쓰기가 중요!

def f(x):
	return 2*x+3

result = f(2)
result? 7

4) 조건문

if:/else:
⇒ 무엇을 하라라는 꾸러미가 있다면 들여쓰기를 해라!(함수처럼)

def is_adult(age):
  if age > 20:
    	print('성인')
  else:
    	print('청소년')
     
is_adult(30)

5) 반복문

⇒ ★반복문은 항상 list 꺼내서 함께쓴다

a_list = ['사과','배','감','귤']

for a in a_list:
  print(a)

⇒ 조건문 + 함수 + 반복문을 한번에 사용해보기
(4번 조건문 함수와 함께 적용한다면,)

ages = [20,30,15,5,10]

for age in ages:
	is_adult(age)

<스크래핑 실습: 업무자동화1>

  • 웹스크래핑
    • 웹페이지의 동작 방식
      :URL을 넣고 엔터를 치면 → 정보를 가져와서 → 보여주는 게 브라우저의 역할!
      :HTML 이라고 하는 “뼈대”로 구성

<크롤링 기본 코드>

⇒ requests 로 정보를 가져와서 (enter 치는 라이브러리)
→ BeautifulSoup
으로 분석하기 좋게! 만드는 것이랍니다.(잘 솎아내는 라이브러리)

import requests
from bs4 import BeautifulSoup

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://search.naver.com/search.naver?where=news&ie=utf8&sm=nws_hty&query=삼성전자',headers=headers)

soup = BeautifulSoup(data.text, 'html.parser')

⇒ select_one 과, select 만 기억하면 됩니다!
→ html태그 안에 있는 요소들 불러오는 것!

a = soup.select_one('#sp_nws1 > div.news_wrap.api_ani_send > div > a')
a['href']
a.text

<스크래핑 실습: 업무자동화2>

(colab 칸 지우기: ctrl m+d)

⇒ requests.get(f. 하고 {중괄호부분에 keyword},)
→ get_news(keyword) 하면 스크래핑 됨!

def get_news(keyword):
  headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
  data = requests.get(f'https://search.naver.com/search.naver?where=news&ie=utf8&sm=nws_hty&query={keyword}',headers=headers)

  soup = BeautifulSoup(data.text, 'html.parser')
  lis = soup.select('#main_pack > section > div > div.group_news > ul > li')

  for li in lis:
    a = li.select_one('a.news_tit')
    print(a.text, a['href'])

<엑셀 다루기: 업무자동화1>

openpyxl
⇒ 엑셀 다루는 라이브러리

<openpyxl 기본 코드>

from openpyxl import Workbook
 
wb= Workbook()
sheet = wb.active
 
sheet['A1'] = '안녕하세요!'
 
wb.save("샘플파일.xlsx")
wb.close()

<openpyxl 엑셀 읽기>

import openpyxl
wb = openpyxl.load_workbook('샘플파일.xlsx')
sheet = wb['Sheet']
 
#두번째행부터 불러오기(list로 만들어서!)
rows = list(sheet.rows)[1:]
 
for row in rows:
  if row[2].value < 300:
    print(row[0].value,row[1].value,row[2].value)

#tip> 런타임-초기화 하면 날아감!
Colab 환경은, “저장소”가 아닙니다. 즉, 다시 들어오면 파일은 사라지고 없으니, 작업 용도로만 사용하셔야 한다는 점을 기억해주세요!

<엑셀 다루기: 업무자동화2>

<스크래핑 결과를 엑셀에 넣기>: sheet.append(row)

<파이썬 날짜 가져오기>

from datetime import datetime
datetime.today().strftime("%Y-%m-%d")
wb.save(폴더명/~)
폴더명이라는 폴더에 쌓여라!

<파일다운로드: 업무자동화>

#tip> Colab에선 파일을 올리는 것은 쉬운데, 내려 받는 것이 살-짝 까다로워요! 기본적으로 Colab은 “파일을 모아두는 용도”가 아니기 때문에,
파일을 “묶어주고” → “다운로드” 받는 것이 보통이랍니다.

파일 묶어주기:

!zip -r /content/files.zip /content/news

<파일명바꾸기: 업무자동화>

name = '2022-05-15_NAVER.xlsx'
new_name = name.split('.')[0]+'(뉴스).xlsx'

이렇게 바꾸는 게 기초! os.rename사용하기


import os

path = '/content/news'
names = os.listdir(path)

for name in names:
  new_file = name.split('.')[0] + '(뉴스).xlsx'
  os.rename(path+'/'+name,path+'/'+new_file)
  

<이미지 다운로드: 업무자동화>

import urllib.request

url = '여기에 URL을 입력하기'
urllib.request.urlretrieve(url, "test.jpg")

과제

#관리종목 엑셀파일 이미지 다운로드
import urllib.request
import openpyxl

wb = openpyxl.load_workbook('관리종목.xlsx')
sheet = wb['종목']

new_rows = list(sheet.rows)[1:]

for row in new_rows:
  url = f'https://ssl.pstatic.net/imgfinance/chart/item/area/year3/{row[1].value}.png'
  urllib.request.urlretrieve(url, f"imgs/{row[0].value}.png")
  
#이미지 압축 후 한번에 다운로드 받기
!zip -r /content/imgs.zip /content/imgs

0개의 댓글