김수정 강사님
파이썬(Python)은 초보자부터 전문가까지 모두가 사랑하는 프로그래밍 언어입니다. 이 글에서는 파이썬의 기초부터 활용법까지 알아봅니다.
# 변수 선언
x = 10
y = 3.14
name = "Alice"
# 출력
print(x, y, name) # 출력: 10 3.14 Alice
# 조건문
if x > 5:
print("x는 5보다 큽니다.")
else:
print("x는 5 이하입니다.")
# 반복문
for i in range(3):
print(f"반복: {i}") # 출력: 반복: 0, 반복: 1, 반복: 2
파이썬의 csv 라이브러리를 사용하여 CSV 파일을 읽고 쓸 수 있습니다.
import csv
with open('popSeoul.csv', 'r', encoding='utf-8') as file:
reader = csv.reader(file)
for row in reader:
print(row) # 각 행 출력
import csv
data = [['구', '전체', '내국인', '외국인'],
['관악구', 519864, 502089, 17775]]
with open('test.csv', 'w', newline='', encoding='utf-8') as file:
writer = csv.writer(file)
writer.writerows(data) # 데이터 쓰기
Pandas는 데이터 분석과 조작을 위한 강력한 라이브러리입니다.
import pandas as pd
data = {'name': ['Mark', 'Jane'], 'age': [33, 32]}
df = pd.DataFrame(data)
print(df)
df = pd.read_csv('popSeoul.csv', encoding='utf-8')
print(df[df['외국인'] > 10000]) # 외국인이 1만 명 초과인 구
df = pd.read_csv('popSeoul.csv', encoding='utf-8')
print(df[df['외국인'] > 10000]) # 외국인이 1만 명 초과인구
BeautifulSoup 라이브러리를 사용하여 웹 데이터를 크롤링합니다.
import requests
from bs4 import BeautifulSoup
url = "http://quotes.toscrape.com"
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
quotes = soup.find_all('div', class_='quote')
for quote in quotes:
text = quote.find('span', class_='text').get_text()
author = quote.find('small', class_='author').get_text()
print(f"{text} - {author}")
파이썬을 통한 데이터 가공이 예상 외로 간결했습니다.
큰 데이터를 다룰 때 파이썬을 사용해야 하는 이유가 명확해졌습니다.
(엑셀이나 스프레드 시트는 6만행이 넘어가는 데이터를 다루기에는 무리가 있습니다.)
이번 글에서는 파이썬의 기초 문법과 활용법을 다뤘습니다. 추가적으로 배우고 싶은 내용이나 궁금한 점이 있다면 댓글로 남겨주세요!