conda inatall selenium
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get("url 주소")
# 현재 탭 닫기
driver.close()
# 전체 탭 닫기 (마지막에 꼭 실행하기)
driver.quit()
# 화면 최대 크기 설정
driver.maximize_window()
# 화면 최소 크기 설정
driver.minimize_window()
# 화면 크기 설정
driver.set_window_size(600, 600)
# 새로 고침
driver.refresh()
# 뒤로 가기
driver.back()
# 앞으로 가기
driver.forward()
from selenium.webdriver.common.by import By
first_content = driver.find_element(By.CSS_SELECTOR,"html code copy seclet")
first_content.click()
# 새로운 탭 생성
driver.execute_script("window.open('url 주소')")
# 탭 이동
driver.switch_to.window(driver.window_handles[0])
# 탭 개수
len(driver.window_handles)
# 스크롤 가능한 높이(길이)
# 화면 크기에 따라 반환 값 달라짐
driver.execute_script("return document.body.scrollHeight")
# 화면 스크롤 하단 이동
driver.execute_script("window.scrollTo(0, document.body.scrollHeight)")
# 화면 스크롤 상단 이동
driver.execute_script("window.scrollTo(0, 0)")
# 현재 보이는 화면 스크린샷 저장, . : 현재 위치
# bool 타입으로 반환
driver.save_screenshot("./last_height.png") # ("경로지정", 생략가능)
# 특정 태그 지점까지 스크롤 이동
from selenium.webdriver import ActionChains
some_tag = driver.find_element(By.CSS_SELECTOR,
"html code copy select")
action = ActionChains(driver)
action.move_to_element(some_tag).perform()
# 검색창에 검색어 입력
keyword = driver.find_element(By.CSS_SELECTOR, "#query")
keyword.clear()
keyword.send_keys("파이썬")
# 검색하기
secrch_btn = driver.find_element(By.CSS_SELECTOR, "#search-btn")
secrch_btn.click()
# 검색창에 검색어 입력
driver.find_element(By.XPATH, '//*[@id="query"]').send_keys("xpath")
# 검색하기
driver.find_element(By.XPATH, '//*[@id="search-btn"]').click()
# 1. 돋보기 버튼을 선택
from selenium.webdriver import ActionChains
search_tag = driver.find_element(By.CSS_SELECTOR, ".search")
action = ActionChains(driver)
action.click(search_tag)
action.perform()
# 2. 검색어를 입력
driver.find_element(By.CSS_SELECTOR, "#header > div.search > input[type=text]").send_keys("딥러닝")
# 3. 검색 버튼 클릭
driver.find_element(By.CSS_SELECTOR, "#header > div.search.on > button").click()
driver.page_source
from bs4 import BeautifulSoup
req = driver.page_source
soup = BeautifulSoup(req, "html.parser")
soup.select(".post-item")
contents = soup.select(".post-item")
len(contents)
contents[2]
“이 글은 제로베이스 데이터 취업 스쿨의 강의 자료 일부를 발췌하여 작성되었습니다.”