# requests
3-5. 파이썬 가상 환경 & pip(requests)
패키지? 라이브러리? → Python 에서 패키지는 모듈(일종의 기능들 묶음)을 모아 놓은 단위. 이런 패키지 의 묶음을 라이브러리 라고 볼 수 있다. 여기서는 외부 라이브러리를 사용하기 위해서 패키지를 설치합니다. 즉, 여기서는 패키지 설치 = 외부 라이브러리 설치가

파이썬으로 데이터 수집
요런것도 있네.... 잼따 크롤링.....(출처)https://book.coalastudy.com/data_crawling/week3/stage2

HTTP Messages
HTTP 즉, HyperText Transfer Protocol의 줄임말로, HTML과 같은 문서를 전송하기 위한 Application Layer 프로토콜이다.HTTP는 웹 브라우저와 웹 서버의 소통을 위해 디자인되었다.전통적인 클라이언트-서버 모델에서 클라이언트가 H
url 유효성 검사기
환영합니다. URL 유효성 검사기 입니다. 확인하려는 URL을 입력해주세요.(여러개 입력시 ,로 구분) www.naver.com, google.com, daum.net https://www.naver.com is Up! https://google.com is Up! https://daum.net is Up...

requests 활용하기
거의 일주일 동안 여기에만 몰두했다. 쉽지 않았다. 내가 무엇을 하고 있는지, 무엇을 해냈는지 잘 모르겠다. 지금도 벙진 상태다. 이런 상태로 글을 제대로 작성할 수 있을지 모르겠다. 미래의 '나'가 이 글을 보면서 무슨 글을 쓴건지 모를 수도 있을 것 같다.오늘은 서
크롤링 특징
requests , beautifulsoup = html 내부 데이터만 크롤링장점 ] 굉장히 빠른 속도 단점 ] 외부 데이터 수집이 불가 selenium, beautifulsoup = html 내부 외부 모두 크롤링장점] 모든데이터를 가져옴단점 ] 상대적으로 느림 ,
Ai_D51
HTML, CSS, JS HTML 웹 컨텐츠의 구조, 빌딩, 블럭 - CSS, JS 는 라이브러리 같은 것 표준화된 markup language. html 은 역사가 길다. 모든 것이 html5를 지원 head- 사용자에게 보여지는 UI 없다. 제목이나 아이콘 CS파
1.17~18 web scraping
계획보다 react가 늦어진 관계로 오늘은 python 공부를 시작했다ㅜ (챌린지 하려면 해야지!)먼저 http통신을 위해서 requests 라이브러리를 설치해준다.pip install requests(참고 : https://docs.python-request

[python] 공공데이터포털 SERVICE_KEY_IS_NOT_REGISTERED_ERROR
문제 상황 지난 포스트 https://velog.io/@ingzart/python-web-api에서-뭔가-안된다-싶으면-일단-범인은-프록시다 에서 프록시 문제는 해결했는데 다른 에러가 발생했다. 나는 params에 반환 데이터 타입을 JSON으로 설정했고, 내 파이썬

백엔드 코드 리뷰 - Reactjs, Nodejs, Python을 이용하여 대학생 자취 지역 추천 서비스 만들기
Nodejs와 Python을 연동한 프로젝트 중 백엔드

개요 - Reactjs, Nodejs, Python을 이용하여 대학생 자취지역 추천 서비스 만들기
[공모전 수상작 리뷰]Reactjs, Nodejs, Python으로 만든 대학생을 위한 자취지역 추천 서비스

[CS] HTTP/네트워크 기초 Day-37
Client Server Architecture 인터넷 연결이 없다면, 앱은 정상적으로 동작할 수 없습니다. 그 이유는 정보를 인터넷 어딘가에 존재하는 서버로부터 받아오기 때문입니다. 특정 서버에 접속하려 할 때 사용이 불가능한 경우 "서버가 죽었다"라고 표현합니다.

웹개발종합반_복습_개발일지_3주차
파이썬 기초 문법을 안다. 원하는 페이지를 크롤링 할 수 있다. pymongo를 통해 mongoDB를 제어할 수 있다.