파이썬에서 continue는 점프문으로, 블록의 나머지 명령어들을 모두 실행하지 않은 채 루프의 다음 반복을 실행하기 위해 컨트롤을 이동시킨다. while문과 for문 모두에서 사용가능하다.자주 헷갈리는 개념으로, pass와 break가 있다.pass : 실행할 코드가
Q-21: 파이썬에서 Docstring이란 무엇인가? A docstring is a unique text that happens to be the first statement in the following Python constructs: Module, Functi
🥹 엘라스틱에서 MySQL로 1월 한 달을 es 공부와 구축에 쏟았다. 그러던 중 2월 초, 백엔드분으로부터 es로만 구축하면 서버가 뻗을 것이다 라는 얘기를 들었다. 그래서 처음 DB였던 MySQL로 회귀하였다..... 처음엔 간단하게 MySQL이 RDB니까 더
8. 모듈 "re"를 이용하여 이메일 id를 확인하는 표현식을 작성하라. > #### 9. 아래 코드의 아웃풋 값은 무엇인가? 답은 []이다. 만약, print(list[10])이라고 단순히 인덱싱을 하면 IndexError: list index out of ran
1. 파이썬이란 무엇인가, 장점은 무엇인가 파이썬은 현재 가장 많이 사용되고 있는 인터프리터 언어이며, 실행 전에 컴파일 할 필요가 없다. 변수를 선언할 때 데이터 유형을 언급할 필요가 없는 동적 언어이다. 파이썬은 객체지향언어로, 컴포지션(다른 클래스의 일부 메서드
✒ 프로젝트 개요 12월부터 참여하게 된 팀 프로젝트가 있어 그 과정을 기록하려 한다. 내가 참여한 프로젝트는 실제로 서비스로 출시를 목표로 하는 팀이고, 각 분야의 미들 이상급 분들과 주니어가 섞인 성장형+실무형 프로젝트다. 프로젝트는 유튜브 데이터를 AI 학습
🤨 갑자기 스토리? 왜? 갑작스레 소프트웨어 설계팀에 들어가게 되었다. 사실 소프트웨어 설계라고는 해도 설계는 거의 끝난 상태였고 유지/보수를 위해 PM과 함께 일할 각 팀 사람들을 뽑아 만든 팀이다. 비전공자에 아직 코드도 버벅대면서 치지만 설계 파트에 들어가게
커리어 전환을 하고 원하던 데이터 직무로 취업을 했다. 하지만 생각보다 원하던 업무내용과는 거리가 있기에 평소에 공부하고 싶었던 것들을 공부하는 시간들을 가졌다.12월부터 지금까지리눅스Django보안 및 네트워크중급 Python크롤링 툴데이터 모델링등을 공부했다. 그리
python을 배우면서 python의 영역이 점점 넓어진다는 이야기를 들은 적이 있다. 하지만 실제 채용 공고들을 뒤적여봤을 때 결국 메인 언어는 JAVA, C++, C그러던 중 주말에 팽팽 놀다가 자려고 누운 일요일 밤, 노마드코더의 유튜브를 보고 "이거시 모다냐..
보안상의 이슈로 결국 DB 서버를 Django를 통해 만들기로 결정되었다. 그런데 특이하게 서브미션으로 주어진 게 있었는데, 바로 Scrapy를 Django에 접목시키는 것이다.Django에서 키워드를 입력하면 Scrapy가 작동되어 url에서 크롤링해서 DB에 적재하
개인 프로젝트 중에 구글, 네이버와 같은 사이트들을 크롤링 해야하는 일이 생겼다. 네이버야 api로 제공하던 많은 부분들을 제한해와서 결국 bs4로 크롤링하기로 했지만, 구글은 그래도 뭔가 더 주지 않을까...! 해서 찾아본 결과, 한 오픈소스 라이브러리를 발견했다.
회사에서는 여전히 데이터팀보다는 기획이나 설계 파트에 관한 업무를 진행하고 있다. 따라서 나의 커리어를 위해 개인적으로 프로젝트에도 참가하고 있었다. 그러던 중, 지인으로부터 대학 합격 모델을 만들 수 있냐는 제안을 받았다. 그래서 3년치의 성적 데이터를 받아 코랩에서
임무라고 할까. 회사에서 처음으로 데이터팀다운 일(?)을 했다. 바로 FLASK로 DB 서버 구축하기.이유는 모르겠지만(아마 MSA...?), 회사에서는 백엔드 서버, DB 서버, AI팀 서버를 따로 구축한다고 한다. 그래서 데이터팀에서 그나마 DB랑 웹을 만져본 내가
책 구매 링크<예스24 미리보기 캡처>만화라 읽었다. 솔직히.데이터 분석가로 취업한 동기의 추천을 받아 책을 한 권 읽었다. 전혀 부담스럽지 않은 만화라 한 시간에 다 읽은 것 같다. 책 속의 화자는 '숫자에 민감한' 데이터 분석가로 일하고 있는 회사원이고, 주로
별 거 안 했다.회사는 아직 어플 개발 단계이고, 데이터팀으로써 할 수 있는 일은 데이터 아키텍처를 그리거나 파이프라인을 짜는 거라고 들었지만 우리 회사는 특수하게 본사의 다른 팀이 거의 주도하고 나머지 팀이 대기하는 그런 흐름이라 할 게 없었다. 그래서 나는 개인공부
우선, 그간 취활에 집중했다.무작정 어찌저찌 욱여넣은 이력서를 들고 하루에 3~4개, 일주일에 20개씩은 넣었던 것 같다. 혼자 공부하는 것에 한계를 느껴서 도대체 어떤 걸 공부하면 좋을지 면접장에 가서 물어봤다. 첫 주에 운이 좋게도 4군데 중 3군데를 2차 면접까지
우선, 6주차 강의가 올라간지 한참 지나서 5주차 리뷰를 쓰는 자신을 반성하며 글을 시작합니다...🥲4주차 복습질문 리뷰대용량 데이터 처리 할 때 airflow worker 노드 안에서 spark 처리? 아니면 airflow에서 emr 구동해서 emr에서 spark
코딩테스트로 처음으로 본인의 의지대로 S3와 athena를 써보았다. 그러면서 겪은 나의 눈물겨운 ETL을 기록해두려한다. 우선, S3는 airflow 강의 당시 개념만 익혀두었고, athena는 건너건너 이름만 들어봤기 때문에 "아~Data Lake~대화식 쿼리 서비
EC2 서버 접속(ubuntu의 경우)apt-get 업데이트 + python 설치airflow 및 기타 모듈 설치ubuntu계정말고 airflow에 관한 권한만 가질 airflow계정 생성 + airflow계정의 홈디렉토리 설정Postgres 설치 + Postgres계