# Redshift는 PostgresSQL을 사용하므로 postgres hook으로 접속한다.
from airflow.providers.postgres.hook.postgres import PostgresHook
hook = PostgresHook(postgres_conn_id='Connections에서 설정한 Conn id')
conn = hook.get_conn()
conn.autocommit = True # default : False
dags_folder
: DAGs 폴더가 지정되는 위치dag_dir_list_interval
: DAGs 폴더에 새로운 DAG를 만들었을 때 Airflow 시스템에서 적용하는 시간(단위 : 초)[auth_backends]
: Airflow를 API형태로 외부에서 조작하고 싶을 때 조작하는 섹션$ sudo systemctl restart airflow-webserver
$ sudo systemctl restart airflow-scheduler
fernet_key
: MetaDB내용을 암호하고 싶을 때 지정하는 keyCREATE TEMP TABLE tmp_table AS SELECT ~~~
INSERT INTO origin_table SELECT DISTINCT * FROM tmp_table
CREATE TEMP TABLE
은 말그대로 임시 테이블을 만드는 명령어이므로 사용 후 자동으로 삭제해주기 때문에 직접 DROP을 안해줘도 된다./opt/airflow/dags
위치에 있다.$ docker exec --user root -it 컨테이너id sh
차근차근 하나씩 직접해보니 너무 재밌다!!! 진도는 늦었지만 이렇게 하나씩 해보는 과정이 너무 즐거워서 시간이 훅훅 지나가버린다. 그래도 너무 늦으면 안되니까 시간을 고려하면서 진행해야겠다.