..

2400·2022년 1월 22일
0

hpbandster
파라미터 튜닝
https://github.com/automl/HpBandSter

https://github.com/electricbrainio/hypermax

haar cascade
간단한 object detection
http://www.gisdeveloper.co.kr/?p=7208

딥러닝을 이용한 자연어 처리 입문
https://wikidocs.net/book/2155

Visualize hierarchical data using Plotly and Datapane

https://towardsdatascience.com/visualize-hierarchical-data-using-plotly-and-datapane-7e5abe2686e1

===========
재밌어 보이는 글

w2v을 사용해 상품 임베딩을 생성한 방법은 아주 강력한 baseline이며, 
아주 가볍게 기본적인 MF 접근법을 이겼습니다.

만일 시퀀스를 준비했다면, 단순히 gensim 구현체를 사용할 수 있습니다. 
만일 w2v을 확장해서 자신만의 구현체가 필요하다면, 
개발하는 것은 그리 어렵지 않습니다.

PyTorch w2v 구현체가 gensim을 이겼다는 것은 아주 멋진 일입니다. 
또, 알리바바의 논문 결과를 이겼죠. 
슬프게도, 주변 정보를 사용한 개선을 재현할 수는 없었습니다. 
아마 메타 데이터가 sparse하지 않은 데이터셋에 대해 다시 실험을 해 확인을 해 보아야겠습니다.

마지막으로, 시퀀스 형태로 들어간 학습 데이터는 레전드였습니다. 
시퀀스를 사용한 MF는 기존의 상품 pair를 사용한 MF보다 훨씬 성능이 좋았죠. 
시퀀스는 다양한 신박한 접근법으로 만들어낼 수 있습니다. 
이 포스트에서는, 상품 그래프를 만들고 random walk를 수행해 이 sequence를 만들어 냈죠.

https://myeonghak.github.io/graph%20neural%20networks/recommender%20systems/RecSys-Beating-the-baseline-recommender-using-Graph-and-NLP-techniques-in-PyTorch/


https://towardsdatascience.com/bayesian-marketing-mix-modeling-in-python-via-pymc3-7b2071f6001a

https://towardsdatascience.com/manova-97e675a96158

https://towardsdatascience.com/visualizing-decision-trees-with-pybaobabdt-f8eb5b3d0d17

https://towardsdatascience.com/detect-change-points-with-bayesian-inference-and-pymc3-3b4f3ae6b9bb

https://towardsdatascience.com/how-to-explain-decision-trees-predictions-7a10834fe54d

profile
공부용 혹은 정리용 혹은 개인저장용

0개의 댓글

관련 채용 정보