# ranking

[NestJS] 주문처리과정을 통해 알아보는 수익률 랭킹 조회 (Part 4_ Redis Sorted Set과 Ranking) #4
시작하기에 앞서 지난 시간까지 결제주문을 위한 데이터베이스 설계 + 서비스 로직 작성 + 프로세스 테스트 를 진행해보았다. 이번시간엔 간단하게 이를 활용해 보고자한다. 그것은 바로 "랭킹(Ranking) 기능"이다. 다들 알겠지만 하나의 예로 든다면 전적 검색 사이트(OPGG)나 무신사 블프기간때 볼 수 있는 유저 구매 랭킹등이 이에 해당한다. 그리고, 이러한 랭크 기능은 "Redis"로 구현할 수 있다는 말 또한 들어보았을 것이다. 그런데 인 메모리(In-memory) 데이터 시스템인 레디스가 어떠한 장점이 있길래 랭크 기능에서 이를 사용하는 것일까? 실제 우리의 서비스에 적용시켜보기 전, 먼저 랭크 기능을 위한 레디스의 특징 및 사용법등을 먼저 익히는 시간을 가져보고 그 후 적용을 시켜보고자 한다. 💢 Redis Sorted Set > Sorted Set에 대해 인지하고

2022 유플러스 AI Ground Contest
1. 대회 개요 > 2022 유플러스 AI Ground는, 캐릭터부터 교육용 콘텐츠까지 다양한 콘텐츠를 제공하는 유아-아동 전용 미디어 서비스 ‘아이들나라’의 AI Task 및 실제 사용자 데이터를 바탕으로, 새로운 추천 아이디어 및 프로필별 맞춤형 콘텐츠 추천 AI 모델을 개발하는 AI 경진대회 입니다. 1-1. Baseline 코드(NMF) 1-2. 평가 지표 > score = 평균 Recall@K * 0.75 + 평균 NDCG@K * 0.25 (K = 25) 1-3. 결과 > **658 팀 중 87등(PR

Redis를 이용한 인기검색어 만들기(Nest js)
인기검색어? 다음과 같은 인기검색어를 구현하는 것이 목적입니다. 시스템 자체는 비교적 간단하게, 사용자가 검색어를 입력하면, 해당 검색어랑 관련된 데이터들을 api요청을 통해 가져오게 되고, 이를 서버에서 기록하여 일종의 순위를 매기는 랭킹 시스템을 구축하는 것이 주 목적입니다. 왜 redis인가? redis를 키워드로 검색하면 높은 비율로 랭킹, 순위 시스템의 예시로 많이 드는 것을 볼 수 있습니다. > redis에 대한 더 자세한 학습이 필요하시면 제가 정리한 글인 https://velog.io/@top1506/Redis 참고
Dialogue Response Ranking Training with Large-Scale Human Feedback Data 논문요약 (2)
전편 Dialogue Response Ranking Training with Large-Scale Human Feedback Data 논문요약 (1) 에 이어서 계속 포스팅합니다 :) The DialogRPT: Dialog Ranking Pretrained Transformers 각 샘플에 feedback 예측 점수를 매기는 대신 샘플쌍에 대해 더 적절한 응답을 분류하는 테스크(A Contrastive Learning approach)로 아래 규칙을 따른다. The model is trained to predict a higher score for the positive sample r+ (i.e. the response with
Dialogue Response Ranking Training with Large-Scale Human Feedback Data 논문요약 (1)
논문링크 Contributions 소셜미디어의 피드백 데이터를 사용해 large-scale의 feedback 예측 학습 데이터셋 구축 comment의 engagingness를 평가하기 위해 ranking problem을 response pair를 비교하는 방식으로 변경 133M pair of human data(reddit data)로 GPT-2 기반의 DialogRPT 모델을 학습 Introduction End-to-end open domain dialog 성능은 인간이 구별하기 힘들정도로 높아졌다. SOTA 모델들의 목표는 minimizing the perplexity of reference response for a given context 와 같은 컨셉으로 정리된다. 주어진 레퍼런스 응답의 perplexity를 최소화 그러나, 그보다