본문 바로가기
Reinforcement Learning/Multi-Armed Bandits

Multi-Armed Bandits

by YJJo 2020. 11. 26.

곧 추천시스템(Recommendation System)에서 활용가능한 관점의 Multi-Armed Bandits에 관한 포스팅이 하나둘 써내려갈 예정입니다. 많은 관심부탁드립니다.

많은 분들이 공감하시겠지만, $\epsilon$-greedy, UCB (Upper Confidence Bound), TS (Thompson Sampling)등 토막토막의 MAB관련된 글들은 영문이든, 국문이든 구글에서 쉽게 찾아볼 수 있지만, MAB의 큰틀을 제시해줄 수 있는 문서가 부족합니다. 앞으로 이어질 포스팅 하나하나를 연결하고 큰 밑그림을 그려가는 작업이 순탄하지는 않았고, 부족한 점이 많을 것으로 생각됩니다.

그럼에도 불구하고 많은 피드백을 주시면 정말 감사하겠습니다. ㅎㅎ

곧 찾아뵙겠습니다. 감사합니다:)

yjjo.tistory@gmail.com

댓글