곧 추천시스템(Recommendation System)에서 활용가능한 관점의 Multi-Armed Bandits에 관한 포스팅이 하나둘 써내려갈 예정입니다. 많은 관심부탁드립니다.
많은 분들이 공감하시겠지만, $\epsilon$-greedy, UCB (Upper Confidence Bound), TS (Thompson Sampling)등 토막토막의 MAB관련된 글들은 영문이든, 국문이든 구글에서 쉽게 찾아볼 수 있지만, MAB의 큰틀을 제시해줄 수 있는 문서가 부족합니다. 앞으로 이어질 포스팅 하나하나를 연결하고 큰 밑그림을 그려가는 작업이 순탄하지는 않았고, 부족한 점이 많을 것으로 생각됩니다.
그럼에도 불구하고 많은 피드백을 주시면 정말 감사하겠습니다. ㅎㅎ
곧 찾아뵙겠습니다. 감사합니다:)
yjjo.tistory@gmail.com
'Reinforcement Learning > Multi-Armed Bandits' 카테고리의 다른 글
Stochastic Bandits (3) - UCB (Upper Confidence Bound) (0) | 2021.01.03 |
---|---|
Stochastic Bandits (2) - ε-greedy (0) | 2020.12.18 |
Stochastic Bandits (1) - Introduction (0) | 2020.12.09 |
Introduction to Multi-Armed Bandits (2) (0) | 2020.12.02 |
Introduction to Multi-Armed Bandits (1) (2) | 2020.12.01 |
댓글