En poursuivant votre navigation sur ce site, vous acceptez l'utilisation d'un simple cookie d'identification. Aucune autre exploitation n'est faite de ce cookie. OK
1

Multi-armed bandits and beyond

Sélection Signaler une erreur
Multi angle
Auteurs : Agrawal, Shipra (Auteur de la Conférence)
CIRM (Editeur )

Loading the player...

Résumé : In this tutorial I will discuss recent advances in theory of multi-armed bandits and reinforcement learning, in particular the upper confidence bound (UCB) and Thompson Sampling (TS) techniques for algorithm design and analysis.

Keywords : multi-armed bandits; online decision making; learning

Codes MSC :
60J20 - Applications of Markov chains and discrete-time Markov processes on general state spaces
68Q32 - Computational learning theory
68T05 - Learning and adaptive systems

    Informations sur la Vidéo

    Réalisateur : Petit, Jean
    Langue : Anglais
    Date de publication : 21/06/2022
    Date de captation : 23/05/2022
    Sous collection : Research School
    arXiv category : Machine Learning ; Artificial Intelligence
    Domaine : Computer Science ; Probability & Statistics
    Format : MP4 (.mp4) - HD
    Durée : 00:53:59
    Audience : Researchers ; Graduate Students ; Doctoral Students, Post-Doctoral Students
    Download : https://videos.cirm-math.fr/2022-05-23_Agrawal.mp4

Informations sur la Rencontre

Nom de la rencontre : Theoretical Computer Science Spring School: Machine Learning / Ecole de Printemps d'Informatique Théorique : Apprentissage Automatique
Organisateurs de la rencontre : Cappé, Olivier ; Garivier, Aurélien ; Gribonval, Rémi ; Kaufmann, Emilie ; Vernade, Claire
Dates : 23/05/2022 - 27/05/2022
Année de la rencontre : 2022
URL Congrès : https://conferences.cirm-math.fr/2542.html

Données de citation

DOI : 10.24350/CIRM.V.19921203
Citer cette vidéo: Agrawal, Shipra (2022). Multi-armed bandits and beyond. CIRM. Audiovisual resource. doi:10.24350/CIRM.V.19921203
URI : http://dx.doi.org/10.24350/CIRM.V.19921203

Voir aussi

Bibliographie



Imagette Video

Sélection Signaler une erreur