Item request has been placed! ×
Item request cannot be made. ×
loading  Processing Request

Simpler PAC-Bayesian Bounds for Hostile Data

Item request has been placed! ×
Item request cannot be made. ×
loading   Processing Request
  • معلومة اضافية
    • Contributors:
      Université Paris-Saclay; Centre de Recherche en Économie et Statistique (CREST); Ecole Nationale de la Statistique et de l'Analyse de l'Information Bruz (ENSAI)-École polytechnique (X)-École Nationale de la Statistique et de l'Administration Économique (ENSAE Paris)-Centre National de la Recherche Scientifique (CNRS); MOdel for Data Analysis and Learning (MODAL); Laboratoire Paul Painlevé - UMR 8524 (LPP); Université de Lille-Centre National de la Recherche Scientifique (CNRS)-Université de Lille-Centre National de la Recherche Scientifique (CNRS)-Université de Lille, Sciences et Technologies-Inria Lille - Nord Europe; Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Evaluation des technologies de santé et des pratiques médicales - ULR 2694 (METRICS); Université de Lille-Centre Hospitalier Régional Universitaire CHU Lille (CHRU Lille)-Université de Lille-Centre Hospitalier Régional Universitaire CHU Lille (CHRU Lille)-École polytechnique universitaire de Lille (Polytech Lille); ANR-11-LABX-0007,CEMPI,Centre Européen pour les Mathématiques, la Physique et leurs Interactions(2011)
    • بيانات النشر:
      HAL CCSD
      Springer Verlag
    • الموضوع:
      2018
    • Collection:
      LillOA (HAL Lille Open Archive, Université de Lille)
    • نبذة مختصرة :
      International audience ; PAC-Bayesian learning bounds are of the utmost interest to the learning community. Their role is to connect the generalization ability of an aggregation distribution $\rho$ to its empirical risk and to its Kullback-Leibler divergence with respect to some prior distribution $\pi$.Unfortunately, most of the available bounds typically rely on heavy assumptions such as boundedness and independence of the observations. This paper aims at relaxing these constraints and provides PAC-Bayesian learning bounds that hold for dependent, heavy-tailed observations (hereafter referred to as \emph{hostile data}). In these bounds the Kullack-Leibler divergence is replaced with a general version of Csisz\'ar's $f$-divergence. We prove a general PAC-Bayesian bound, and show how to use it in various hostile settings.
    • Relation:
      hal-01385064; https://inria.hal.science/hal-01385064; https://inria.hal.science/hal-01385064v3/document; https://inria.hal.science/hal-01385064v3/file/main.pdf
    • الرقم المعرف:
      10.1007/s10994-017-5690-0
    • Rights:
      info:eu-repo/semantics/OpenAccess
    • الرقم المعرف:
      edsbas.4984B9E0