Le Laboratoire de Probabilités, Statistique et Modélisation, dans sa forme actuelle, a résulté, au 1er janvier 1999, de la fusion de l'ancien Laboratoire de probabilité de l'université Paris 6 avec l'équipe de Probabilités et statistique de l'université Paris Diderot.
Le laboratoire compte environ 70 enseignants-chercheurs permanents, 50 thésards, une équipe administrative de 6 personnes. Il accueille de plus les activités de deux masters deuxième année, ce qui représente plus de 200 étudiants chaque année.
La thématique du laboratoire s'inscrit dans le domaine des mathématiques appliquées et a pour objet la modélisation, la description et l'estimation des phénomènes aléatoires. Les thèmes de recherche abordés ici concernent des domaines très variés et recouvrent aussi bien des mathématiques fondamentales que des applications dans des domaines aussi divers que la médecine, les sciences humaines, l'astrophysique, les assurances ou la finance...
Le laboratoire comprend six équipes :
Date: 27 jan 2004 - 13:37
Desc: Cette thèse se décompose en trois parties. Dans la première, nous proposons une formule explicite en termes de comptage de chemins sur un graphe de Cayley, pour le calcul de tous les moments de la mesure de Haar sur le groupe unitaire. Ce résultat fournit un théorème général de liberté asymptotique pour des matrices aléatoires, ainsi que des résultats de convergence d'intégrales matricielles unitaires. En particulier, nous donnons une interprétation combinatoire de la limite de l'intégrale d'Itzykson-Zuber, ainsi qu'un lien avec la $R$-transformée de Voiculescu. Dans une deuxième partie, complètement différente, nous définissons un cadre en probabilités non-commutatives dans lequel nous prouvons que la théorie de Martin s'étend et qu'elle permet une représentation intégrale de toute fonction harmonique positive. Comme application de ces résultats purement quantiques, nous calculons les frontières de Martin de certaines marches au hasard classiques dans une chambre de Weyl. L'exemple d'une marche au hasard sur $SU_q(2)$ est aussi traité de manière exhaustive. Dans la troisième partie, nous proposons une approche analytique des asymptotiques de la mesure de Haar sur un groupe compact. Nous calculons l'image de la mesure de Haar du groupe unitaire par contraction par un projecteur. Ceci nous permet de retrouver et d'interpréter de manière combinatoire certaines asymptotiques obtenues dans la première partie. Par ailleurs, nous établissons que le carré la partie radiale d'une contraction d'une matrice unitaire aléatoire est un ensemble de Jacobi. Une méthode de polynômes orthogonaux permet alors de renforcer des résultats de convergence asymptotiques prédits par les probabilités libres, et d'établir des propriétés d'universalité des valeurs propres.
Date: 19 avr 2013 - 19:43
Desc: The False Discovery Rate (FDR) is a commonly used type I error rate in multiple testing problems. It is defined as the expected False Discovery Proportion (FDP), that is, the expected fraction of false positives among rejected hypotheses. When the hypotheses are independent, the Benjamini-Hochberg procedure achieves FDR control at any pre-specified level. By construction, FDR control offers no guarantee in terms of power, or type II error. A number of alternative procedures have been developed, including plug-in procedures that aim at gaining power by incorporating an estimate of the proportion of true null hypotheses. In this paper, we study the asymptotic behavior of a class of plug-in procedures based on kernel estimators of the density of the $p$-values, as the number $m$ of tested hypotheses grows to infinity. In a setting where the hypotheses tested are independent, we prove that these procedures are asymptotically more powerful in two respects: (i) a tighter asymptotic FDR control for any target FDR level and (ii) a broader range of target levels yielding positive asymptotic power. We also show that this increased asymptotic power comes at the price of slower, non-parametric convergence rates for the FDP. These rates are of the form $m^{-k/(2k+1)}$, where $k$ is determined by the regularity of the density of the $p$-value distribution, or, equivalently, of the test statistics distribution. These results are applied to one- and two-sided tests statistics for Gaussian and Laplace location models, and for the Student model.
Date: 22 Mar 2007 - 10:26
Desc: In a convolution model, we observe random variables whose distribution is the convolution of some unknown density f and some known or partially known noise density g. In this paper, we focus on statistical procedures, which are adaptive with respect to the smoothness parameter tau of unknown density f, and also (in some cases) to some unknown parameter of the noise density g. In a first part, we assume that g is known and polynomially smooth. We provide goodness-of-fit procedures for the test H_0:f=f_0, where the alternative H_1 is expressed with respect to L_2-norm. Our adaptive (w.r.t tau) procedure behaves differently according to whether f_0 is polynomially or exponentially smooth. A payment for adaptation is noted in both cases and for computing this, we provide a non-uniform Berry-Esseen type theorem for degenerate U-statistics. In the first case we prove that the payment for adaptation is optimal (thus unavoidable). In a second part, we study a wider framework: a semiparametric model, where g is exponentially smooth and stable, and its self-similarity index s is unknown. In order to ensure identifiability, we restrict our attention to polynomially smooth, Sobolev-type densities f. In this context, we provide a consistent estimation procedure for s. This estimator is then plugged-into three different procedures: estimation of the unknown density f, of the functional \int f^2 and test of the hypothesis H_0. These procedures are adaptive with respect to both s and tau and attain the rates which are known optimal for known values of s and tau. As a by-product, when the noise is known and exponentially smooth our testing procedure is adaptive for testing Sobolev-type densities.
Date: 1 Mar 2013 - 11:06
Desc: We study the properties of false discovery rate (FDR) thresholding, viewed as a classification procedure. The ''0''-class (null) is assumed to have a known density while the ''1''-class (alternative) is obtained from the ''0''-class either by translation or by scaling. Furthermore, the ''1''-class is assumed to have a small number of elements w.r.t. the ''0''-class (sparsity). We focus on densities of the Subbotin family, including Gaussian and Laplace models. Nonasymptotic oracle inequalities are derived for the excess risk of FDR thresholding. These inequalities lead to explicit rates of convergence of the excess risk to zero, as the number m of items to be classified tends to infinity and in a regime where the power of the Bayes rule is away from 0 and 1. Moreover, these theoretical investigations suggest an explicit choice for the target level $\alpha_m$ of FDR thresholding, as a function of m. Our oracle inequalities show theoretically that the resulting FDR thresholding adapts to the unknown sparsity regime contained in the data. This property is illustrated with numerical experiments.
U.F.R. Mathématiques
Sophie-Germain
75013 PARIS