Billingsley, Patrick Hausdorff dimension in probability theory. I, II. (English) Zbl 0098.10602 Ill. J. Math. 4, 187-209 (1960); 5, 291-298 (1961). I. On introduit dans la théorie des probabilités la notion de dimension fractionnaire qui généralise la dimension de Hausdorff. Cette notion permet de mesurer les dimensions des certains ensembles de telle manière que deux ensembles de probabilité nulle peuvent être comparés en ce qui concerne leurs grandeurs. On considère un. processus stochastique \(\{x_n\}\) défini sur un champ de probabilité \((\Omega, \mathcal B, \mu)\). L’espace des états est \(\sigma = \{1, \ldots , s\}\), \(P(x_n\in\sigma) = 1\). On appelle \(n\)-cylindre l’ensemble \(\{\omega; x_k(\omega)) = a_k,\ k = 1, \ldots, n\}\), où \((a_1, \ldots, a_n)\) représente une succession d’états. Si \(M\) est un sous-ensemble de \(\Omega\), \(\rho > 0\) et \(\mathcal V\) est une famille dénombrable de ,,\(n\)-cylindres” on dit que \(\mathcal V\) est une \(\rho\)-recouvrement de \(M\) si \(\mu(v) < \rho\) pour \(v\in\mathcal V\) et \(M\subset V = \cup \{v; v\in\mathcal V\}\). Si \(\alpha > 0\), soit \(L_\rho(M; \alpha) = \inf \sum \mu(v)^\alpha : \mathcal V\), où \(\sum \mu(v)^\alpha : \mathcal V\) signifie la somme de \(\mu(v)^\alpha\) pour \(v\in\mathcal V\) et la borne inférieure se réfère à toutes les \(\rho\)-recouvrements de \(M\). En notant \(\lim_{\rho\to 0} L_\rho(M; \alpha) = L(M; \alpha)\), on montre qu’il y a un nombre \(\alpha_0\), \(0\le \alpha_0\le 1\), tel que \(L(M; \alpha) = \infty\) pour \(0\le \alpha < \alpha_0\) et \(L(M; \alpha) = 0\) pour \(\alpha_0< \alpha\le 1\). Le nombre \(alpha_0 = \dim M\) est la dimension de Hausdorff généralisée. L’A. établit la dimension de certains ensembles quand le processus \(\{x_n\}\) est une chaîne de Markov, dont les probabilités de passage sont stationnaires. On montre que les dimensions ainsi définies peuvent être utilisées dans la théorie de l’information. II. On considère plusieurs mesures \(\mu\) et on étudie la variation de \(\dim_\mu M\) par rapport à \(\mu\). On démontre cinq théorèmes, parmi lesquels nous citons le suivant si \(\mu_n(\omega)\) est le \(n\)-cylindre qui contient le point \(\omega\in\Omega\), et \(\mu\) et \(\nu\) sont deux mesures de \(\mathcal B\) et \[ M \subset \left\{\omega: \lim_{n\to\infty}\begin{matrix} \log\nu(u_n(\omega)) \\ \log\mu(u_n(\omega)) \end{matrix} =\delta \right\},\quad\text{alors } \dim_\mu M = \delta \dim_\nu M. \] Enfin on montre la liaison qui existe entre l’expression \(\displaystyle\lim_{n\to\infty}\begin{matrix} \log\nu(u_n(\omega)) \\ \log\mu(u_n(\omega)) \end{matrix}\) qui intervient dans les théorèmes établis dans ce mémoire et le théorème de Shannon-McMillan de la théorie d’information. Reviewer: G. Mihoc Page: −5 −4 −3 −2 −1 ±0 +1 +2 +3 +4 +5 Show Scanned Page Cited in 3 ReviewsCited in 45 Documents MSC: 60J20 Applications of Markov chains and discrete-time Markov processes on general state spaces (social mobility, learning theory, industrial processes, etc.) 28A78 Hausdorff and packing measures 94A15 Information theory (general) Keywords:Hausdorff dimension; probability theory; information theory PDF BibTeX XML Cite \textit{P. Billingsley}, Ill. J. Math. 4, 187--209 (1960; Zbl 0098.10602) OpenURL