×

Researches in the theory of divergent series and divergent integrals. (English) JFM 34.0279.02

Borels Definition der Summe einer divergenten Reihe und ebenso die Definitionen von Le Roy und Barnes sind Anwendungen des allgemeinen Prinzips: Wenn eine Anzahl von Grenzoperationen, in einer bestimmten Reihenfolge auf eine Funktion von verschiedenen Veränderlichen angewandt, ein bestimmtes Resultat liefert, bei einer andern Anordnung aber nicht, so soll das erste Resultat auch für den formalen Ausdruck bei der zweiten Reihenfolge gelten. Es handelt sich oft um eine Gleichung von der Form \[ \int_\beta^\gamma \sum_0^\infty u_n(\alpha) d \alpha = \sum_0^\infty \int_\beta^\gamma u_n(\alpha)d \alpha. \] Wenn \(\varSigma u_n(\alpha)\) und die rechte Seite dieser Gleichung konvergent sind, so ist \[ \begin{aligned} & \sum_0^\infty u_n(\alpha)=\int_0^\infty e^{-x} dx \sum_0^\infty \frac{x^n}{n!}\;u_n(\alpha),\\ & \sum_0^\infty \int_\beta^\gamma u_n(\alpha)d \alpha = \int_0^\infty e^{-x} dx \sum_0^\infty \frac{x^n}{n!} \int_\beta^\gamma u_n(\alpha) d \alpha.\end{aligned} \] Nach Borel sind alle konvergenten Reihen absolut summierbar. Dagegen bemerkt Hardy: es gibt konvergente Reihen, die nicht absolut summierbar sind; setzt man \(u_n=\frac{(-1)^\nu}{\nu}\), wo \(\nu=\sqrt n\). bezüglich gleich diesem Werte oder gleich 0, je nachdem \(n\) ein Quadrat ist oder nicht, so ist \[ \varSigma u_n=0-1+0+0+\tfrac 12 +0+0+0+0 -\tfrac 13+0+0+0+0+0+0+ \tfrac 14+\cdots \] konvergent. Setzt man \(u(x)=\sum_1^\infty \frac{(-1)^ix^{i^2}}{ii^2!}\), so ist \(\int_0^\infty e^{-x} |u(x)|dx\) nicht konvergent. Ebenso ist die Reihe \[ 0-1+0+0+\frac{1}{2\mu} +0+0+0+0-\frac{1}{3\mu}+\cdots \] nicht absolut summierbar, obgleich sie für \(\mu>1\) konvergent ist.
Wird \(s_n=u_0+u_1+u_2+\cdots+u_n\) gesetzt, so definiert Borel durch \(s=\lim_{x=\infty} e^{-x} \sum_0^\infty \frac{s_nx^n}{n!}\) die Summe der divergenten Reihe \[ u_0+u_1+u_2+\cdots; \] er zeigt, daß, wenn die Grenze der rechten Seite bestimmt ist, \[ s-u_0=\int_0^\infty e^{-x} \frac{d}{dx}\;u(x)dx =u_1+u_2+\cdots \] ist. Es folgt jedoch nicht, daß \[ s=u_0+u_1+u_2+\cdots =\int_0^\infty e^{-x} u(x) dx \] ist. Er setzt: \[ \text{(I)}\quad s=u_0+u_1+u_2+\cdots,\quad {(2)}\quad s'=u_1+u_2+u_3+\cdots \] und bemerkt entgegen der Borelschen Annahme, daß, wenn dies Integral konvergent ist, \(e^{-x}u(x)\) notwendig die Grenze 0 für \(x=\infty\) folgendes:
Wenn \(\lim_{x=\infty}e^{-x}u(x)=0\) ist, so folgt aus der Summierbarkeit von {(1)} oder {(2)} diejenige von (2), bezüglich {(1)}; ferner folgt (3) \(s=u_0+s'\).
Wenn beide, {(1)} und {(2)}, summierbar sind, so hat \(e^{-x}u(x)\) eine Grenze für \(x=\infty\), welche nur Null sein kann, so daß (3) richtig ist.
Der mittlere Wert einer unendlichen Reihe von Größen \(s_0,s_1,\dots,s_n\) ist \(\lim_{n=\infty} \frac{s_0+s_1+\cdots+s_n}{n+1}\), wenn diese Grenze existiert. Wenn \(\lim_{n=\infty} s_n\) existiert und gleich \(s\) ist, so existiert der mittlere Wert und ist gleich \(s\).
Wenn \((s_0+s_1+\cdots+s_n)/(n+1)=s+\varrho_n\) und \(\lim_{n=\infty} \varrho_n \sqrt n=0\) ist, so ist \(\lim_{n=\infty} e^{-x} \sum_0^\infty \frac{s_nx^n}{n!}=s\); daher ist \(u_1+u_2+\cdots \) und \[ u_0+u_1+u_2+\cdots \] summierbar.
Wenn eine Summe \(Su_0\) summierbar ist, so ist \(Su_nt^n\) absolut summierbar für alle positiven Werte von \(t < 1\) und es ist \(\lim_{t=1} Su_nt^n=Su^n\).
Wenn eine Reihe \(Su_nx^n\) summierbar ist in einem Punkte des Sommierbarkeitspolygons und \(f(P)\) ihre Summe ist, so konvergiert die durch die Reihe im Polygon dargestellte Funktion gegen \(f(P)\), wenn \(x\) auf der Linie \(OP\) sich \(P\) nähert.
Im II. Abschnitt über die divergenten Integrale wird der Grenzwert von \(\varPhi(x)=\int_0^x \varphi(x)dx\) für \(x=\infty\) durch \[ \lim_{t=\infty}\;\frac{\int_0^\infty \theta(x,t) \varPhi(x)dx}{\int_0^\infty \theta(x,t)dx} \] definiert, worin \(\theta (x,t)\) eine Funktion von \(x\) und \(t\) bedeutet, welche mit \(t\) für einen festen Wert von \(x\) zunimmt, bei abnehmenden \(x\) und festem \(t\) hinreichend schnell abnimmt, um die Konvergenz des Integrals im Zähler zu sichern.
Weitere Fortschritte hängen von der Wahl der Funktion \(\theta(x,t)\) ab.
Für \(\theta(x,t)=p \left( \frac xt \right)^{p-1} e^{-\left( \frac xt \right)^p}\) (\(p\) positiv) ergibt sich \[ \lim_{x=\infty} \varPhi(x) =\lim_{t=\infty} \int_0^\infty e^{-\left( \frac xt \right)^p} \varphi(x)dx, \] wenn \[ \lim_{x=\infty} \left( \frac xt \right)^{p-1} e^{-\left( \frac xt \right)^p} \varPhi(x)=0 \] ist.
Für \(p = 1\) wird \(\theta(x,t)=e^{-\frac xt}\), und es wird, wenn \(\varphi(x)\) für alle endlichen Werte von \(x\) stetig und \(\lim_{x=\infty} e^{-\tau x}\varphi(x)=0\) (\(\tau\) positiv) ist, die verallgemeinerte Grenze \(L \varPhi (x)\) durch die Gleichung \[ \underset{x=\infty} {L} \varPhi(x)=\lim_{t=\infty} \int_0^\infty e^{-x} \varPhi(tx)dx \] und das divergente Integral \(G \int_0^\infty \varphi (x)dx\) durch die Gleichung \[ G \int_0^\infty \varphi(x) dx=\lim_{t=\infty} \int_0^\infty e^{-\frac xt} \varphi(x)dx \] erklärt; dann ist \[ \begin{aligned} \underset{x=\infty} {L} \varPhi(x) & =\lim_{x=\infty} \varPhi(x),\quad L\{ a_1 \varphi_1(x)+a_2\varPhi_2(x)+\cdots +a_n \varPhi_n(x)\} \\ & =a_1L \varPhi_1(x) + a_2L \varPhi_2(x)+\cdots + a_n L \varPhi_n(x), \\ & \qquad\qquad L\varPhi(x) \varPsi(x)=L \varPhi(x) L \varPsi(x), \end{aligned} \] \(L \varPhi (ax+b)=L \varPhi(x)\) (\(a, b\) konstant und \(a\) positiv), wenn \(L \varPhi(x)\) bestimmt ist. \[ G \int_0^\infty \varphi(x)dx =aG \int_{-\frac ba}^\infty \varphi(ax+b)dx,\quad (a>0) \]
\[ G \int_0^\infty \{\varphi(x) \psi'(x) + \varphi'(x)\psi(x)\}dx= \underset{x=\infty}{L} \varphi(x)\psi(X) - \varphi(0) \psi(0), \] wenn jede der beiden Seiten bestimmt ist.
Der mittlere Wert von \(\varPhi(x)\) für \(x=\infty\) wird als \(\lim_{x=\infty} \tfrac 1x \int_0^x \varPhi(x) dx\) erklärt, wenn diese Grenze existiert.