×

zbMATH — the first resource for mathematics

Über binäre trilineare Formen und die Komposition der binären quadratischen Formen. (German) JFM 36.0160.01
Der Verf. hat in Dirichlets Vorlesungen über Zahlentheorie, 4. Auflage, § 182, hervorgehoben, daß im Falle der in lineare Faktoren zerlegbaren Formen eines endlichen algebraischen Zahlkörpers die drei Formen, deren eine durch eine bilineare Substitution in das Produkt der beiden andern übergeht, auch umgekehrt, abgesehen von konstanten Faktoren, durch diese Substitution bestimmt sind. In dem einfachsten Falle der binären quadratischen Formen liegt der betreffende Satz bereits bei Gauß (Disquisitiones Arithmeticae, Art. 235) vor. Mit einer solchen gegebenen Substitution sind aber stets zwei andere Substitutionen und drei quadratische Formen so verbunden, daß jede der drei Formen durch eine ihr entsprechende Substitution in das Produkt der beiden andern Formen übergeht. Durch diesen Ansatz des Verf. wird das Gaußsche Problem erheblich vereinfacht, und dieser Vereinfachung ist die vorliegende Abhandlung gewidmet. Es seien \((x_1, y_1)\), \((x_2, y_2)\), \((x_3, y_3)\) drei Variabelnpaare, \(\alpha\) resp. \(\beta\) Zeichen für die Größen \(\alpha_0, \alpha_1, \alpha_2, \alpha_3\) resp. \(\beta_0, \beta_1, \beta_2, \beta_3\), und \(r, s, t\) mögen irgend eine Permutation der drei Indizes 1, 2, 3 bedeuten. Man setze \[ F_r=F_r(x_r, y_r)= A_r x_r^2+B_r x_r y_r +C_r y_r^2= \left| \begin{matrix} \beta_s x_r+\alpha_t y_r, & \alpha_r x_r+\beta_0 y_r \\ \alpha_0 x_r+\beta_r y_r, & \beta_t x_r+ \alpha_s y_r \end{matrix} \right| . \] Dann gilt der Fundamentalsatz, daß diese drei Formen \(F\) dieselbe Diskriminante \[ \text{(I)} \qquad D=B_1^2-4A_1 C_1=B_2^2-4A_2C_2= B_3^2-4A_3 C_3 \] besitzen, und jede der drei Formen \(F\) geht durch eine gewisse bilineare Substitution in das Produkt der beiden andern über. In der Tat, wendet man auf die Matrix \(\left| \begin{matrix} \beta_r & \alpha_s & \alpha_t & \beta_0 \\ -\alpha_0 & -\beta_t & -\beta_s & -\alpha_r \end{matrix} \right|\) die in der Geometrie so genannte Linienkoordinatenidentität an, so ergibt sich \[ A_s C_s-A_t C_t+ \tfrac 14 (B_t+B_s)(B_t-B_s) \equiv 0, \] d. i. \(D=B_s^2-4A_s C_s=B_t^2-4 A_t C_t\). Sodann führe man die Bildungen ein: \[ \frac{\partial F_r}{\partial x_r}= 2A_r x_r+ B_r y_r= 2u_r, \quad \frac{\partial F}{\partial y_r}= B_r x_r +2C_r y_r=2v_r, \] so daß \(u_r x_r+v_r y_r=F_r\), ferner die beiden bilinearen Funktionen \[ X_r= \beta_r x_s x_t+\alpha_s x_s y_t+ \alpha_t y_s x_t+ \beta_0 y_s y_t, \]
\[ Y_r= -\alpha_0 x_s x_t- \beta_t x_s y_t- \beta_s y_s x_t- \alpha_r y_s y_t. \] Hier gilt die Zusammensetzungsregel \[ \left( \begin{matrix} \beta_s X_r+\alpha_t Y_r, & \alpha_r X_r+ \beta_0 Y_r \\ \alpha_0 X_r+\beta_r Y_r, & \beta_t X_r+ \alpha_s Y_r \end{matrix} \right)= \left( \begin{matrix} x_s, & v_s \\ -y_s, & u_s \end{matrix} \right) \left( \begin{matrix} u_t, & v_t \\ -y_t, & x_t \end{matrix} \right), \] folglich, da die Determinante des Produktes von zwei Substitutionen das Produkt aus deren Determinanten ist, die gewünschte Relation \[ \text{(II)} \qquad F_r=F_s F_t. \] Übrigens ist diese Relation (II) die umfassendere, da sie die Relation (I) über die Diskriminanten in sich schließt.
Die acht Konstanten \(\alpha, \beta\) bilden demnach immer die Koeffizienten von drei verwandten binären bilinearen Substitutionen, deren Zusammenhang wesentlich in der Identität \[ \text{(III)} \qquad y_1 X_1-x_1 Y_1= y_2 X_2-x_2 Y_2= y_3 X_3-x_3 Y_3 \] besteht, und erzeugen zugleich drei quadratische Formen, deren jede durch eine dieser Substitutionen in das Produkt der beiden andern übergeht.
Im besonderen seien jetzt die \(\alpha, \beta\) ganze rationale Zahlen, also auch \(D\) und die Koeffizienten der drei Formen \(F_1, F_2, F_3\). Ist \(M_r\) der Teiler der Form \(F_r\) und \(K_r\) der größte gemeinsame Teiler von \(M_s, M_t\), so ist \(K_r\) auch der größte gemeinsame Teiler der oben benutzten sechs zweireihigen Determinanten. Dann folgt durch Entwicklung der Identität (II), daß \(M_s, M_t\) durch \(M_r\) teilbar wird, also \(M_s M_t= M_r N_r\), und hieraus wiederum \(M_r^2= N_s N_t\).
Nach diesen Vorbereitungen wendet sich der Verf. zu der eingangs formulierten Aufgabe. Hierbei wird eine quadratische Form stets in der Gestalt \(ax^2+bxy+cy^2\) mit der Diskriminante \(\delta=b^2-4ac\) geschrieben.
Sind nun \(f_1(x_1, y_1), f_2(x_2, y_2), f_3(x_3, y_3)\) drei solche Formen mit den Diskriminanten \(\delta_1, \delta_2, \delta_3\), so sollen die Folgerungen entwickelt werden, die durch die Annahme bedingt werden, daß die erste Form \(f_1\) durch eine bilineare Substitution \((X_1, Y_1)\) in das Produkt \(f_2 f_3\) der beiden andern Formen übergeht: \(f_1(X_1, Y_1)=k_1 f_2 f_3\), wo \(k_1\) ein konstanter Faktor ist. Es zeigt sich, daß die Formen \(f_r\) mit den \(F_r\) bis auf konstante Faktoren übereinstimmen: \[ \text{(IV)} \qquad F_r=n_r f_r \quad (r=1, 2, 3), \] und umgekehrt folgt aus (IV) wieder \(f_r(X_r, Y_r)=k_r f_s f_t\), wo \(k_r=\frac{n_s n_t}{n_r}\).
Aus (IV) ergibt sich auch noch, daß \(D=\delta_r n_r^2\).
Bisher war keine Voraussetzung über die Natur der Koeffizienten der Formen \(f_r\) und \(X_1, Y_1\) gemacht worden, so daß die obigen Sätze algebraischer Natur sind. Nun aber sollen alle Koeffizienten ganze rationale Zahlen sein und die bezüglichen zahlentheoretischen Folgerungen gezogen werden. Zunächst haben die Diskriminanten \(D, \delta_r\) dasselbe Vorzeichen, und sie verhalten sich wie Quadrate ganzer Zahlen, und man hat \(M_r= \varepsilon_r m_r n_r\) \((\varepsilon_r^2=1)\). Der Faktor \(k_1\) werde gleich Eins gesetzt. Dann wird \(\delta_1 k_1^2\) der größte gemeinsame Teiler von \(\delta_2 m_3^2\) und \(\delta_3 m_2^2\). Nach Gauß heißt die Form \(f_1\) zusammengesetzt (composita) aus den beiden Formen \(f_2, f_3\), wenn \(k_1=1\) ist. Wird dies für das Folgende angenommen, so schließt man ohne weiteres, daß der Teiler \(n_1\) der zusammengesetzten Form \(f_1\) das Produkt aus den Teilern \(m_2, m_3\) der Formen \(f_2, f_3\) wird.
Die Identität (II) wurde oben durch unmittelbare Rechnung mit den acht Konstanten \(\alpha, \beta\) auf kürzestem Wege hergeleitet. Man kann aber zu demselben Resultate und zu einem tieferen Einblick in das Ganze auf einem allgemeineren Wege gelangen, wobei die \(\alpha, \beta\) gar nicht explizite in die Rechnung eintreten, sondern die in (III) auftretende binäre trilineare Form als alleiniger Ausgangspunkt der Untersuchung dient. Das Verfahren beruht auf einer Verallgemeinerung des Begriffes der totalen Differentiation.
In einem Raume \(R_n(x_1, \dots, x_n)\) sei \(\varPhi\) der Inbegriff aller Funktionen \(\varphi\) der \(x_i\), die partielle Ableitungen beliebig hoher Ordnung besitzen und der Bedingung \(\frac{\partial}{\partial x_r} \left(\frac{\partial \varphi}{\partial x_s} \right) = \frac{\partial}{\partial x_s} \left(\frac{\partial \varphi}{\partial x_r}\right)\) genügen. Vermöge der “Operation” \(d\) werde aus jedem \(\varphi\) eine entsprechende, in \(\varPhi\) enthaltene Funktion \(d \varphi\) erzeugt, so daß das Grundgesetz der totalen Differentiation erfüllt wird, d. h. daß jede Identität von der Art \(F(\varphi_1, \varphi_2, \dots, \varphi_m)=0\) die andere \(\frac{\partial F}{\partial \varphi_1} d \varphi_1+\cdots + \frac{\partial F}{ \partial \varphi_m} =0\) nach sich zieht. Daß es solche Operationen \(d\) gibt, zeigen die gewöhnlichen Defferentiale. Allgemein ist die Operation \(d\) völlig bestimmt, wenn in jedem Punkte von \(R_n\) die Werte der \(n\) Funktionen \(dx_1, \dots, dx_n\) gegeben sind. Umgekehrt kann man diese \(n\) Funktionen willkürlich aus \(\varPhi\) auswählen. Die Operation \(d\) ist eine invariante, d. h. sie bleibt dieselbe bei Einführung neuer Koordinaten \(y\) statt der \(x\), wobei die \(dy\) durch die \(dx\) bedingt sind. Ferner gelten alle Regeln der gewöhnlichen Differentiation. Die damit begründete Operation soll “Vektor” heißen, die \(d \varphi\) schlechtweg “Differentiale”. Die partielle Derivation \(\frac{\partial}{\partial x_r}\) ist offenbar ein spezieller Vektor.
Die Vektoren \(d\) fallen selbst wieder unter den noch viel allgemeineren Begriff einer “Abbildung des Systems \(\varPhi\) in sich selbst”, die mit \(e\) bezeichnet sei. Aus jedem Element \(\varphi\) von \(\varPhi\) entsteht ein Bild \(e \varphi\), und die Abbildungen \(e, e'\) fallen nur dann zusammen \((e=e')\), wenn für jedes \(\varphi\) die Identität \(e \varphi= e' \varphi\) besteht. Zwei Abbildungen \(e_1, e_2\) setzen sich zu einem “Produkte” \(e_1 e_2\) zusammen, und es gilt das assoziative Gesetz. Summe und Differenz \(e_1\pm e_2\), sowie für \(\lambda\) als eine Funktion in \(\varPhi\) das Produkt \(\lambda e\) werden erklärt durch \((e_1\pm e_2)\) \(\varphi=e_1 \varphi \pm e_2 \varphi\), \((\lambda e) \varphi= \lambda (e \varphi)= \lambda e \varphi\), woraus sich der Sinn einer symbolischen Gleichung von der Form \(e=\lambda_1 e_1+\lambda_2 e_2+\cdots + \lambda_m e_m\) ergibt. Mit dieser gilt dann die vermöge der Vektoroperation \(d\) entstehende Gleichung \(de= \sum_1^m \lambda_i de_i + \sum_1^m d \lambda_i e_i\). Im folgenden kommen indessen nur solche Abbildungen \(e\) in Betracht, die Vektoren oder Produkte von Vektoren sind. Dann ist auch jede Summe \(\sum_1^m \lambda_i e_i\) wieder ein Vektor \(d\), und \(d\) heißt dann “abhängig” von den \(m\) Vektoren \(d_i\); dagegen heißen die letzteren “abhängig von einander”, oder sie bilden ein “reduzibles System”, wenn \(\varSigma \lambda_i d_i=0\). Entsprechend heißen die \(m\) Vektoren \(d\) voneinander unabhängig, oder sie bilden ein irreduzibles System, wenn die Forderung \(d=0\) nur durch das identische Verschwinden aller \(\lambda_i\) erfüllt wird. Aus zwei Vektoren \(d_1, d_2\) entsteht eine neue Vektoroperation \((d_1, d_2)= d_1 d_2-d_2 d_1\), und zwischen den drei Operatoren \((d_1; d_2, d_3)\), \((d_2; d_3, d_1)\), \((d_3; d_1, d_2)\) gilt die Jacobische Identität, d. h. ihre Summe ist Null.
Auch für die Wiederholungen \(d^2, d^3, \dots\) von \(d\) gelten die gewöhnlichen Regeln der Differentiation. Genügen die \(dx_r\) der partiellen Differentialgleichungen \(d^2 x_r=0\), so folgt \(d^2 \varphi = \varSigma \frac{\partial^2 \varphi}{\partial x_r \partial x_s}\;dx_r dx_s\), und wenn man für \(\varphi\) eine ganze homogene Funktion zweiten Grades der \(x_i\) wählt, so wird \(d^2 F=2F(dx_1, \dots, dx_n)\).
Für \(n=2\) sei \(d\) ein Vektor, der den Bedingungen \(d^2x=d^2y=0\) genügt, so wird also für \(F=Ax^2+ Bxy+ Cy^2\) die Gleichung \(\frac 12 d^2 F=F(dx, dy)\) erfüllt.
Die vorstehenden allgemeinen Überlegungen werden auf die ursprüngliche Untersuchung angewendet. Die drei Paare \((x_1, y_1)\), \((x_2, y_2)\), \((x_3, y_3)\) sollen kurz die Paare \(z_1, z_2, z_3\) heißen. Im Raume \(R_6(x_1, y_1, x_2, y_2, x_3, y_3)\) wird eine binäre trilineare Form \(H\) zugrunde gelegt. Sind \(r, s, t\) wieder die Indizes 1, 2, 3, so werden die drei Vektoren \(d_r\) eingeführt durch \(d_r \varphi= \frac{\partial \varphi}{\partial x_r} \frac{\partial H}{\partial y_r}- \frac{\partial \varphi}{\partial y_r} \frac{\partial H}{\partial x_r}\), wo \(\varphi\) jede willkürliche Funktion der \(x_r, y_r\) sein kann. Man hat \(d_r x_s=d_r y_s= d_x x_t= d_r y_t=0\), d. h. für den Vektor \(d_r\) verhalten sich die Paare \(z_s, z_t\) wie Konstanten, während \(d_r x_r, d_r y_r\) bilineare Funktionen dieser beiden Paare sind. Sei jetzt \(\varphi\) homogen in bezug auf jedes Paar, so stellt sich \(H\) in der einfachen Gestalt dar: \(H=y_s d_s x_s- x_s d_s y_s\), und es ergibt sich \(d_r d_s x_s=x_s F_{rs}\), \(d_r d_s y_s=y_s F_{rs}\), wo \(F_{rs}\) eine binäre quadratische Form des Paares \(z_t\) mit konstanten Koeffizienten ist. Man führe ferner drei neue Vektoren \(e_r\) ein durch die Forderung \(e_r \varphi=x_r \frac{\partial \varphi}{\partial x_r} + y_r \frac{\partial \varphi}{\partial x_r}\), so besteht zwischen den Operatoren \((d_r, d_s), e_r, e_s\) die Relation \((d_r, d_s)\varphi= F_{rs} e_s \varphi- F_{sr} e_r \varphi\). Nunmehr spezialisiere man die bisher ganz willkürliche Funktion \(\varphi\) zu \(H\) selbst, so folgt \(F_{rs}=F_{sr}\), und man kann einfacher schreiben \(d_r d_s x_s= x_s F_t\), \(d_r d_s y_s=y_s F_t\). Die Form \(H\) wird mit der früher unter (III) eingeführten identifiziert, dann sind die Konstanten \(\alpha_0, \beta_0, \alpha_r, \beta_r\) resp. die Koeffizienten von \(x_1 x_2 x_3, y_1\), \(y_2, y_3\), \(x_r y_s y_t\), \(y_r x_s x_t\); die Größen \(d_r x_r\), \(d_r y_r\) fallen mit den damaligen \(F_r\).
Setzt man insbesondere \(\varphi=d_t x_t\), so erhält man den wichtigen Satz \(d_r F_r= d_s F_s\). Diese Funktion ist also symmetrisch in bezug auf alle drei Indizes 1, 2, 3 und bildet eine neue trilineare Form \(H'\), die die zu \(H\) “adjungierte” Form genannt wird. Man hat \(F_r(d_r x_r, d_r y_r)=F_s F_t\), und dieses Resultat deckt sich mit dem damals auf ganz anderem Wege bewiesenen Hauptsatze. Daß die drei Formen \(F_r\) dieselbe Diskriminante \(D\) besitzen, erweist sich jetzt als selbstverständlich.
Weitere Ergebnisse erhält man durch Übertragung der letzten Untersuchung von der Form \(H\) auf die zu ihr adjungierte Form \(H'\). Die drei entsprechenden Formen \(F_r'\) haben dieselbe Diskriminante \(D'=D^3\), und die zu \(H'\) adjungierte Form unterscheidet sich von der ursprünglichen Form \(H\) nur um den Faktor \(-D^2\). Hieraus lassen sich Eigenschaften der aus \(H\) und \(H'\) gebildeten linearen Schar ableiten. Zum Schluß wird noch auf die beherrschende Stellung hingewiesen, die die Diskriminante \(D\) einnimmt; aus ihren partiellen Derivierten lassen sich die Koeffizienten aller in Betracht kommenden Formen bilden.

PDF BibTeX XML Cite
Full Text: DOI Crelle EuDML