Orthogonalität

Die beiden Strecken [AB] und {\displaystyle [CD]} sind orthogonal, da sie miteinander einen rechten Winkel bilden.

Der Begriff Orthogonalität wird innerhalb der Mathematik in unterschiedlichen, aber verwandten Bedeutungen verwendet.

In der Elementargeometrie nennt man zwei Geraden oder Ebenen orthogonal (bzw. senkrecht), wenn sie einen rechten Winkel, also einen Winkel von 90°, einschließen.

In der linearen Algebra wird der Begriff auf allgemeinere Vektorräume erweitert: zwei Vektoren heißen zueinander orthogonal, wenn ihr Skalarprodukt null ist.

Diese Bedeutung wird auch auf Abbildungen zwischen Vektorräumen übertragen, die das Skalarprodukt und damit die Orthogonalität zweier Vektoren unverändert lassen.

Bezeichnungen

Der Begriff orthogonal (griechisch ὀρθός orthos „richtig, recht-“ und γωνία gonia „Ecke, Winkel“) bedeutet „rechtwinklig“. Gleichbedeutend zu rechtwinklig steht auch normal (lateinisch norma „Maß“, im Sinne des rechten Winkels). Das Wort „normal“ wird in der Mathematik aber auch mit anderen Bedeutungen verwendet. Senkrecht kommt vom Senkblei (Lot) und bedeutet ursprünglich nur orthogonal zur Erdoberfläche (lotrecht). Dieser Sachverhalt wird auch durch vertikal (lat. vertex „Scheitel“) ausgedrückt.

Man bezeichnet zwei Geraden, Ebenen oder Vektoren a und b, die orthogonal bzw. nicht orthogonal zueinander sind, mit

a \perp b   bzw.   a \not\perp b.

Basierend auf der englischen Bezeichnung perpendicular wird das Orthogonalitätssymbol in HTML mit ⊥ und in LaTeX (innerhalb der Mathematik-Umgebung) mit \perp kodiert. Im Zeichenkodierungsstandard Unicode besitzt das Symbol ⊥ die Position U+22A5.

Orthogonalität in der Geometrie

Elementargeometrie

In der Elementargeometrie heißen zwei Geraden oder Ebenen orthogonal, wenn sie einen rechten Winkel, d.h. einen Winkel von 90° einschließen. Dabei sind folgende Bezeichnungen gebräuchlich:

In einem orthogonalen Polygon (beispielsweise einem Rechteck) bilden je zwei benachbarte Seiten einen rechten Winkel, bei einem orthogonalen Polyeder (beispielsweise einem Quader) je zwei benachbarte Kanten und damit auch benachbarte Seitenflächen.

Analytische Geometrie

Vektoren

Den Winkel zweier Vektoren {\vec {v}} und {\vec {w}} im kartesischen Koordinatensystem kann man über das Skalarprodukt

\vec v \cdot \vec w = |\vec v|\, |\vec w|\,\cos\sphericalangle(\vec v, \vec w)

berechnen. Dabei bezeichnen |\vec v| und |\vec w| jeweils die Längen der Vektoren und \cos \sphericalangle(\vec v, \vec w) den Kosinus des von den beiden Vektoren eingeschlossenen Winkels. Bilden zwei Vektoren {\vec {v}} und {\vec {w}} einen rechten Winkel, dann gilt

\vec v \cdot \vec w = |\vec v|\, |\vec w|\,\cos 90^\circ = 0.

Zwei Vektoren sind somit zueinander orthogonal, wenn ihr Skalarprodukt gleich null ist. Der Nullvektor ist dabei zu allen Vektoren orthogonal.

Eine Menge von Vektoren {\displaystyle \{{\vec {v}}_{j}:j=1,\dots ,N\}} wird als paarweise orthogonal bezeichnet, wenn für alle i\not= j gilt, dass {\vec {v}}_{i} und {\displaystyle {\vec {v}}_{j}} orthogonal zueinander sind.

Geraden und Ebenen

Zwei Geraden in der Ebene sind dann orthogonal, wenn ihre Richtungsvektoren orthogonal sind. Im Raum oder in höheren Dimensionen ist kein Schnittpunkt nötig. Zwei Geraden können auch dann orthogonal sein, wenn sie windschief zueinander sind. Eine Gerade und eine Ebene im Raum sind orthogonal, wenn der Richtungsvektor der Geraden orthogonal zu jedem Vektor in der Ebene ist.

Zwei Ebenen im euklidischen Raum sind orthogonal, wenn es eine Gerade gibt, die in einer der beiden Ebenen enthalten und orthogonal zur zweiten ist.

Sind zwei Geraden in der euklidischen Ebene durch die Gleichungen

{\displaystyle y=m_{1}x+b_{1}}    und   {\displaystyle y=m_{2}x+b_{2}}

gegeben, so sind sie genau dann orthogonal, wenn m_1 m_2 = -1 ist, oder äquivalent: wenn {\displaystyle m_{1}=-{\tfrac {1}{m_{2}}}} gilt, denn genau dann sind mit

{\displaystyle {\begin{pmatrix}1\\m_{1}\end{pmatrix}}\cdot {\begin{pmatrix}1\\m_{2}\end{pmatrix}}=0}

ihre Richtungsvektoren orthogonal.

Synthetische Geometrie

Hauptartikel: Präeuklidische Ebene

In der synthetischen Geometrie kann eine Orthogonalität durch die axiomatische Beschreibung einer Orthogonalitätsrelation zwischen Geraden auf gewissen affinen Inzidenzebenen eingeführt werden.

Orthogonalität in der linearen Algebra

Orthogonale und orthonormale Vektoren

In der linearen Algebra werden in einer Erweiterung des Begriffs euklidischer Raum auch mehrdimensionale Vektorräume über den reellen oder komplexen Zahlen einbezogen, für die ein Skalarprodukt definiert ist. Das Skalarprodukt zweier Vektoren v und w ist dabei eine Abbildung, die gewisse Axiome erfüllen muss und typischerweise in der Form \langle v, w\rangle geschrieben wird. Allgemein gelten dann zwei Vektoren v und w aus einem solchen Skalarproduktraum als orthogonal zueinander, wenn das Skalarprodukt der beiden Vektoren gleich null ist, das heißt, wenn

\langle v ,w \rangle = 0

gilt. Beispielsweise sind im Raum \mathbb {R} ^{2} die beiden Vektoren v=(2,1)^T und w=(1,-2)^T orthogonal bezüglich des Standardskalarprodukts, da

\langle v ,w \rangle = 2 \cdot 1 + 1 \cdot (-2) = 2-2 = 0

ist. Eine Menge von Vektoren nennt man dann orthogonal oder Orthogonalsystem, wenn alle darin enthaltenen Vektoren paarweise orthogonal zueinander sind. Wenn zusätzlich alle darin enthaltenen Vektoren die Norm eins besitzen, nennt man die Menge orthonormal oder ein Orthonormalsystem. Eine Menge von orthogonalen Vektoren, die alle vom Nullvektor verschieden sind, ist immer linear unabhängig und bildet deshalb eine Basis der linearen Hülle dieser Menge. Eine Basis eines Vektorraums aus orthonormalen Vektoren wird dementsprechend Orthonormalbasis genannt. Für je zwei Vektoren v_i, v_j einer Orthonormalbasis gilt dabei

\langle v_i, v_j\rangle = \delta_{ij},

wobei \delta _{ij} das Kronecker-Delta bezeichnet. Endlichdimensionale Skalarprodukträume und Hilberträume besitzen immer eine Orthonormalbasis. Bei endlichdimensionalen Vektorräumen und bei separablen Hilberträumen kann man eine solche mit Hilfe des Gram-Schmidtschen Orthonormalisierungsverfahren finden. Ein Beispiel für eine Orthonormalbasis ist die Standardbasis (oder kanonische Basis) \{e_1, e_2, e_3\} = \{(1, 0, 0), (0, 1, 0), (0, 0, 1)\} des dreidimensionalen Raumes \mathbb {R} ^{3}.

Orthogonale Funktionen

Der Begriff Vektorraum kann dahingehend verallgemeinert werden, dass auch gewisse Funktionenräume als Vektorräume behandelt werden können, und Funktionen werden dann als Vektoren angesehen. Zwei Funktionen f und g eines Skalarproduktraums heißen dann zueinander orthogonal, wenn

\langle f, g \rangle = 0

gilt. Zum Beispiel ist das L2-Skalarprodukt für stetige reellwertige Funktionen auf einem Intervall [a,b] durch

\langle f,g \rangle = \int_a^b f(x)\, g(x) \, dx

definiert. Bezüglich dieses Skalarprodukts sind beispielsweise auf dem Intervall [-1,1] die beiden Funktionen f(x)=x und g(x)=x^2 zueinander orthogonal, denn es gilt

\langle f, g \rangle = \int_{-1}^{1} x \cdot x^2 \, dx = \int_{-1}^{1} x^3 \, dx = 0.

In vollständigen Skalarprodukträumen, sogenannten Hilberträumen, lassen sich so orthogonale Polynome und Orthogonalbasen bestimmen. Allerdings sind viele interessante Räume, wie etwa die L2-Räume, unendlichdimensional, siehe dazu Hilbertraumbasis. In der Quantenmechanik bilden auch die Zustände eines Systems einen Vektorraum und entsprechend spricht man dort auch von orthogonalen Zuständen.

Orthogonale Matrizen

Hauptartikel: Orthogonale Matrix

Eine quadratische, reelle Matrix A \isin \mathbb{R}^{n \times n} heißt orthogonale Matrix, wenn sie mit dem Skalarprodukt verträglich ist, das heißt wenn

\langle Av,Aw \rangle = \langle v,w \rangle

für alle Vektoren v,w\in \mathbb {R} ^{n} gilt. Eine Matrix A ist genau dann orthogonal, wenn ihre Spalten (oder ihre Zeilen), als Vektoren aufgefasst, zueinander orthonormal (nicht nur orthogonal) sind. Äquivalent dazu ist die Bedingung A^{T} A = I bzw. A^{T}=A^{-1}. Orthogonale Matrizen beschreiben Drehungen und Spiegelungen in der Ebene oder im Raum. Die Menge aller orthogonalen Matrizen der Größe n\times n bildet die orthogonale Gruppe \mathrm O(n). Die Entsprechung bei Matrizen mit komplexen Einträgen heißt unitäre Matrix.

Orthogonale Abbildungen

Hauptartikel: Orthogonale Abbildung

Sind V und W zwei reelle Skalarprodukträume, dann heißt eine Abbildung f\colon V\to W orthogonal, wenn

\langle f(v), f(w) \rangle = \langle v, w \rangle

für alle Vektoren v, w \in V gilt. Eine orthogonale Abbildung erhält damit das Skalarprodukt zweier Vektoren und bildet so orthogonale Vektoren auf orthogonale Vektoren ab. Eine Abbildung zwischen endlichdimensionalen Skalarprodukträumen ist genau dann orthogonal, wenn ihre Matrixdarstellung bezüglich einer Orthonormalbasis eine orthogonale Matrix ist. Weiter ist eine orthogonale Abbildung eine Isometrie und erhält somit auch Längen und Abstände von Vektoren.

Orthogonale Abbildungen sind nicht zu verwechseln mit zueinander orthogonalen Abbildungen. Dabei handelt es sich um Abbildungen, die selbst als Vektoren aufgefasst werden und deren Skalarprodukt gleich null ist. Abbildungen zwischen komplexen Skalarprodukträumen, die das Skalarprodukt erhalten, werden als unitäre Abbildungen bezeichnet.

Orthogonale Projektionen

Hauptartikel: Orthogonalprojektion

Ist V ein endlichdimensionaler reeller oder komplexer Vektorraum mit einem Skalarprodukt, so gibt es zu jedem Untervektorraum U die Projektion entlang des orthogonalen Komplements von U, welche Orthogonalprojektion auf U genannt wird. Sie ist die eindeutig bestimmte lineare Abbildung P\colon V\to V mit der Eigenschaft, dass für alle v\in V

gilt. Ist V ein unendlichdimensionaler Hilbertraum, so gilt diese Aussage mit dem Projektionssatz entsprechend auch für abgeschlossene Untervektorräume U. In diesem Fall kann P stetig gewählt werden.

Orthogonalität in normierten Räumen

In einem Skalarproduktraum ist \langle v,w\rangle =0 äquivalent zu \|v\|\leq \|v+\lambda w\| für alle Skalare \lambda . Das motiviert folgende Definition:

Für v,w aus einem normierten Raum (V,\|\cdot \|) sei v\perp w:\Leftrightarrow \|v\|\leq \|v+\lambda w\| für alle \lambda

Dieser Orthogonalitätsbegriff in normierten Räumen ist wesentlich schwächer als in Skalarprodukträumen. Im Allgemeinen ist Orthogonalität weder symmetrisch noch additiv, das heißt aus v\perp w folgt im Allgemeinen nicht w\perp v und aus v\perp w_{1} und v\perp w_{2} folgt im Allgemeinen nicht v\perp (w_{1}+w_{2}).

Dieser Umstand führt zu weiteren Begriffsbildungen, denn man wird sich für solche normierten Räume interessieren, in denen die Orthogonalität additiv ist. Es stellt sich heraus, dass das genau die glatten normierten Räume sind.

Anwendungen

Orthogonalität wird in vielen Anwendungen genutzt, weil dadurch Berechnungen einfacher oder robuster durchgeführt werden können. Beispiele sind:

Siehe auch

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 22.02. 2023