Lineare Abhängigkeit bzw. Unabhängigkeit

Dr Franke Ghostwriter
verstehe den Unterschied zwichen diesen beiden Arten nicht so ganz.
Bin im Moment auf dem Stand Lineare Abhängigkeit liegt vor bei einem Ergebnis größer null !?
Und Lineare Unabhängigkeit wenn das Ergebnis = 0 ist !?
Kann mir da jemand weiterhelfen ob ich mich auf dem richtigen Weg befinde ?
Vielen Dank schon mal im voraus
 
Lineare Unabhängigkeit

Angenommen, u und v sind zwei Vektoren.
Falls dann die Gleichung

c*u + d*v = 0

nur eine einzige Lösung für c und d besitzt, nämlich

c = d = 0

dann nennt man die Vektoren u und v linear unabhängig. Ansonsten nennt man sie linear anhängig.
 
Zum Beispiel, indem man die Determinante der Koeffizientenmatrix bestimmt. Oder ihren Rang. Oder einfach versucht, das System zu lösen.

Lösbarkeit von linearen Gleichungssystemen ist, soweit ich weiß, ein großes Thema in diesem Kurs, das Defizit solltest du unbedingt abbauen.
 
Danke für deine schnelle Antwort, Chris*!
Diese zwei Lösungsmöglichkeiten sind mir bekannt. Ich dachte, dass man es vielleicht auch irgendwie ablesen kann.
Wenn man Determinante nicht bestimmen kann, da sie nicht quadratisch ist, geht es immer mit der Matrix oder gibt's irgendwelche Ausnahmen?
 
Diese zwei Lösungsmöglichkeiten sind mir bekannt.
Das wäre nützlich zu wissen gewesen.

Die Matrix ist nur eine andere Schreibweise für das Gleichungssystem, von daher geht es immer irgendwie über die Matrix, ob man sich die nun explizit aufschreibt oder nicht. Die Lösbarkeit von linearen homogenen Gleichungssystemen Ax=0, wobei A eine m*n-Matrix ist, steckt komplett in dieser Formel drin:

dim(L) = n - Rang(A)

Mit L bezeichne ich mal den Lösungsraum. Die Frage nach der eindeutigen Lösbarkeit ist also die Frage, ob dim(L)=0 ist (dh. L ist nur der Nullpunkt) bzw. äquivalent, ob Rang(A)=n ist.

In manchen Fällen weiß man von vornherein, dass das nicht sein kann, nämlich wenn A eine rechteckige Matrix mit weniger Zeilen als Spalten (m<n) ist, denn Rang(A) kann höchstens so groß wie m sein.

In den anderen Fällen muss man herauskriegen, ob A vollen Rang hat. Bei quadratischen Matrizen geht das auch über die Determinante, sonst nur über den Rang.

Wobei natürlich der Rang nicht immer vollständig bestimmt werden muss ... wenn du bspw. den Gauss-Algorithmus anwendest und plötzlich Nullzeilen erzeugt hast, weißt du schon, dass der Rang nicht voll sein kann.

Manchmal sieht man die lineare Abhängigkeit auch direkt. Der Nullvektor ist bspw. immer linear abhängig. Zwei parallele Vektoren sind linear abhängig. Drei Vektoren, die in einer Ebene liegen, sind linear abhängig. Wenn ich dir also folgende Vektoren gebe:

( 1, 1, 2, 5 )
(-2, 3, 4, 7 )
( 2, 2, 4, 10 )

Weißt du, da der erste und der dritte parallel sind, sofort: Linear abhängig.

Auch wichtig: In einem n-dimensionalen Vektorraum gibt es höchstens n linear unabhängige Vektoren. Das heißt:

( 1, 3),
( 1, 4),
( 1, 5),
(-1, 12)

sind ohne zu rechnen von vornherein linear abhängig.

Ich hoffe ich hab nichts vergessen.
 
Danke für deine Ausführlichkeit.

Diesen Absatz

Mit L bezeichne ich mal den Lösungsraum. Die Frage nach der eindeutigen Lösbarkeit ist also die Frage, ob dim(L)=0 ist (dh. L ist nur der Nullpunkt) bzw. äquivalent, ob Rang(A)=n ist.

habe ich aber nicht so gut verstanden, könntest du ihn bitte irgendwie umformulieren?


Bei der Matrix
( 1, 1, 2, 5 )
(-2, 3, 4, 7 )
( 2, 2, 4, 10 )
schreibst du, dass der erste und der dritte Vektor parallel sind. Fehlt da ein Minus odet verstehe ich etwas falsch?

und warum sind diese beiden Vektoren von vorneherein l.a.?
( 1, 3),
( 1, 4),
( 1, 5),
(-1, 12)
 
Mit L bezeichne ich mal den Lösungsraum. Die Frage nach der eindeutigen Lösbarkeit ist also die Frage, ob dim(L)=0 ist (dh. L ist nur der Nullpunkt) bzw. äquivalent, ob Rang(A)=n ist.

habe ich aber nicht so gut verstanden, könntest du ihn bitte irgendwie umformulieren?
Das System Ax=0 ist genau dann eindeutig lösbar, wenn der Rang von A gleich der Anzahl der Unbekannten ist.

Bei der Matrix
( 1, 1, 2, 5 )
(-2, 3, 4, 7 )
( 2, 2, 4, 10 )
Das ist keine Matrix, das sind drei Vektoren, die ich untereinander geschrieben habe. Wenn da (1, 1, 2, 5) steht ist damit der Spaltenvektor mit den angegebenen Elementen gemeint, schöner kann ich das leider nicht aufschreiben. Früher konnte man hier mal mit TeX arbeiten: [tex]\begin{pmatrix}1\\1\\2\\5\end{pmatrix}[/tex], aber das geht im Moment anscheinend noch nicht wieder.

In dem anderen Beispiel sind es nicht zwei, sondern vier Vektoren.
 
Hallo zusammen,
verstehe den Unterschied zwichen diesen beiden Arten nicht so ganz.
Bin im Moment auf dem Stand Lineare Abhängigkeit liegt vor bei einem Ergebnis größer null !?
Und Lineare Unabhängigkeit wenn das Ergebnis = 0 ist !?
Kann mir da jemand weiterhelfen ob ich mich auf dem richtigen Weg befinde ?
Vielen Dank schon mal im voraus


Ich prüfe das so:

lineare Unabhängigkeit : Skalarprodukt = 0
lineare Abhängigkeit: Kreuzprodukt = 0
 
lineare Unabhängigkeit : Skalarprodukt = 0
Das würde ich im Allgemeinen nicht empfehlen.
1. Lineare (Un-)Abhängigkeit ist eine Eigenschaft einer beliebig großen Familie von Vektoren. Das Skalarprodukt funktioniert nur für 2 Vektoren.
2. Das Skalarprodukt kann 0 sein, obwohl die Vektoren linear abhängig sind: (0, 0) und (1, 1).
3. Das Skalarprodukt kann ungleich 0 sein, obwohl die Vektoren linear unabhängig sind:
(1, 0) und (1, 1).

lineare Abhängigkeit: Kreuzprodukt = 0
Das ist nett. Funktioniert leider nur im R^3.
 
Wieso funktioniert das skalarprodukt nur für 2 Vektoren? Man kann doch das skalarprodukt aller gegebener Vektoren untereinander prüfen.

Wie berechnest du denn dann deine obigen Beispiele?

Also bei mir hat das bisher immer funktioniert, dann war das immer nur Zufall?
 
Wieso funktioniert das skalarprodukt nur für 2 Vektoren? Man kann doch das skalarprodukt aller gegebener Vektoren untereinander prüfen.
Paarweise lineare Unabhängigkeit reicht nicht aus, damit das ganze System linear unabhängig ist. Beispiel:
(1, 1), (1, 0), (0, 1). Je zwei Vektoren sind linear unabhängig, alle 3 sind es nicht.

Kann es sein, dass du lineare Abhängigkeit mit Orthogonalität verwechselst?

(Im Übrigen ist die lineare Abhängigkeit von 2 Vektoren so einfach zu sehen, dass man dazu normalerweise nicht zu rechnen braucht. Denn a*v + b*w = 0 mit a, b ungleich 0 kann man äquivalent zu v = (- b/a)*w umstellen, wenn also die Vektoren Vielfache voneinander sind, sind sie linear abhängig. Interessant wird es erst bei mehr als 2 Vektoren.)

Wie berechnest du denn dann deine obigen Beispiele?
Gar nicht. Ich hatte doch geschrieben, dass das Beispiele sind, in denen man es sofort sieht.
 
hmm ok 🙂
Ne vertauscht habe ich das nicht. Ich habe nur gedacht, dass l.u. Vektoren einen Winkel bilden (und l.a. Vektoren parallel liegen oder auf einer Linie) nd da man mit dem Skalarprodukt ja nachweist, dass die Vektoren orthogonal liegen, also einen Winkel bilden, habe ich daraus geschlussfolgert, dass die Vektoren dann auch l.u. sind.
Dann mach ich es ab jetzt besser nicht mehr so. Ist ja auch nicht schwer die andere Methode, hatte mir das nur so angewöhnt. Hat ja bis jetzt immer geklappt. Danke für die Aufklärung!
 
Zuletzt bearbeitet:
Wenn wir mal den Fall des Nullvektors ausschließen, bedeutet orthogonal = rechtwinklig, d.h. es gibt eine ganze Menge von Winkeln zwischen Vektoren, die auf lineare Unabhängigkeit hindeutigen, obwohl sie nicht orthogonal sind.

BTW wie hast du es eigentlich geschafft, dein Posting zu editieren? 😕 Hier gibts keinen edit-Button ... 😱ops
 
Danke für deine Ausführlichkeit.

Diesen Absatz

Mit L bezeichne ich mal den Lösungsraum. Die Frage nach der eindeutigen Lösbarkeit ist also die Frage, ob dim(L)=0 ist (dh. L ist nur der Nullpunkt) bzw. äquivalent, ob Rang(A)=n ist.

habe ich aber nicht so gut verstanden, könntest du ihn bitte irgendwie umformulieren?


Bei der Matrix
( 1, 1, 2, 5 )
(-2, 3, 4, 7 )
( 2, 2, 4, 10 )
schreibst du, dass der erste und der dritte Vektor parallel sind. Fehlt da ein Minus odet verstehe ich etwas falsch?

und warum sind diese beiden Vektoren von vorneherein l.a.?
( 1, 3),
( 1, 4),
( 1, 5),
(-1, 12)

weil 4 Vektoren des R² immer linear abhängig sind... hätte ich jetzt gesagt
 
Oben