Alle Tabs der Lerneinheit (Erklärung · Interaktiv · Praxis-Übung · Klausur-Quiz) als durchgehender Text. Ideal zum Wiederholen vor der Klausur — und für Suchmaschinen wie Google, Bing und KI-Suche (ChatGPT, Perplexity).
Funktionen mehrerer Variablen: partielle Ableitungen, Gradient, Hesse-Matrix und Klassifikation kritischer Punkte (Min/Max/Sattel). Anwendungen in Cobb-Douglas, Nutzenmaximierung und Optimierung.
Bei Funktionen mit mehreren Variablen misst die partielle Ableitung die Steigung in einer einzelnen Richtung — andere Variablen werden konstant gehalten. Pflicht-Stoff in Wirtschaftsmathe und Analysis 2. Klausur-Klassiker für Optimierungsaufgaben in BWL/VWL (Nutzenmaximierung, Produktionsfunktionen, Kostenminimierung).
Was du in der Klausur können musst:
In Klausuren oft gefragt: "Berechne ", "Bestimme die Extrema von ", "Klassifiziere mit Hesse-Matrix" — Pflicht-Aufgaben.
Bei misst die Änderungsrate, wenn nur variiert und konstant gehalten wird:
Notations-Vielfalt (alle gleichbedeutend):
Praxis-Trick: Beim partiellen Ableiten alle anderen Variablen wie Konstanten behandeln, sonst genau wie ein eindimensionales Ableiten.
Polynom:
Cobb-Douglas-Produktionsfunktion:
Satz von Schwarz: Wenn die zweiten partiellen Ableitungen und in einer Umgebung des betrachteten Punktes stetig sind, gilt:
Reihenfolge der Ableitung egal — bei "gutartigen" (in der Praxis fast allen Klausur-)Funktionen.
Beispiel:
Der Gradient ist der Vektor aller partiellen Ableitungen:
Bedeutung: zeigt in die Richtung des steilsten Anstiegs der Funktion. Betrag = lokale Steigungsrate.
Notwendige Bedingung im Optimum: bei einem inneren, unbeschränkten, differenzierbaren Optimum gilt . Bei Randpunkten oder Optimierung mit Nebenbedingungen (Lagrange / KKT) muss der Gradient nicht verschwinden — siehe Nutzenmaximierung für die Lagrange-Anwendung.
Notwendige Bedingung (1. Ordnung): in einem inneren Extremum gilt
→ Lösen des Gleichungssystems liefert die kritischen Punkte.
Hinreichende Bedingung (2. Ordnung) — Hesse-Matrix:
Mit Determinante :
| Klassifikation | ||
|---|---|---|
| Lokales Minimum | ||
| Lokales Maximum | ||
| beliebig | Sattelpunkt | |
| beliebig | unentschieden — höhere Ordnung |
Beispiel:
In der Mikroökonomie ist das Tangential-Bedingung der Optimum:
Nutzenmaximierung: — Verhältnis der Grenznutzen = Verhältnis der Preise (siehe Nutzenmaximierung)
Kostenminimierung: Verhältnis der Grenzproduktivitäten = Verhältnis der Faktorpreise
Beide sind Anwendungen partieller Ableitungen mit Lagrange-Multiplikatoren.
- Andere Variablen wie Konstanten behandeln — mechanisches Vorgehen.
- (Schwarz) — Reihenfolge egal, Doppelarbeit sparen.
- Extrema: für kritische Punkte, dann Hesse-Determinante zur Klassifikation.
- → immer Sattelpunkt, kein Test mit nötig.
- Cobb-Douglas-Ableitungen auswendig: Faktor rauszieht, Exponent um 1 senken.
Faustregel zum Mitnehmen: Partielle Ableitung = "Variation in einer Richtung, alles andere konstant". Gradient zeigt Richtung des steilsten Anstiegs. Bei einem inneren, unbeschränkten, differenzierbaren Optimum verschwindet der Gradient (). Hesse-Matrix klassifiziert dann: + Min, + Max, Sattel. Bei Nebenbedingungen oder Randpunkten: Lagrange/KKT statt Hesse.
Alle Tabs der Lerneinheit (Erklärung · Interaktiv · Praxis-Übung · Klausur-Quiz) als durchgehender Text. Ideal zum Wiederholen vor der Klausur — und für Suchmaschinen wie Google, Bing und KI-Suche (ChatGPT, Perplexity).
y = mx + b verstehen, Graph zeichnen, Werte berechnen. Die Grundlage für Algorithmus-Laufzeit, Kostenmodelle und einfache Regression.
f(x) = ax² + bx + c. Parabeln verstehen, Scheitelpunkt finden, Nullstellen berechnen mit pq- und abc-Formel. Drei Darstellungsformen und wann welche.
Fläche unter der Kurve: Riemann-Summen, Stammfunktion und Hauptsatz. Bestimmtes vs. unbestimmtes Integral, Potenzregel rückwärts. Die zweite Säule der Analysis.
Bei Funktionen mit mehreren Variablen f(x, y) misst die partielle Ableitung die Steigung in einer einzelnen Richtung — andere Variablen werden konstant gehalten. Pflicht-Stoff in Wirtschaftsmathe und Analysis 2. Klausur-Klassiker für Optimierungsaufgaben in BWL/VWL (Nutzenmaximierung, Produktionsfunktionen, Kostenminimierung).
Was du in der Klausur können musst:
In Klausuren oft gefragt: "Berechne ∂ f / ∂ x", "Bestimme die Extrema von f(x, y)", "Klassifiziere mit Hesse-Matrix" — Pflicht-Aufgaben.
Bei f: ℝ² → ℝ misst (∂ f)/(∂ x) die Änderungsrate, wenn nur x variiert und y konstant gehalten wird:
(∂ f)/(∂ x)(x₀, y₀) = lim_(h → 0) (f(x₀ + h, y₀) - f(x₀, y₀))/h
Notations-Vielfalt (alle gleichbedeutend):
(∂ f)/(∂ x) = f_x = ∂_x f
Praxis-Trick: Beim partiellen Ableiten alle anderen Variablen wie Konstanten behandeln, sonst genau wie ein eindimensionales Ableiten.
Polynom: f(x, y) = 3x² y + 5x - 2y³
f_x = (∂ f)/(∂ x) = 6xy + 5 (y wie konstant)
f_y = (∂ f)/(∂ y) = 3x² - 6y² (x wie konstant)
Cobb-Douglas-Produktionsfunktion: f(K, L) = A · K^α · L^(1-α)
f_K = A · α · K^(α - 1) · L^(1-α) (Grenzproduktivität des Kapitals)
f_L = A · (1 - α) · K^(α) · L^(-α) (Grenzproduktivität der Arbeit)
f_(xx) = (∂² f)/(∂ x²), f_(yy) = (∂² f)/(∂ y²), f_(xy) = (∂² f)/(∂ y ∂ x)
Satz von Schwarz: Wenn die zweiten partiellen Ableitungen f_(xy) und f_(yx) in einer Umgebung des betrachteten Punktes stetig sind, gilt:
boxedf_(xy) = f_(yx)
Reihenfolge der Ableitung egal — bei "gutartigen" (in der Praxis fast allen Klausur-)Funktionen.
Beispiel: f(x, y) = 3x² y + 5x - 2y³
f_x = 6xy + 5 → f_(xx) = 6y, f_(xy) = 6xf_y = 3x² - 6y² → f_(yy) = -12y, f_(yx) = 6x ✓Der Gradient ist der Vektor aller partiellen Ableitungen:
∇ f(x, y) = (f_x, f_y)
Bedeutung: zeigt in die Richtung des steilsten Anstiegs der Funktion. Betrag = lokale Steigungsrate.
Notwendige Bedingung im Optimum: bei einem inneren, unbeschränkten, differenzierbaren Optimum gilt
∇ f = 0. Bei Randpunkten oder Optimierung mit Nebenbedingungen (Lagrange / KKT) muss der Gradient nicht verschwinden — siehe Nutzenmaximierung für die Lagrange-Anwendung.
Notwendige Bedingung (1. Ordnung): in einem inneren Extremum gilt
∇ f(x₀, y₀) = 0 Longleftrightarrow f_x = 0 wedge f_y = 0
→ Lösen des Gleichungssystems liefert die kritischen Punkte.
Hinreichende Bedingung (2. Ordnung) — Hesse-Matrix:
H = [[f_(xx), f_(xy)], [f_(yx), f_(yy)]]
Mit Determinante D = f_(xx) · f_(yy) - (f_(xy))²:
D | f_(xx) | Klassifikation |
|---|---|---|
D > 0 | f_(xx) > 0 | Lokales Minimum |
D > 0 | f_(xx) < 0 | Lokales Maximum |
D < 0 | beliebig | Sattelpunkt |
D = 0 | beliebig | unentschieden — höhere Ordnung |
Beispiel: f(x, y) = x² + y²
∇ f = (2x, 2y) = 0 ⇒ (x, y) = (0, 0) kritischf_(xx) = 2, f_(yy) = 2, f_(xy) = 0 → D = 4 > 0, f_(xx) > 0 → Minimum bei (0, 0) mit f = 0 ✓In der Mikroökonomie ist das Tangential-Bedingung der Optimum:
Nutzenmaximierung:
(∂ U / ∂ X)/(∂ U / ∂ Y) = p_X/p_Y— Verhältnis der Grenznutzen = Verhältnis der Preise (siehe Nutzenmaximierung)
Kostenminimierung: Verhältnis der Grenzproduktivitäten = Verhältnis der Faktorpreise
Beide sind Anwendungen partieller Ableitungen mit Lagrange-Multiplikatoren.
- Andere Variablen wie Konstanten behandeln — mechanisches Vorgehen.
f_(xy) = f_(yx)(Schwarz) — Reihenfolge egal, Doppelarbeit sparen.- Extrema:
∇ f = 0für kritische Punkte, dann Hesse-Determinante zur Klassifikation.D < 0→ immer Sattelpunkt, kein Test mitf_(xx)nötig.- Cobb-Douglas-Ableitungen auswendig: Faktor
αrauszieht, Exponent um 1 senken.
Faustregel zum Mitnehmen: Partielle Ableitung = "Variation in einer Richtung, alles andere konstant". Gradient zeigt Richtung des steilsten Anstiegs. Bei einem inneren, unbeschränkten, differenzierbaren Optimum verschwindet der Gradient (
∇ f = 0). Hesse-Matrix klassifiziert dann:D > 0+f_(xx) > 0Min,D > 0+f_(xx) < 0Max,D < 0Sattel. Bei Nebenbedingungen oder Randpunkten: Lagrange/KKT statt Hesse.
Wähle eine Standard-Funktion (Polynom, Cobb-Douglas, Sattel) und die Stelle (x₀, y₀). Der Plot zeigt zwei Schnittkurven durch den gewählten Punkt:
f(x, y₀) — y fixiert, x variiert. Steigung an x₀ = f_xf(x₀, y) — x fixiert, y variiert. Steigung an y₀ = f_yPlus die partiellen Ableitungen, die Hesse-Determinante und die Klassifikation des kritischen Punkts (falls da).
Probier folgendes:
f(x, y) = x² + y² — Paraboloid, Minimum bei (0, 0)f(x, y) = x² - y² — Sattel-Funktion, Sattelpunkt bei (0, 0), D = -4 < 0f = K^{0,5} · L^{0,5} — Grenzproduktivitäten symmetrisch sinkendInteraktive Visualisierung
Interaktive Komponente: probiere sie im Topic-Player oben aus.
Faustregel zum Mitnehmen: Partielle Ableitung = Steigung der Schnittkurve in Achsen-Richtung am gewählten Punkt. Bei einem inneren Punkt: wenn beide Schnittkurven horizontal verlaufen (f_x = f_y = 0), ist's ein kritischer Punkt — Hesse-Matrix entscheidet dann Min / Max / Sattel. Bei Randpunkten oder Nebenbedingungen reicht der Hesse-Test allein nicht; dann Lagrange/KKT verwenden.
Klausur-typische Berechnungen: f_x, f_y, höhere Ableitungen, Extrema-Klassifikation.
Klausurfragen mit Lösungen (6)
Antwort: `6x + 4y`
Erklärung: f_x = ∂f/∂x: y wie Konstante, also d/dx von (3x² + 4xy + y³) = 6x + 4y + 0 = 6x + 4y. Das y³ verschwindet, weil's keine x enthält.
Antwort: `4x + 3y²`
Erklärung: f_y = ∂f/∂y: x wie Konstante. d/dy(3x² + 4xy + y³) = 0 + 4x + 3y² = 4x + 3y². Klausur-Klassiker.
Antwort: 0.75 (Toleranz ±0.01)
Erklärung: f_K = 0,5 · K^(-0,5) · L^0,5 = 0,5 · L^0,5 / K^0,5 = 0,5 · √9/√4 = 0,5 · 3/2 = 0,75. Grenzproduktivität des Kapitals an der Stelle (4, 9).
Typ: Zahlen-Eingabe
Antwort: 8 (Toleranz ±0.5)
Erklärung: f_x = 2x + 2y → f_xx = 2. f_y = 2x + 6y → f_yy = 6. f_xy = 2. D = f_xx · f_yy − (f_xy)² = 2·6 − 4 = 8. D > 0 und f_xx > 0 → Minimum.
Typ: Zahlen-Eingabe
Antwort: Sattelpunkt
Erklärung: f_x = 2x = 0, f_y = −2y = 0 → kritisch bei (0, 0). f_xx = 2, f_yy = −2, f_xy = 0. D = 2·(−2) − 0 = −4 < 0 → Sattelpunkt. In x-Richtung Minimum (positiv quadratisch), in y-Richtung Maximum (negativ quadratisch).
Antwort: Wahr
Erklärung: Korrekt. Bei stetigen zweiten partiellen Ableitungen ist die Reihenfolge der Ableitung egal. In Klausuren spart das Doppelarbeit — eine der beiden gemischten Ableitungen reicht.
Typ: Wahr/Falsch
Sechs Aufgaben zu Ableitungen, Gradient, Hesse-Matrix und Anwendungen.
Klausurfragen mit Lösungen (6)
Antwort: Die Ableitung von `f` nach `x` — andere Variablen konstant
Erklärung: Partielle Ableitung: nach einer Variable ableiten, alle anderen wie Konstanten behandeln. Mechanik wie eindimensional, nur dass mehrere Variablen vorkommen.
Antwort: 14.78 (Toleranz ±0.1)
Erklärung: f_x = y · e^(xy) (Kettenregel: y · e^xy). Bei (1, 2): f_x = 2 · e^2 ≈ 2 · 7,389 ≈ 14,78.
Typ: Zahlen-Eingabe
Antwort: Er zeigt in Richtung des steilsten Anstiegs
Erklärung: Der Gradient ∇f = (f_x, f_y) zeigt in die Richtung des steilsten Anstiegs. Sein Betrag ist die maximale Richtungsableitung. In Optimum verschwindet er. Anwendung: Gradient Descent (negative Richtung) in Machine Learning.
Antwort: 2
Erklärung: f_x = 3x² − 3y = 0 → y = x². f_y = −3x + 3y² = 0 → y² = x. Einsetzen: y² = x, y = x² → (x²)² = x → x^4 = x → x(x³−1)=0 → x = 0 oder x = 1. Kritische Punkte: (0, 0) und (1, 1). Bei (0, 0): D = −9 < 0 → Sattel. Bei (1, 1): D = 27 > 0, f_xx = 6 > 0 → Minimum.
Typ: Zahlen-Eingabe
Lösungen pro Lücke:
Erklärung: Klassifikation kritischer Punkte: D = f_xx·f_yy − (f_xy)². D > 0 ∧ f_xx > 0 → Minimum. D > 0 ∧ f_xx < 0 → Maximum. D < 0 → Sattelpunkt. D = 0 → Test versagt, höhere Ordnung nötig.
Typ: Lückentext
Antwort: Sie ist sinkend in `X` (abnehmender Grenznutzen)
Erklärung: U_X = (1/3) · X^(-2/3) · Y^(2/3). Bei steigendem X sinkt X^(-2/3) → U_X fällt. Klassisches Cobb-Douglas-Verhalten: positiver, aber sinkender Grenznutzen. In Mikroökonomie: 1. Gossen'sches Gesetz.