diff --git a/CONTRIBUTORS b/CONTRIBUTORS
index dc4167fc2..d5f975c5f 100644
--- a/CONTRIBUTORS
+++ b/CONTRIBUTORS
@@ -7,6 +7,11 @@
Mazen Melibari (review of linear algebra)
--de
+ Bettina Schlager (translation machine learning tips and tricks)
+
+ Bettina Schlager (translation of linear algebra)
+
+ Bettin Schlager (review of deep learning)
--es
Erick Gabriel Mendoza Flores (translation of deep learning)
diff --git a/de/cheatsheet-machine-learning-tips-and-tricks.md b/de/cheatsheet-machine-learning-tips-and-tricks.md
index 9712297b8..98cdba0ce 100644
--- a/de/cheatsheet-machine-learning-tips-and-tricks.md
+++ b/de/cheatsheet-machine-learning-tips-and-tricks.md
@@ -1,285 +1,285 @@
**1. Machine Learning tips and tricks cheatsheet**
-⟶
+⟶ Maschinelles Lernen - Tipps und Tricks Spickzettel
**2. Classification metrics**
-⟶
+⟶ Klassifikationsmaßzahlen
**3. In a context of a binary classification, here are the main metrics that are important to track in order to assess the performance of the model.**
-⟶
+⟶ Zur Beurteilung und Evaluierung der Leistung einer binären Klassifikation werden folgende Maßzahlen herangezogen:
**4. Confusion matrix ― The confusion matrix is used to have a more complete picture when assessing the performance of a model. It is defined as follows:**
-⟶
+⟶ Konfusionsmatrix - Die Konfusionsmatrix gibt Einblick in die allgemeine Leistung des Modells und wird wie folgt definiert:
**5. [Predicted class, Actual class]**
-⟶
+⟶ [Vorhergesagte Klasse, Tatsächliche Klasse]
**6. Main metrics ― The following metrics are commonly used to assess the performance of classification models:**
-⟶
+⟶ Hauptmaßzahlen - Folgende Hauptmaßzahlen werden zur Beurteilung eines Klassifikators verwendet:
**7. [Metric, Formula, Interpretation]**
-⟶
+⟶ [Maßzahl, Formel, Interpretation]
**8. Overall performance of model**
-⟶
+⟶ Anteil aller korrekt klassifizierten Daten
**9. How accurate the positive predictions are**
-⟶
+⟶ Rate der Korrektheit der positiv klassifizierten Ergebnisse
**10. Coverage of actual positive sample**
-⟶
+⟶ Abdeckung der tatsächlichen positiven Stichproben
**11. Coverage of actual negative sample**
-⟶
+⟶ Abdeckung der tatsächlichen negativen Stichproben
**12. Hybrid metric useful for unbalanced classes**
-⟶
+⟶ Kombiniertes Maß nützlich für ungleichmäßig große Klassen
**13. ROC ― The receiver operating curve, also noted ROC, is the plot of TPR versus FPR by varying the threshold. These metrics are are summed up in the table below:**
-⟶
+⟶ ROC - Die Receiver-Operating-Characteristic-Kurve, auch ROC genannt, stellt die Relation zwischen TPR und FPR dar. Diese Maßzahlen werden in der folgenden Tabelle zusammengefasst:
**14. [Metric, Formula, Equivalent]**
-⟶
+⟶ [Maßzahl, Formel, Pendant]
**15. AUC ― The area under the receiving operating curve, also noted AUC or AUROC, is the area below the ROC as shown in the following figure:**
-⟶
+⟶ AUC - Fläche unter der ROC Kurve, auch AUC/AUROC genannt. Siehe folgende Abbildung:
**16. [Actual, Predicted]**
-⟶
+⟶ [Vorhergesagt, Ermittelt]
-
+
**17. Basic metrics ― Given a regression model f, the following metrics are commonly used to assess the performance of the model:**
-⟶
+⟶ Allgemeine Maßzahlen - Für ein Regressionsmodell f werden folgende Verfahren zur Modellbeurteilung verwendet:
-
+
**18. [Total sum of squares, Explained sum of squares, Residual sum of squares]**
-⟶
+⟶ [Totale Quadratsumme, Erklärte Abweichungsquadratsumme, Residuenquadratsumme]
**19. Coefficient of determination ― The coefficient of determination, often noted R2 or r2, provides a measure of how well the observed outcomes are replicated by the model and is defined as follows:**
-⟶
+⟶ Bestimmtheitsmaß - Das Bestimmtheitsmaß, auch R2 oder r2 genannt, ist eine statistische Maßzahl zur Beurteilung der Anpassungsgüte des Modells und ist wie folgt definiert:
**20. Main metrics ― The following metrics are commonly used to assess the performance of regression models, by taking into account the number of variables n that they take into consideration:**
-⟶
+⟶ Hauptmaßzahlen - Folgende Maßzahlen geben die Güte der Anpassung eines Regressionsmodells an. Folgende Metriken berücksichtigen ebenso die Anzahl der geschätzten Variablen n:
**21. where L is the likelihood and ˆσ2 is an estimate of the variance associated with each response.**
-⟶
+⟶ L ist der Likelihood-Wert und ˆσ2 die geschätze Varianz per Zielvariable
**22. Model selection**
-⟶
+⟶ Modellauswahl
**23. Vocabulary ― When selecting a model, we distinguish 3 different parts of the data that we have as follows:**
-⟶
+⟶ Datensatz - Bei der Auswahl des Modells wird der grundlegende Datensatz dreigeteilt:
**24. [Training set, Validation set, Testing set]**
-⟶
+⟶ [Trainingsdatensatz, Validierungsdatensatz, Testdatensatz]
**25. [Model is trained, Model is assessed, Model gives predictions]**
-⟶
+⟶ [Modell wird trainiert, Modell wird evaluiert, Modell prognostiziert]
**26. [Usually 80% of the dataset, Usually 20% of the dataset]**
-⟶
+⟶ [Meist 80% des Datensatzes, Meist 20% des Datensatzes]
**27. [Also called hold-out or development set, Unseen data]**
-⟶
+⟶ Auch Hold-Out oder Entwicklungsdatensatz genannt, Ungesehene Daten]
**28. Once the model has been chosen, it is trained on the entire dataset and tested on the unseen test set. These are represented in the figure below:**
-⟶
+⟶ Sobald entschieden ist welches Modell verwendet wird, wird dieses mit dem gesamten Datensatz trainiert und mit dem Validierungsdatensatz getestet, wie folgende Abbildung zeigt:
**29. Cross-validation ― Cross-validation, also noted CV, is a method that is used to select a model that does not rely too much on the initial training set. The different types are summed up in the table below:**
-⟶
+⟶ Kreuzvalidierung - Bei der Kreuzvalidierung wird das Lernmodell ausgewählt welches die Abhängigkeit vom initialen Trainingsdatensatz gering hält. Verschiedene Verfahren werden in der folgenden Tabelle erläutert:
**30. [Training on k−1 folds and assessment on the remaining one, Training on n−p observations and assessment on the p remaining ones]**
-⟶
+⟶ Training mit k-1 Teilmengen und Evaluierung mit den übrigen Daten, Training mit n-p Stichproben und Evaluierung mit den verbleibenden p Daten]
**31. [Generally k=5 or 10, Case p=1 is called leave-one-out]**
-⟶
+⟶ [Meist k=5 oder 10, p=1 wird auch "Leave-One-Out" genannt]
**32. The most commonly used method is called k-fold cross-validation and splits the training data into k folds to validate the model on one fold while training the model on the k−1 other folds, all of this k times. The error is then averaged over the k folds and is named cross-validation error.**
-⟶
+⟶ Am häufigsten wird die k-fache Kreuzvalidierung verwendet, welche den Trainingsdatensatz in k-Teilmengen trennt. Das Modell wird jeweils mit der k-te Teilmenge validiert und mit den verbleibenden k-1 Teilmengen trainiert und beides k-mal wiederholt. Die Gesamtfehlerrate der Kreuzvalidierung ist der Durchschnitt der Einzelfehlerraten der k Einzeldurchläufe.
**33. Regularization ― The regularization procedure aims at avoiding the model to overfit the data and thus deals with high variance issues. The following table sums up the different types of commonly used regularization techniques:**
-⟶
+⟶ Regularisierung - Regularisierung dient der Vermeidung von Überanpassung des Modells an den Trainingsdaten und ist eine Gegenmaßnahme bei hoher Varianz. Folgende Tabelle beschreibt verschiedene Techniken der Regularisierung:
**34. [Shrinks coefficients to 0, Good for variable selection, Makes coefficients smaller, Tradeoff between variable selection and small coefficients]**
-⟶
+⟶ [Annäherung des Koeffizienten an 0, Gut bei Parameterauswahl, Verkleinern des Koeffizienten, Kompromiss zwischen Auswahl der Parameter und kleinen Koeffizienten]
**35. Diagnostics**
-⟶
+⟶ Modellevaluierung
**36. Bias ― The bias of a model is the difference between the expected prediction and the correct model that we try to predict for given data points.**
-⟶
+⟶ Verzerrung - Die Verzerrung eines Modells ist die Differenz zwischen der erwarteten Prognose und dem korrektem Modell welches für den verwendeten Datensatz prognostiziert werden soll.
**37. Variance ― The variance of a model is the variability of the model prediction for given data points.**
-⟶
+⟶ Varianz - Die Varianz des Modells ist die Schwankung der Modellprognose für den verwendeten Datensatz.
**38. Bias/variance tradeoff ― The simpler the model, the higher the bias, and the more complex the model, the higher the variance.**
-⟶
+⟶ Verzerrung-Varianz-Dilemma - Umso einfacher das Modell, desto höher ist die Verzerrung. Umso komplexer das Modell, desto höher ist die Varianz.
**39. [Symptoms, Regression illustration, classification illustration, deep learning illustration, possible remedies]**
-⟶
+⟶ [Symptome, Regressionsabbildung, Klassifikationsabbildung, Deep Learning Beispiel, Mögliche Lösungen]
**40. [High training error, Training error close to test error, High bias, Training error slightly lower than test error, Very low training error, Training error much lower than test error, High variance]**
-⟶
+⟶ [Hohe Trainingsfehlerrate, Trainingsfehler nahe am Testfehler, Hohe Verzerrung, Trainingsfehler leicht geringer als Testfehler, Sehr geringer Trainingsfehler, Trainingsfehler erheblich geringer als Testfehler, Hohe Varianz]
**41. [Complexify model, Add more features, Train longer, Perform regularization, Get more data]**
-⟶
+⟶ [Modellkomplexität erhöhen, Ergänzung von Merkmalen, Längere Trainingszeit, Regularisierung, Erweiterung des Datensatzes]
**42. Error analysis ― Error analysis is analyzing the root cause of the difference in performance between the current and the perfect models.**
-⟶
+⟶ Fehleranalyse - Bei der Fehleranalyse wird die Ursache der Differenz zwischen der Leistung des korrektem und des derzeitigen Modells analysiert.
**43. Ablative analysis ― Ablative analysis is analyzing the root cause of the difference in performance between the current and the baseline models.**
-⟶
+⟶ Ablative Analyse - Bei der ablativen Analyse wird die Ursache der Differenz zwischen der Leistung des Basismodells und des derzeitigen Modells analysiert.
**44. Regression metrics**
-⟶
+⟶ Regressionsmaßzahlen
**45. [Classification metrics, confusion matrix, accuracy, precision, recall, F1 score, ROC]**
-⟶
+⟶ [Klassifikationsmaßzahlen, Konfusionsmatrix, Richtigkeit, Präzision, Trefferquote, F-Maß, ROC]
**46. [Regression metrics, R squared, Mallow's CP, AIC, BIC]**
-⟶
+⟶ [Regressionsmaßzahlen, Bestimmtheitsmaß, Mallows' Cp-Statistik, AIC, BIC (SBC)]
**47. [Model selection, cross-validation, regularization]**
-⟶
+⟶ [Modellevaluierung, Kreuzvalidierung, Regularisierung]
**48. [Diagnostics, Bias/variance tradeoff, error/ablative analysis]**
-⟶
+⟶ [Diagnose, Verzerrung-Varianz-Dilemma, Fehler/Ablativ-Analyse]
diff --git a/de/refresher-linear-algebra.md b/de/refresher-linear-algebra.md
index a6b440d1e..e6cf8763e 100644
--- a/de/refresher-linear-algebra.md
+++ b/de/refresher-linear-algebra.md
@@ -1,339 +1,338 @@
**1. Linear Algebra and Calculus refresher**
-⟶
+⟶ Auffrischung Lineare Algebra und Differentialrechnung
**2. General notations**
-⟶
+⟶ Allgemeine Notationen
**3. Definitions**
-⟶
+⟶ Definitionen
**4. Vector ― We note x∈Rn a vector with n entries, where xi∈R is the ith entry:**
-⟶
+⟶ Vektor - Sei x∈Rn ein Vektor mit n Einheiten und xi∈R die i-te Einheit:
**5. Matrix ― We note A∈Rm×n a matrix with m rows and n columns, where Ai,j∈R is the entry located in the ith row and jth column:**
-⟶
+⟶ Matrix - Sei A∈Rm×n eine Matrix mit m Zeilen und n Spalten und Ai,j∈R die Einheit in der i-ten Reihe und j-te Spalte:
**6. Remark: the vector x defined above can be viewed as a n×1 matrix and is more particularly called a column-vector.**
-⟶
+⟶ Wichtig: Der Vektor x, wie oben erwähnt, ist eine n×1 Matrix und wird auch Spaltenvektor genannt.
**7. Main matrices**
-⟶
+⟶ Spezielle Matrizen
**8. Identity matrix ― The identity matrix I∈Rn×n is a square matrix with ones in its diagonal and zero everywhere else:**
-⟶
+⟶ Identitätsmatrix - Die Identitätsmatrix I∈Rn×n ist eine quadratische Matrix welche 1er in der Diagonale enthält und sonst 0.
**9. Remark: for all matrices A∈Rn×n, we have A×I=I×A=A.**
-⟶
+⟶ Wichtig: Für eine Matrix A∈Rn×n gilt: A×I=I×A=A.
**10. Diagonal matrix ― A diagonal matrix D∈Rn×n is a square matrix with nonzero values in its diagonal and zero everywhere else:**
-⟶
+⟶ Diagonalmatrix - Eine Diagonalmatrix D∈Rn×n ist eine quadratische Matrix welche außerhalb der Diagonale 0 enthält. Die Einheiten in der Diagonale sind ungleich 0:
**11. Remark: we also note D as diag(d1,...,dn).**
-⟶
+⟶ Wichtig: Wir verwenden für die Beschreibung der Diagonalmatrix D auch die Notation diag(d1,...,dn).
**12. Matrix operations**
-⟶
+⟶ Rechenoperationen mit Matrizen
**13. Multiplication**
-⟶
+⟶ Multiplikation
**14. Vector-vector ― There are two types of vector-vector products:**
-⟶
+⟶ Vektor-Vektor - Es gibt zwei Arten des Vektor-Vektor Produkts:
**15. inner product: for x,y∈Rn, we have:**
-⟶
+⟶ inneres Produkt: auch Skalarprodukt, Es gilt x,y∈Rn:
**16. outer product: for x∈Rm,y∈Rn, we have:**
-⟶
+⟶ äußeres Produkt: auch Kreuzprodukt oder Vektorprodukt genannt. Es gilt x∈Rm,y∈Rn:
**17. Matrix-vector ― The product of matrix A∈Rm×n and vector x∈Rn is a vector of size Rn, such that:**
-⟶
+⟶ Matrix-Vektor : Das Produkt einer Matrix A∈Rm×n und Vektor x∈Rn ist ein Vektor der Größe Rn, und es gilt:
**18. where aTr,i are the vector rows and ac,j are the vector columns of A, and xi are the entries of x.**
-⟶
+⟶ aTr,i sind die Zeilenvektoren und ac,j sind die Spaltenvektoren der Matrix A und xi sind die Einheiten des Vektors x.
**19. Matrix-matrix ― The product of matrices A∈Rm×n and B∈Rn×p is a matrix of size Rn×p, such that:**
-⟶
+⟶ Matrix-Matrix - Das Produkt einer Matrix A∈Rm×n und B∈Rn×p ist ebenfalls eine Matrix der Größe Rn×p und es gilt:
**20. where aTr,i,bTr,i are the vector rows and ac,j,bc,j are the vector columns of A and B respectively**
-⟶
+⟶ aTr,i,bTr,i sind jeweils die Zeilenvektoren und ac,j,bc,j sind die Spaltenvektoren von A und B
**21. Other operations**
-⟶
+⟶ Weitere Rechenoperationen
**22. Transpose ― The transpose of a matrix A∈Rm×n, noted AT, is such that its entries are flipped:**
-⟶
+⟶ Transposition - Die Transposition oder Transponierung einer Matrix A∈Rm×n, geschrieben als AT, spiegelt die Einheiten der ursprünglichen Matrix entlang der Hauptdiagonale:
**23. Remark: for matrices A,B, we have (AB)T=BTAT**
-⟶
+⟶ Wichtig: Für Matrix A und B gilt (AB)T=BTAT
**24. Inverse ― The inverse of an invertible square matrix A is noted A−1 and is the only matrix such that:**
-⟶
+⟶ Inverse - Das Inverse, oder Umkehrung, einer invertierbaren, quadratischen Matrix A wird auch als A-1 bezeichnet und ist die einzige Matrix für die gilt:
**25. Remark: not all square matrices are invertible. Also, for matrices A,B, we have (AB)−1=B−1A−1**
-⟶
+⟶ Wichtig: Nicht alle quadratischen Matrizen sind invertierbar. Weiteres gilt für Matrix A und B (AB)−1=B−1A−1
**26. Trace ― The trace of a square matrix A, noted tr(A), is the sum of its diagonal entries:**
-⟶
-
+⟶ Spur - Die Spurabbildung (Spurfunktion) einer quadratischen Matrix A, geschrieben als tr(A), ist die Summe der Diagonaleinheiten:
**27. Remark: for matrices A,B, we have tr(AT)=tr(A) and tr(AB)=tr(BA)**
-⟶
+⟶ Wichtig: Für Matrix A und B es gilt: tr(AT)=tr(A) and tr(AB)=tr(BA)
**28. Determinant ― The determinant of a square matrix A∈Rn×n, noted |A| or det(A) is expressed recursively in terms of A∖i,∖j, which is the matrix A without its ith row and jth column, as follows:**
-⟶
+⟶ Determinante - Die Determinante einer quadratischen Matrix A∈Rn×n, auch |A| oder det(A) geschrieben, wird mit einer Matrix A\i,\j definiert welche die Matrix A ohne i-te Zeile und ohne j-te Spalte darstellt.
**29. Remark: A is invertible if and only if |A|≠0. Also, |AB|=|A||B| and |AT|=|A|.**
-⟶
+⟶ Wichtig: A ist nur invertierbar, falls |A|≠0. Des Weiteren gilt |AB|=|A||B| and |AT|=|A|
**30. Matrix properties**
-⟶
+⟶ Eigenschaften einer Matrix
**31. Definitions**
-⟶
+⟶ Definitionen
**32. Symmetric decomposition ― A given matrix A can be expressed in terms of its symmetric and antisymmetric parts as follows:**
-⟶
+⟶ Symmetrische Zerlegung - Eine Matrix A kann durch dessen symmetrischen und schiefsymmetrischen Anteil wie folgt definiert werden:
**33. [Symmetric, Antisymmetric]**
-⟶
+⟶ [Symmetrisch, Schiefsymmetrisch]
**34. Norm ― A norm is a function N:V⟶[0,+∞[ where V is a vector space, and such that for all x,y∈V, we have:**
-⟶
+⟶ Matrixnorm - Die Matrixnorm is eine Funktion N:V⟶[0,+∞[ wobei V der Vektorraum ist und für alle x,y∈V gilt:
**35. N(ax)=|a|N(x) for a scalar**
-⟶
+⟶ N(ax)=|a|N(x) wobei a ein Skalar ist
**36. if N(x)=0, then x=0**
-⟶
+⟶ falls N(x)=0, folgt x=0
**37. For x∈V, the most commonly used norms are summed up in the table below:**
-⟶
+⟶ Sei x∈V, die häufigsten Matrixnormen werden in der folgenden Tabelle erläutert:
**38. [Norm, Notation, Definition, Use case]**
-⟶
+⟶ [Matrixnorm, Notation, Definition, Verwendung]
**39. Linearly dependence ― A set of vectors is said to be linearly dependent if one of the vectors in the set can be defined as a linear combination of the others.**
-⟶
+⟶ Lineare Abhängigkeit - Vektoren eines Vektorraums sind linear abhängig falls sich ein Vektor als Linearkombination der anderen Vektoren darstellen lässt.
**40. Remark: if no vector can be written this way, then the vectors are said to be linearly independent**
-⟶
+⟶ Wichtig: falls kein Vektor als Linearkombination der anderen gebildet werden kann, werden die Vektoren als linear unabhängig bezeichnet.
**41. Matrix rank ― The rank of a given matrix A is noted rank(A) and is the dimension of the vector space generated by its columns. This is equivalent to the maximum number of linearly independent columns of A.**
-⟶
+⟶ Rang - Der Rang einer Matrix A wird auch als rank(A) bezeichnet und wird durch die Dimension des Vektorraums, aufgespannt durch die Spaltenvektoren, definiert. Der Rang ist äquivalent mit der maximalen Anzahl an linear unabhängigen Spaltenvektoren von A.
**42. Positive semi-definite matrix ― A matrix A∈Rn×n is positive semi-definite (PSD) and is noted A⪰0 if we have:**
-⟶
+⟶ Positiv-Semidefinierte Matrix - Eine Matrix A∈Rn×n ist positiv semidefinit (PSD), A⪰0 geschrieben, falls folgendes gilt:
**43. Remark: similarly, a matrix A is said to be positive definite, and is noted A≻0, if it is a PSD matrix which satisfies for all non-zero vector x, xTAx>0.**
-⟶
+⟶ Wichtig: Ebenfalls gilt, dass eine Matrix A positiv definit, in der Notatition: A≻0, falls diese eine PSD Matrix ist und es gilt für alle Einheiten eines Vektors x ungleich 0: x, xTAx>0.
**44. Eigenvalue, eigenvector ― Given a matrix A∈Rn×n, λ is said to be an eigenvalue of A if there exists a vector z∈Rn∖{0}, called eigenvector, such that we have:**
-⟶
+⟶ Eigenwert, Eigenvektor - Sei A∈Rn×n eine Matrix und λ der Eigentwert von A, falls es einen Vektor z∈Rn∖{0} gibt. Dann gilt:
**45. Spectral theorem ― Let A∈Rn×n. If A is symmetric, then A is diagonalizable by a real orthogonal matrix U∈Rn×n. By noting Λ=diag(λ1,...,λn), we have:**
-⟶
+⟶ Spektralsatz - Sei A∈Rn×n, falls A eine symmetrische Matrix, dann ist diese diagonalisierbar durch eine orthogonale Matrix U∈Rn×n. Mit der Notation Λ=diag(λ1,...,λn) gilt folgendes:
**46. diagonal**
-⟶
+⟶ Diagonal
**47. Singular-value decomposition ― For a given matrix A of dimensions m×n, the singular-value decomposition (SVD) is a factorization technique that guarantees the existence of U m×m unitary, Σ m×n diagonal and V n×n unitary matrices, such that:**
-⟶
+⟶ Singulärwertzerlegung - Eine Matrix A mit den Dimensionen m×n kann durch Singulärwertzerlegung (SVD) als Produkt drei anderer dargestellt werden. Folgendes gilt, wobei U m×m eine unitäre Matrix, Σ m×n eine Diagonalmatrix und V n×n eine unitäre Matrix ist:
**48. Matrix calculus**
-⟶
+⟶ Matrix Differentialrechnung
**49. Gradient ― Let f:Rm×n→R be a function and A∈Rm×n be a matrix. The gradient of f with respect to A is a m×n matrix, noted ∇Af(A), such that:**
-⟶
+⟶ Ableitung - Sei f:Rm×n→R eine Funktion und A∈Rm×n eine Matrix. Die Ableitung von f nach A ist eine m×n Matrix, geschrieben ∇Af(A) für die gilt:
**50. Remark: the gradient of f is only defined when f is a function that returns a scalar.**
-⟶
+⟶ Wichtig: Die Ableitung von f ist nur definiert falls f ein Skalar als Ergebnis hat.
**51. Hessian ― Let f:Rn→R be a function and x∈Rn be a vector. The hessian of f with respect to x is a n×n symmetric matrix, noted ∇2xf(x), such that:**
-⟶
+⟶ Hesse-Matrix - Sei f:Rn→R eine Funktion und x∈Rn ein Vektor. Die Hesse-Matrix von f nach x ist eine symmetrische Matrix der Größe n×n.
**52. Remark: the hessian of f is only defined when f is a function that returns a scalar**
-⟶
+⟶ Wichtig: Die Hesse-Matrix von f ist nur definiert falls f ein Skalar als Ergebnis hat.
**53. Gradient operations ― For matrices A,B,C, the following gradient properties are worth having in mind:**
-⟶
+⟶ Eigenschaften der Ableitung - Für die Ableitungen der Matrizen A,B,C gelten folgende Eigenschaften:
**54. [General notations, Definitions, Main matrices]**
-⟶
+⟶ [Allgemeine Notationen, Definitionen, Spezielle Matrizen]
-
+
**55. [Matrix operations, Multiplication, Other operations]**
-⟶
+⟶ [Rechenoperationen mit Matrizen, Multiplikation, Weitere Rechenoperationen]
**56. [Matrix properties, Norm, Eigenvalue/Eigenvector, Singular-value decomposition]**
-⟶
+⟶ [Eigenschaften einer Matrix, Matrixnorm, Eigenwert/Eigenvektor, Singulärwertzerlegung]
**57. [Matrix calculus, Gradient, Hessian, Operations]**
-⟶
+⟶ [Matrix Differentialrechnung, Ableitung, Hesse-Matrix, Rechenoperationen]