Das stochastische Gradientenverfahren
Für die Kapitel 'Das stochastische Gradientenverfahren' finden Sie hier weitere Materialien, ein Skript wird es aber nicht geben, da sich eng an die Bachelorarbeit von Florian Wolf gehalten wird.
- Zu der Bachelorarbeit von Florian Wolf: Stochastic Gradient Descent and its Application for Parametrized Boundary Value Problems under Uncertainty, Universität Konstanz, 2021, finden Sie hier die wichtigen Kapitel. Hier finden Sie weitere Informationen.
- Für die Beweise: siehe L. Bottou, F.E. Frank und J. Nocedal: optimization methods for large-scale machine learning oder hier (Open Access).
- Zusätzliche Informationen finden Sie auch im Kapitel 4 der Masterarbeit von Felix Sauer: Parameter Identification Problems of ODEs with Uncertain Initial Conditions, Universität Konstanz, 2022.
- Das stochastische Gradientenverfahen spielt eine sehr wichtige
Rolle beim Machine Learning. Wir verweisen hier auf den Artikel
C.F. Higham und D.J. Higham: Deep Learning: An Introduction for Applied Mathematicians der bei SIAM Reviews, 61(4):860-891, 2019 erschienen ist. - Das Übungsblatt zum Thema 'Das stochastische Gradientenverfahren' finden Sie hier.