Einführung in Deep Learning VL 5: Softmax, Kettenregel, Stochastischer Gradientenabstieg
-
515 views
-
0 likes
- hochgeladen 6. November 2024
Um das verallgemeinerte Perzeptron und daraus zusammengesetzte neuronale Netze zu trainieren, z.B. für ein Multiklassen-Klassifikationsproblem, verwenden wir Abstieg entlang der steilsten Richtung der Loss-Funktion, also den Gradientenabstieg. Am Anfang besprechen wir noch Softmax und die Kettenregel, wie in den Übungsaufgaben vorbereitet.
Dr. Konrad Völkel
Lizenz: Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)