Einführung in Deep Learning VL 5: Softmax, Kettenregel, Stochastischer Gradientenabstieg
-
507 views
-
0 likes
- uploaded November 6, 2024
Um das verallgemeinerte Perzeptron und daraus zusammengesetzte neuronale Netze zu trainieren, z.B. für ein Multiklassen-Klassifikationsproblem, verwenden wir Abstieg entlang der steilsten Richtung der Loss-Funktion, also den Gradientenabstieg. Am Anfang besprechen wir noch Softmax und die Kettenregel, wie in den Übungsaufgaben vorbereitet.
Dr. Konrad Völkel
License: Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)