Einführung in Deep Learning VL 5: Softmax, Kettenregel, Stochastischer Gradientenabstieg

  • 515 views

  • hochgeladen 6. November 2024

Um das verallgemeinerte Perzeptron und daraus zusammengesetzte neuronale Netze zu trainieren, z.B. für ein Multiklassen-Klassifikationsproblem, verwenden wir Abstieg entlang der steilsten Richtung der Loss-Funktion, also den Gradientenabstieg. Am Anfang besprechen wir noch Softmax und die Kettenregel, wie in den Übungsaufgaben vorbereitet.

Tags:
Kategorien: Vorlesungen
Vortragende:r/Redner:in:

Dr. Konrad Völkel


Lizenz: Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)