Einführung in Deep Learning VL 5: Softmax, Kettenregel, Stochastischer Gradientenabstieg

  • 507 views

  • uploaded November 6, 2024

Um das verallgemeinerte Perzeptron und daraus zusammengesetzte neuronale Netze zu trainieren, z.B. für ein Multiklassen-Klassifikationsproblem, verwenden wir Abstieg entlang der steilsten Richtung der Loss-Funktion, also den Gradientenabstieg. Am Anfang besprechen wir noch Softmax und die Kettenregel, wie in den Übungsaufgaben vorbereitet.

Tags:
Categories: Lectures
Vortragende:r/Redner:in:

Dr. Konrad Völkel


License: Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)