Aufgabe 1-1

Aufgabe 1-2

  • Weniger Grad Bsp. Grad 3
  • Mehr Daten
  • Regularisierung

Aufgabe 1-3

Aufgabe 1-4

Aufgabe 1-5

, also i) hat geringere Verlust, weil

Aufgabe 2-1

Gewichte: Jedes der q Ausgangsneuronen hat Verbindungen zu allen p Eingangsneuronen.

  • Bias-Terme: Zusätzlich zu den Gewichten gibt es für jedes Ausgangsneuron einen Bias-Term.

Insgesamt:

Aufgabe 2-2

Aufgabe 2-3

Die Faltungsnetzwerkvariante ist vorteilhafter, da sie weniger Parameter hat und damit weniger Rechenleistung benötigt. Zudem nutzt sie die räumliche Struktur der Daten aus, was zu einer besseren Generalisierung führt.

Aufgabe 2-4

  1. Standardisieren jedes Mini-Batch–Inputs (x) auf Mittelwert 0 und Varianz 1:
  1. Skalieren und Verschieben mit lernbaren Parametern :

Effekt:

  • Verschiebt die Aktivierungen in den „guten Arbeitsbereich“ der Nichtlinearität,
  • Beschleunigt das Training und erlaubt höhere Lernraten,
  • Verringert interne Kovariatenverschiebung (Internal Covariate Shift).

Aufgabe 2-5

  1. Feature Visualisierung: Diese Methode visualisiert die Aktivierungen der Neuronen in den verschiedenen Schichten des Netzwerks.
  2. Class Activation Maps (CAM): Diese Methode visualisiert die Regionen im Eingabebild, die für eine bestimmte Klassifikation wichtig sind. Sie wird verwendet, um zu verstehen, welche Teile des Bildes das Netzwerk für die Klassifikation berücksichtigt.

Aufgabe 2-6

Wie funktioniert Dropout und warum setzt man diese Traininghsmethode ein?

Dropout ist eine Regularisierungstechnik, die während des Trainings eines neuronalen Netzwerks verwendet wird. Dabei werden zufällig ausgewählte Neuronen in jeder Trainingsiteration deaktiviert (auf 0 gesetzt). Dies verhindert, dass das Netzwerk zu stark auf bestimmte Neuronen angewiesen ist und fördert die Robustheit des Modells. Es hilft, Überanpassung (Overfitting) zu vermeiden, indem es das Netzwerk zwingt, redundante Repräsentationen zu lernen.