Konzepte
Vertiefung — ML- und AI-Konzepte technisch erklärt -- fortgeschrittenes Niveau
Activation Functions -- Von Sigmoid ueber ReLU zu SwiGLU
Wie Aktivierungsfunktionen neuronale Netze nichtlinear machen: Sigmoid, Tanh, ReLU, Leaky ReLU, GELU, SwiGLU -- mit Formeln, Intuition und Praxis-Relevanz.
Attention -- Wie neuronale Netze lernen, worauf es ankommt
Der Attention-Mechanismus ist das Fundament moderner Sprachmodelle. Technische Erklaerung von Self-Attention ueber Multi-Head bis Flash Attention -- mit Intuition, Formeln und Praxisbezug.