Lerninhalte und Ziele

Künstliche Intelligenz und insbesondere Deep Learning sind Schlüsseltechnologien für die Realisierung zahlreicher Anwendungsdomänen, z.B. des autonomen Fahrens, der Spracherkennung oder der automatisierten Überwachung von großindustriellen Anlagen. In diesem Labor lernst du wie man Methoden des Deep Learnings und neuronale Netze für die Analyse von Zeitreihen einsetzen kannst. Im Rahmen des Labors wirst du dich mit den wesentlichen Grundlagen sowie fortgeschrittenen Techniken des aktuellen Stands der Technik des Deep Learnings beschäftigten, z.B. Generative Adversarial Networks, Rekurrente Neuronale Netzwerke, Variationale Autoencoder, Transformer und viele mehr.

Neben der Methodik steht vor allem aber die praktische Umsetzung gängiger Methoden des Deep Learnings im Fokus, d.h. du erlernst die Anwendung von unterschiedlichen Frameworks, z. B. Scikit-learn, PyTorch sowie die Fähigkeit in wissenschaftlicher Vorgehensweise Experimente zu erstellen, durchzuführen und zu evaluieren. 

Die erlernten Deep Learning Methoden wirst du im Rahmen eines Projekts anhand heterogene, großvolumige Datensatzes bzw. Zeitreihen eines Hochleistungs- Forschungs Teststandes für E-Motoren ausprobieren können.

Ablauf

Das Labor teilt sich in drei Phasen auf:

1.     Vorlesungs- und Übungsphase: Vermittlung der wesentlichen Grundlagen

2.     Seminarphase: Selbstständigen Erarbeitung von State-of-the-art Deep Learning Verfahren

3.     Projektphase: Praktische Umsetzung eines vorgegebenen Projektes (ggf. in Kleingruppen)

Hilfreiche Vorkenntnisse 

Es sollte eine Bachelorvorlesung im Bereich Machine Learning besucht worden sein (z. B. Soft Computing), Wissenslücken können in Onlinekursen zu Machine Learning geschlossen werden. Zudem ist es empfehlenswert Temporal and Spatial Data Mining Vorlesung gehört zu haben. Grundlegende Python-Kenntnisse sind unabdingbar.




Angestrebte Lernergebnisse: Kenntnisse und Verständnis grundlegender stochastischer Methoden und Modelle, Einsatz in einfachen technischen Anwendungen.

Lerninhalte: Beschreibende Statistik; Wahrscheinlichkeit; Simulation und Zufallszahlen; Zufallsvariable Erwartungswerte und Varianz; spezielle diskrete Verteilungen; Ungleichung von Tschebyscheff, schwaches Gesetz der großen Zahlen; allgemeine Wahrscheinlichkeitsräume; Wahrscheinlichkeitsmaße im Reellen; Schätzen; Testen





The module From Experimentation to Evaluation in Machine Learning (E2ML) covers the process from the data acquisition to the performance of evaluation of a model.

 The lecture covers the foundations of pattern recognition from a probabilistic point of view. The following topics are discussed:

    • Basics (e.g., stochastics, model selection, Curse of Dimensionality, decision and information theory)
    • Distributions (e.g., multinomial, Dirichlet, Gaussian and Student distributions, nonparametric estimation)
    • Linear models for regression
    • Linear models for classification
    • Neural networks
    • Kernel methods