Bis 2025 werden 41,6 Milliarden IoT-Geräte erwartet. Dadurch wächst die Menge an kontinuierlich generierten Daten rasant. Klassische maschinelle Lernverfahren, die auf statischen Datensätzen trainiert werden, sind nicht in der Lage, sich kontinuierlich an dynamische Umgebungen anzupassen. Problematisch ist dabei der Konzeptdrift, der dazu führt, dass Modelle im Laufe der Zeit an Genauigkeit verlieren.
Zur Steigerung der Robustheit und Genauigkeit des kontinuierlichen Lernens stellt diese Arbeit einen neuartigen Ansatz vor, der auf den Erkenntnissen einer systematischen Literaturrecherche basiert. Dieser Ansatz kombiniert Online Maschinelles Lernen (OML) mit Mixture of Experts (MoE) in einer neuartigen inkrementellen MoE-Architektur. Zur Evaluierung dieser hybriden Architektur werden verschiedene Experimente zur Regression und Klassifikation vorgestellt, die durch geeignete Methoden bewertet werden.
Diese Arbeit präsentiert die Implementierung des Frameworks riverMoE, welches die konzipierte hybride Architektur als Erweiterung eines bestehenden OML-Frameworks realisiert. Die Ergebnisse der durchgeführten Experimente zeigen, dass die gezielte gewichtete Kombination von Einzelprognosen auch mit inkrementellen Lernalgorithmen zu präziseren Gesamtprognosen führen kann. Erwartungsgemäß erfordert die Nutzung neuronaler Komponenten einen erhöhten Rechen- und Speicheraufwand. Zudem zeigen die Experimente in adaptiven Umgebungen eine höhere Stabilität gegenüber Konzeptdrift, die jedoch von der Initialisierung abhängt.
Auf Grundlage der Ergebnisse wird empfohlen, die bisher umgesetzten inkrementellen MoE-Varianten um zusätzliche Ansätze zu erweitern und weitere Experimente durchzuführen. Darüber hinaus sollte die Erklärbarkeit des Gates in der Kombination der einzelnen Experten eingehender untersucht werden.