
In der Automatisierungstechnik stehen zunehmend große, heterogene Datenmengen („Big Data“) zur Verfügung, deren Analyse jedoch durch unterschiedliche Formate und Datensilos erschwert wird. Ziel dieser Arbeit ist die Entwicklung einer Architektur zur robusten Nutzung solcher Daten im Kontext automatisierter Systeme. Dabei wird vorhandenes Expertenwissen durch Simulationsmodelle, Transfer Learning und Physics-Informed Neural Networks integriert, um die Qualität von Anwendungen zu steigern. Die vorgeschlagene Architektur umfasst die Integration und Verwaltung heterogener Daten mittels Ontologien sowie eine Daten-Virtualisierungskomponente in Form eines Virtual Knowledge Graphs. Diese stellt Datenquellen abstrahiert und standardisiert für Analysen bereit. Für die Auswertung kommen modulare, multi-modale neuronale Netze zum Einsatz, die verschiedene Datenmodalitäten kombinieren und in zwei Szenarien getestet werden: einer Fehleranalyse für Elektronikbauteile sowie einer Bodentyperkennung mit einem Roboterhund. Die Ergebnisse zeigen deutliche Verbesserungen: Die Nutzung multi-modaler Daten erhöht die Vorhersagegenauigkeit um bis zu 11%, die Robustheit der Modelle um bis zu 35%. Zudem stabilisiert die Einbindung von Expertenwissen das Training, erweitert die Explorationsfähigkeit und reduziert den Vorhersagefehler um bis zu 15%. Damit leistet die Arbeit einen Beitrag zur effizienten und widerstandsfähigen Datenanalyse in automatisierten Systemen und eröffnet neue Möglichkeiten für präzisere Diagnosen und weitergehende Automatisierung.