
- Diese Veranstaltung hat bereits stattgefunden.
Datenmengen der Prozesstechnik interpretieren
4. Dezember um 9:00–5. Dezember um 16:30
€1.320 — €1.460
Sie lernen, wie Sie Zusammenhänge aus großen Datenmengen bewerten und interpretieren und verstehen die Funktionen von Softwaretools zur Datenanalyse. Beispiele aus der Verfahrenstechnik stützen die Methodik, Sie rechnen eigene einfache Beispiele.
Inhalt
- Erkennung von Änderungen, wie z.B. Leckagen mit statistischen Methoden.
- Prozessdatenvorbehandlung von gestörten Messungen (Filter und Ausreißerkennung).
- Erkennung von signifikanten Einflussfaktoren auf relevante Größen wie z.B. Umsatz mittels (partiellen-)Korrelations-analyse.
- Schätzung und Bewertung von Zusammenhängen wie Kalibrierkurven, Kennlinien und Trends mittels Regression.
- Erkennung von Zusammenhängen und Datenreduktion von „Big Daten“ mittels Hauptkomponentenanalyse.
- Experimentelle Modellbildung bei großen Datenmengen durch Beibehaltung der wichtigsten Komponenten (schrittweise, partielle, Hauptkomponenten-Regression).
- Softsensoren für nicht direkt messbare Größen (auch neuronale Netze).
- Statistische Prozess- und Messgerätekontrolle (SPC) mittels verschiedener ein- und mehrdimensionalen Regelkarten.
- Schwingungsanalyse und Fehlerfrüherkennungsmethoden für die Instandhaltung. Erkennung von Ventilreibungen.
- Clusterbildung und Klassifikation neuer Messungen für die Fehlererkennung und Ursachenanalyse.
Zum Thema
Die steigende Zahl immer moderner werdender Messwerterfassungssysteme führt in der heutigen Zeit zu einer wachsenden Fülle von Daten. Der richtige Umgang mit diesen Daten kann dabei entscheidend sein, ob die darin enthaltenen Informationen brachliegen oder intelligent genutzt werden und somit helfen Betriebs‑, Personal- und Instandhaltungskosten drastisch zu senken.
Alle aufgelisteten Methoden werden anhand praktischer Beispiele eingeführt und erläutert. Erst nach Übung der Vorgehensweise werden kleinere Beispiele von den Teilnehmern gerechnet. Die Teilnehmer werden einfache Beispiele mit Excel, komplexere Aufgaben mit der freiverfügbaren statistischen Programmiersprache R oder RapidMiner berechnet. Auf kommerzielle Lösungswege wird ebenfalls hingewiesen und eine Übersicht der gängigen kommerziellen und lizenzfreien Programmpakete wird vorgestellt.
Alle aufgelisteten Methoden werden anhand praktischer Beispiele eingeführt und erläutert. Erst nach Übung der Vorgehensweise werden kleinere Beispiele von den Teilnehmern gerechnet. Die Teilnehmer werden einfache Beispiele mit Excel, komplexere Aufgaben mit der freiverfügbaren statistischen Programmiersprache R oder RapidMiner berechnet. Auf kommerzielle Lösungswege wird ebenfalls hingewiesen und eine Übersicht der gängigen kommerziellen und lizenzfreien Programmpakete wird vorgestellt.
- Methoden des Data Mining
- hoher Praxisbezug Verfahrenstechnik
- vertieftes Verständnis durch Übungen
Zielsetzung
Sie lernen die Zusammenhänge aus großen Datenmengen (heutzutage „Big Data“ genannt) herauszuholen, zu bewerten und zu interpretieren. Sie verstehen was hinter Funktionen von Softwaretools zur Datenanalyse steckt. Neben den üblichen Funktionen, wie Filtern, Korrelation und Regression werden auch Methoden zur Datenreduktion, Klassifikation, experimentelle Modellbildung und Modellreduktion behandelt. Die Erklärung erfolgt anschaulich an verfahrenstechnischen Problemstellungen wie unter anderem die Bestimmung der Restlaufzeit eines Wärmetauschers, eines Gasanalysators, Aufstellung eines dynamischen Prozessmodells u.a. für Softsensoren. Jeder Teilnehmer erhält hierzu einige Beispielprogramme, in dem die wichtigsten Routinen für einfache Testdaten enthalten sind, um den Lernvorgang zu unterstützen.
Teilnehmerkreis
Entscheidungsträger und Ingenieure und (Instandhaltung, Betrieb, etc.), die mit Messungen in der Produktion beauftragt sind und jene, die aus diesen Schlüsse für den reibungslosen Betrieb ziehen möchten.