Lade Veranstaltungen

« Alle Ver­an­stal­tun­gen

Prozessdatenanalyse – Zusammenhänge aus Betriebsdaten der Prozesstechnik bewerten

19. November20. November

€1.320 — €1.460
Haus der Technik Prozessdatenanalyse: Zusammenhänge aus großen Datenmengen der Prozesstechnik bewerten und interpretieren

Sie erfah­ren, wie man gestör­te Mes­sun­gen z.B. mit­tels Aus­rei­ßer­erken­nung und Fil­tern vor­be­han­delt ohne den Inhalt der Daten zu unter­drü­cken. Anschlie­ßend erken­nen Sie maß­geb­li­che Ände­run­gen der Pro­zess­da­ten (z.B. durch Lecka­gen in Rohr­lei­tun­gen oder Abla­ge­run­gen in Wär­me­tau­schern) sowie signi­fi­kan­te Ein­fluss­fak­to­ren mit­tels Kor­re­la­ti­ons­ana­ly­se.

Durch Daten­re­gres­si­on ermit­tel­te Kenn­li­ni­en und Trends hel­fen, Zusam­men­hän­ge ein­zu­schät­zen und zu bewer­ten. Bei der expe­ri­men­tel­len Modell­bil­dung hel­fen schritt­wei­se, par­ti­el­le und Haupt­­kom­­po­­nen­­ten-Regres­­si­on zur Modell­re­duk­ti­on und bes­se­rem Ver­ständ­nis.

Die expe­ri­men­tel­le Modell­bil­dung lie­fert auch Pro­zess­mo­del­le für die Rege­lungs­tech­nik, ins­be­son­de­re für modell­prä­dik­ti­ve Rege­lung und modell­ba­sier­te Ver­fah­rens­op­ti­mie­rung. Sie sind die Grund­la­ge der geho­be­nen Rege­lungs­al­go­rith­men (APC: Advan­ced Pro­zess Con­trol). Anhand eines Simu­la­ti­ons­mo­dells eines Wär­me­tau­schers wird durch Pro­zess­si­mu­la­ti­on gezeigt, wie eine nicht­li­nea­re Modell­bil­dung die Rege­lung ver­bes­sern kann.

Soft­sen­so­ren die­nen zur Über­wa­chung von nicht direkt mess­ba­ren Grö­ßen. Mit­tels Regres­si­on und Haupt­kom­po­nen­ten­ana­ly­se wer­den die Oktan­zahl im Raf­fi­ne­rie­pro­zess und die Kon­zen­tra­ti­on in einem Bio­re­ak­tor aus opti­scher Mes­sung und Spek­tral­ana­ly­se berech­net.

Mit­tels sta­tis­ti­scher Pro­­zess- und Mess­ge­rä­te­kon­trol­le (SPC) mit Regel­kar­ten und  Schwin­gungs­ana­ly­se erhal­ten Sie wei­te­re Feh­ler­früh­erken­nungs­me­tho­den für Con­di­ti­on Moni­to­ring und Instand­hal­tung. Zuletzt führt eine Clus­ter­bil­dung zur Klas­si­fi­ka­ti­on neu­er Mes­sun­gen für die Feh­ler­erken­nung und Ursa­chen­ana­ly­se. Anhand der vor­ge­stell­ten Metho­den und Defi­ni­tio­nen kön­nen Sie KPIs (Key Per­for­mance Index) defi­nie­ren und aus­sa­ge­kräf­ti­ge Dash­boards erstel­len.

Durch Ken­nen­ler­nen der Metho­den von neu­ro­na­len Net­zen, Haupt­kom­po­nen­ten­ana­ly­se, Spek­tral­ana­ly­se, Clus­ter­bil­dung und Klas­si­fi­ka­ti­on lie­fern wir die Grund­la­ge zum Ver­ständ­nis und Auf­bau von Anwen­dun­gen der KI (künst­li­chen Intel­li­genz) und des maschi­nel­len Ler­nens.

Zum Thema

Indus­trie 4.0 und immer moder­ne­re Mess­wert­erfas­sungs­sys­te­me füh­ren zu einer wach­sen­den Daten­men­ge. Ver­ste­hen Sie es, die im Unter­neh­men erfass­ten Daten der Pro­­zess- und Ver­fah­rens­tech­nik für Ihre Anfor­de­run­gen Gewinn brin­gend zu nut­zen? Erken­nen Sie den Mehr­wert der Ver­net­zung? Eine wirk­sa­me Daten­ana­ly­se unter­stützt die Betriebs­si­cher­heit und Anla­gen­ver­füg­bar­keit und kann hel­fen, Betriebs‑, Personal‑, Gewähr­­leis­­tungs- und Instand­hal­tungs­kos­ten dras­tisch zu sen­ken.

Für ein­fa­che Bei­spie­le kann die Daten­aus­wer­tung mit Excel erfol­gen, für kom­ple­xe­re Auf­ga­ben ste­hen sta­tis­ti­sche Ana­ly­se­ver­fah­ren wie z. B. die frei ver­füg­ba­re sta­tis­ti­sche Pro­gram­mier­spra­che R zur Ver­fü­gung.

Das Semi­nar gibt einen Über­blick über die Metho­den der Daten­ana­ly­se, prak­ti­sche Bei­spie­le der Daten­aus­wer­tung in der Pro­­zess- und Ver­fah­rens­tech­nik wer­den gerech­net, auf kom­mer­zi­el­le Lösungs­we­ge wird hin­ge­wie­sen und um eine Über­sicht der gän­gi­gen kom­mer­zi­el­len und lizenz­frei­en Pro­gramm­pa­ke­te zur Daten­aus­wer­tung ergänzt.

USP

  • Metho­den des Data Mining
  • hoher Pra­xis­be­zug Ver­fah­rens­tech­nik
  • ver­tief­tes Ver­ständ­nis durch Übun­gen

Programm

1. Tag, 09:00–17:00 Uhr

  • Pro­zess­da­ten­vor­be­hand­lung von gestör­ten Mes­sun­gen mit­tels Aus­rei­ßer­erken­nung, Glät­ten und Fil­tern (Anwen­dungs­bei­spiel: Druck­mes­sung)
  • Erken­nung von signi­fi­kan­ten Ein­fluss­fak­to­ren auf rele­van­te Grö­ßen, wie z.B. Umsatz mit­tels (ein­fa­cher, par­ti­el­ler und Rang-) Kor­re­la­ti­ons­ana­ly­se (Anwen­dungs­bei­spiel: Zement­zu­sam­men­set­zung)
  • Schät­zung und Bewer­tung von Zusam­men­hän­gen wie Kali­brier­kur­ven, Kenn­li­ni­en und Trends mit­tels Regres­si­on (Anwen­dung­bei­spie­le: Volu­men­be­stim­mung im Silo, Wär­me­über­tra­ger­mo­dell)
  • Ein­füh­rung in die sta­tis­ti­sche Ver­suchs­pla­nung (Bei­spiel: Che­mi­sche Reak­ti­on)
  • Erken­nung von Zusam­men­hän­gen und Daten­re­duk­ti­on bei vie­len Ein­fluss­fak­to­ren (z. B. bei der Spek­tro­sko­pie) mit­tels Haupt­kom­po­nen­ten­ana­ly­se (Anwen­dungs­bei­spiel: Oktan­zahl­be­stim­mung)
  • Expe­ri­men­tel­le Modell­bil­dung bei gro­ßen Daten­men­gen durch Bei­be­hal­tung der wich­tigs­ten Kom­po­nen­ten — Varia­blen­re­duk­ti­on mit­tels schritt­wei­ser, par­ti­el­ler und Haupt­­kom­­po­­nen­­ten-Regres­­si­on (Anwen­dungs­bei­spiel: Zement­zu­sam­men­set­zung)

2. Tag, 08:30 — 16:30 Uhr

  • Soft­sen­so­ren für nicht direkt mess­ba­re Grö­ßen basie­rend auf Regres­si­on oder neu­ro­na­len Net­zen (Anwen­dungs­bei­spiel: Kon­zen­tra­ti­ons­mes­sung)
  • Sta­tis­ti­sche Pro­­zess- und Mess­ge­rä­te­kon­trol­le (SPC) mit­tels ver­schie­de­ner ein- und mehr­di­men­sio­na­ler Regel­kar­ten (Anwen­dungs­bei­spiel: Emis­si­ons­mes­sung)
  • Schwin­gungs­ana­ly­se und Feh­ler­früh­erken­nungs­me­tho­den für die Instand­hal­tung. Erken­nung von Ven­til­rei­bun­gen (Anwen­dungs­bei­spie­le: Glas­riss­kon­trol­le, Lager­scha­den)
  • Clus­ter­bil­dung und Klas­si­fi­ka­ti­on neu­er Mes­sun­gen für die Feh­ler­erken­nung und Ursa­chen­ana­ly­se (Anwen­dungs­bei­spiel: Strahl­gut­kon­trol­le)
  • Erken­nung von Ände­run­gen in Pro­zess­da­ten mit sta­tis­ti­schen Metho­den (Bei­spiel: Leck in Rohr­lei­tung)
  • Vor­stel­lung gebräuch­li­cher Daten­ana­ly­se­pro­gram­me und der Grund­la­gen der Big-Data-Metho­­den

Zielsetzung

Sie ler­nen, Zusam­men­hän­ge aus gro­ßen Daten­men­gen aus­zu­wer­ten und „smart Data“ zu gene­rie­ren. Sie ver­ste­hen Funk­tio­nen von Soft­ware­tools zur Daten­ana­ly­se. Neben Fil­tern, Kor­re­la­ti­on und Regres­si­on wer­den Metho­den zur Daten­re­duk­ti­on, Klas­si­fi­ka­ti­on, expe­ri­men­tel­len Modell­bil­dung und ‑reduk­ti­on behan­delt. Bei­spiel­pro­gram­me, die die wich­tigs­ten Rou­ti­nen für Test­da­ten ent­hal­ten, erklä­ren ver­fah­rens­tech­ni­sche Fra­ge­stel­lun­gen anschau­lich.

Teilnehmerkreis

Ent­schei­dungs­trä­ger, Auto­ma­ti­sie­rungs­fach­leu­te, MSR-Tech­­ni­ker, Digi­­ta­­li­­sie­­rungs-Exper­­ten und Inge­nieu­re aus Instand­hal­tung, Betrieb, etc., die im Rah­men von Big-Data Ana­ly­sen z. B. mit Mes­sun­gen für Con­di­ti­on Moni­to­ring und Pre­dic­tive Main­ten­an­ce per intel­li­gen­ter Daten­ana­ly­se in der Pro­duk­ti­on beauf­tragt sind und jene, die aus Pre­di­ci­ti­ve Ana­ly­tics Schlüs­se für den rei­bungs­lo­sen Betrieb zie­hen möch­ten.

Weiterführende Links zu „Prozessdatenanalyse – Zusammenhänge aus großen Datenmengen der Prozesstechnik interpretieren“

Veranstaltungsort

Haus der Tech­nik Essen
Hol­le­str. 1
Essen, 45127 Deutsch­land
+ Goog­le Kar­te
Tele­fon:
+49 (0) 201 1803 1
Web­site:
http://www.hdt-essen.de

Veranstalter

Haus der Tech­nik
Tele­fon:
+49 (0) 201 1803 1
E‑Mail:
information@hdt-essen.de
Web­site:
http://www.hdt-essen.de