Logo
Geschäftsquelle Daten

Terabyte, Petabyte, Exabyte, Zetabyte – die weltweite Datenmenge wächst in einem noch nie dagewesenen Tempo. Prognosen sehen die globale Datenmenge im Jahr 2025 bereits bei 175 Zetabyte. Um diesen gewaltigen Datenberg zu verarbeiten und Nutzen daraus zu ziehen, braucht es Visualisierung statt trockener Zahlen.

Im Industrie- und Energiesektor fallen große Datenmengen aus Maschinen, Sensoren und Simulationen an und sprengen oftmals die Kapazitäten bisher eingesetzter Programme. Zunehmend finden datengestützte digitale Prognoseverfahren Anwendung. Durch den Zuwachs an erneuerbaren Energieerzeugern – bis 2030 soll die Erzeugung von Strom aus Erneuerbarer Energie von 45 auf 71 TWh steigen – gewinnt das System an Dynamik. Gab es früher im Energiebereich einige große sehr gut steuerbare Player, wird Strom dezentraler von immer mehr erneuerbaren Quellen erzeugt. »Viele Privatpersonen werden bald zum Kleinkraftwerk«, erwartet Harald Piringer, Gründer und CEO von Visplore. Prädikative Modellierungen sind für die Energiewirtschaft von größter Bedeutung, da durch sie effektivere Entscheidungen und Vorhersagen möglich sind. Netzbetreiber und Versorger müssen planen können, wie sich Verbrauch und Erzeugung entwickeln, basierend zum Beispiel auf Wetterprognosen. Störungen müssen zudem rasch analysiert werden.


Bild: »Datenanalytik hat etwas Trockenes an sich. Das muss nicht sein. Wir wollen die Begeisterung für interaktive Grafiken in den Bereich der Datenanalytik übertragen«, betonen Harald Piringer und Thomas Mühlbacher, die Gründer von Visplore.

Know-how fehlt
Das Sammeln und Speichern der Daten selbst sei in den meisten Fällen kein Thema mehr. Allerdings stellt sich vielfach die Frage, wie mit den Datenmengen weiter vorgegangen werden soll und welchen Nutzen man daraus ziehen kann. Diejenigen, die das Wissen über die analytischen Möglichkeiten haben, sind häufig nicht dieselben, die das Fachwissen zur Dateninterpretation haben. Diese sei aber entscheidend. Der Stillstand eines Kraftwerks, die Abschaltung von Turbinen oder defekte Messgeräte führen zu ungeeigneten Sensordaten.

Fachleute, die in die tägliche Arbeit etwa eines Wasserkraftwerks eingebunden sind, wissen Bescheid, mit gewohnten Tools wie Excel wird es aber zunehmend schwerer oder aufgrund der Größe der Daten sogar unmöglich zu arbeiten. Hier hilft die gleichnamige Software von Visplore. Sie ermöglicht Fachexperten wie Prozess­ingenieuren ohne oder mit nur sehr beschränkten Programmierkenntnissen, schnell und interaktiv Erkenntnisse aus großen Mengen an Sensordaten zu gewinnen, indem sie komplexe Zeitreihendaten übersichtlich darstellt und erlaubt, Daten auszuwählen, und mit ihnen zu arbeiten. Damit wird aus einer statischen Grafik eine dynamische. Prognosen lassen sich optimieren und genauer erstellen, Störungsfälle können rascher geklärt werden. Regelenergie lässt sich optimieren und ein nötiger Redispatch kann leichter vorhergesagt werden, was vor allem für Netzbetreiber interessant ist. Der typische Stromkunde ist einfacher zu charakterisieren, womit die Einkaufspolitik erleichtert wird.

»Data Scientists wiederum lernen durch Visplore ihre Daten rascher und tiefer kennen, was letztlich zu besseren KI-Modellen führt«, so Piringer. »Viele Unternehmen unterschätzen, welches Potential sich erschließt, wenn die Experten und Technologen jenes Wissen hätten, das in den bereits gesammelten Daten enthalten ist«, stellt er fest.


Kundenstatements

Visplore ist Mitte 2020 aus der langjährigen Arbeit mit großen Mess- und Simulationsdaten des Wiener COMET-Kompetenzzentrum VRVis entstanden und richtet sich an Anwendungsfälle mit Sensordaten aus Energie und Industrie. VRVis ist als Experte für die Visualisierung großer Daten seit vielen Jahren ein führender Technologietreiber der heimischen Industrie und Wirtschaft. 20 Unternehmen setzen Visplore bereits ein:

Verbund
»Visplore ist für uns bei der visuellen Datenanalyse von großer Bedeutung. Es ermöglicht eine sehr vereinfachte Untersuchung von Datenmustern und -strukturen, die für unsere Anwendungsfälle von Relevanz sein könnten. Darauf aufbauend können wir die weiterführende Datenanalyse effizienter gestalten und mehr Vertrauen in die Ergebnisse gewinnen«, betont Denis Parganlija, Main Data Scientist beim Verbund.

Montanuniversität Leoben
»Bei der Entwicklung von Optimierungslösungen für industrielle Energiesysteme müssen eine Reihe von Betriebsdaten miteinbezogen werden. Diese Daten zu sortieren, zu analysieren und zu bewerten war bisher eine sehr zeitaufwendige Angelegenheit, die uns von unserer Kernaufgabe abgehalten hat. Durch den Einsatz von Visplore geht die Datenaufbereitung um ein Vielfaches schneller, zudem sind die aufbereiteten Daten von höherer Qualität als bei den zuvor eingesetzten, selbstgeschriebenen Tools«, informiert Univ.-Prof. Thomas Kienberger vom NEFI Lab der Montanuniversität Leoben.

Enexsa
Enexsa beschäftigt sich mit der thermodynamischen Simulation von Kraftwerksprozessen. Zur Anpassung der Modelle an die aktuelle Leistungscharakteristik der einzelnen Kraftwerkskomponenten ist die Aufarbeitung von historischen Messwerten der Anlagen an einer Vielzahl von Betriebspunkten notwendig. »Visplore ermöglicht die rasche und gezielte Identifikation geeigneter Datenpakete in der Anlagenhistorie, die Eliminierung von Ausreißern und die effektive Analyse möglicher Ursachen für die physikalischen Vorgänge«, beschreibt Martin Pölzl, Manager Process Engineering, den Nutzen.

AIT
»Visplore steigert die Effizienz unserer Datenanalysen im Bereich nachhaltiger Energiesysteme spürbar«, betont Bernd Windholz, Research Engineer im Center for Energy am AIT. Zusammenhänge und Muster in den Messdaten etwa von Hochtemperatur-Wärmepumpen werden mit wenigen Mausklicks sichtbar gemacht. »Neben der hohen Performance auch bei großen Datenmengen stellt für uns vor allem die Kopplung mit etablierten Skriptsprachen einen großen Mehrwert dar.«

© Content: Report Media | Design 2021 GavickPro. All rights reserved.