Warnung
  • JUser: :_load: Fehler beim Laden des Benutzers mit der ID: 72

Viel Futter für Datenjäger und Sammler

Stefan Jensen ist Director PreSales der Region DACH bei QlikTech. Stefan Jensen ist Director PreSales der Region DACH bei QlikTech.

Der Natural-Analytics-Ansatz nutzt naturwissenschaftliche Erkenntnisse für die Datenanalyse, kommentiert Stefan Jensen, QlikTech Director PreSales Region DACH.

Business Intelligence ist aus etlichen Anwendungsbereichen kaum mehr wegzudenken. Kein Wunder, lassen sich doch aus vielen Datensätzen ungeahnte Erkenntnisschätze heben. Zugleich zeigen sich bei zahlreichen Software-Lösungen die Grenzen, die ein zu statistischer Analyseansatz mit sich bringt. Insbesondere vor der schieren Masse an Informationen gehen viele Produkte in die Knie. Angesichts von immer neuen Datenquellen, die in die Auswertung eingebunden werden sollen, entwickelt sich dies mitunter zur Sisyphusarbeit.

Um als BI-Unternehmen die Technologieführerschaft zu behalten, muss die Entwicklungsabteilung sich eng mit der Wissenschaft verzahnen und die neuesten Erkenntnisse aus der Informationsverarbeitung in die Weiterentwicklung einfließen lassen. Der Blick auf die Funktionsweise des menschlichen Gehirns ist für das Thema Business Intelligence geradezu Pflicht – ebenso wie ein tiefes Verständnis für die Themen Assoziation, Vergleich und Antizipation.

Wie bei vielen medizinisch-anthropologischen Zusammenhängen bringt auch auf diesem Feld der Blick auf unsere Vorfahren interessante Einblicke: Der Sammler vergangener Zeiten wusste ganz genau, unter welchen Bäumen sich die besonders schmackhaften Pilze ernten ließen. Schließlich hatte er dort bereits zuvor den einen oder anderen Fund gemacht. Unser Hirn kategorisiert permanent neue Erkenntnisse, verbindet Zusammenhänge zwischen Sachverhalten und kann Abweichungen von erfassten Mustern erkennen und bewerten. So vergleicht der Sammler aus dem Beispiel ständig seine Funde mit denen von anderen Stellen und kann darauf schließen, wo sich eine Suche besonders lohnt. Außerdem ist es ihm leicht möglich, die Gegenwart auf Basis der Vergangenheit zu beurteilen und die Zukunft zu antizipieren: Er weiß, dass ihm eine bestimmte Art der Nahrung auch künftig sein Überleben sichert, weil er dies in Gegenwart und Vergangenheit bereits positiv erfahren hat.

Diese natürlichen Prozesse der Informationsverarbeitung nutzt jeder von uns im Alltag ganz intuitiv. Bei BI-Anwendungen gelang es bislang kaum, diese Vorgänge abzubilden und für die Analyse verwertbar zu machen. Das Hauptproblem dabei war ein sehr limitierter Blick auf die Daten, der sich an linearen Pfaden orientierte. Durch den starren Drill-Down-Ansatz ließen sich eben nur sehr begrenzt relevante Muster und Zusammenhänge erkennen.

Bessere Einblicke durch Natural Analytics
Beim Natural-Analytics-Ansatz kann der Anwender über ein dynamisches, interaktives Interface von einem beliebigen Punkt aus in die Analyse einsteigen. Dadurch können neue Fragen Ad-hoc und in Echtzeit beantwortet werden, ohne dass die IT für neue Fragestellungen erst die Grundlage schaffen müsste. Zudem lassen sich Verbindungen und Lücken innerhalb des Datenmaterials sehr schnell erkennen und weiter analysieren.

Auch die Forschungsergebnisse der Wissenschaft rund um das Thema „Vergleich“ flossen in die Entwicklung ein. Das ist vor allem bei der Gegenüberstellung von verschiedenen Datensets im Rahmen von sogenannten „Marktkorb-Analysen“ relevant. In der Praxis kommt dies zum Beispiel im Handel oder im Finance-Bereich für Stock-Performance-Analysen zum Einsatz. Wenn Anwender den Verkaufserfolg von zwei oder mehreren Produktgruppen vergleichen möchten, wählen sie verschiedene Elemente aus jeder Gruppe aus und die BI-Software mit Natural-Analytics-Fähigkeiten arrangiert diese automatisch nebeneinander – so sind die Inhalte gut zu überblicken, verteilt auf Regionen, Zeitzonen oder andere Merkmale.

Ebenso wichtig ist es, Analysen ganz einfach durch Drag-and-Drop erstellen zu können. Schließlich wollen viele BI-Anwender Applikationen erweitern, Objekte ändern oder zusätzliche Visualisierungen erzeugen. Auch damit werden sie unabhängig von der IT-Abteilung und kommen schneller und komfortabler an relevante Informationen.

In einem nächsten Schritt lassen sich auf Basis der neuen Informationen schnell Entscheidungen treffen. Damit verbunden sind Möglichkeiten zur Teamarbeit. Eine wichtige Rolle dabei spielt das Thema Storytelling: Schon immer haben Menschen Anekdoten und Metaphern verwendet, um eine Situation oder Erfahrung so zu erklären, dass andere diese erfassen und entsprechend reagieren konnten. Im Rahmen des Data Storytellings lassen sich Snapshots von Objekten auf Seiten platzieren und so Erkenntnisse gewinnen und an andere weitergeben. Diese Objekte halten den Status Quo  fest, den sie bei der Erstellung der Geschichte hatten. Zur Vertiefung der Analyse können die Anwender sich durch die Objekte bis zur aktuellen Live-Version klicken.

Neben solchen Faktoren kommt es auch darauf an, dass Informationen überall dort zur Verfügung stehen, wo sie gebraucht werden. Ein optimale Analyselösung muss deshalb auch mobil zur Verfügung stehen und die Möglichkeiten einer Touch-Oberfläche optimal ausnutzen. Durch die Fingergesten steuern Nutzer das Tool und können beispielsweise Daten auswählen. Das instinktive Hin- und Herschieben und das spielerische Austesten verschiedener Analysewege hilft Anwendern schließlich dabei, sich neue, teils unerwartete Zusammenhänge zu erschließen. Mit Hilfe des Natural-Analytics-Ansatzes ist es heute leichter denn je, aus großen Datenmengen sinnvolle Informationen zu extrahieren. Kombiniert mit dem Zugriff über ein Mobil-Gerät liegen damit unzählige Schätze nur einen Fingertipp entfernt.

Last modified onMontag, 02 Dezember 2013 17:39
back to top