Erhöhte Datenqualität durch den Einsatz von KI

„Software eats the world“ – Vor dem Hintergrund dieser Entwicklung hin zu digitalen Geschäftsmodellen ist das Thema „Datenqualität“ für den Erfolg von Unternehmen entscheidender denn je. Denn für die Qualität der kundenorientierten Services ist die Qualität der Daten entscheidend. Die erforderliche Datenqualität kann heute im Rahmen einer digitalen und vernetzten Umgebung jedoch nur durch einen nachhaltigen und wertorientierten Einsatz von KI erreicht werden.

Die Wertgenerierung aus den verfügbaren Daten ist eine der wichtigsten Aufgaben heutiger IT Abteilungen. Entwicklungen von datenbasierten Produkten und Services können nur so gut werden, wie es die Qualität der Ressource Daten erlaubt. Durch die Unterstützung spezifischer Prozesse werden Daten zu Informationen verdichtet. Daher wird sowohl eine hohe Daten-, als auch eine hohe Informationsqualität benötigt, die es fortlaufend zu verbessern gilt. Nur dann kann ein relevantes und wettbewerbsfähiges, digitales Produkt bzw. solch ein Service entstehen. Dazu werden KI Methoden verwendet, die automatisiert und selbstlernend mit der heutigen Komplexität der Daten und Informationen umgehen können.

Vorteile durch den Einsatz von KI zur Erhöhung der Datenqualität

  • Entwicklung neuer Geschäftsfelder und Geschäftsmodelle
  • Verbesserung bestehender Prozesse für die Datenqualität durch Automatisierung
  • Kostenreduzierung durch Einsparung von Ressourcen bei wiederkehrenden Aufgaben
  • Frühzeitige Erkennung von Datenfehlern führt zu Zeitersparnis in den Datenqualitätsprozessen
  • Fehler können bereits während der Beladung erkannt und korrigiert werden
  • Höhere Akzeptanz bei Mitarbeitern, Lieferanten und Kunden

Buchen Sie hier Ihre kostenlose Expert Hour

60 Minuten kostenlose Online-Beratung zu Ihren individuellen Fragen rund um das Thema Datenqualität @KI

Branchenspezifischer Nutzen durch den Einsatz von Datenqualität mit KI

Versicherungen: Qualitätssicherung digitaler Services

Ausgangssituation:

Im Rahmen der fortschreitenden Digitalisierung können individuelle Vertragsangebote auf Basis von Echtzeitdaten generiert werden. Versicherungen haben somit die Möglichkeit, nicht nur die Kundenbindung zu steigern, sondern auch neue Kundengruppen anzusprechen. Werden zusätzliche Services angeboten, so sind viele Kunden durchaus dazu bereit, Daten (anonym) zur Verfügung zu stellen. Es können so z.B. Selbstoptimierungsansätze im Fitnessumfeld oder Telemetriedaten aus Fahrzeugen für neue Service- und Produktangebote genutzt werden.

Lösung:

Echtzeitdaten, die aus unterschiedlichsten IoT-Geräten, Standortinformationen sowie weiteren Daten angereichert werden können, müssen idealerweise zeitnah ausgewertet werden, damit sie dem Kunden echten Nutzen bringen. Dies kann nur mit einem hohen Automatisierungsgrad und der Sicherstellung einer entsprechend hohen Datenqualität gewährleistet werden. Hier helfen KI-Ansätze wie Machine Learning bzw. Mustererkennungs-Algorithmen.

Ergebnis und Nutzen:

Es lassen sich smarte Verträge sowie hoch optimierte Tarife gestalten, die je nach genutzter Fahrstrecke mit dem Auto zur Anwendung kommen. Abweichungen von persönlichen Verhaltensmustern sowie Vergleiche mit ähnlichen Kundengruppen können beispielsweise für individuelle Zusatzinformationen oder für „Warninformationen“ genutzt werden. Solche Serviceangebote unterstützen auch die Bereitstellung von Informationen durch Versicherungsnehmer, da sie die Mehrwerte für sich besser erkennen können.

Banken: Qualitätssicherung im Reporting

Ausgangssituation:

Bei der Zusammenführung von Daten werden diese aus unterschiedlichsten Quellsystemen verknüpft. Aufbauend auf diesen Daten können Reports und Analysen (bspw. Forecasts) erstellt werden und einen Mehrwert für das Unternehmen generieren. Schleichen sich jedoch Fehler in die Quellsysteme ein, so führen falsche Ergebnisse zu Fehlentscheidungen und können dem Unternehmen wirtschaftlich schaden.

Lösung:

Eine frühestmögliche Prüfung und Kontrolle hinsichtlich der Qualität der Daten kann Folgefehler verhindern. Dies kann durch den Einsatz von Algorithmen der Mustererkennung und der Anomaly Detection geschehen. Die Mustererkennung wird hierbei für das automatisierte Erkennen bekannter Fehler verwendet, während die Anomaly Detection noch unbekannte Datenfehler filtert. Beide Ansätze bieten aufgrund des hohen Automatisierungsgrades eine gute Möglichkeit der großen Menge an Daten zu begegnen.

Ergebnis und Nutzen:

Durch das selbstständige Erlernen der Datenqualitätsregeln können die Datenqualitätsverantwortlichen in ihrer Arbeit entlastet werden. Zudem können die Kosten für die Korrektur von Datenqualitätsfehlern und daraus resultierenden Folgefehler minimiert werden. In Hinblick auf erstellte Analysen und Reports können fundierte Unternehmensentscheidungen getroffen werden und die Wahrscheinlichkeit für Fehlentscheidungen verringert werden.

Einzelhandel: Qualitätssicherung im Omnichannel

Ausgangssituation:

Im Zuge einer Erweiterung der Verkaufskanäle können Einzelhandelsunternehmen beispielsweise eine Smartphone-App anbieten, über die die Kunden Rabatte erhalten. Die Generierung der Rabatte erfolgt über das Sammeln von Treuepunkten, die der Kunde durch den  Kauf von Produkten und durch das Aufhalten im Markt, gemessen über Geo-Daten, erhält. Jedoch besteht aufgrund von Softwarefehlern die Gefahr, dass die gesammelten Geo-Daten falsch erfasst werden und dadurch die Kunden ihre Punkte nicht angerechnet bekommen oder zu viele Punkte gutgeschrieben werden. Auf Seiten der Kunden kann dies zur Unzufriedenheit und damit zur Ablehnung der App führen und auf Seiten der Unternehmen zu Verlusten führen, da u.a. zu viele Rabatte gewährt werden.

Lösung:

Die Verwendung einer Mustererkennung auf Basis von KI-Modellen ermöglicht es, inhaltliche Fehler in den Daten zu finden. Solche Fehler können z.B. sein: Die Geo-Daten liegen zwar in korrekter Form vor, allerdings sagen die Daten aus, dass ein Kunde sich pro Woche mehr als 20 Stunden in einem Geschäft aufhält. Die definierten Regeln können durch ein KI-Modell, welches diese selbstständig lernen kann, abgebildet werden. Darüber hinaus können durch das selbstständige Lernen der Modelle auch unbekannte Muster aufgedeckt werden.

Ergebnis und Nutzen:

Durch die Sicherstellung der Datenqualität kann die Funktionalität der Smartphone-App gewährleistet werden. Somit kann die Kundenzufriedenheit und deren Vertrauen in den Einzelhändler gestärkt werden. Außerdem können die Händler höhere Umsätze und Gewinne erwirtschaften, da neue Kunden auf das Geschäft aufmerksam werden können.

Industrie: Qualitätsüberwachung von Sensor- und Aktor-Daten

Ausgangssituation:

In der Industrie werden in großen Mengen diverse Sensor- und Aktor-Daten (Massendaten) gesammelt. Hierbei kann es vorkommen, dass die gesammelten Daten zwar syntaktisch korrekt sind, aber semantisch Fehler aufweisen. Besonders gravierend werden diese Fehler, wenn sie unentdeckt bleiben und Reports und Analysen (z.B. Vorhersage aus dem Bereich Predictive Maintenance) dadurch fehlerhaft sind. Solche Fehler können u.a. zu falschen Bestellmengen, zu Produktionsverzögerungen und -stillständen und daher zu erhöhten Kosten führen.

Lösung:

Die automatisierte Analyse der Datenqualität mittels KI-basierter Modelle bietet die Möglichkeit, die Komplexität der Masse an Sensor- und Aktor-Daten zu beherrschen. Hierbei erkennen Algorithmen des maschinellen Lernens und der Mustererkennung fehlerhafte Daten. Zusätzlich können Prognoseverfahren genutzt werden, um zukünftige Messwerte zu plausibilisieren. Anomalien werden erkannt und gefiltert, um unbekannte Fehler und Fehlermuster zukunftsgerichtet und frühzeitig zu erfassen. Darüber hinaus können sogar Audio- und Bilddateien in diesen Analysen berücksichtigt werden.

Ergebnis und Nutzen:

Durch eine Reduktion der Komplexität ist eine effiziente Überprüfung der Datenqualität nun möglich. Es kann sichergestellt werden, dass aufbauende Analysen, bspw. aus dem Bereich Predictive Maintenance, zuverlässige Ergebnisse liefern. Außerdem können durch die Sicherstellung der Datenqualität von Predictive Maintenance-Analysen anfallende Kosten reduziert bzw. verhindert werden.

Medizin: Qualitätssicherung telemedizinischer Modelle im Bereich von Telemonitoring

Ausgangssituation:

Das sog. Telemonitoring beschäftigt sich mit der medizinischen Überwachung, Untersuchung und Diagnose der Patienten über eine räumliche und zeitliche Distanz. Für diesen Zweck werden diverse Überwachungsmessgeräte (bspw. des Gewichts, des Blutdrucks und der Herzfrequenz) und Kommunikationsgeräte (wie Smartphones oder PDAs) eingesetzt. All diese Geräte erzeugen über die Zeit eine sehr große Menge komplexer Daten (Big Data). Eine zuverlässige und rechtzeitige Datenqualitätssicherung dieser Daten ist unabdingbar, da auf Basis dieser Daten Entscheidungen getroffen werden, die die Gesundheit der Patienten direkt betreffen.

Lösung:

Die automatisierte Analyse der Datenqualität mittels KI-basierter Modelle bietet die Möglichkeit, die Komplexität der Messdaten zu beherrschen. Algorithmen der Mustererkennung können Fehlermuster in den Daten automatisiert erkennen und Anomaly Detection noch unbekannte Fehler in Form von Anomalien aufdecken.

Ergebnis und Nutzen:

Mithilfe von KI-basierten Modellen kann der Einsatz von Telemonitoring ermöglicht werden, denn durch eine Datenqualitätssicherung der Messdaten wird das Vertrauen der Kunden und damit die Akzeptanz in die Technik erhöht. Ferner bietet eine qualitativ hochwertige Datenlage eine verbesserte Ausgangslage für weiterführende Analysen (bspw. zur Früherkennung von Krankheiten).

Referenzen

Quality Gates für einen Finanzdienstleister

Situation:

  • Beladung externer Risiko-Kennzahlen mit unbekannter Qualität in ein zentrales Data Warehouse
  • Mit Übernahme auch Verantwortung für Datenqualität

Herausforderung:

  • Fehlerhafte Daten werden verarbeitet
  • Bestehender Data Load dauert bereits die ganze Nacht, Prüfung im Load nicht möglich

Lösung:

  • Korrektur der Daten vor Data Load, inkrementell
  • Prüfung der Datenqualität, quellenspezifisch
  • Quality Gates, KI-unterstützt, selbstlernend

Einsatz cloudbasierter KI zur Verbesserung der Datenqualität für Event & Messe

Situation:

  • Daten für den operativen Betrieb der Messen nicht ausreichend strukturiert zur Ableitung guter datengetriebener Entscheidungen

Herausforderung:

  • Unterschiedliche Quellen mit variabler Qualität
  • Neue Kundenangebote durch interne und externe, neue Daten

Lösung:

  • Identifikation der wichtigsten Use Cases durch Event Storming
  • Aufbau eines Data Lakes in der Cloud als Datenbasis
  • Cloudbasierte KI zur Qualitätsverbesserung

KI Quality Gates für ein Handelsunternehmen in NRW

Situation:

  • Erweiterung des zentralen, existierenden Produkt-Informations-Managements für zusätzliche Produktdaten
  • Zu der Zeit überwiegend manuell erfasst

Herausforderung:

  • Fehlerquote ist zu hoch
  • Bestehender Überprüfungsprozess der angelieferten Datenqualität ist sehr aufwändig

Lösung:

  • Überprüfung der Daten durch KI Quality Gates
  • Aufwandsreduzierung um 60%
  • Marktpositionierung der Produkte deutlich beschleunigt

Einsatz von KI-basierter Predictive Maintenance in der Industrie

Situation:

  • Daten aus verschiedenen Lokationen nicht konsolidiert

Herausforderung:

  • Fehlende Datenbasis zur Kostenverbesserung in den Wartungsprozessen
  • Neue Use Cases durch Business Analytics auf den existierenden Daten

Lösung:

  • Aufbau einer Business Analytics Plattform
  • Kostensenkung um 60% durch KI-basierte predictive maintenance

Finden Sie weiteres Material in unserem Downloadbereich zum Thema Datenqualität @KI

Weitere Insights zu Datenqualität @KI

Datenqualität verbessern durch KI

Unsere Leistungspakete im Überblick

Ergebnis
  • Use Case zur Wirkung verbesserter Datenqualität
  • KI-Modell Erfahrung
  • Ergebnispräsentation und Dokumentation
  • Einführung unternehmensweiter und wertschöpfender KI-Prozesse
Nutzen
  • Transformation eines bekannten (einfachen) Use Cases durch bessere Datenqualität
  • Entwicklung und Training des KI-Modells
  • Lizenzfreie Überlassung des KI-Modells nach dem PoV zur weiteren Nutzung
Ergebnis
  • Transparente KI-Vision für Ihr gesamtes Unternehmen
  • Startpunkt für den ersten Sprint der Projektimplementierung
  • Komplexes Domänenmodell
Nutzen
  • Sie entwickeln kollaborativ Ihre DQ- und KI-Strategie
  • Alle notwendigen Domänen Ihres Unternehmens werden betrachtet
  • Hohe Akzeptanz für Ihre KI-Projekte
Ergebnis
  • Verbesserung Ihrer Datenqualität im gesamten Unternehmen
  • Wertschöpfung durch KI
  • Erfolgreiche Umsetzung Ihrer KI-Strategie
  • Schrittweise Einführung von KI
Nutzen
  • Setzen Sie Ihre Datenqualitäts- und KI-Strategie um
  • Think big – start small
  • Agile Projektdurchführung
  • Backend, Frontend, agiles Projektmanagement der MT AG

Ansprechpartner

Ralf Böhme

Bereichsleiter Analytics

Volker Kirstein

Team Manager Analytics