Das Wissensportal für IT-Professionals. Entdecke die Tiefe und Breite unseres IT-Contents in exklusiven Themenchannels und Magazinmarken.

SIGS DATACOM GmbH

Lindlaustraße 2c, 53842 Troisdorf

Tel: +49 (0)2241/2341-100

kundenservice@sigs-datacom.de
„Daten: Gold des digitalen Zeitalters“ schrieb die Wirtschaftswoche 2016. Und die Datenmenge wächst kontinuierlich. So hat das US-Magazin Forbes herausgefunden, dass seit 2020 über 1,7 MB neuer Informationen in der Sekunde pro Mensch auf dem Planeten erstellt werden. Einen signifikanten Anstieg des Datenvolumens beobachten auch Unternehmen. Laut Forbes hatten bereits 2016 73 % der Unternehmen in Big Data investiert oder geplant zu investieren, aktuell werden jedoch nur 0,5 % der Daten analysiert und genutzt.

  • 26.05.2023
  • Lesezeit: 5 Minuten
  • 107 Views

„Daten: Gold des digitalen Zeitalters“ schrieb die Wirtschaftswoche 2016. Und die Datenmenge wächst kontinuierlich. So hat das US-Magazin Forbes herausgefunden, dass seit 2020 über 1,7 MB neuer Informationen in der Sekunde pro Mensch auf dem Planeten erstellt werden. Einen signifikanten Anstieg des Datenvolumens beobachten auch Unternehmen. Laut Forbes hatten bereits 2016 73 % der Unternehmen in Big Data investiert oder geplant zu investieren, aktuell werden jedoch nur 0,5 % der Daten analysiert und genutzt.

Während Leader in allen Industrien auf der Suche nach diesem „Gold“ immense Summen investieren, stellen große Datenmengen in Entwicklungs- und Testumgebungen eine Herausforderung dar. Die Gründe können unstrukturierte Produktionsdaten, starke Applikationsabhängigkeiten oder schlicht die Menge der benötigten Testdaten sein, welche dazu dienen, Algorithmen für modernste Systeme zu entwickeln. Diese Algorithmen werden zum Gehirn der Plattformen, sei es für das Portfoliomanagement einer Bank oder eine Pharma-Plattform zur Entwicklung neuer Medikamente. Beide Beispielindustrien sind stark von staatlichen Institutionen reguliert, weshalb die Anforderungen an Testdaten hoch sind und potenzielle Strafen bei Nicht-Einhaltung höher. Ein Regularium ist in der EU die DSGVO . Die Schweiz geht mit dem ab 1. Sept. 2023 geltenden nDSG noch weiter und nimmt die Datenverantwortlichen bei Verstoß in die Pflicht.

Aber nicht nur hoch performante Plattformen stellen Applikationsteams vor große Aufgaben in Bezug auf Testdaten. Neben angepassten Qualitätsstrategien benötigen diese hochwertige, regelkonforme und aktuelle Testdaten. Aus Effizienzgründen müssen diese, sobald tägliche Go-Lives gefordert sind, jederzeit in hoher Qualität integriert und isoliert verfügbar sein. Ansonsten droht Leerlauf bei der Entwicklung, weil Tests nicht mehr oder mit falschem Ergebnis ausgeführt werden. Für den Test von Big Data Plattformen muss die Testabdeckung teilweise über Testdaten definiert werden, um ein ausgewogenes Kosten-Nutzen-Verhältnis zu erreichen. Es wird erwartet, dass Technologien wie Digital Twins oder KI steigenden Bedarf an hochwertigen und immer verfügbaren Testdaten haben werden.

„Man muss nicht alles glauben, was man hört“, sagte Cicero im alten Rom. Zumindest WIE geglaubt wird, hat sich seit damals verändert und das kann direkte Auswirkungen auf das WAS haben. Schon in heutigen IT-Landschaften regeln Systeme, welche Daten verarbeitet und somit „geglaubt“ werden, gegebenenfalls sogar, wie sich eine KI entscheiden wird. Beispiel Profiling bei der Personalsuche: Hier könnten Testdaten mit einer breiten Abdeckung den Unterschied machen, ob Leadern durch die HR-KI ein optimaler Fit für ihre Positionen vorgeschlagen wird und sie das Ergebnis als „Gold“ bezeichnen können.

KI lernt aus Daten. Wenn wir als Qualitätsmanager Technologien wie KI kontrollieren möchten, stellt die Bereitstellung der richtigen Testdaten sowie die Kontrolle von deren Verarbeitung eine Schlüsseldisziplin dar. Daher ist eine der Kernfragen für die Analyse von Echtdaten auch für Testdaten relevant: Bedeutet Datenmenge auch Datenqualität?

Bei Accenture Technology befassen wir uns seit über 30 Jahren mit Testdaten-management und haben Strategien entwickelt, um die aktuellen Problemstellungen zu lösen:

  • Identifikation von Testdaten basierend auf Produktionsdaten: Analyse des aktuellen Produktionsdatenbestandes mit Hilfe von Algorithmen, um daraus ein reduziertes statistisches Abbild zu generieren sowie Datenanomalien aufzuzeigen.
  • Erstellung synthetischer und anonymisierter Testdaten für verschiedene zusammenhängende Systeme unterschiedlicher Technologien in Kombination mit Identifikationslösungen.
  • Selektion von verfügbaren Testdaten für Testautomatisierung in Echtzeit: Testdatensuche in aktuellen Testumgebungen, Anlage von Data Lakes in weiteren Schritten zur Gewinnung von Erkenntnissen für kontinuierliche Verbesserung von Stabilität und Verfügbarkeit in der IT-Landkarte.
  • Service-Virtualisierungslösungen zur Entkopplung von Komponenten aus der End-to-End-Landschaft: Moderne Lösungen kombinieren verschiedene Testdatenlösungen mit dem Ziel, Service-Virtualisierung mit minimalem Wartungsaufwand betreiben zu können.

Möchten Sie mehr dazu wissen? Kontaktieren Sie uns!

Quellen:

https://www.wiwo.de/unternehmen/it/daten-gold-des-digitalen-zeitalters/12844090-3.html https://www.forbes.com/sites/bernardmarr/2015/09/30/big-data-20-mind-boggling-facts- everyone-must-read/?sh=4888964317b1

https://www.edoeb.admin.ch/edoeb/de/home/dokumentation/datenschutz/Datenschutz %20-%20International/DSGVO.html

https://www.bj.admin.ch/dam/bj/de/data/staat/gesetzgebung/datenschutzstaerkung/ dsg-uebersicht-aenderungen.pdf.download.pdf/dsg-uebersicht-aenderungen-d.pdf

. . .
Vorheriger Artikel
Wer rastet, der rostet

Author Image
Zu Inhalten
Accenture DACH Quality Transformation Lead

Artikel teilen