Der Scarus Data Quality Server (SDQ) bietet eine umfassende Lösung zur Sicherstellung hochwertiger Stammdaten. Unsere Software integriert verschiedene Services wie Dublettenprüfung, Adressvalidierung und fehlertolerante Suche über intelliSearch-Technologie in heterogene Systemlandschaften, inklusive nahtloser SAP Anbindung.
Der Scarus Data Quality Server (SDQ) ist dank der intelliSearch API in der Lage, verschiedene Services nahtlos in heterogene Systemlandschaften zu integrieren. Die Einbindung erfolgt über SOAP oder REST Webservices und ist universell einsetzbar.
Unsere Lösung umfasst eine Vielzahl von Prüfmodulen, die individuell angepasst und in beliebige Systeme integriert werden können:
Die Integration der Services kann entweder durch den Kunden selbst oder durch die ISO-Gruppe vorgenommen werden. Mit unserer 15-jährigen Erfahrung auf dem Gebiet der Stammdatenqualität bieten wir Ihnen umfassende konzeptionelle Unterstützung.
Zur SAP Anbindung bieten wir für die verschiedenen Prüfmodule und Services praxiserprobte Produkte aus eigenem Hause an. Diese bringen nicht nur eine hundertprozentige Integration in die SAP Standard-Transaktionen mit sich, sie ermöglichen es Ihnen auch, Prüfergebnisse aus den verschiedenen Modulen abzuarbeiten.
Grundlage aller Module ist die ISO-eigene Suchtechnologie intelliSearch® für Enterprise Search & Matching. Die Suchtechnologie ist speichereffizient und skaliert sowohl vertikal als auch horizontal.
Unsere Module basieren auf der ISO-eigenen intelliSearch-Technologie mit folgenden Kernfunktionalitäten:
Unsere Lösung bietet eine leistungsstarke Near-Realtime-Suche, die sich flexibel an Ihre Anforderungen anpassen lässt. Verschiedene Suchverfahren wie Fuzzy, Phonetik, Wildcard, Phrasen, Zeitraum, Geodistanz, numerische Werte sowie Auto-Complete und Auto-Suggest stehen Ihnen zur Verfügung. So finden Sie relevante Ergebnisse schnell und präzise.
Die Data Ingestion Pipeline sorgt für eine reibungslose und optimierte Datenaufnahme. Bereits bei der Vorverarbeitung und in weiteren Verarbeitungsschritten werden Ihre Daten effizient vorbereitet, um eine hohe Datenqualität und Verarbeitungsgeschwindigkeit sicherzustellen.
Mit der Duplicate Matching Engine definieren Sie präzise Kriterien zur Ähnlichkeitserkennung von Datensätzen. Die Engine ermöglicht eine stapelweise Massenverarbeitung und gewährleistet eine zuverlässige Identifikation und Handhabung von Duplikaten in großen Datenbeständen.
Die Module erweitern diese Funktionalitäten und stellen sie als Webservice zur Verfügung.
Das Modul zur Dublettenprüfung besteht primär aus drei Komponenten:
Die erste Komponente erlaubt es, einzeln oder stapelweise einen Index für die Dublettenprüfung aufzubauen. Dieser wird üblicherweise einmalig im einzubindenden System gestartet. Im laufenden Betrieb gibt es eine Update-Funktion, um den Index gemäß Ihrer Anforderungen aktuell zu halten.
Die zweite Komponente ist der frei konfigurierbare Aufruf der Einzelprüfung. Hierbei können Sie auf alle indizierten Daten eine fehlertolerante Suche oder eine Dublettenprüfung ausführen. Dazu stehen verschiedene Algorithmen zur Verfügung. Hier kommen klassische Vergleichsmethoden wie Jaro-Winkler, Damerau-Levenshtein sowie eigene Algorithmen der ISO-Gruppe zum Einsatz, die je nach Anforderung andere Stärken und Vorteile bieten.
Die dritte Komponente ist ein Bestandsprüfungsmodul, das es ermöglicht, einen Index komplett auf Dubletten zu untersuchen. Hier profitieren Sie besonders von der Skalierbarkeit und hohen Performanz der In-Memory-Technologie, die wir zur Bearbeitung der Prüfung einsetzen. Auch bei großen Datenmengen kann durch eine entsprechend angepasste Systemlandschaft ein hoher Datendurchsatz erreicht werden.
Zur Prüfung der postalischen Korrektheit von Adressen, bauen wir auf Referenzdaten unserer Partner Deutsche Telekom, Arvato Bertelsmann oder Informatica (AddressDoctor). In einem von Ihnen definierten Rhythmus, stellen wir die stets aktuellen Referenzdaten zur Verfügung, die Sie im Verzeichnis des SDQ ablegen. Beim nächsten Neustart der Server-Instanz stehen die neuen Daten zur Prüfung bereit.
Auch hier bieten wir einen einfach zu integrierenden und universell nutzbaren Webservice, den Sie in jegliche Anwendung integrieren können. Speziell auf die Adressvalidierung optimierte Suchalgorithmen finden bei der Eingabe einer Adresse potentielle Treffer in der Referenzdatenbank und geben Ihnen in einer Trefferliste eine korrigierte Schreibweise zur Eingabe.
Mit der Fehlertoleranten Suche lassen sich Einträge innerhalb eines SDQ-Datenpools leicht aufspüren. Für die Suche ist es möglich, pro Attribut eine Fehlertoleranz allgemein ein- und auszuschalten, die Schwellwerte zu definieren und zu verwendende Vergleichsalgorithmen zu parametrisieren. Zusätzlich zur feldgenauen Suche besteht die Möglichkeit, Suchstrings in Langtexten zu finden und feldübergreifende Suchen zu definieren. Wildcards können zusätzlich verwendet werden, um die Suchergebnisse besser zu filtern. Der Aufruf der Suche erfolgt via Webservice.
Mit diesem Modul speisen Sie eine Ihrer Datenquellen in einen SDQ-Datenpool als Referenzquelle ein. So ist es Ihnen leicht möglich, bestehende Daten um wertvolle Zusatzinformationen anzureichern. Die Datensätze werden dann mithilfe des Moduls Dublettenprüfung automatisch abgeglichen. Ist das Mapping erfolgreich, übernimmt das Modul Felddaten der Referenzquelle in den zugeordneten Stammsatz.
Über das zusätzliche Filterpaket stehen weitere vorgefertigte Filter zur Verfügung, die eine Business-Logik zur Aufbereitung von Personen- und Firmenstammdaten enthält. Das Modul erweitert die generische Feldverarbeitungs- und Thesaurus-Funktionen des Basismoduls um domänenspezifische Business-Regeln.
Erfahren Sie, wie der Scarus Data Quality Server Ihre Datenqualität optimieren kann. Kontaktieren Sie uns für eine individuelle Beratung und maßgeschneiderte Lösungen.
Ausgewählte Broschüren, Zertifikate, Success Stories und Berichte aus der Presse für Sie.