Anbietervergleich Adress-/Datenqualität

Anbietervergleich von Adress- und Datenqualität Tools

   Wir vergleichen an dieser Stelle für Sie Data Quality Tools-Anbieter. Wir orientieren und hierbei stark an der Deutschen Adress- und Datenqualität Landscape , welche wir im Juli 2020 veröffentlicht haben. So erhalten Sie einen guten ersten Überblick über die vielfältige aktuelle, deutschsprachige Landschaft.

Um die Adress- und Datenqualität Landscape in voller Größe zu sehen, klicken Sie hier  Adress- und Datenqualität Landscape

Anhand einiger ausgewählter Kriterien können Sie nach Ihren Anforderungen sortieren. Die Auswahl der Kriterien variiert von Zeit zu Zeit.

Sämtliche Angaben in der Tabelle wurden von den Anbietern überprüft. Um weitere Informationen zu den Anbietern zu erhalten, lesen Sie unten weiter oder klicken Sie in der Tabelle auf den jeweiligen Anbieter.

Anbieter Data Quality ToolDublettenerkennungFlexible Justierung der Match- bzw. Abgleichsregeln möglichVorschlag zur Fusionierung durch das SystemRegeln zur Zusammenführung der DublettenFüllgrad-AnalysenQualitäts-AnalysenAnreicherung durch externe DatenReporting zu den AnalysenIntegration in eine CRM-Systemlandschaft möglichIntegration in eine E-Commerce-Landschaft möglich
ABIS
Deutsche Post Adress
Deutsche Post Direkt
bisnode
innoscale<
Kroll-Software
OMIKRON
q.address
UNISERV
Melissa
TOLERANT Software
ataccama
eXotargets
AS Address Solutions

Weitere Informationen zu den einzelnen Anbietern:

ABIS

  • Füllgradanalysen: Prüfung und Anreicherung der Anrede, Erkennung und Strukturierung der Namens- und Adressbestandteilen und Geburtsdatum, Prüfung und Korrektur der postalischen Adressen, Telefonnummern und E-Mail-Adressen
  • Qualitäts-Analysen: Namensanalysen (Korrektheit der Vor- und Nachnamen, statisches Alter, Firmennamenerkennung), Analyse der postalischen Adressen, Telefonnummern, E-Mails, Zustellbarkeit und Bestätigung der postalischen Adressen
  • Anreicherung durch externe Daten: Telefonnummern (öffentliche Quellen), Zustellbarkeit der postalische Adresse, Umzugs- und Verstorbenen-Information (Intern: Deutsche Post Adress GmbH & Co. KG, ABIS GmbH, Extern: SAZ, eXotarget, Gemini, Axiom), Telefonnummern- und Emailadressvalidierung
  • Reporting: In Form eines Standardberichts (ABIS-Audit) oder individuell nach Anforderungen
  • Integration in eine E-Commerce oder CRM-Softwarelandschaft: Als Schnittstelle oder Software, aktuell als kundenindividuelle Lösung

AS Address Solutions

  • Dubletten-Erkennung: Wissens- und regelbasierte Dublettenerkennung, d. h. bevor Namen miteinander verglichen werden, wird zuerst exakt untersucht, was was im Namen ist, z. B. werden Vor- und Nachnamen, Titel, Anreden, Präfixe, Ortsbezeichnungen, Firmeneigennamen, Rechtsformen oder auch Firmentätigkeitsworte erkannt, egal in welchem Feld oder an welcher Stelle im Feld diese stehen.
  • Flexible Justierung der Match-bzw. Abgleichregeln möglich: Nach der wissens- und regelbasierten Analyse der Feldinhalte wird der Vergleich dann für jedes einzelne Merkmal nach einem eigens auf den Feldinhalt zugeschnittenem Verfahren durchgeführt, die daraus resultierenden Teilscores können für beliebig aussagefähige Entscheidungsregeln hinzugezogen werden. Es können beliebig viele Entscheidungsregeln zu einer Entscheidungsmatrix zusammengefasst werden und dann in einer Konfiguration gespeichert und für verschiedene Dublettenidentifikationen, Bestandsvergleiche oder Online Suchen verwendet werden. Dadurch kann praktisch jede noch so komplexe Business Rule für eine Dublette abgebildet und verwendet werden. Neben den Teilscores können auch individuelle Mindestwerte für jeden Feldinhalt und unterschiedliche Gewichte der jeweiligen Teilscores festgelegt werden.
  • Oberfläche für den User zur Dublettenbearbeitung: GUI vorhanden, welches auch noch kundenspezifisch angepasst werden kann.
  • Vorschlag zur Fusionierung durch das System: Da dies eine für jede Firma sehr individuelle Aufgabenstellung ist, berät die AS Address Solutions hierbei den Kunden in der geeigneten Umsetzung bei der Dublettenzusammenführung. Nichts desto Trotz gibt es aber natürlich bereits eingebaute Verfahren für die Fusionierung, die z. B. für ein Mailing völlig ausreichend sind, z. B. die Auswahl per Zufall, prioritätengesteuert oder Auswahl desjenigen Datensatzes, der im Vergleich mit den anderen Gruppenmitgliedern die höchsten Scores aufweist.
  • Regeln zur Zusammenführung der Dubletten: s. o., die o. g. Verfahren können dann natürlich auch für die letztendliche Zusammenführung oder die Erzeugung eines Masterdatensatz (Golden Record) verwendet werden, falls dies beim Kunden so gewollt ist. Für die komplexeren, von Unternehmen zu Unternehmen sehr unterschiedlichen Anforderungen berät die AS mit hochqualifizierten und erfahrenen Consultants, die sich hierfür aus einem großen Lösungspool bereits durchgeführter Zusammenfügungen bedienen können, aus denen dann sehr schnell die optimale Zusammenführung für den jeweiligen Kunden erfolgt.
  • Füllgrad-Analysen: Ja, selbstverständlich, dies geschieht mit unserem AS Inspect, der den Füllgrad eines jeden Feldes sofort ermittelt und zur Verfügung stellt.
  • Qualitäts-Analysen: Ja, hierfür gibt es ein eigenes Softwareprogramm, den AS Inspect, der genauestens die Datenqualität überprüft, z. B. die Dublettenquote, die Anzahl der korrekten bzw. der korrigierbaren postalischen Anschriften, Kennzahlen für die Qualität der Namen und anderer Inhalte, etc., die in anschaulichen Berichten abgespeichert und für spätere Wiedervergleiche hinzugezogen werden können. Mit dem AS Inspect ist der Kunde in der Lage, innerhalb weniger Minuten und mit wenigen Mausklicks in einem übersichtlichen GUI beliebige Datenquellen zu importieren und anschließend auf Herz und Nieren zu überprüfen.
  • Anreicherung durch externe Daten: Auch hier gibt es durch die einfachste Integration beliebiger Referenzdaten in einen komfortable zu durchsuchenden, so genannte AS Suchbestand (Suchindex) eine einfache Möglichkeit, beliebige Referenzdaten zu durchsuchen. Trotz unserer firmenphilosophischen Vorgabe, möglichst anbieterunabhängig zu bleiben, haben wir einige fertige Schnittstellen zu ausgewählten Referenzdaten, wie z. B. bzgl. der postalischen Daten (Nexiga), der schweizer Nationaldatei, Geokoordinaten oder der Robinsonliste, wir sind aber keinesfall auf diese limitiert.
  • Reporting zu den Analysen: In jedem Softwarepaket der AS gibt es Berichte über die wichtigsten Ergebnisse, also z. B. im AS Inspect pdf-Reports über den Füllgrad, die Dublettenquote, die Qualität der postalischen Anschriften und der Namen, etc.
  • Integration in eine CRM-Systemlandschaft möglich: Ja, selbstverständlich ist dies jederzeit möglich, neben direkten so genannten Integrationskomponenten, die die Basisfunktionalitäten für eine bestimmte Umgebung verfügbar machen (z. B. für Oracle PL/SQL, Microsoft T-SQL) bietet die AS alle gängigen Schnittstellen für die einfache und schnelle Integration der Basisfunktionen in praktisch jede Umgebung, in jede Applikation und natürlich jedes CRM System. Integrationskomponenten gibt es u. a. die Folgenden: SOAP- und RESTFul-Schnittstellen, XML/RPC, TCP/IP, COM, PL/SQL, T-SQL, etc.. Mit einem zertifizierten SAP Partner gibt es auch bereits seit vielen Jahren eine komplette Integration unserer Software in SAP/R3. Wir sind hier nicht auf bestimmte CRM Anbieter und Lösungen limitiert, aber u. a. mit Microsoft Dynamics, SAP R3 oder auch Salesforce gibt es bereits erfolgreiche Implementierungen.
  • Integration in eine E-Commerce-Systemlandschaft möglich: Selbstverständlich, durch das Konzept der Integrationskomponenten gibt es auch hier keine Limitierungen.

ataccama

  • Jede Art von Analyse kann durchgeführt werden (z. B. Füllgrad-, Aktualitäts- oder Konsistenzprüfungen). Diese Prüfungen können vollständig auf den Kundenbedarf zugeschnitten werden.
  • Jede externe Quelle kann zur Anreicherung für alle Datentypen verwendet werden.
  • Auf die Ergebnisse von Qualitätsanalysen kann über unser eigenes Dashboard zugegriffen werden, sie können aber auch zur weiteren Analyse oder Verarbeitung in externe Tools (einschließlich BI-Tools wie Tableau, PowerBI, Qlik usw.) exportiert werden.
  • ataccama kann über APIs, Dateien oder die direkte Verbindung zu einer Datenbank in eine Vielzahl von Drittanbieter-Tools in beide Richtungen (Bereitstellung von oder Zugriff auf Daten) integriert werden. Die Qualitätsprüfungen können als Webservices für CRM-Systeme zur Verfügung gestellt werden, sodass eine Datenqualitäts-Firewall erstellt werden kann.
  • ataccama kann über APIs, Dateien oder die direkte Verbindung zu einer Datenbank in eine Vielzahl von Drittanbieter-Tools in beide Richtungen (Bereitstellung von oder Zugriff auf Daten) integriert werden.Die Qualitätsprüfungen von ataccama können als Webservices für E-Commerce-Systeme zur Verfügung gestellt werden, sodass eine Datenqualitäts-Firewall erstellt werden kann.

bisnode

  • Füllgradanalysen: PLZ, Ort und Adresse
  • Qualitätsanalysen über Bisnode Qualitätsindikator
  • Alle firmographischen Merkmale können durch externe Daten angereichert werden
  • Reporting über Online-Analyse aufrufbar
  • Über standardisierte und individuell konfigurierbare Schnittstellen ist die Anbindung an CRM- und E-Commerce Landschaften möglich

Deutsche Post Adress

  • Leistungsportfolio identisch mit dem der Tochterfirma ABIS
  • Zusätzliche Leistungsschwerpunkte: Stammdaten-Aktualisierung sowie Pflege internationaler Adressbestände
    1. Eine Kernkompetenz der Deutschen Post Adress ist die Adressaktualisierung. Die Umzugsdatenbank POSTADRESS MOVE, basierend auf den Nachsendeaufträgen an die Deutsche Post, ist die Datenbank mit den meisten neuen Umzugsmitteilungen pro Jahr in Deutschland. Weitere Referenzdatenquellen ermöglichen den Anwendern die Identifikation von unzustellbaren Adressen sowie von Anschriften verstorbener Kunden.
    2. Viele Services zur Stammdatenpflege und Datenqualitäts-Optimierung bietet die Deutsche Post Adress über ihre Vertriebseinheit POSTADRESS GLOBAL auch für internationale Adressdaten an. Über ein weltweites Dienstleister-Netzwerk können Unternehmen Adressen aus nahezu allen Ländern der Welt pflegen.

Deutsche Post Direkt

  • Option zur Programmierschnittstelle (API) für kundenindividuelles on-premise Setup
  • Unkomplizierte Fusionierung von Dubletten via separater Dubletten-Output-Datei
  • Vielfältige Anreicherung verschiedener Zusatzinformationen
  • Umfassendes Reporting dank visualisiertem Adressaudit und/oder Kundenprofilanalysen
  • Verschiedene Integrationswege für Anbieter-unabhängige CRM-Systemlandschaften via API (REST, SOAP), Webservice oder asynchron für Bulk-Dateien via SFTP
  • Etablierte Integrationen für eCommerce-Anwendungen via Plugin für folgende Anbieter: Magento, Shopware, Plentymarkets oder auch GitHub zur individuell gewünschten Integration

eXotargets Data Network

Seit Gründung im Jahr 2012, hat sich die eXotargets zu einem  bedeutenden Informatiosaggregator in Deutschland entwickelt. Als Datenprovider bietet eXotargets eine Vielzahl von Datenpunkten für die Bereiche Datacare (Anschriften- Bereinigung, Datenpflege, ergänzende Umzugsadressen, Verstorbenenregister, Gebäudeverzeichnis / Straßendatei/ Geokoordinaten ), Dataselect (Leadgenerierung, Re-Targeting) und eIDV (KYC, Electronic Identity Verification).

innoscale

  • Füllgradanalysen; Datensatzorientiert und Attributorientiert
  • Qualitätsanalysen: Dublettenerkennung, Vollständigkeitsprüfung, Konsistenzprüfung, Plausabilitätsprüfung, Syntaxprüfung, Semantische Prüfung
  • Anreicherung: Adressdaten/ Kreditorendaten: Deutsche Post Direkt, Melissa Data, Bisnode, Creditreform, Jaroso
  • Reporting: Externe und regelmäßig zeitliche Auslösung, Ad-hoc Report, Standard Datenqualität-Kennzahlen sowie individuelle Datenqualität – Kennzahlen, Erfassung und Darstellung der zeitlichen Entwicklung von Datenqualität-Kennzahlen, Aggregation
  • Individuelle Schnittstellen zu E-Commerce- und CRM-Softwarelandschaften: Salesforce, SugarCRM, SAP ERP (IDOC), MS Dynamics, Oracle, Pepolesoft, PSIpenta, Sage ERP, Comarch ERP

Kroll-Software

  • Anreicherung durch externe Daten möglich per ODBC/OLEDB oder CV
  • Reporting zu den Analysen: gefundene Dubletten werden übersichtlich mit dem Grad der Übereinstimmung angezeigt.
  • Kroll-Software ist ein Standalone und kann auf beliebige Tabellen zugreifen, deshalb kann es an E-Commerce- oder CRM-Softwarelandschaften angebunden werden

Melissa

  • Füllgrad-Analysen: Aufgliederung und Sortierung der Bestandteile von Namen und Adressen sowie Prüfung und Korrektur von Personendaten wie Anschrift, E-Mail und Telefonnummer und das Hinzufügen von fehlenden Komponenten (z. B. Postleitzahl)
  • Qualitäts-Analysen: Adressprüfung, Adressen-Autovervollständigung, E-Mail Validierung, Telefonnummernprüfung, Namensanalyse, Identitätsprüfung, Dublettenprüfung und Geokodierung
  • Anreicherung durch externe Daten: Melissa bietet ein breites Spektrum an Datenqualitätslösungen im Bereich Adressmanagement an. Hierzu gibt es unterschiedliche Partnerschaften und Datenquellen – jeweils für die passenden Lösungen.
  • Reporting zu den Analysen: Auf Wunsch kann ein Data Quality Report erstellt werden, um Ihnen mit den Statistiken einen Einblick in Ihre Daten zu geben. Außerdem werden Ihnen zu den einzelnen Lösungen Result Codes ausgegeben, die Ihnen die Fehler aufzeigen (z. B. Fehler in der Postleitzahl) sowie die Änderungen (z. B. Postleitzahl geändert).
  • Integration in eine CRM-Landschaft: Als Web Service, Microsoft Dynamics CRM, Oracle (u.a. PepoleSoft)
  • Integration in eine E-Commerce-Systemlandschaft: Als REST-Schnittstelle. PlugIns, z. B. für Magento und Shopware

omikron

  • Füllgradanalysen: absolut und prozentual möglich
  • Inhaltliche Qualitäts-Analysen z. B. postalische Adressen, Dubletten, Kommunikationsdaten, Anreden, Personennamen, Firmierung und UstID.
  • Anreicherung durch externe Daten: Beliebige Datenquellen, z. B. Insolvenzen, Umzugsinformationen, Zustellbarkeit, Rufnummern, Verstorbenenprüfung, Handelsregister-Informationen, Unternehmensinformationen (Mitarbeiter, Branche, etc.) und Geokoordinaten.
  • Reporting: Erfassen von Leistungsdaten und KPIs zu Prozessen oder als Auswertung der kompletten Datenbestände. Unterstützung von Drittanwendungen, z. B. Grafana oder Power BI
  • Integrationen sind möglich: in Microsoft CRM, C4/HANA, Salesforce, Microsoft Business Central, SAP und vielen weiteren Systemen per REST/SOAP Services, das Frontend ist einfach möglich

q.address

  • Dublettenerkennung: beliebige Anzahl Datenquellen, alle gängigen Datenformate und Datenbanken. Ferner: postalische Anschriftenprüfung, Namensprüfung, Prüfung weiterer Daten (u.a. UST-ID, IBAN, E-Mail, Domain, etc.), Datenformatierungen (Telefonnummern, Daten etc.)
  • Suchregeln: automatisch generierte Regeln für Standardaufgaben, individuelle Festlegung von Regeln: individuell konfigurierbar bis auf Feldebene. Mehrere Regeln parallel anwendbar (z. B. Name/Anschrift, Vorname/Mobilnummer, USt-ID). Hierarchische Datenstrukturen (z. B. Firma/Kontaktperson), Referenzdaten und Lexika (individuelle Ergänzungen/Anpassungen), Ergebnisnachbearbeitung inkl. Teambearbeitung.
  • Oberfläche für den User: Windows (Ribbon-basierte GUI) oder Command-line Variante für Integration in Verarbeitungsprozesse.
  • Vorschlag zur Fusionierung: q.address unterstützt:
  1.  Selektion: Auswahl eines Datensatzes (benötigt, wenn etwa die Daten mehrere Adresslieferanten zusammenzuführen sind)
  2. Verschmelzung: Zusammenführung auf Feldebene („Zusammenführung ohne Datenverlust“)
  3.  In-place-Cleansing: Bestandsbereinigung in Dynamics 365 CE (CRM), Salesforce, SAP CRM
  4. Regeln: a) Priorität auf Ebene der Datenquelle (Datei), des Datensatzes und Datenfeldes b) Priorität nach Datensatz-/Datenfeldqualität, Alter etc.
  • Füllgrad-Analysen als Auszählungen
  • Qualitäts-Analysen:  Auszählungen (inkl. Berücksichtigung Datenqualität, z.B. Anzahl und Art der Dubletten, korrekte PLZen, Schreibweisen etc.)
  • Anreicherung durch externe Daten: beDirect, BDS Online, Creditreform. Ferner: Beliebige sonstige bereitgestellte Daten
  • Reporting: Vorbereitete Analysen
  • Integration in CRM-Systemlandschaften: Fertige Integrationen in Dynamics 365 Customer Engagement (CE/CRM), Dynamics 365 Business Central (BC/NAV), Salesforce, SAP CRM. Ferner: für eigene Integrationen bieten wir an: q.address Quality Server, q.address Cloud Services
  • Integration in eine E-Commerce-Systemlandschaft möglich über q.address Quality Server und q.address Cloud Services

TOLERANT Software

  • Füllgradanaylsen für Stammdaten (Name, Adresse, Geburtsdaten)
  • Qualitätsanalysen für Stammdaten (Name, Adresse, Geburtsdaten)
    • Aufzählung der genannten Merkmale
    • Minimal und Maximal Werte
    • Prüfung auf Korrektheit
    • Prüfung auf Vollständigkeit
  • Anreicherung durch externe Daten:
    • Geokoordinaten für Adressen
    • statistische Bezirke Automobilindustrie
  • Integration in CRM-Landschaft möglich in:
    • MS Dynamics 360
    • Salesforce

 

UNISERV

  • Die Füllgradanalysen funktionieren auf jedes Originalfeld, sowie alle Validierungsergebnisse oder Anreicherungspotenziale
  • Qualitätsanalysen: Neben der Validierung, Sicherung und Herstellung einer guten Datenqualität, gibt es zusätzliche Lösungen für die Analyse kompletter Datenbestände und die Darstellung der jeweiligen Ergebnisse in dedizierten Datenqualität-Dashboards und Reportings. Ferner können jegliche Ergebnisse über Schnittstellen in existierende BI-Systeme importiert werden.
  • Uniserv bietet ein breites Spektrum zur Anreicherung weiterer Daten an. Hierzu gibt es unterschiedliche Partnerschaften, jeweils dediziert für die Bereiche B2B und B2C. Alle gängigen DataBroker zählen sich zu diesen Partnern.
  • Integration an E-Commerce- und CRM-Systemlandschaft ist möglich: Sämtliche Lösungen von Uniserv können ein breites Spektrum an API in jegliche Systeme (CRM, ERP, E-Commerce, MDM, etc.) eingebunden werden. Dedizierte und zertifizierte Plug&Play-Konnektoren gibt es für die gesamte SAP-Plattform. Für Microsoft Dynamics, Salesforce, Aurea und viele weitere gibt es ein Partnernetzwerk, sowie entsprechende Projekterfahrung.
  • zentrale Nachbereitungskonsole bzw. die Datasteward-Konsole

 

 

 

Data Quality: Adress- und Datenqualität sind keine Kostenfaktoren, sondern es sind Wertschöpfungsfaktoren

  1. Intro, warum ist das Thema so wichtig?
  2. Definition von Adress- und Datenqualität
  3. Gibt es einen Unterschied zwischen Adress- und Datenqualität
  4. Grundlagen-Know-how des Adressqualitätsmanagements (7 wichtige Schritte)
  5. Grundlagen-Know-how des Datenqualitätsmanagement
  6. Adress- und Datenqualität ist eine Führungsaufgabe
  7. Kennzahlen im Bereich Daten- und Adressqualität
  8. Ausblick
  9. Weiterführende Literatur

Intro, warum hat das Thema Relevanz, warum ist das Thema strategisch so wichtig?

Für alle Unternehmen, die den direkten Kontakt zu ihren Kunden suchen, ist die Kundendatenbank der Dreh- und Angelpunkt abgestimmter Vertriebs- und Marketingaktivitäten. Die Überzeugung, dass dabei die Qualität – insbesondere die schlichte Korrektheit der Adressdaten – eine wesentliche Rolle spielt, setzt sich endlich durch.

Customer Relationship Management, Data Driven Marketing und Vertrieb, Value to the Customer oder Database Marketing verlangt geradezu eine kompromisslose Qualität und Aktualität. Die üblichen Buzzwords sind u.a. Adressprüfung, Data Cleaning, Data Cleansing, Data Quality Tools, Datenanalyse, optimale Datenerfassung durch eigene Mitarbeiter. Aber auch die optimale Unterstützung bei der Self-Service-Erfassung durch Interessenten und Kunden. Nur so werden E-Mail-Adressen für E -Mailings sowie E-Mail-Marketing von Anfang an fehlerfrei erfasst.

Im Juli 2020 haben wir die erste deutsche Adress- und Datenqualitätssoftware und -Dienstleister-Landscape erstellt und veröffentlicht.  Die durchaus große Vielfalt an Technik, Tools und Softwarelösungen bzw. -Solutions macht Produkt- und/oder Dienstleister-Auswahl nicht einfacher. Wir helfen dabei.

Hier, in diesem Dokument erfahren Sie die wichtigsten Schritte für pragmatisches Datenmanagement, wie Sie die Qualität Ihrer Kundenadressen Schritt für Schritt verbessern.

 

Best Practices-Beispiele – Wie fängt die Analyse meistens an?

Irgendwann erhält die oder der Vorstandsvorsitzende der Geschäftsführung einen Brief, in dem der Nach- oder Vorname falsch geschrieben ist. Dann kommt automatisch die „innere“ Frage auf:

Wie sieht das denn in meiner eigenen Firma aus und 
wer kümmert sich bei uns um das Datenqualitätsmanagement?

In der nächsten Führungskräftesitzung fragen Sie dann reihum: Ist es EDV/IT, Marketing, Vertrieb, Kundenservice oder Database-Marketing, die verantwortlich sind?

 Falls Sie überhaupt einen Verantwortlichen für Datenqualitätsmanagement finden, ist die nächste Frage: „Ist unser Datenbestand bzw. sind unsere Adressen in Ordnung? Was machen wir, dass das so bleibt? Gibt es fehlerhafte Daten? Wer achtet auf sie, wer korrigiert sie? Und was ist mit den anderen, vielen Daten?“

An dieser Stelle ist der oder die Angesprochene häufig mit politisch gefärbten Sätzen dabei, wie zum Beispiel, „Machen Sie sich keine Sorgen! Bei der letzten Aktion kamen keine Mailings mit „Unzustellbar“ zurück.“ (Wie denn auch, es war ja auch keine Vorausverfügung als Info für den Briefträger aufgedruckt, deshalb können keine Mailings zurückkommen. Eine Vorausverfügung ist der Text oberhalb des Adressfelds, „Wenn verzogen, bitte nachsenden und mit Anschriftenberichtigungskarte an uns zurück“.). Eine Vorausverfügung ist ein Premiumadress-Service der Deutschen Post. Letztendlich wird oft genug versucht, den Eindruck zu hinterlassen, dass alles in Ordnung sei.

 

Datenqualitätsmanagement: Warum sind gepflegte Adressen so wichtig?

Der Empfänger der Briefe beziehungsweise Nachricht liest ungern seinen Namen falsch geschrieben. Eine richtige und sinnvoll eingesetzte Personalisierung im Brief oder E-Newsletter führt zu einer Steigerung der Response-Quote. Alle Analysen werden durch mangelnde Adressqualität stark beeinträchtigt und damit auch die Entscheidungsgrundlagen. Falsche Adressen führen zu erhöhten Postrückläufen, zu unnötiger Verschwendung von Budgets und zu verlorenem Umsatz. Doppelte Adressen bzw. Anschreiben frustrieren die Empfängern („Mensch, müssen die Geld haben“).

Erhalten beispielsweise Mutter und Tochter zum gleichen Zeitpunkt Briefe oder Kataloge, jedoch mit unterschiedlichen Angeboten, führt das zu Umsatzverlust, da sie sich natürlich immer das günstigere Angebot heraussuchen.

Nur mit standardisierten, bereinigten und aktuellen Adressen können externe Daten hinzugespielt werden, die zu einer weiteren Segmentierung oder Qualifizierung führen (zum Beispiel mikrogeografische oder Lifestyle-Daten).

 

Datenqualitätsmanagement: Definition von Adress- und Datenqualität

Daten sind Informationen. Wichtige Informationen. Daten sind das neue Öl! Dieser Leitsatz hat sich in den letzten Jahren vermehrt durchgesetzt.

Daten, dazu gehören natürlich auch Adressen, sind die Grundlage für gutes Dialogmarketing, für gezielten Vertrieb, perfekten Service, „customized“ Produkte, ausgefeiltes Reporting und detaillierte Analysen, Ermittlung von Kennzahlen … und vieles Weitere. Es geht aus Unternehmenssicht um Individualisierung und Personalisierung. Der Interessent bzw. Kunde wünscht sich eine „gefühlte Nähe, er will verstanden werden …“

Je valider diese Daten sind, umso besser wirken diese Maßnahmen, umso besser fühlt sich der Interessent bzw. Kunde aufgehoben. Es geht bei den meisten Firmen um die Verbesserung des Status quo. Hohe Datenqualität ist somit das langfristige Ziel.

Neben den datenschutzrechtlichen Komponenten, auf die wir an dieser Stelle nicht eingehen, aber verweisen, sollten Unternehmen auch den Aspekt der Motivation betrachten:

Was bedeutet Achtsamkeit in bezug auf dieses Thema? Was motiviert Mitarbeiter eine gute Adress- und Datenqualität zu erzielen? Das ist letztendlich eine Führungsaufgabe und eine Frage der Haltung und Einstellung.

 

Alle Bestrebungen von Data Quality Management (Datenqualitätsmanagement) haben ein Ziel: 

Die beste Qualität der vorhandenen Daten auf effiziente Weise zu erreichen und zu erhalten.

Und wir belassen es nicht bei einer einmaligen Pflege, sondern versuchen mit allem, was einem Unternehmen zur Verfügung steht oder mithilfe eines Interessenten und Kunden, diese Daten immer Up-to-date zu halten.

Wikipedia schreibt dazu:

„Informationsqualität ist das Maß für die Erfüllung der „Gesamtheit der Anforderungen an eine Information bzw. ein Informationsprodukt, die sich auf deren Eignung zur Erfüllung gegebener Informationsbedarfe beziehen“.[1] Aussagen zur Qualität einer Information beziehen sich zum Beispiel darauf, wie genau diese die Realität ‚beschreibt‘ oder wie verlässlich sie ist, inwieweit sie also als Grundlage für eine Planung des eigenen Handelns verwendbar ist.

Der Begriff Datenqualität (als Qualitätsmaß für Daten) steht der ‚Informationsqualität‘ sehr nahe. Da die Grundlage für Informationen ‚Daten‘ sind, wirkt sich die ‚Datenqualität‘ auf die Qualität der Informationen aus, die aus den entsprechenden Daten gewonnen werden: Keine „gute“ Information aus schlechten Daten.“

Etwas weiter unten in diesem Artikel von Wikipedia wird noch geschrieben:

„Qualitätskriterien für Datenqualität unterscheiden sich von denen für Informationsqualität; Kriterien für Datenqualität sind nach[7]:

  • Korrektheit: Die Daten müssen mit der Realität übereinstimmen.
  • Konsistenz: Ein Datensatz darf in sich und zu anderen Datensätzen keine Widersprüche aufweisen.
  • Zuverlässigkeit: Die Entstehung der Daten muss nachvollziehbar sein.
  • Vollständigkeit: Ein Datensatz muss alle notwendigen Attribute enthalten.
  • Genauigkeit: Die Daten müssen in der jeweils geforderten Exaktheit vorliegen (Beispiel: Nachkommastellen).
  • Aktualität: Alle Datensätze müssen jeweils dem aktuellen Zustand der abgebildeten Realität entsprechen.
  • Redundanzfreiheit: Innerhalb der Datensätze dürfen keine Dubletten vorkommen.
  • Relevanz: Der Informationsgehalt von Datensätzen muss den jeweiligen Informationsbedarf erfüllen.
  • Einheitlichkeit: Die Informationen eines Datensatzes müssen einheitlich strukturiert sein.
  • Eindeutigkeit: Jeder Datensatz muss eindeutig interpretierbar sein.
  • Verständlichkeit: Die Datensätze müssen in ihrer Begrifflichkeit und Struktur mit den Vorstellungen der Fachbereiche übereinstimmen.“

 

Data Governance als Meta-Ebene – Wikipedia schreibt dazu:

„Hier liegt der Schwerpunkt auf einem einzelnen Unternehmen. Data Governance ist hier ein Datenverwaltungskonzept hinsichtlich der Fähigkeit, mit der ein Unternehmen sicherstellen kann, dass während des gesamten Lebenszyklus der Daten eine hohe Datenqualität vorhanden ist und Datenkontrollen implementiert werden, die die Geschäftsziele unterstützen.

Zu den wichtigsten Schwerpunktbereichen der Data Governance gehören Verfügbarkeit, Benutzerfreundlichkeit, Konsistenz[2], Datenintegrität und Datensicherheit. Dazu gehört auch die Einrichtung von Prozessen, die eine effektive Datenverwaltung im gesamten Unternehmen gewährleisten, wie z. B. die Rechenschaftspflicht für die nachteiligen Auswirkungen einer schlechten Datenqualität und die Sicherstellung, dass die Daten, über die ein Unternehmen verfügt, von der gesamten Organisation genutzt werden können.

Ein Data Steward ist eine Rolle, die sicherstellt, dass Data-Governance-Prozesse befolgt und Richtlinien durchgesetzt werden, und die außerdem Empfehlungen für Verbesserungen der Data-Governance-Prozesse ausspricht. Übersetzt mit www.DeepL.com/Translator (kostenlose Version)

Dieser Abschnitt könnte auch bei dem Abschnitt 6 „Adress- und Datenqualität ist eine Führungsaufgabe“ stehen. Denn es geht um die Verantwortung. Nur unten geht es um die Führungsverantwortung. Ein Data Steward oder ähnliches entspricht teilweise einem Datenschutzbeauftragten und teilweise einem operativen Verantwortlichen.

Hierzu werden wir in den nächsten Wochen noch vertieft Stellung beziehen.

 

Data Quality: Gibt es einen Unterschied zwischen Adressen und Daten

Es ist kein großer Unterschied, dennoch wollen wir ein paar Stichpunkte dazu schreiben.

Die Adressqualität bezieht sich auf die Daten, die zur Adresse gehören. Das sind meist Variablen, wie z.B. Anrede, Titel, Vorname, Nachname, Straße und Hausnummer bzw. das Postfach, Postleitzahl und Ort. Wobei die Postleitzahl noch einmal nach PLZ-Straße und PLZ-Postfach unterschieden werden kann. Hierzu gehören auch Variablen, wie z.B. die E-Mail-Adresse, die Telefonnummer, Smartphone-Nummer, Fax-Nummer etc. Denn es geht bei der Adressqualität um die Zustellung der Botschaft. Unabhängig über welchen Kommunikationsweg diese stattfindet.

Alle anderen Daten, die NICHT direkt zur Adresse gehören, betrachten wir separat unter dem Namen der Datenqualität. Das ist zwar nicht ganz überschneidungs- und damit widerspruchsfrei. Dennoch fassen wir das Thema Datenqualitätsmanagement an dieser Stelle noch einmal wie folgt zusammen.

  • Daten sind Informationen –> Informationsqualität als übergeordneter Begriff
  • Daten und Adressen zu einem Interessenten und Kunden –> Datenqualität als Klammer
  • Adressen Kontaktinformationen zu einem Interessenten und Kunden –> Adressqualität
  • Daten (wie Kaufverhalten, Branche, Vorlieben …) zu einem Interessenten und Kunden –> Datenqualität

Hinzukommen die Kriterien, die nicht direkt einem Interessenten oder Kunden zugeordnet werden können, aber im Rahmen von Transaktionen eingesetzt werden. Hierzu werden Begriffe wie Produkt-Informations-System (PIM), Master Data Management (MDM) oder ähnliche Begriffe verwendet.

 

Data Quality: Grundlagen-Know-how des Adressqualitätsmanagements

Wie stellen Sie nun innerhalb der Datenqualitätsmanagement-Aktivitäten die Adressqualität fest? Wir haben hierzu eine einfache Methode entwickelt. Was sind die wichtigsten Maßnahmen? Führen Sie bitte folgende, einfache Prüfungen durch:

 

Schritt eins – Sichtprüfung

Sie übernehmen aus einem zusammenhängenden PLZ-Gebiet (am besten ist eines, in dem Sie sich persönlich gut auskennen) alle vorhandenen Adressen (Kunden, Interessenten, Gewinnspiele, Kundenserviceanfragen etc.) in eine Excel-Datei. Eine Anzahl von z.B. ca. 5.000 Adressen ist schon ausreichend. Bevor die Prüfung beginnt, fügen Sie eine oder mehrere Spalten ein, in der zu jeder Adresse Anmerkungen eingetragen werden können.

Dann sortieren Sie die Adressen nach den verschiedenen Kriterien und nehmen beispielsweise die ersten 1.000 und die vierten 1.000 Adressen stichprobenweise genauer unter die Lupe.

Jedes dieser 1.000-Adressen-Pakete wird nun folgendermaßen untersucht:

Als Erstes sortieren Sie die Adressen nach Namen und Vornamen unabhängig von der PLZ. Schauen Sie sich die Schreibweise der Namen und Vornamen an und Sie werden schnell feststellen, in welchen unterschiedlichen Schreibweisen eindeutige Namen und Vornamen erfasst worden sind: falsche Groß-/Kleinschreibung. Der Vorname steht im Nachnamenfeld bzw. umgekehrt. Der Firmenname steht im Namensfeld. Es fehlt die Gesellschaftsform.

Danach prüfen Sie, ob die Anrede zum Vornamen passt. Auch der Titel wird regelmäßig falsch in Adressfelder eingegeben. Einmal steht er beim Vornamen, das andere Mal steht er im eigenen Feld, dann wird „Dr.“ neben „Doktor“ und „Prof.“ neben „Professor“ geschrieben und so weiter. Nun sortieren Sie die Adressen nach PLZ, Straße, Namen und Vornamen.

Schnell stellen Sie fest, ob Personendubletten in der Datei enthalten sind oder ob unter derselben Adresse mehrere Familienmitglieder erfasst sind. Sind das nun Oma, Mutter, Tochter? Oder ist das Zufall? Im letzten Schritt prüfen Sie dann, ob alle PLZ fünfstellig sind. Fehlt die führende „Null“ bei den ostdeutschen Adressen (was sich bei einem Excel-Export leider sehr oft einschleicht)? Haben sich evtl. ausländische Adressen eingeschlichen? Sind diese entsprechend gekennzeichnet? Jetzt zählen Sie innerhalb der Pakete die Anzahl der Adressen mit Fehlern. Ist die Fehlerquote höher als zwei bis drei Prozent, sollten Sie umgehend die nachfolgenden Schritte einleiten.

 

Kleiner Exkurs ins B2B zum Thema Datenqualitätsmanagement:

Sehr oft haben die Adressmodelle von ERP-Systemen, E-Commerce oder anderen Systemen zwei oder drei Felder, die für den Firmennamen gedacht sind. Dies führt in der Regel zu einem gewaltigen Problem: Der erste Teil einer Firma wird im ersten Feld eingetragen, der Zusatz zur Firmenzeichnung im zweiten Feld, der Rest sowie die Rechtsform findet man dann im dritten Feld.

Ist erst einmal ein solcher Firmenname angelegt, dann könnte folgendes passieren: Ein Mitarbeiter prüft bei der Neuanlage, ob diese Firma schon vorhanden ist. Sie/er gibt jedoch den Firmennamen auf andere Weise ein und schon wird dieser vom Dubletten Prüfprogramm nicht gefunden. Die vermeintlich neue Firma wird ein zweites Mal angelegt.

Oder der Interessent/Kunde selbst schreibt sich etwas anders als die bisher im System vorhandene Bezeichnung. in der Verbindung mit E-Commerce, würde diese Firma auch ein weiteres Mal angelegt werden, weil auch hier das Dubletten Prüfprogramm die Dublette meist nicht erkennt. Legt ein Mitarbeiter diese Bezeichnung an, wird im Nachhinein oft argumentiert „der Kunde hat es so gewollt“, also habe ich ihn genauso angelegt.

 

Zwischenfazit zu B2B-Datenqualitätsmanagement:

Gerade im B2B ist genau an dieser einfachen Stelle oft viel Mist in den Datenbanken. Wir haben in unseren Projekten nicht selten zwischen 6 und 10 verschiedene Schreibweisen als Dubletten gefunden. Und dies kann man durch Schulung und Regeln vermeiden.

 

Schritt zwei – Adress-Audit

Viele Adressendienstleister bieten ein kostengünstiges Adress-Audit an. Ihre Adressen werden dabei mit unterschiedlichen Referenzdaten abgeglichen. Als Ergebnis erhalten Sie eine Beurteilung darüber, wie gut die gesamten Daten sind. Nach diesem Check sind Sie in der Lage, die notwendigen Qualifizierungsmaßnahmen gezielter zu steuern. Sie schließen somit das viel zu teure Gießkannenprinzip „alles für alle“ aus.

 

Tipp aus der Praxis: Senden Sie nicht eine Datei mit allen Adressen zum Check. Teilen Sie Ihre Daten in sinnvolle Gruppen ein und lassen Sie diese getrennt auf Qualität prüfen. Für eine Dublettenprüfung sind natürlich alle auf einmal in sich zu prüfen.

 

Schritt drei – Daten-Audit

Hier werden mit univariaten bzw. einfachen statistischen Methoden die Inhalte der Variablen analysiert und „Anomalien“, Fehleingaben oder unnötige Ausprägungen aufgezeigt. Mehr dazu – weiter unten im Abschnitt Grundlagen-Know-how Datenqualität.

 

Schritt vier – Zusammenfassung der Audits und Sichtprüfung

Aus den drei Prüfschritten entsteht ein Summary für die Geschäftsführung. Die Detailanalyse umfasst das Aufzeigen der Schwachstellen und guten Leistungen. Für die Schwachstellen gibt es Empfehlungen a) zur einmaligen Bereinigung und b) zur laufenden Optimierung und Kontrolle.

Ideen für Kennzahlen (KPIs), spezielle Führungsaufgaben, Prozess-Optimierungen oder IT-Unterstützungen runden das Bild ab.

Dies ist die Grundlage für das weitere Vorgehen, Handeln und Steuern.

 

Schritt fünf – Entscheidung „Selbst machen“ oder „Machen lassen“

Bevor die ganze Prozedur der Bereinigung gestartet werden kann, stellt sich die Frage: Selbst machen oder beim Dienstleister durchführen lassen?

Für „Selbst machen“ spricht ganz klar die Regel: „Adressen gehören in die Kernkompetenz einer jeden Firma, die CRM und Dialogmarketing macht“. Nur bei kleineren Adressbeständen oder in der Anfangsphase kann es bei einem Dienstleister schneller und einfacher gehen.

Mittelfristig sollten Sie die Adressen immer in der Firma bearbeiten. Adressen sind das Kapital einer jeden Firma. Ein Dienstleister (außer er ist ein für diese Branche nachgewiesener Spezialist) kann die Individualität einer Firma nicht abbilden. Dies geht auch einher mit der Schulung der Mitarbeiter. Es werden Regeln erstellt, wie zukünftig Adressen zu erfassen sind beziehungsweise wie die Datenqualifizierung vorgenommen wird.

 

 Tipp aus der Praxis: Auch internationale Unternehmen sollten das Thema Adressqualität im jeweiligen Land bearbeiten lassen. In der Zentrale liegt oft zu wenig Kenntnis über die regionalen Besonderheiten und Rahmenbedingungen vor.

 

Schritt sechs – die Einmal- oder Erstbereinigung

Normierung bzw. Standardisierung: Sie bereiten die Adressdaten so auf, dass alle Informationen, die verarbeitet werden können, in die zugehörigen Felder geschrieben werden. Danach überprüfen und korrigieren Sie die Anrede über eine Vornamentabelle und die richtige Anrede. Diese Tabellen gibt es bei verschiedenen Anbietern, auch für viele west- und osteuropäische Länder.

 

Postalische Bereinigung: Mit den Tabellen von der Post standardisieren Sie die Schreibweisen der Straße, die Ortsbezeichnung und eventuell die Postleitzahl. Bei Adressen, die schon länger (sechs bis zwölf Monate) nicht mehr validiert worden sind, bietet sich eine Umzugsprüfung an. Sie können mit deren Hilfe entsprechend auf die neue Adresse umstellen. Mit einem Abgleich der Daten von Verstorbenen oder insolventen Personen und Firmen können Sie in einem weiteren Schritt Ihre Adressen bereinigen.

 

Vervollständigung: Mit der richtigen Anschrift ist nun eine Vervollständigung oder Korrektur von Unternehmensbezeichnungen möglich.

Dublettenbereinigung: Nachdem Sie alle notwendigen oder möglichen Korrekturen und Anreicherungen durchgeführt haben, ist der Dublettenabgleich sinnvoll. Sie müssen die Prüfung auf Personen- und Familiendubletten (Business-to-Consumer) sowie Firma und Ansprechpartner (Business-to-Business) durchführen.

 

Manuelle Korrektur: Der letzte Schritt sind nun die manuellen Korrekturen. Dies ist sicherlich aufwändig, ist jedoch abhängig vom Kundenwert zwingend durchzuführen. Leider erkennt die Software nicht alle Fehler und kann sie somit auch nicht automatisch korrigieren oder bereinigen. Diese „unsicheren Dubletten bzw. Schreibweisen“ werden nun Datensatz für Datensatz von Ihren Fachleuten für Adressqualität durchgesehen, evtl. noch eine Recherche auf Google, dem Impressum oder beim Einwohnermeldeamt durchgeführt und dann entweder mit „korrekt“ bestätigt oder entsprechend korrigiert.

 

Externe Anreicherung: Erst jetzt können Sie Ihre Adressen mit Telefonnummern, Branchen- oder mikrogeografischen beziehungsweise Lifestyle-Daten anreichern.

 

Verknüpfungen herstellen: Des Weiteren sollten Sie Verknüpfungen von mehreren Personen aus einer Familie bzw. Firma herstellen. Darüber hinaus empfiehlt die Praxis, bei Firmenadressen Konzernverbindungen herzustellen beziehungsweise Mutter- und Tochtergesellschaften zu verbinden.

Hier noch einmal der komplette Ablauf in einer Übersicht:

Adress-und Datenqualität

Abb. 7.24 Beispiel für Adress- und Datenqualitätskreislauf (Quelle: bdl, 2014)

 Tipp aus der Praxis: Datensätze, die gegeneinander geprüft wurden, sollten markiert werden, dass beim nächsten Mal die gleichen Datensätze nicht noch einmal bearbeitet werden. Dann sollten nur die hinzugekommenen unsicheren Problemfälle wieder geprüft werden.

Jetzt kommt der Dauerlauf: die laufende Bereinigung bzw. nachhaltiges Datenqualitätsmanagement

Alle oben genannten Prüfschritte der Erst- oder Einmalbereinigung sind natürlich innerhalb der laufenden Prozesse immer wieder, regelmäßig durchzuführen. In Firmen, bei denen sehr viele Beteiligte die Adressen anfassen und eventuell korrigieren, ist ein laufendes Qualitätsmanagement notwendig. Genauso verhält es sich, wenn es Webshops oder andere Internet-Erfassungsquellen (Newsletter etc.) gibt, in denen sich die Kunden selbst erfassen.

Zusätzlich sollte der Kunde bei jedem Kontakt, in regelmäßigen Abständen, mindestens jedoch einmal pro Jahr nach möglichen Änderungen gefragt werden, oder er erhält ein Schreiben beziehungsweise eine E-Mail mit personalisierter Landeseite und der Aufforderung, die unvollständige Adresse bitte zu korrigieren. Ein Response-Anreiz für mehr Aufmerksamkeit bzw. Rücklauf ist zu empfehlen.

Es geht im Grundsatz um Vermeidung von a) typischen Fehlern, b) unzureichender Datenqualität, c) unnötigen Kosten und somit dem Erreichen von hoher Qualität.

Schlussbemerkung zum Thema operatives Data Quality Management (DQM) und besseren Adressqualität:

Je nach Adressmenge und Qualität/Zustand der notwendigen Adressen kann eine Erstbereinigung zwischen drei und neun Monaten dauern. Die Kosten sind natürlich sehr unterschiedlich. Das hängt zum Beispiel von der eingesetzten Software ab und davon, wie hoch der manuelle Nachbearbeitungsaufwand ist und wie häufig im laufenden Geschäft die Adressen überprüft werden müssen. Firmen, die jeden Monat ein Mailing an die Mehrheit ihrer Kunden senden, haben andere Prozesse als Firmen, die nur vier Mailings im Jahr an eine ausgewählte Zielgruppe senden. Es gilt, ein ausreichend großes Budget für die anfängliche externe Unterstützung, für Software sowie für die Validierung und die manuelle Pflege zur Verfügung zu stellen.

Wundern Sie sich bitte nicht, wenn Ihre Bank bei der nächsten Kreditanfrage diesen Aspekt „Wie gut sind Ihre Adressen?“ prüft.

Perfektes Adressmanagement ist die notwendige Grundlage für Ihren zukünftigen Erfolg und somit eine der wichtigsten Aufgaben in jeder Unternehmung – unabhängig davon, ob es sich nur um 500 oder um fünf Millionen Adressen handelt. Gelohnt haben sich diese gezielten Bereinigungen und Qualitätsmaßnahmen meist nach sechs – spätestens nach zwölf Monaten.

 

Data Quality: 

Grundlagen-Know-how der Datenqualität

Wie oben schon kurz beschrieben werden hier mit univariaten bzw. einfachen statistischen Methoden die Inhalte der Variablen analysiert und „Anomalien“, Fehleingaben oder unnötige Ausprägungen aufgezeigt.

Im ersten Teil des Audits definieren wir die wichtigsten 20 oder 30 Variablen, die für das Unternehmen besonders wichtig sind. Es macht in der Regel keinen Sinn, dass man alle in den Kundendaten vorhandenen Variablen anschaut. Das wäre eine Herkules-Aufgabe.

 

Tipp aus der Praxis: Selbst Felder, die normalerweise durch Auswahlfelder keine Freiheit bei der Eingabe besitzen, sollte man analysieren. Warum? Oft wurden durch mehrfache Migrationen aus Alt-Systemen Feldinhalte übernommen, die den aktuellen Regeln nicht mehr entsprechen, aber eben drin stehen – und meist falsch oder veraltet sind.

Was sind wichtige Daten, die einem Kunden direkt zugeordnet werden können: Bei Personen ist das z.B. das Alter bzw. Geburtsdatum, Adels- oder wissenschaftlicher Titel, der Beruf, die Position, die Anrede, das Geschlecht, Segment-Codes und viele mögliche mehr.

Bei Unternehmen wäre das z.B. die Rechtsform, Landcode, Codes für Bundesland, Sprache, Währung, Customer- und Segment-Codes, welchem Vertriebsgebiet ist die Firma zugeordnet, welcher Mitarbeiter der eigenen Firma ist dieser Firma bzw. dem neuen Ansprechpartner  zugeordnet, ist es ein Key-Account-Kunde, etc.

Ist das Feld Homepage gefüllt? Kann man das aus der E-Mail-Adresse ableiten? Sind die Branchencodes alle korrekt gepflegt? Gibt es einen Verweis zur Schwester-, Tochter oder Muttergesellschaft?  und viele mögliche mehr.

Nun spielt man diese Variablen in einen Flatfile und lässt Standard-Analysen drüber laufen.

Das ist zum einen eine Auszählung nach „Häufigkeit der Ausprägungen“ (Frequency). In Alphanumerischen-Feldern findet man nun die herrlichsten Ideen, wie eigentlich identische Feldinhalte auf die unterschiedlichste Weise geschrieben werden. In numerischen Feldern stehen oft Werte drin, die normalerweise hier nicht stehen dürften.

Bei numerischen Feldtypen macht durchaus auch eine Mittelwertberechnung Sinn. Dabei erkennt man schnell Ausreißerwerte. Gibt es Fehlprogrammierungen oder falsche Auswahlllisteninhalte oder Datenübernahmen aus dem Testsystem die die Qualität entsprechend beeinflussen.

Das Schöne an dieser Analyse ist: Man erkennt, an welcher Stelle die Erfassungsregeln nicht eingehalten werden. Man sieht auch, welche Prozesse noch nicht rund sind.

 

Unser Leitspruch: Zeig mir Deine Daten und ich sage wer Du bist bzw. wie gut Du misst!

Data Quality Management (DQM): Adress- und Datenqualität ist eine Management- bzw. Führungsaufgabe

Ja, diese Aufgabe ist eine sehr wichtige Aufgabe für das Management. Es geht eben nicht allein nur um IT-Systeme. Wenn die Mitarbeiter nicht wissen, warum und wofür sie das machen oder neue Anreize existieren, Daten in das System zu pflegen, funktioniert das nicht. Nur, wenn die Mitarbeiter es wissen, dann Achtsamkeit walten lassen, sind Sie mit Ihrem Unternehmen erfolgreich.

Es geht – wie schon gesagt – zum einen darum, dass jemand für das Thema im Unternehmen die Verantwortung übernimmt. Der sich als Leader und Kümmerer zu diesem Thema zeigt, der laufend darauf achtet, dass die Qualität hoch bleibt.

Zum anderen ist eine dauerhafte Qualität nur durch KPIs zu steuern. Diese sind damit auch in Zielvereinbarungen eingebunden. So kann das Management- und Führungsteam erkenne, ob man in die richtige Richtung steuert, die Qualität sich sukzessive steigert und das Reporting damit automatisch besser wird.

Eine Erklärung und Motivation, warum Daten- und Adressqualität so wichtig ist, gehört natürlich auch dazu. Warum soll ein Außendienst-Mitarbeiter die bei im Kopf befindlichen Datenschätze in ein CRM eingeben. Was hat er davon? Was haben andere davon? Warum kann er sich selbst dadurch besser steuern? Wie kann ihm durch Automatisierung von Aufgaben auf Basis guter Daten seine Arbeit erleichtert werden? Welche Aufgaben sollten gemeinsam für ein integriertes Datenqualitätsmanagement erfolgen?

 

Eine Führungsaufgabe ist dieses Thema Data Quality Management auch deshalb, weil …

Adress- und Daten-Qualität ist kein Kostenfaktor, sondern ein Wertschöpfungsfaktor!

Datenpflege und Data Quality muss zur Unternehmenskultur werden. Es braucht eine unternehmerische Haltung jedes Mitarbeiters, dass bestimmte, ausgewählte Daten für das Unternehmen extrem wichtig sind. Ohne Wenn und Aber.

 

Data Quality: Kennzahlen im Bereich Daten- und Adressqualität

Kennzahlen sind beispielsweise „Anzahl Adressen vollständig gefüllt“, „Datum letzte Bestätigung“, „Datum letzte Korrektur“, „Anzahl Postrückläufer“, „Anzahl aktuell nicht bewerbbare Adressen“ etc. Alle Kennzahlen sind – nach Segmenten geordnet – interessant, da die guten Kunden eher häufig angeschrieben werden und damit eine regelmäßige Bestätigung oder Korrektur stattfindet. Bei weniger guten Kunden (geringer Kundenwert) ist damit ein anderer Aufwand zu betreiben. (Siehe auch „Bewertung von Adressen im Unterkapitel „CRM-Cockpit“)

Wir definieren zum Einstieg ein paar einfache, wichtige KPIs bzw. Kennzahlen.

  • Anzahl Postretouren bzw. Mailingrückläufer
  • Anzahl Soft-Bounces und Anzahl Hard Bounces
  • Anzahl Päckchenretouren
  • Je wichtiges Feld gibt es die Kriterien
    • „Füllgrad in %“
    • Inhaltliche Qualität ist „gut“, „mittel“ oder „schlecht“

Jetzt kann man je Land, je Gebiet oder Zielgruppe die KPIs noch erweitern oder verfeinern. Aber zuallererst sind die jüngsten Interessenten, die aktiven Kunden sowie die jüngst passiv gewordenen (schon länger nicht mehr bestellt) Kunden zu bereinigen und auf hohem Niveau zu halten.

Diese KPIs kann das Unternehmen im Reporting, in einer Business Intelligence (BI)-Anwendung den Anwendern zum Monitoring zur Verfügung stellen.

 

Data Quality – Ausblick:

Daten sind das neue Öl. Diesen Satz hört man immer öfters. Aber zuerst, bevor die Ölquelle angezapft, eine hohe Qualität erreicht wird oder KI-Analysen durchgeführt werden können, muss die Basis geschaffen – der Datenbestand bereinigt – werden. Viele reden über Big Data. Ja, die Masse der Daten nimmt immer mehr zu. Aber Big Data ist am Anfang gar nicht das Problem.

Die Aktualität der wichtigsten Daten ist die Herausforderung!

Erst, wenn das Unternehmen sich den vielen möglichen externen Anreicherungen und vielen eigenen Daten (im Webshop, Logfile der Webseite, Social Media …) widmet, dann ist Big Data angesagt. Aber auch hier darf man den (Daten-)Berg nicht als Ganzes betrachten und versuchen auf einmaal zu besteigen.

Das Unternehmen sollte sich auf diejenigen Daten konzentrieren, die vermutlich den höchsten Mehrwert bringen. „Viel hilft viel“, war und ist leider immer der schlechteste Ratgeber auf dem Weg zur höheren Adressqualität.

Wo die wichtigsten Daten liegen, ist grundsätzlich erst mal fast egal. Je weniger Quellen umso besser. Aus der Blissfully-Studie wissen wir, dass es leider dann doch viel zu viele Cloud- bzw. Saas-Anwendungen gibt. Die Daten sind weit verstreut bzw. in Silos versteckt, kaum jemand hat einen Überblick.

Ob im CRM, im ERP, im E-Commerce oder auf einer Data Management Platform (DMP) – on-premise oder in der Cloud. Hauptsache man hat einen einfachen Zugriff bzw. kann die extrahierten und bereinigten Daten einfach zurückspielen. Die Daten sollten veredelt werden. Die Mitarbeiter durch Ziele an der Veredelung beteiligt werden.

Auch das Modethema Digitale Transformation funktioniert nur, wenn nachhaltig, gute Datenqualität (perfect Quality) vorliegt. Für die Transformation benötigt man Verlässlichkeit, sollte schlechte Daten bzw. schlechte Datenqualität vermeiden, optimiert laufend die wichtigsten Daten.

Diese Aufgaben dauern oft 6-9 Monate, aber sie lohnen sich. Denn nach kurzer Zeit existiert eine optimale Datenqualität, ein ROI für diese Investition ist garantiert und schnell erreicht. Das haben wir bisher in jedem der Projekte nachgewiesen. Und zum anderen spart man Budget bei den Aussendungen ein, das Reporting und die Entscheidungen werden besser, man vermeidet Kosten und hat deutlich mehr Umsatzchancen.

Daten- und Adressqualität ist ein erfolgskritischer Faktor. Genauigkeit ist eine Pflicht. Schon allein wegen der DSGVO. Heute ist das schon so. Und in Zukunft mehr denn je. Allein die DSGVO verpflichtet jedes Unternehmen zur absoluten Aktualität.

Wie schon geschrieben, Automatisierung in Marketing, Vertrieb und Service oder KI-Analysen und -Prognosen funktionieren nur, wenn die Daten sauber sind. Und letztendlich ist das Management dafür verantwortlich die Aufgabenzuordnung, die operativen Aufgaben sowie die Steuerung dafür übernehmen.

 

Fazit: Adressqualität ist kein Kostenfaktor, sondern ein Wertschöpfungsfaktor!

Weitere Informationen, weiterführende Literatur, wer schreibt außer uns noch über dieses spannende Thema:

 

 

Brauchen Sie Hilfe oder haben Sie noch offene Fragen?
Unser Know-how stellen wir Ihnen gerne zur Verfügung.

Newsletter