Alle Migrationen erfordern einen fachlich konsistenten und revisionssicheren Datentransfer vom Quell- zum Zielsystem. Mit dem paricon Data Migration Framework erfolgt dies über eine zentrale Datenmanagement-Plattform, die einen vollständigen Überblick über alle Werteflüsse liefert und den Datenaustausch revisionssicher und mit Fehlerbearbeitungsfunktionen unterstützt.

paricon liefert für SAP Module zertifizierte Standard Extraktions- und Beladungs-Schnittstellen, die eine besonders schnelle Umsetzung der Migrationslogik ermöglichen und sich für den Einsatz bei SAP-to-SAP-Migrationen ideal eignen. Die bei einer Migration anfallenden komplexen Transformations- und Mappingprozesse werden komfortabel über die Mappingkomponente abgebildet, mit welcher sich fachliche und technische Datenverarbeitungsregeln ohne Entwicklungsaufwand umsetzen lassen. Abgerundet wird der Funktionsumfang des paricon Data Migration Frameworks durch eine Abstimmung der Daten zwischen Quell- und Zielsystem, sowie der Möglichkeit zur revisions­sicheren Datenkorrektur an Ort und Stelle. Das Data Migration Framework kann für den Zeitraum der Projektlaufzeit lizenziert werden.

 

Performance, Flexibilität und Transparenz
mit dem paricon Data Migration Framework

 
  • Erhebliche Laufzeitvorteile durch Parallelisierung und flexible Skalierung
  • Bewährte Standardprodukte für revisionssichere Extraktion bzw. Beladung von Massendaten mit Protokollierung und Nachbearbeitung
  • Hohe Benutzerfreundlichkeit durch übersichtliches Monitoring der Ladeprozesse und volle Transparenz über alle Werteflüsse über alle Daten-Verarbeitungsebenen hinweg
  • Flexible und schnelle Anpassung vollkommen ohne Entwicklung
  • Fachlogik für diverse Einsatzszenarien wie Anbindung von Vorsystemen, Delta-Logik, Abstimmung/Reconciliation für Einzelbelege, etc.
  • Einfache Änderung von Daten und Regeln während und nach der Einführung
  • Revisionssichere Datenablage von Ergebnisdaten (auf Einzelsatzbasis prüfbar)
  • Voll SAP-integriert und SAP-zertifiziert, nahtlose Integration in bestehende Lösung
  • Release- und Betriebssicherheit
 
 

Vorteile eines Data Migration Framework

Im Vergleich mit der SAP LSM Workbench, dem Standard-Boardmittel für die Datenmigration, bietet das paricon Data Migration Framework entscheidende Vorteile:
 LSMWData Migrations Framework
Paralleles Laden eines Objektes Aufteilen der Lade-Dateien (per Hand)Automatisierte Parallel-Verarbeitung
Objek-basierte Migration (Gleichzeitiges Migrieren des gesamten Objektes inkl. der abhängigen Unter-Objekte)Nein (Unter-Objekte werden nachträglich geladen)Ja (automatisiert)
Flexibilität im Design (bei Änderungen)NiedrigHoch
Integriertes Delta-Lade-KonzeptNeinJa
Plausibilitätsprüfung nach der BeladungNeinJa
Mappingtabellen direkt durch Fachabteilung pflegbarNeinJa
End-to-End MonitoringNeinJa
Entwicklungs-Komplexität MittelHoch
LizenzkostenKeineentsprechend dem produktiven Nutzen
 

Extraktion

Data Migration Framework

Um die zu migrierenden Daten zur Verfügung zu stellen, kommt die Extraktionskomponente zum Einsatz. Diese ermöglicht auch Migrationsszenarien mit mehr als einem Quellsystem. Handelt es sich bei einer Quelle um ein NON-SAP-System, so importiert die Extraktions­komponente die Daten per Datei-Schnittstelle – üblicherweise über CSV- oder XML-Dateien.
Bei einem SAP-System als Quelle erfolgt der Zugriff auf kundenindividuelle Datenobjekte über SAP Standard Mechanismen, wie ETL, Open Hub oder fachliche Standardschnittstellen (BAPIs) mit integrierter SAP Objektlogik. Durch Index-Technologie und Parallelisierung ist die Extraktions­komponente auch für große Datenmengen nutzbar.
Die Funktionalität der Extraktions­komponente ermöglicht neben einer flexiblen Selektion und Extraktion auch eine betriebswirtschaftliche Zusammenführung von Quelldaten. Über die Mapping- und Korrektur­komponente werden die extrahierten Datensets anschließend weiterverarbeitet.

 
 

Transformation und Mapping

Data Migration Framework

Auf den extrahierten und zu Datenstrukturen gebündelten Quelldaten können mit der Mapping­komponente Transformations- und Mappingprozesse angewendet werden, um die Daten­strukturen auf die Zielstrukturen abzubilden. Dies geschieht über fachliche oder tech­nische Daten­ver­arbeitungs­regeln, welche vom Data Migration Framework revisions­sicher und nach­voll­zieh­bar pro­to­kolliert wer­den. Der Über­gabe­pro­zess ist somit trans­parent.
Das Regelwerk der Mapping­komponente ist sehr mächtig: Komplexe Transformations- und Mappingregeln stehen häufig in Verbindung mit Kalkulationsregeln, Datenanreicherungsregeln oder Anonymisierungsfunktionen für Testdurchläufe. Zudem verkürzen automatisierbare Vollständigkeitsprüfungen und fachliche Validierungen die Testaufwände und steigern die Daten­qualität der Migrationsergebnisse.
Die Mapping­komponente ermöglicht die Ausgabe von Daten in ver­schiedenen Datei­for­maten und die An­bin­dung ver­schiedener Über­tragungs­wege. Für die per­for­man­te Be­ladung des Ziel­systems empfiehlt sich eine Übergabe der Daten an die Beladungs­komponente.


 
 

Beladung

Data Migration Framework

Die Beladungskomponente übernimmt die per­for­man­te und zu­ver­lässige Daten­ver­sorgung des Ziel­sy­stems. Sie erhält die Da­ten von der Extraktions- , Mapping- oder Korrektur­komponente und lädt sie in das Ziel­system.
Für die Beladung von SAP-Systemen bietet die Beladungs­schnittstelle folgende Funktionen:

  • Datenaufbereitung und parallelisierte Verbuchung in SAP-Systeme
  • Entwickelt für die Datenversorgung von SAP-Systemen auf Einzelsatzebene über BAPIs oder Servicebausteine
  • Reihenfolgesteuerung für fachliche Objekte
  • Protokollierung und Überblick über aufgetretene Meldungen / Fehler
  • Fehlerhafte oder ausgesteuerte Daten direkt korrigierbar über Korrektur­komponente
  • Revisionssichere Protokollierung des Ladeprozesses und von Datenänderungen / -ergänzungen
  • Nachverarbeitung veränderter Daten und Wiederaufsetzbarkeit

 
 

Abstimmung

Data Migration Framework

Durch eine Abstimmung der Daten zwischen Quell­sy­stemen und Zielsystem wird eine Steiger­ung der Da­ten­quali­tät erreicht.
Die Abstimmung erfolgt durch Integration von kunden­spezifischen Regeln mit Funktio­nalitäten wie Voll­ständig­keits­prüf­ungen, Mengen­abgleiche, Werte­ver­gleiche, Salden­er­mittlung und Kenn­zahlen­ab­gleich. Durch Er­stellung ziel­gruppen­spezi­fischer Proto­kolle inkl. Abbildung eines inte­grierten Pro­zesses zur Proto­koll­bearbeitung (z.B. Prüf­proto­kolle, Analyse­ergeb­nisse etc.) werden die Ab­stimmungs­erg­ebnisse aus­gewertet.
Es ist anschließend möglich, abweichende Daten an die Korrektur­komponente weiter­zugeben, um sie dort zu korrigieren und er­neut in das Ziel­sy­stem zu über­tragen.


 
 

Korrektur

Data Migration Framework

Vor Beladung des SAP-Systems oder nachträglich auf Basis von Ab­stimmungs­er­gebnissen bietet das paricon Correction Cockpit viel­fältige Möglich­keiten zur Be­trach­tung und Korrektur von Daten. Die Korrek­turen können manuell durch den Benutzer oder auto­ma­tisch durch Business Rule Frame­work-Funktio­nalität vor­genommen werden.
So kann über Korrekturregeln im Business Rule Framework bestimmt werden, wie die Daten zu korrigieren sind. Die Korrekturregeln liefern Korrekturwerte, wie beispielsweise eine Kennzahl, die sich aus mehreren Datenobjekten aggregiert.
Die Korrekturkomponente des paricon Data Migration Frameworks gewährleistet eine konsistente Datenanlieferung an das Zielsystem.
Für alle Datenänderungen / Korrekturen gilt gleichermaßen:

  • Alle Korrekturen und Anreicherungen werden revisionssicher protokolliert und gemäß Versions- und Historisierungskonzept abgelegt
  • Für die Korrekturfunktionen können explizite Berechtigungen auf Basis des SAP-Standardberechtigungskonzepts vergeben werden

 
 

Das paricon Bank Analyzer Toolset besteht aus zertifizierten Lösungen zur Beschleunigung von Einführungsprojekten und Optimierung von Betriebsprozessen des SAP Bank Analyzers. Ziel ist die performante Datenverarbeitung entlang der gesamten SAP Bank Analyzer System-Landschaft.
Die integrierten Module des paricon Application Frameworks werden spezifisch für das Bank Analyzer Szenario eingesetzt.

Der paricon Inbound Layer übernimmt die Beladung des SAP Bank Analyzer Systems mit Daten aus den Vorsystemen. Diese können SAP-Systeme oder Fremdsysteme sein.
Bevor die Daten in den Source Data Layer des SAP Bank Analyzers geladen werden, findet eine Datenvalidierung über das paricon Business Rule Framework statt. Die Geschäftsregeln des Business Rule Frameworks erlauben auch die Abstimmung der Vorsystem-Daten mit den vom Bank Analyzer verarbeiteten Daten in der RDL.
Der paricon Outbound Layer ermöglicht hierfür die Selektion und Extraktion von Daten aus allen Schichten des Bank Analyzers. Zudem können kundenindividuelle Kalkulations- und Validierungsregeln auf den Bank Analyzer-Daten angewendet werden. Die Ergebnisdaten werden anschließend an die gewünschten Nachsysteme weitergesendet.
Falls das Ergebnis einer Datenvalidierung Unstimmigkeiten hervorbringt, bietet das paricon Correction Cockpit die Möglichkeit, Daten an Ort und Stelle revisionssicher zu korrigieren: Es muss nicht auf die erneute Datenübertragung aus dem Vorsystem gewartet werden.
Durch den modularen Aufbau des paricon Application Frameworks können alle Module auch unabhängig voneinander genutzt und einzeln lizensiert werden.
Das paricon Bank Analyzer Toolset ist für eine einfache Integration optimiert und ermöglicht die Administration ohne Entwicklungsaufwand.

 

Projektbeschleunigung und Prozessoptimierung
mit dem paricon Bank Analyzer Toolset

 
  • Einsatz bewährter Technologie – Lösung im produktiven Einsatz bei diversen Kunden
  • Standard SAP-Look-and-Feel
  • Schnell einsetzbare Lösung zur Abbildung der Rechenregeln, Abstimmungen, Prozessprüfungen
  • Nutzung der Extraktionsfunktionen inkl. Mapping, Parallelisierung
  • Integriertes Reporting
  • Einfache Änderung / Anpassung von Daten und Regeln während und nach der Einführung
  • Revisionssichere Datenablage von Ergebnisdaten (auf Einzelsatzbasis prüfbar)
  • Voll SAP-integriert und SAP-zertifiziert, nahtlose Integration in bestehende Lösung
  • Release- und Betriebssicherheit
 
 

Datenbeladung

Bank Analyzer Toolset

Für die Beladung des SAP Bank Analyzers mit den Daten aus den Vorsystemen ist der paricon Inbound Layer zuständig.
Durch seine qualitativ einwandfreie und fachlich konsistente Datenintegration gewährleistet er einen fehlerfreien Betrieb des SAP Bank Analyzers. Datenquellen können sowohl SAP-Systeme, wie z.B. CML, BCA / DM, CMS, ERP, EW oder CFM als auch NON-SAP, wie z.B. Murex, SCD, Front Arena, Host-Systeme oder Flat Files sein.
Durch die Deltaerkennung im Inbound Layer werden nur Daten in den SAP Bank Analyzer geladen, die sich geändert haben.
In Kombination mit dem paricon Business Rule Framework sind Vor- und Nachverarbeitungen sowie Plausibilisierungen der Eingangsdaten möglich. Im Zusammenspiel mit dem paricon Correction Cockpit ermöglicht der Inbound Layer Fehlerhandling und Korrektur der Daten.
Durch Parallelisierung und flexible Skalierung führt die Benutzung des Paricon Inbound Layer zu erheblichen Laufzeitverbesserungen.

 
 

Datenselektion

Data Migration Framework

Mit dem paricon Outbound Layer können aus allen Schichten des SAP Bank Analyzers Daten selektiert und extrahiert werden.
Der Outbound Layer kann Daten aus unterschiedlichen Systemen anbinden und nutzbar machen. Für die Datenselektion erlaubt dies die Abbildung von komplexen fachlichen Objektbeziehungen. Ebenso ist die Selektion von gesamten Verarbeitungsläufen möglich. Durch Index-Technologie und Parallelisierung erfolgt der Extraktionsvorgang auch bei großen Datenmengen performant.
Die extrahierten Daten werden an nachgelagerte Systeme übertragen. Dabei kann es sich um SAP-Systeme, wie z.B. FI, NewGL oder BW handeln, als auch um NON-SAP-Systeme wie ABACUS/DaVinci, BAIS, GCPM, SAS. Ebenfalls ist die Datenausgabe in diversen Formaten möglich. Durch Protokollierung ist der Übergabe- und Verbuchungsprozess transparent.
Durch Integration mit dem paricon Business Rule Framework kann ein Mapping von dynamisch ermittelten Strukturen auf Zielstrukturen in den Nachsystemen vorgenommen werden. Der Outbound Layer übernimmt hierbei die fachlich konsistente Selektion und Extraktion der Daten aus ein- oder mehrdimensionalen Quellen wie SDL, RDL, Analytics, BW, etc. während das Business Rule Framework für eine Anreicherung der Daten zuständig ist.
Im Zusammenspiel mit dem paricon Correction Cockpit ist ein revisionssicheres Fehlerhandling für die zu verbuchenden Daten möglich.


 
 

Abstimmung

Bank Analyzer Toolset

Die fachlichen Einsatzfelder des SAP Bank Analyzers erfordern durchgängige Rekonzilierung und Nachvollziehbarkeit.
Um die Vollständigkeit und Korrektheit der Ergebnisse des SAP Bank Analyzers zu verifizieren, ermöglicht das paricon Business Rule Framework eine fachliche und technische Abstimmung über alle beteiligten Vorsysteme und Bank Analyzer-Schichten.
Das paricon Bank Analyzer Tool für die Abstimmung ist somit für Datenqualitätsmanagement und Reconciliation zuständig.
In einem automatisierten Prozess werden Vollständigkeitsprüfungen und fachliche Validierungen ausgeführt. Durch frühzeitige Fehlererkennung und -vermeidung verkürzen sich die Prozess- und Verarbeitungszeiten.
Manuelle Aufwände werden im Zuge der langfristigen Betriebsfähigkeit minimiert und Revisionsanforderungen werden optimal erfüllt.
Dieses paricon Tool für den Bank Analyzer bietet ein Konzept zur ganzheitlichen und revisions-sicheren Abstimmung in mehreren Prüfschritten und einem vollständigen Set an Einzelprüfungen.
Über flächendeckende Abstimmungsprozesse wird den gesetzlich vorgeschriebenen Pflichten zufriedenstellend nachgekommen.


 
 

Regelwerk

Bank Analyzer Toolset

Häufig erfordert ein effizienter Betrieb des SAP Bank Analyzers die Einbettung von individueller Fachlogik. Dies erfolgt häufig in Form von Reports oder Methoden, die auf lange Sicht schwer zu betreiben und zu warten sind und hohe Folgeaufwände bei Releasewechsel verursachen.
Indem kundenindividuelle Kalkulations- oder Validierungsregeln über das Regelwerk des paricon Business Rule Frameworks abgebildet werden, erfolgt die Umsetzung von fachlichen Erweiterungen auf einer einheitlichen Plattform. Zudem kann die Implementierung und der Betrieb der Erweiterungen dank des flexiblen Frameworks schnell und ohne Entwicklerkenntnisse umgesetzt werden.
Um die kundenspezifischen fachlichen Anforderungen rasch und flexibel umzusetzen, wird für das Regelwerk des paricon Bank Analyzer Toolsets vorgefertigtes Customizing ausgeliefert.
Dieser Regelwerk-Content ermöglicht einen integrierten Zugriff auf alle vorhandenen SAP Objekte durch fachliche Standardschnittstellen (BAPIs) und durch Zugriff auf Bank Analyzer-Datenobjekte über SAP Standard Mechanismen.
Zur Integration von kundenspezifischen Regeln wird unter anderem folgende Funktionalität geboten:

  • Vollständigkeitsprüfungen / Mengenabgleich
  • Wertevergleiche
  • Saldenermittlung / Kennzahlenabgleich

Mit dem Regelwerk ist es zudem möglich, zielgruppenspezifische Protokolle zu erstellen, beispielsweise Prüfprotokolle oder Analyseergebnisse. Die Protokollbearbeitung kann in einen integrierten Prozess eingebunden werden.


 
 

Datenkorrektur

Bank Analyzer Toolset

Das paricon Bank Analyzer Tool für die Datenkorrektur ergänzt den Datenverarbeitungsprozess um eine revisionssichere Korrekturfunktion.
In der täglichen Datenverarbeitung kann der Fall auftreten, dass zu verbuchende Daten vom Zielsystem zurückgewiesen werden, da sie Fehler aufweisen.
Wenn das Zielsystem Fehlermeldungen ausgibt, empfiehlt die SAP, die Daten im Quellsystem zu bereinigen und anschließend erneut an das Zielsystem zu verbuchen. Damit soll sichergestellt werden, dass die Daten in beiden Systemen konsistent vorliegen.
In der Praxis möchten viele Benutzer aber von dieser „reinen Lehre“ abweichen. Meist steht dahinter der Wunsch, das Zielsystem zeitnah mit Daten befüllen zu können, ohne auf die erneute Bereitstellung durch das Vorsystem zu warten.
In vielen Fällen ist eine Korrektur und Neuanlieferung über das Quellsystem nicht zwingend erforderlich und gestaltet sich oft als kompliziert und zeitaufwändig. Über das paricon Correction Cockpit können fehlerfreie Daten ohne den Weg über das Vorsystem hergestellt werden können, ohne dass dabei die Revisionssicherheit gefährdet wird.
Mit dem paricon Correction Cockpit vorgenommene Korrekturen werden revisionssicher protokolliert und können anschließend über den paricon Inbound Layer oder den paricon Outbound Layer in die gewünschte Datenschicht verbucht werden.
Wird anstelle des paricon Inbound Layers der SAP Data Load Layer (DLL) für die Beladung des SAP Bank Analyzers verwendet, werden bei Import-Problemen nur die Fehler protokolliert. Die Datensätze, welche die Fehler ausgelöst haben, stehen an anderer Stelle.
Dieses Zusammensuchen der Daten wird von den Benutzern als mühselig empfunden. Sie wollen nicht nur die Fehlermeldungen angezeigt bekommen, sondern auch die zugehörigen Daten an Ort und Stelle bereinigen können. In diesem Szenario empfiehlt sich das paricon Correction Cockpit: Es ergänzt den SAP-Standard Data Load Layer um Korrektur- und Monitoring-Funktionen.


 
 

Die IT großer Unternehmen besteht heute aus einer viel­seitigen Anwendungslandschaft. SAP-Systeme werden oft von zahl­reichen Fremd­sy­stemen anderer Soft­ware-An­bieter er­gänzt. Die ver­schiedenen Sy­steme kommuni­zieren mit­einan­der, in­dem sie Daten aus­tauschen.

Das paricon Integration Framework hilft dabei, diese Daten­flüsse zu steuern und die Daten effi­zient zwischen den Sy­stemen aus­zu­tauschen. Es holt die Daten, welche an den Sy­stem-Schnitt­stellen aus­ge­tauscht wer­den, an die Ober­fläche und unter­stützt den laufen­den Be­trieb durch über­sicht­liches Moni­to­ring.
Durch Paralleli­sierung und flexible Ska­lierung bietet es er­hebliche Lauf­zeit­ver­besserungen und ver­kürzt die Durch­laufzeit von Pro­zessen.
Hauptvorteil des Einsatzes des paricon Integration Frameworks ist die ein­heit­liche Ad­minis­tration aller Schnitt­stellen im Unter­nehmen. Auf­grund seiner flexi­blen Archi­tek­tur kann das Frame­work alle Systeme an­binden. Kunden haben somit eine einzige Inte­grations-Platt­form und nicht für jede Schnitt­stelle unter­schiedliches Coding im Kunden­namens­raum. Die Ent­wicklung redundanter Funk­tionen wird ver­mieden. Die Platt­form bietet ein­heit­liches Moni­toring, Proto­kollierung und Fehler­behandlung für alle Schnitt­stellen.
Zudem ist das paricon Integration Framework hoch flexibel, was nach­trägliche An­passungen oder Er­weiterungen be­trifft. Die Schnitt­stellen­entwicklung wird somit leicht gemacht.

 

Eingangs-Schnittstelle

Integration Framework

Das paricon Integration Framework sorgt durch seine Eingangs-Schnitt­stelle für die An­bindung von vor­gelager­ten Sy­stemen an das SAP-System. Quellen können hier sowohl SAP-, als auch NON-SAP-Sy­steme oder Über­tragungs-Da­teien sein.
Über einen Extract-, Trans­form-, Load- (ETL-) Pro­zess werden die Vor­sy­steme an das Haupt­system an­ge­bun­den.

 
 

Ausgangs-Schnittstelle

Integration Framework

Die Ausgangs-Schnittstelle versorgt nachgelagerte Sy­steme mit selektierten Da­ten aus einem Quell-SAP-System.
Über einen Extract-, Transform-, Load- (ETL-) Prozess werden die Daten in das Ziel­system ge­laden. Eine Trans­formation der Daten erfolgt proto­kolliert und revisions­sicher über das Frame­work. Beispiele für Daten-Transformationen sind das Mapping der Quellstrukturen auf die Ziel­strukturen im Ziel­system, das Aus­filtern be­stimmter Daten­sätze sowie Daten­qualitäts­maßnahmen.


 

Mit den paricon Business Applications für Regulatory Reporting er­höhen Sie Ihren Auto­mati­sierungs­grad bei der Er­mitt­lung von kom­plex­en Fi­nanz­kenn­zahlen.
Durch strukturierte Daten­erfassung und Plausi­bili­täts­prü­fun­gen ver­bessern Sie Ihre Daten­quali­tät. Die Re­visions­sicher­heit im Daten­er­fassungs- und Mel­dungs­er­stellungs­pro­zess wird sicher­ge­stellt.

In der RR-Vorverarbeitung werden die be­nötig­ten Da­ten aus SAP und NON-SAP-Sy­stemen selek­tiert und extra­hiert. An­schließend er­folgt die Kenn­zahl­ermitt­lung durch fi­nanz­mathe­matische Funktio­nen, Daten­aggre­gation und Daten­kon­soli­dier­ung. Als Er­geb­nis des Daten­ver­arbeit­ungs-Pro­zesses wird die ge­for­der­te Mel­dung aus­ge­ge­ben.

 

FinkoSolV-Lösung

Regulatory Reporting

Finanzkonglomerate sind laut BaFin „Un­ter­neh­mens­gruppen, de­ren ein­zel­ne Unter­neh­men Dienst­lei­stun­gen und Pro­duk­te so­wohl im Ver­sicher­ungs­sek­tor als auch im Ban­ken- und Wert­pa­pier­dienst­lei­stungs­sek­tor und da­mit in ver­schie­de­nen Fi­nanz­branchen an­bieten.“ Bei­spiele hier­für sind die DZ Bank Gruppe oder die Wüsten­rot & Württem­berg­ische Gruppe.
Um den steigenden aufsichtsrechtlichen An­for­der­un­gen Rechnung zu tra­gen, muss eine in­ten­sivere Kooperation in den zen­tra­len Be­reichen Ri­siko­manage­ment, Com­pliance und In­terne Re­vi­sion ge­lebt wer­den. Governance­funk­tionen im Fi­nanz­kon­glo­merat for­dern eine ganz­heit­liche Sicht auf die Ri­siken und de­ren Zu­sammen­hän­ge. Wei­tere Themen wie An­ge­messen­heit der Eigen­mittel­aus­stattung des Fi­nanz­konglo­merats und da­zu­ge­hörige Mel­dungen müssen be­rück­sich­tigt wer­den. Die Melde­fähigkeit (FKSolV) ist zeit­nah sicher­zu­stellen.
Bis dato gab es keine auf dem Markt verfüg­bare Stan­dard­soft­ware­lö­sung die zur Er­mitt­lung der Finko-SolV Mel­dung bei­ge­tragen hätte.
Durch den Einsatz der paricon FinkoSolV-Lö­sung spar­te man sich viel Ent­wicklungs­ar­beit zur Nach­bil­dung der Be­rech­nung der zum Teil sehr kom­plexen Rechen­regeln. Es entstand le­dig­lich Customizing-Auf­wand.

Synergie­effekte durch die Ein­bindung von SAP-BW und den dort bereits ver­wal­te­ten Kenn­zahlen
  • Die paricon FinkoSolV-Lösung sieht eine Einbindung von SAP-BW als zentrales Data Warehouse vor
  • Entwicklung einer innovativen Portallösung auf Basis von SAP und Web Dynpro
  • Realisierung eines maschinellen Workflows inkl. Statusverwaltung (inkl. 4-Augen-Prinzip), Plausibilitätsprüfungen
  • Einsatz des paricon Outbound Layers zur Selektierung der notwendigen Basisdaten. Deren Weiterberechnung erfolgt im paricon Business Rule Framework
  • Steuerung des Workflow, Ermittlung und Ausgabe der Einzel- als auch Gesamtmeldebogenpositionen
  • Durch reines Customizing des paricon Business Rule Frameworks erfolgt die Umsetzung aller notwendigen Rechenregeln zur Ermittlung der jeweiligen Meldeposition
  • Anzeige der Ergebnisdaten und Ausgabe der für die BaFin relevanten Meldebögen und der Anlagen
  • Durch den Einsatz des paricon Business Rule Frameworks konnte Daten- und Methodenkonsistenz gewährleistet werden, was für die Zwecke bzw. die Funktionalitäten für Planung und Simulation unabdingbar sind
 
 

Logical Linkage für ABACUS DaVinci

Regulatory Reporting

Die Software ABACUS/DaVinci von Bearing Point ist eine Standard­soft­ware­lö­sung für das na­tio­nale und in­ter­na­tio­nale ban­ken­auf­sichts­recht­liche Mel­de­wesen.
Die Mel­de­soft­ware ist spe­ziell an­ge­passt an die Vor­gaben von Basel III. Sie er­wartet XML-Da­teien und ver­schickt au­to­ma­tisch ent­sprechen­de Be­richte an die Auf­sichts­be­hör­den.
Das paricon Logical Linkage sorgt dafür, dass Ge­schäfts­partner aus dem SAP Bank Ana­lyzer aus­ge­le­sen und an­schließend in die vor­ge­ge­be­ne Do­ku­menten­struk­tur von ABACUS/DaVinci trans­for­miert wer­den. Das paricon Logical Linkage be­fin­det sich im Ver­gleich zu Kon­kurrenz­lö­sungen inner­halb des SAP Bank Ana­lyzers. Die in­ternen und ex­ternen Melde­daten stam­men aus der gleichen Da­ten­ba­sis, wo­durch auf hohen Aufwand für die Ab­stimmung der Mel­de­da­ten verzichtet werden kann.


Mehrwert des paricon Logical Linkage für ABACUS/DaVinci
  • Kein Abstimmungs­bedarf dank voll­ständiger SAP-Inte­gra­tion
  • Konfiguration ohne Ent­wicklungs­auf­wand
  • volle Trans­parenz über das Mapping- und Ver­arbeitungs­regel­werk
  • An­bindung des ABA­CUS IRR-Con­nectors möglich

Bei einer gängigen Kon­kurrenz­lö­sung wer­den die be­nö­tig­ten Mel­de­da­ten aus den Vor­sy­ste­men über eine Middle­ware ex­tra­hiert. In der Middle­ware wer­den die Mel­de­da­ten trans­for­miert und an ABACUS­/Da­Vinci über­ge­ben. Das Haupt­pro­blem bei die­sem Vor­ge­hen ist, dass die Da­ten aus den Vor­sy­ste­men und nicht aus dem SAP Bank Ana­lyzer stam­men. Zu­dem ist hoher Auf­wand nötig, um diese Lö­sung zu imple­men­tieren.
Die Kon­kurrenz­lö­sung hat den Nach­teil, dass die in­ter­nen und ex­ter­nen Mel­de­da­ten nicht aus der gleichen Da­ten­ba­sis ent­stehen: die Schnitt­stelle liegt außer­halb des SAP-Systems. Da­durch müssen Mel­de­da­ten auf­ei­nan­der ab­ge­stimmt wer­den, was einen hohen Zu­satz­auf­wand dar­stellt.


 
 

Datenqualität (DQ) dient nicht nur als Basis für fundierte Geschäftsentscheidungen, sondern trägt auch wesentlich zur Gestaltung effizienter Geschäftsprozesse bei. Insbesondere für die Abwicklung von systemübergreifenden Prozessen spielt die Qualität der Daten eine entscheidende Rolle.
Vor allem analytische und dispositive Systeme sind von der zeitgerechten und fachlich konsistenten Datenversorgung aus Vorsystemen abhängig. Durch ein durchgängiges Datenqualitätsmanagement, beispielsweise anhand von Vollständigkeitsprüfungen und fachlichen Validierungen, verkürzt sich die Prozesslaufzeit und erhöht sich die Ergebnisqualität.
Wir unterstützen Unternehmen bei der Entwicklung ihrer Datenqualitätsstrategie. Dabei achten wir besonders darauf, dass diese sich an den individuellen Anforderungen der Unter­nehmens­organisation, des Geschäftsmodells und der Branche ausrichtet.
Mit der paricon Business App für Data Quality Management bieten wir leistungsfähige Funktionen, um die verschiedenen Phasen des Data Quality Lifecycles mit revisions- und prüfungssicheren Datenqualitäts- und Korrekturmethoden abzudecken.

Analyze: Durch regel­mäßige Kennt­nis­er­lang­ung über kri­ti­sche DQ-Defi­zite wer­den DQ-Schwach­stellen identi­fi­ziert und DQ mess­bar.

Cleanse: DQ-Defizite werden durch revi­sions­sichere Korr­ek­tur- und Da­ten-An­reicher­ungs­funk­tionen be­ho­ben.

Protect: Die Qualität der Da­ten wird auf­recht­er­hal­ten. Dies ge­schieht durch Plausi­bili­sier­ung von Da­ten be­reits bei der Da­ten­ein­ga­be und durch früh­zeit­ige Kon­troll­en an Pro­zess-Schnitt­stel­len.

Govern: Das DQ-Management wird in den Ge­schäfts­pro­zessen ver­an­kert und unter­nehmens­weit be­achtet.

 
 

Analyze

Data Quality Management

Die Analyse-Phase gibt Aufschluss über den Zustand der Datenqualität im Unternehmen. Die Daten­quali­tät wird dabei anhand einzelner Daten­quali­tätspunkte ge­messen und die ge­wonnenen Werte werden zu aussage­kräftigen Kenn­zahlen aggre­giert.
Die Mess­punkte wur­den in der vor­aus­gehen­den Govern-Pha­se von den zu­stän­digen Fach­abteil­un­gen in ihr­en Ge­schäfts­pro­zessen identi­fiziert. Kri­tisch sind in der Re­gel die Über­gabe­punkte zwischen zwei Sy­stemen be­ziehungs­weise Pro­zessen.

Um die Datenqualität zu messen werden im paricon Outbound Layer Extraktoren für die einzelnen Datenbereiche konfiguriert. Zu einem Stichtag wird die so festgelegte Datenextraktion durchgeführt. Anschließend werden mit dem paricon Business Rule Framework Prüfungen auf den extrahieren Daten durchgeführt.


Eine wichtige Prüfung ist die Abstimmung von Daten zwischen zwei Geschäftsbereichen mit Ergebniszahlen, die auf beiden Seiten gleich sein sollten.
Welche Abweichungen noch vertretbar sind und ab welchen Werten ein Eingriff in den Datenbestand notwendig wird, wird in der Govern-Phase festgelegt.
Der Analyse-Prozess kann zu regelmäßigen Zeitpunkten wiederholt werden. Die Entwicklung der Datenqualität wird somit messbar.


Die Auswertungen der Abstimmungsprozesse liefern Erkenntnisse zum Zustand der Datenqualität. Es bietet sich an, diese in einer Bewertungsmatrix zu konsolidieren. Die am häufigsten auftretenden Fehler eines jeden Abstimmungsprozesses werden dort für jeden durchgeführten Lauf gegenübergestellt. Anhand eines Ampelsystems werden die Werte je nach Abweichungs-Status mit den Farben rot, gelb und grün unterlegt.


Durch eine grafische Darstellung der Fehlerquote einer Abstimmungsbereichsprüfung über die durchgeführten einzelnen Validierungsläufe kann die Entwicklung der Datenqualität über einen betrachteten Zeitraum beobachtet werden.
Indem schlechte Datenqualität frühzeitig erkannt wird, werden hohe Aufwände und Zeitverluste durch manuelle Abstimmung und Fehlersuche vermieden.
Im Anschluss an die Analyse-Phase können in der Cleanse-Phase Daten­verbesser­ungs-Maß­nahmen durch­ge­führt werden.

 
 

Cleanse

Data Quality Management

In der Bereinigungs-Phase werden Datenqualitäts-Defizite durch revisionssichere Daten­korrek­tur- und Daten­anreicherungsfunktionen behoben.
Als Data Cleans­ing wird der Pro­zess der Identi­fi­ka­tion und Be­rich­ti­gung von Fehlern und In­konsis­ten­zen ver­stan­den mit dem Ziel, die Quali­tät einer vor­ge­ge­be­nen Da­ten­men­ge zu er­höhen.
Für Datensätze, bei denen in der vorausgehenden Analyse-Phase Datenqualitätsmängel identifiziert wurden, bietet das paricon Correction Cockpit revisions- und prüfungssichere Korrekturfunktionen. Datenanreicherungsfunktionen werden über das paricon Business Rule Framework realisiert.
Das Editieren und Anreichern der Daten kann dabei sowohl manuell als auch automatisiert erfolgen.
Durch das Bereinigen von Daten mit unzureichender Datenqualität werden zusätzliche Kosten durch fehlerhafte Daten, beispielsweise Fehlfunktionen in nachgelagerten Anwendungen durch fehlerhafte oder unvollständige Daten, vermieden.
 
 

Protect

Data Quality Management

Die Protect-Phase widmet sich der Be­wahr­ung der zu­vor her­ge­stell­ten Daten­quali­tät. Ein um­fassen­des und ge­ner­ell an­wend­bares Daten­qualitäts­manage­ment, welches die ge­forder­te Daten­qualität pro­aktiv sicher­stellt, ver­meidet die Ent­stehung von neuen Fehlern.
Nachdem durch Cleanse-Maß­nahmen die Da­ten­quali­tät in einen an­ge­brach­ten Zu­stand ge­ho­ben wur­de, gilt es diese auf­recht zu er­hal­ten. Hier­bei stehen Un­ter­neh­men vor einer großen Heraus­for­der­ung, denn die Da­ten in ERP- und IT-Sy­stemen sind stän­dig in Be­we­gung und bei der Da­ten­an­lage und -pflege sind Hun­derte von Per­sonen be­tei­ligt.
Dieser Herausforderung begegnet paricon mit einer Online-Vali­dier­ung zum Zeit­punkt der Da­ten­ein­gabe. Dies unter­stützt eine hohe Sorg­falt bei der Da­ten­ein­gabe und führt zu nach­haltig hoher Da­ten­quali­tät. Be­sonders bei wett­bewerbs­rele­vanten An­wen­dungen.
Daneben finden frühzeitige Kontrollen und feste Prü­fungen der Da­ten­quali­tät an den Schnitt­stellen zwischen An­wen­dungen und Pro­zessen statt. Er­möglicht wird beides durch das paricon Business Rule Framework
 
 

Govern

Data Quality Management

In der Govern-Phase wird das Daten­quali­täts-Mana­ge­ment in den Ge­schäfts­pro­zessen ver­an­kert und da­für Sor­ge ge­tra­gen, dass es un­ter­nehmens­weit be­achtet wird.
Alle Datenqualitäts­maß­nahmen müs­sen nach­hal­tig im Unter­nehmen eta­bliert wer­den. Dies ist die Auf­gabe von Data Gover­nance, wo­runter die Orga­ni­sa­tion der Da­ten­quali­tät im Rah­men eines ganz­heit­lichen, un­ter­nehmens­wei­ten Führ­ungs­sy­stems ver­stan­den wird.

Govern

Die Erfüllung des Govern-Punktes im DQ-Life­cycle ist nicht mit Hilfe von Techno­logie mög­lich, son­dern dem fach­lichen Be­reich zu­zu­ord­nen. Wenn bei­spiels­weise zwei unter­schied­liche Ab­teilungen für ein Sy­stem ver­ant­wort­lich sind, müssen sie sich auf einen ein­heit­lichen Pflege­prozess einigen.
Die Fachbereiche arbeiten zudem zusammen, um ihre Geschäfts­pro­zesse hin­sichtlich der im Kon­text des Unter­nehmens ge­forder­ten Da­ten­quali­täts­kri­terien zu un­ter­suchen. Es wer­den – aus­gehend von einer Ur­sachen­ana­lyse mög­licher Da­ten­quali­täts­mängel – Prü­fun­gen und Ver­besser­un­gen dar­ge­stellt. An dieser Identi­fi­zier­ung von Mess­punkten in den Ge­schäfts­pro­zessen kann die Analyse-Phase an­knüpfen. Somit schließt sich der DQ-Life­cycle.
 
 

In der in der SAP-Welt üblichen 3-System-Landschaft mit Entwicklungs-, Test- und Produktiv­system ist der Aufbau und Betrieb eines hoch­wertigen Test­systems von ent­scheidender Bedeutung für reibungslos laufende Geschäftsprozesse. Doch gerade im SAP-Bereich ist der Aufbau von sicheren und brauchbaren Testsystemen eine große Herausforderung.
Mit den paricon Business Apps für die Testdaten-Bereitstellung und die Test­daten-Ano­nymisierung liefern wir Lösungen für diese Probleme.

 
 

Testdaten-Bereitstellung

Testdata Management

Beim Aufbau von Testsystemen durch Systemkopien muss die Bereitstellung der Testumgebung termingerecht und mit fachlich konsistenten Daten erfolgen. Dies wird in der Regel durch parallel laufende Projekte mit zeitlich versetzten Testphasen und Datenanforderungen erschwert.
Eine Systemkopie ist sehr zeitintensiv und mit wachsenden Produktivsystemen steigt auch die Größe der Testsysteme. Zudem müssen nach jeder Kopie die Systemeinstellungen angepasst werden.
Testprozesse mit negativem Testergebnis durch Fehlerprovokation führen in der Regel sehr schnell dazu, dass das System für weiterführende Tests unbrauchbar wird. Umso raffinierter ein Testsystem mit Daten befüllt wurde, desto höher ist auch der Aufwand für die Wiederherstellung. Testszenarios werden aber schnell benötigt um den Projektfortschritt nicht zu verschleppen und Wartezeiten für die Projektmitarbeiter zu vermeiden.
Die paricon Testdaten-Bereitstellung extrahiert fachlich zusammengehörige Daten aus einem oder mehreren Produktivsystemen und beliefert Entwicklungs-, Test-, Qualitätssicherungs- und Trainingssysteme mit fachlich konsistenten Testdaten-Sets – und zwar mit der Möglichkeit zur Reproduktion von Testdaten oder eines Delta-Abzugs vom Produktivsystem. Ein weiterer Vorteil der zeitgerechten und konsistenten Datenbereitstellung ist in vielen Fällen eine deutliche Reduzierung des Datenvolumens und damit der Storage-Anforderungen an die Testmaschine.

Testdaten-Bereitstellung

Testdata Management

Die Extraktionseinstellungen werden gespeichert und können jederzeit wieder ausgeführt werden. Die Datenbereitstellung wird somit beliebig wiederholbar.
Über Customizing sind die Datenselektionskriterien je nach Testszenario flexibel änderbar. Es können definierte Standard-Selektionsszenarien erstellt werden:

  • Nur Stammdaten inkl. Nummernkreise und -stände
  • Ausgewählte Bewegungsdaten mit abhängigen Stammdaten
  • Komplette Geschäftsprozesse / Testfälle

Die paricon Business App für die Testdaten-Bereitstellung sorgt für einen effizienten Aufbau nichtproduktiver Systeme und schnelle, einfache Datenaktualisierung. Sie ermöglicht dadurch effektives Testen von Neuentwicklungen und die Fehleranalyse mit aktuellen Geschäftsdaten.
Durch seine automatischen Prozesse reduziert die paricon Testdaten-Bereitstellung Kosten und Administrationsaufwand für nichtproduktive Systeme.
 
 

Testdaten-Anonymisierung

Testdata Management

In der SAP-Welt üblichen 3-System-Landschaft mit Entwicklungs-, Test- und Produktivsystem stehen Administratoren beim Befüllen des Testsystems mit Daten vor einem Dilemma: auf der einen Seite soll das Testsystem echte Daten enthalten, um realistische Tests zu ermöglichen – auf der anderen Seite sollen keine echten Daten im Testsystem sein, da auf dieses oftmals fachfremde Benutzer zugreifen, welche nicht berechtigt sind, die Daten zu sehen.


Testdaten-Anonymisierung

Testdata Management

Ein Testsystem ist anfällig für zahlreiche Schwachstellen. Viele verschiedene Benutzergruppen haben Zugriff auf die Daten. Die Rechtevergabe ist bei weitem weniger restriktiv als bei produktiven Systemen. Laut einer aktuellen Studie geben 20 Prozent der Unternehmen ihre Kundendaten für Tests ungeschützt an externe Dienstleister weiter.
Gleichzeitig steigt die Notwendigkeit zur Anonymisierung von Produktivdaten.
Revisionsvorgaben und gesetzliche Auflagen werden laufend strenger.

  • Höhere Bedeutung von personenbezogene Daten als Wirtschaftsgut
  • Vermehrter Datendiebstahl von personenbezogenen Daten
  • Zunehmendes mediales Interesse an entsprechenden Vorfällen mit entsprechendem Imageverlust
  • Sicherung der personenbezogenen Daten als neues Fokusthema der IT-Revision und Aufsichtsbehörden / Testfälle
  • Gesetzliche Regelung auf Grundlage des Bundesdatenschutzgesetzes (BDSG)

Mit der paricon Business Application für die Testdaten-Anonymisierung werden sensible Daten gemäß Bundesdatenschutzgesetz anonymisiert. Personenbezogene Daten können so verschlüsselt werden, dass keine Rückschlüsse auf die reale Person mehr gezogen werden können. Ihr fachlicher Zusammenhang bleibt jedoch erhalten. Somit sind realistische Tests möglich – ohne die Vertraulichkeit der Daten zu gefährden.

Testdaten-Anonymisierung

Testdata Management

Mit Hilfe der paricon Testdaten-Anonymisierung können Daten aus jeder beliebigen SAP-Systemkomponente extrahiert werden und nach der Anonymisierung in jede beliebige SAP-Systemkomponente – oder einfach zurück – geladen werden. Die Anonymisierung erfolgt mit dem paricon Business Rule Framework. Dort sind 6 fertige Anonymisierungsregeln hinterlegt:


 

Kontaktieren Sie uns!

Top