3 Minuten Lesezeit (683 Worte)

GraphQL API zur kontinuierlichen Qualitätsanalyse von Datenverarbeitungsprozessen

Dieser Artikel stellt die GraphQL API zur kontinuierlichen Qualitätsanalyse von ETL-Jobs von IBM DataStage vor. Die API ist mit dem Framework Spring Boot umgesetzt.

WAS IST GRAPHQL?

GraphQL ist eine Abfragesprache für eine API mit einer serverseitigen Laufzeitumgebung zur Ausführung von Abfragen. Es wird das Prinzip verfolgt, dass der Client das Format der Daten und damit den Umfang dynamisch zur Laufzeit bestimmt, und nicht jeweils spezifische Endpunkte entwickelt werden müssen.[1]

In diesem Anwendungsfall kann der Client zum Beispiel entscheiden, welche Infos er zu einem ETL-Job benötigt. Reicht der Name der Verarbeitung, oder ist relevant, wann die letzte Änderung gemacht wurde und vom wem? Mit GraphQL kann derselbe Endpunkt für beide Anwendungsfälle maßgeschneiderte Antworten liefern, ohne Over- oder Underfetching.

VORGEHEN ZUR JOB VALIDIERUNG  

Für die Validierung muss zunächst ein Export zur Verfügung stehen, also ein konstantes Abbild der Datenverarbeitungsprozesse, die validiert werden sollen. Dieses wird im ersten Schritt an die API gesendet. Als Response erhält der Client eine UUID zur Identifikation des Validierungsauftrags. Der Server beginnt nun, den ETL-Prozess zu valideren.

Im zweiten Schritt kann der Client den Status bzw. das Ergebnis der Qualitätsanalyse abfragen. Er erhält in jedem Fall die Information, wie viele Jobs im Export enthalten waren, und wie viele von diesen bereits annalysiert sind. Falls die Validierung noch nicht abgeschlossen ist, kann der Client bereits die Ergebnisse von bereits validierten Jobs abrufen. Andernfalls stehen ihm bereits alle Resultate zur Verfügung.

DAS VALIDEREN EINES DATASTAGE EXPORTS

Betrachten wir die Schnittstelle zum Hochladen eines IBM DataStage Exports: In der folgenden Abbildung ist dargestellt, wie die GraphQL API aufgerufen werden muss, um ein ISX File hochzuladen. Beim Response der API ist die UUID von besonderem Interesse, mit der die Ergebnisse im nachgelagerten Schritt abgefragt werden können.

Im Folgenden wird dargestellt, wie die eigentliche Verarbeitung innerhalb des Servers aufgebaut ist.

Hierbei werden folgende Schritte durchlaufen:

  1. ZIP File entpacken
    Bei dem ISX File handelt es sich um ein ZIP Archive, welches die eigentlichen Daten beinhaltet. Diese werden im ersten Schritt extrahiert.
  2. Enthaltene Objekte lesen und analysieren
    Um die Prüfungen auf die Struktur anwenden zu können, werden zunächst die Daten aufbereitet, sodass die Prüfungen nacheinander auf diese angewendet werden können. Das ermöglicht die Durchführung der Analyse auf einer Abstraktionsebene.
    1. XML-Datei einlesen
    2. XML-Elemente auf Java Datentransferobjekt (DTO) übertragen
    3. Alle Prüfungen auf Datentransferobjekt durchführen

Die Konvertierung von XML-Elementen in die korrespondierenden DTOs in Java werden durch ein Mapping von JPA zu XML durchgeführt. Die eigentlichen Prüfungen müssen in einer dafür vorgesehenen Datenstruktur definiert werden. Diese werden in eine Datenbank gemappt, damit die Prüfungen dynamisch spezifiziert und hinzugefügt werden können. Beim Validieren werden hierarchisch die zu validierenden Objekte durchgegangen. Entsprechend werden existierende Prüfungen abhängig von der Objektart und Objekttiefe angewendet.[2]

Es gibt mehrere Arten von Prüfungen, wobei verschiedene Fehlerlevel zurückgegeben werden können. Diese können über die API nach Bedarf hinzugefügt werden.

DIE ERGEBNISSE DER POLICE-ÜBERPRÜFUNG 

Das Ergebnis der Police-Überprüfung kann über eine angebotene Schnittstelle abgerufen und grafisch dargestellt werden. Hierbei ist eine Anpassung auf die jeweiligen Anforderungen sinnvoll: Welche Ziele verfolge ich mit diesem Ansatz? Welche Kultur herrscht im Unternehmen oder im Projekt? Wie sind bisherige Abläufe und wo können die zusätzlichen Informationen den meisten Wert liefern? Die Abbildung zeigt, welche Informationen in einer Übersicht dargestellt werden können. In dieser sehen wir zunächst eine Übersicht mit der Anzahl der Fehler, unterteilt nach der Schwere der Fehler. Folgend sind pro Stage/Transformation die spezifischen Fehler dargestellt. Zusätzlich ist noch aufgeführt, wer wann an der jeweiligen Stage die letzte Änderung vorgenommen hat

HINZUFÜGEN VON POLICES

Die Validierungsprüfungen und Policies sind abhängig von Vorgaben des jeweiligen Projektes und internen Guidelines. Daher können Policies zur Laufzeit über die API hinzugefügt werden. Diese werden in einer Datenbank hinterlegt und auf die ETL-Prozesse angewendet

In der folgenden Abbildung wird gezeigt, wie die oben dargestellte Police-Überprüfung hinzugefügt werden kann. In diesem Beispiel handelt es sich um einen Parameter, der überprüft werden soll.

{loadmoduleid 179}
hat noch keine Informationen über sich angegeben
 

Kommentare

Derzeit gibt es keine Kommentare. Schreibe den ersten Kommentar!
Freitag, 22. November 2024

Sicherheitscode (Captcha)

×
Informiert bleiben!

Bei Updates im Blog, informieren wir per E-Mail.

Weitere Artikel in der Kategorie