Von Dominik Schaefer auf Dienstag, 15. Juni 2021
Kategorie: Data Management

Aufbau einer Log-Analytics-Infrastruktur für Oracle WebLogic

WebLogic Logging Exporter

Der Logging Exporter ermöglicht es, Logmeldungen vom WebLogic Server visuell in der Open-Source-Analyseplattform Kibana im Zusammenspiel mit Elasticsearch darzustellen. Somit werden dem Nutzer diverse Möglichkeiten wie vereinfachte Analysen oder Visualisierungen der Logs ermöglicht.

Installation und Starten von WebLogic Logging Exporter

Der Logging Exporter wird mittels eines Java-Archivs zur Verfügung gestellt. Die Datei weblogic-logging-exporter-1.0.0.jar kann hier heruntergeladen werden.
Um die Konfigurationsdatei WebLogicLoggingExporter.yaml zu parsen, wird ein weiteres Java-Archiv benötigt. Die snakeyaml-1.xx.jar -Datei ist hier herunterzuladen.
Die Dateien werden anschließend in das entsprechende Domain-Verzeichnis verschoben:

Jetzt wird der Server gestartet:

Die Administrationskonsole wird über den Webbrowser aufgerufen: http://localhost:7001/console
In der Administrationskonsole wird die Startup-Klasse gesetzt: Domainstruktur → Umgebung → Startup- und Shutdown-Klassen → Zusammenfassung der Startup- und Shutdown-Klassen → Neu → Startup-Klasse → Weiter → Name: "" Klassenname: "weblogic.logging.exporter.Startup" → Server auswählen → Fertigstellen

Die config.xml-Datei benötigt einen solchen Eintrag:

Um den Klassenpfad zu setzen, werden die letzten Zeilen der Datei entsprechend ergänzt:

An dieser Stelle wird die Konfigurationsdatei erstellt:

Die Konfigurationsdatei benötigt entsprechenden Code, der dieser Webseite entnommen werden kann:

Optionale Anpassungen sind möglich.

Um den Logging Exporter in vollem Umfang benutzen zu können, werden Elasticsearch und Kibana benötigt, siehe dazu die folgenden Abschnitte Installation und Starten von Kibana sowie Installation und Starten von Elasticsearch. Der WebLogic Server erfordert anschließend einen Neustart, um die Logging-Daten nach der Installation sowie dem Start von Elasticsearch und Kibana entsprechend verarbeiten zu können.

Kibana

Die Analyseplattform ermöglicht eine visuelle Darstellung der Elasticsearch Daten über die Web-Oberfläche. Der Abschnitt Anwendungen Logging Exporter zeigt Beispiele einer solchen Darstellung. Abgesehen von der benutzerfreundlichen Bedienung liegt der große Vorteil bei Kibana darin, die bisher geloggten Informationen nach eigenen Wünschen zu strukturieren und anzeigen zu können. Dies ist sowohl im Textformat als auch in diversen Grafiken möglich.

Installation und Starten von Kibana

Zu Beginn wird das Kibana Repository erstellt:

Das Repository wird anschließend ergänzt:

Im Anschluss wird die Installation durchgeführt:

Der Service lässt sich mit folgenden Kommandos starten oder stoppen:

Der Aufruf der grafischen Weboberfläche erfolgt mittels eines Browsers unter der URL http://localhost:5601.

Elasticsearch

Die REST-API des Elasticsearch ermöglicht die Bereitstellung der Logging Daten des WebLogic Servers für Kibana. Somit ist in diesem Anwendungsfall die Hauptaufgabe des Elasticsearch Services, die Logging Daten zu speichern und zu verarbeiten, um sie anschließend visuell und strukturiert mithilfe einer Analyseplattform wiedergeben zu können.

Installation und Starten von Elasticsearch

Zu Beginn wird das Elasticsearch Repository erstellt:

Das Repository wird anschließend ergänzt: 

Im Anschluss wird die Installation durchgeführt:

Der Service lässt sich mit folgenden Kommandos starten oder stoppen:

Der Aufruf der Weboberfläche erfolgt mittels eines Browsers unter der URL http://localhost:9200.

Anwendung Logging Exporter

Beim Starten des Servers sollte eine ähnliche Meldung auf der Konsole ausgegeben werden. Diese Meldung signalisiert den erfolgreichen Start des Logging Exporters:

Index Pattern werden von Kibana benötigt, um auf die entsprechenden Elasticsearch Daten zu zugreifen. Somit ist eine Selektierung der Daten nach diversen Eigenschaften möglich.

Über http://localhost:5601/ wird ein Index Pattern in Kibana erstellt, mit dem aufgeklappten Menü über Kibana → Discover → Create index pattern → Index pattern name: wls → Next step → Create index pattern.
Eine Betrachtung der Logs ist über Kibana → Discover möglich.

Um zu verstehen woher die Logmeldungen kommen, müssen die zuvor nach dem Serverstart ausgegebenen "<LoggingService>"-Meldungen auf der Konsole betrachtet werden:

Ein Auszug einer solchen Logdatei:

Die Logging-Übersicht von Kibana über die Weboberfläche ist in der folgenden Abbildung zu sehen:

  1. Die angezeigten Tags ermöglichen es, die Logs nach spezifischen Inhalten zu filtern
  2. Die Logs werden in aufklappbaren Elementen dargestellt
  3. Die einzelnen Spalten können aufgeklappt werden, um eine tabellarische Übersicht der Informationen zu bekommen. Die Anzeige der Logs im JSON-Format ist ebenfalls möglich

Kibana bietet jedoch nicht nur eine übersichtliche Veranschaulichung der Logdateien, sondern auch eine visuelle/tabellarische Darstellung.

Mit dem aufgeklappten Menü über Kibana → Visualize → Create new Visualization ist die Erstellung einer solchen Veranschaulichung möglich

Visualisierungsmöglichkeiten

Ein Beispiel einer wie zuvor genannten visuellen Darstellung mittels Kibana:
In der Veranschaulichung werden drei Managed Server auf die Häufigkeit ihres Serverstarts hin analysiert. Hierbei wird ein Säulendiagramm erstellt. Dies setzt sich aus den mit Schlüsselworten gefilterten Logmeldungen zusammen. Somit ist ein visuelles sowie spezifisches Monitoring möglich.

Fazit

Mittels Integration von Kibana, Elasticsearch und dem Logging Exporter sind Administratoren in der Lage, die Logs von relevanten Systemprozessen spezifiziert und strukturiert zu analysieren und zu überwachen. Des Weiteren können die zuvor erwähnten Logdaten in Form von Grafiken und Tabellen visualisiert werden.

Der im Artikel beschriebene Vorteil bezogen auf die Analyse der Logdaten in Verbindung mit der schnellen und einfachen Konfiguration der einzelnen Komponenten sind starke Argumente, die für den Aufbau einer solchen Infrastruktur sprechen. Dieser Vorteil wird besonders bei einer Vielzahl von zu überwachenden Ressourcen sichtbar, da dem Administrator sämtliche relevanten Informationen und Ereignisse an einer zentralen Stelle angezeigt werden.

Kommentare hinterlassen