Die Nutzung von externen Authentifizierungsdiensten wie z. B. LDAP ist ein bewährtes und gängiges Verfahren in der Praxis. Dadurch kann der Login-Prozess nach außen verlagert werden und die Verwaltung der entsprechenden Nutzerdaten (z. B. Passwörter) kann damit zentralisiert und für alle Beteiligten optimiert werden. Wie dies im Zusammenhang mit Ap...
Bietet Kafka mehr als nur die Producer und Consumer API? Als Event-Streaming-Plattform wird Kafka von Anwendungen dafür genutzt, Events entkoppelt zu schreiben, zu persistieren und abzurufen. Im Zeitalter der allgegenwärtigen Datenströme (Ubiquitous Computing) bietet Kafka ein Mittel, effizient, robust und hochverfügbar große Datenvolumen zu speich...
Is there more to Kafka than the usual producer and consumer APIs? Kafka, the event streaming platform, is usually known for its producer and consumer APIs allowing applications to write, store and retrieve events from the platform in a decoupled way. In the age of ubiquity of compute resource and huge volume of data being generated, it offers the p...
Eine der wichtigsten Aufgaben eines Datenbank-Administrators (DBA) ist die Überwachung der Datenbanken im laufenden Betrieb. Die neue Version der Open-Source-NoSQL-Datenbank Apache Cassandra liefert dafür sehr hilfreiche Auditing Tools. Dieser Blog-Beitrag gibt einen Überblick über die wichtigsten Neuerungen. What's new? Zu den wichtigs...
Exasol ist eine relationale Datenbank, die für schnelle Datenanalysen optimiert ist. Durch die In-Memory-Verarbeitung ist die Exasol-Datenbank hochperformant und wird als schnellste Analytics Database der Welt beworben. In den TPC-H-Benchmarks erreicht die Exasol-Datenbank seit Jahren Platz 1. Daher lohnt es sich, eine Datenmigration nach Exas...
Während meines Studiums der Betriebswirtschaftslehre, entdeckte ich mein Interesse an Datenwissenschaften und entschied mich in diesem Themengebiet professionell tätig zu werden. Obwohl ich die Möglichkeit hatte, mehrere relevante Kurse zu belegen, fehlten mir dennoch teils grundlegende Kenntnisse für den Einstieg als Big Data Engineer. Nach meinem...