Schön, dass Sie sich für unseren
Blog interessieren!

Bleiben Sie immer auf dem Laufenden
und abonnieren Sie den Blog-Newsletter

Import of GeoJSON into Oracle Spatial - no problem with PowerShell
Andreas Jordan
Data Management
The GeoJSON format (https://de.wikipedia.org/wiki/GeoJSON) is a popular exchange format because it is supported by many applications. In addition, the JSON structure makes it easy to read for both humans and machines.With the help of the procedure "sdo_util.from_geojson" provided by Oracle Spatial the format can be converted very easily into the da...
Weiterlesen
PowerShell und Oracle - ein gutes Team
Andreas Jordan
Data Management
Ich nutze fast täglich PowerShell zum Zugriff auf Daten in Oracle-Datenbanken. Warum gerade in dieser Kombination will ich anhand von einem Beispiel vorstellen. Vorab wird es aber auch ein paar Worte zur verwendeten Technik geben.  Warum PowerShell?  Ganz einfach: Weil es da ist. Ganz ohne die Installation von zusätzlichen Komponenten ist...
Weiterlesen
PowerShell and Oracle – a good team
Andreas Jordan
Data Management
I use PowerShell almost daily to access data in Oracle databases. Why, especially in this combination, I want to present by means of an example. But first there will be a few words about the used technology.  Why PowerShell?  Quite simply: Because it's there. Completely without the installation of additional components, PowerShell is pres...
Weiterlesen
Exasol-Datenbank – Backup & Restore
Paula Blankenheim
Data Management
Seit mehr als 20 Jahren ist die Analytics Database Exasol bereits auf dem Markt. Mit ihrer In-Memory- und massiv parallelen Verarbeitung (MPP) wird die relationale Datenbank als schnellste Analytics Database der Welt beworben. In diesem Blogartikel wird erläutert, wie ein Backup der Datenbank erstellt und die Datenbank wiederhergestellt werden kann...
Weiterlesen
Kafka Streams – mehr als nur Producer und Consumer
Muriel Djanko Kamdoum
Data Management
Bietet Kafka mehr als nur die Producer und Consumer API? Als Event-Streaming-Plattform wird Kafka von Anwendungen dafür genutzt, Events entkoppelt zu schreiben, zu persistieren und abzurufen. Im Zeitalter der allgegenwärtigen Datenströme (Ubiquitous Computing) bietet Kafka ein Mittel, effizient, robust und hochverfügbar große Datenvolumen zu speich...
Weiterlesen
Harnessing the power of Kafka
Muriel Djanko Kamdoum
Data Management
Is there more to Kafka than the usual producer and consumer APIs? Kafka, the event streaming platform, is usually known for its producer and consumer APIs allowing applications to write, store and retrieve events from the platform in a decoupled way. In the age of ubiquity of compute resource and huge volume of data being generated, it offers the p...
Weiterlesen