Von Ralf Keuper
Snowflake und Databricks stehen für einen Paradigmenwechsel in der Analyse großer Datenmengen. Mit ihren cloudbasierten Data-Lake-Systemen besteht für die Unternehmen keine Notwendigkeit, Hardware zu kaufen und zu verwalten. Während Snowflake nur in der Cloud verfügbar ist, bietet Databricks einen hybriden, Open-Source-basierten Data Lake 2.0-Ansatz für den Einsatz vor Ort und in der Cloud. Beide Anbieter wollen der One-Stop-Shop für die Verwaltung aller Daten für jeden Anwendungsfall werden[1]Snowflake vs Databricks: Where Should You Put Your Data?.
Vor einigen Monaten stellte Databricks seine ML-Plattform vor, die es Data Engineers, Data Scientists und Product Ownern ermöglicht, gemeinsam an ML-Projekten zu arbeiten[2]Machine Learning: Databricks setzt eine ML-Plattform auf den Data Lake. In etwa zur selben Zeit lancierte Databricks das offene Protokoll Delta Sharing für den unternehmensübergreifenden Datenaustausch[3]Delta Sharing: Offenes Protokoll für den unternehmensübergreifenden Datenaustausch. Delta Sharing soll einen offenen Protokollstandard setzen, der u.a. den Austausch von Echtzeitdaten ermöglicht – und das unabhängig von den zugrunde liegenden Speicher- und Rechnerplattformen. Vor wenigen Wochen konnte Databricks ein Finanzierungsrunde über 1,6 Mrd. Dollar abschließen(( References